首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 15 毫秒
1.
每幅数字图像的背景噪声可看作具有"弹道"特性,多幅图像内容拼接后不同区域噪声会存在差异.利用这一特点,本文提出了一种基于二次加噪相关性的拼接图像盲检测方法.首先对拼接图像进行二次加噪,其次估计二次加噪前后对应子块的相关系数,然后依据所选阈值的大小对相关系数进行分类,最后根据不同分类定位出拼接区域.本文算法不需要预先知道噪声数据库和原始图像的信息,具有较强的实用性.实验结果表明,本文算法能有效鉴别具有不同背景噪声的拼接图像.与文献算法相比,本文算法不仅提高了检测正确率,而且降低了计算复杂度.  相似文献   

2.
为了增强隐写嵌入点与JPEG图像纹理的自适应性,利用与DCT块对应的像素块的灰度共生矩阵来计算分块的纹理复杂程度,并结合均匀嵌入的思想,设计了相应的失真代价函数,使用STCs(syndrome trellis codes)编码将嵌入修改均匀分布到绝对值不同的非零DCT系数上.实验结果表明,该算法具有较好的图像保真以及很高的安全性.在嵌入率相对较低的情况下,算法的安全性优于同类隐写算法.  相似文献   

3.
在图像压缩感知重构中,针对重构效果和耗时不兼得的问题进行深入研究.基于离散余弦基稀疏表示,选用随机高斯矩阵进行观测采样,针对基追踪(BP)重构算法精度相对较高同时计算复杂度也高的特点,结合图像分块可以提高运算速度和精度这一优点,提出一种基于分块图像的基追踪(BP)重构算法,并与常用的正交匹配追踪OMP算法、BP算法、COSAMP算法、基于分块图像的压缩采样匹配追踪(COSAMP)算法、基于过完备字典(KSVD)的OMP重构算法和基于过完备字典(KSVD)的BP重构算法进行对比;借助MATLAB进行仿真实验,得到不同采样率下的重构图像以及重构图像的峰值信噪比和运行时间.实验结果表明:基于分块图像的基追踪(BP)重构算法不但峰值信噪比(PSNR)比普通算法高出1~10d B不等,而且运行时间比较短,所以本文所提算法兼顾了重构精度和运算效率.另外,对本文所提算法分块大小、稀疏度设置多大为最优这两个问题进行大量重复实验,最后确定分块大小为8*8、稀疏度设置为图像矩阵(N*N)原维度N的0.2~0.4倍时为最优.  相似文献   

4.
针对显微图像灰度对比度低,内容复杂度高的特点,提出一种基于小波的显微图像融合算法.将图像变换到小波域,并在此基础上进行四叉树分解融合,以消除块效应,不同于现有的小波几何分块算法,可依据图像实际情况调整,符合显微图像结构多样化、内容多变化的实际情况.实验结果表明,本文算法的融合效果理想,与同类算法相比具有更强的稳定性和适用性.  相似文献   

5.
为解决当前图像匹配算法忽略了相邻图像层次间灰度量级的差异性导致的较多的误检与漏检现象,使其匹配精度不高的问题,本文设计了基于差分制约模型与三角网优化的图像匹配技术.首先,利用差分高斯函数来构造差分制约方法,对相邻图像层次间的灰度量级进行一致性约束,准确提取图像特征点;然后,通过计算圆形邻域内的Haar小波响应值,确定特征点的主方向;再计算圆形邻域内的梯度与灰度特征,得到相应的特征向量;利用主方向与特征向量来生成实现特征点描述符.利用特征点描述符求取特征点之间欧氏距离的最近邻与次近邻比值,对图像特征完成初步匹配;最后,通过初匹配之间的空间关系构建三角网约束规则,对错误匹配特征点进行剔除,对匹配结果进行优化.实验结果表明:与当前图像匹配算法相比,所提算法具有更高的匹配正确度与鲁棒性.  相似文献   

6.
当前图像伪造检测方法主要依靠近邻比值法来实现图像内容的真伪决策,由于近邻比值法的判断条件单一,该类算法的检测精度不佳.因此,本文提出了旋转灰度特征耦合位移约束的图像伪造检测算法.首先,根据图像像素点,构造十字约束法则,对FAST算法予以改进,以提取待检测图像中的特征点;然后,利用像素点的梯度特征形成直方图,通过直方图峰值获取特征点的主方向;再用特征点的灰度值来构造旋转灰度特征模型,用于获取特征向量,生成特征描述子;用特征点的位置以及角度特征,构造了位移约束规则,并且在位移约束规则下,通过归一化互相关函数对特征点的相似性进行度量,完成特征点匹配.最后,引入均值漂移模型,对图像中的伪造内容完成区域定位,实现图像的伪造检测.实验结果表明:与当前图像伪造检测算法相比,本文算法不仅具有更高的检测精度以及检测效率,而且还具有更好地鲁棒性能.  相似文献   

7.
针对拼接图像的灰度失真、噪声等问题,引入信息熵概念,并根据图像局部熵建立塔形数据结构。在VC6.0环境下编程实现了相应的拼接算法。实验表明,该算法很好地体现了由低分辨率到高分辨率逐级精确匹配的搜索策略,速度快、拼接效果好,具有较强的抗噪及抗灰度失真能力。  相似文献   

8.
提出利用四叉树自适应图像划分、源块池柔性分类并结合人类视觉特性的高速分形图像编码算法.与其它同类算法相比,该算法在编码速度、压缩比和图像质量等方面均有显著提高.  相似文献   

9.
针对现有的多数图像篡改检测算法中存在着的对旋转、缩放等篡改失效和计算量大等问题,利用三角形具有抗平移、旋转、尺度缩放的优越特性,提出了一种新的图像篡改检测算法.首先,利用Delaunay三角剖分算法对提取的Harris特征角点进行三角剖分,进行相似三角形的初始匹配.然后,以匹配的相似三角形顶点为种子点,建立三角形组,再进行一次相似三角形的匹配,实现对篡改区域的三角形生长.最后,利用区域面积阈值和数学形态学准确定位出篡改区域.实验结果表明,该算法与同类算法相比不仅能有效地对抗旋转、缩放,噪声等后期处理操作,而且对篡改区域有很好的检测和定位效果并具有计算复杂度低的特点.  相似文献   

10.
当前图像修复算法主要通过对像素值的差异进行度量来完成图像修复,当待修复图像中破损区域较大时,该方法修复的图像中会出现较为明显的块效应以及纹理不连续效应,导致算法的修复效果不佳.对此,本文提出了基于置信特征耦合结构相似度约束的图像修复算法.引入优先权函数,对破损区域中待修复像素的优先权值进行计算,以确定待修复像素.利用待修复像素的梯度模值来构造梯度变化约束机制,对修复块的模板大小进行调整,以提高图像的修复质量.通过像素点的置信度构造置信特征因子,并利用置信特征因子建立了搜索空间适配法则,明确了最优匹配块的搜索范围.引入结构相似度模型,对修复块与匹配块之间的结构相似度进行约束,以选取最优匹配块,利用最优匹配块对修复块进行扩散填充,从而完成图像的修复.仿真实验表明:与当前图像修复技术相比,本文方法具有更好的图像复原质量,有效降低了块效应以及不连续效应.  相似文献   

11.
为了进一步提高图像拼接篡改检测的准确率,本文通过对图像拼接技术进行分析,提出一种基于纹理描述的图像拼接篡改检测方法.该方法将局部二值模式(LBP)和共生矩阵两种现有技术相结合,在残差图像的基础上利用改进的LBP技术对图像纹理进行描述,然后借助两类共生矩阵获取不同的图像特征,通过对这些特征向量的组合来提高检测精度.提取特征后利用支持向量机(SVM)或集成分类器进行分类预测.实验结果表明,所提出的方法在IEEE IFS-TC图像取证竞赛库和中国科学院彩色图像库分别达到了0.911和0.938的最高检测准确率.  相似文献   

12.
研究了移动机器人同时定位与地图创建(SLAM)精确稀疏扩展信息滤波(ESEIF)的地图优化算法,即利用信息熵度量变量不确定性的特性来对地图特征点进行分类,选择不同类型的特征点处理ESEIF的不同更新过程,同时优化活动地图,使SLAM更新在恒定时间内实现,且提高了机器人和地图的估计精度.仿真实验证明:在特征点多的大环境下,特征点优化后的算法实时性强,估计精确度更高.  相似文献   

13.
距离计算在计算机辅助几何设计与图形学领域有着广泛的应用.为了有效计算点到代数曲线的最短距离,提出了一种基于区间算术和区域细分的细分算法.利用四叉树数据结构对给定区域进行细分,用区间算术计算细分后所有像素点到给定点的距离区间,得到最小距离区间.该方法的优势在于在得到任意精度的点到代数曲线最短距离的同时,亦得到了该结果的最大误差限.为进一步提高速度,还对算法进行了改进.  相似文献   

14.
针对目前在线图像迅速增长的现状,为了实现高效的图像拷贝检测算法,本文提出了一种基于数据感知的哈希方法.该感知哈希算法首先根据特征数据的局部结构将重建误差和映射误差结合起来,构建了一个综合优化的目标函数,通过迹优化对该目标函数进行求解,获得一个初始优化解.为了进一步优化这个目标函数,通过迭代局部搜索来进行优化求解,从而达到进一步降低语义损失的目的.实验表明,所提算法能有效搜索出拷贝图像,并具有较高的效率.  相似文献   

15.
点特征和小波金字塔技术的遥感图像快速匹配技术   总被引:1,自引:0,他引:1       下载免费PDF全文
提出了一种基于Harris特征点提取和小波金字塔的遥感图像快速匹配技术.在对多分辨率遥感图像进行完预处理的基础上,先利用Harris算子提取待匹配图像的特征点,然后利用小波金字塔完成匹配.通过杭州地区TM和SPOT遥感影像的配准实验,表明该算法减少了人工干预,提高了运算速度,又保持了匹配精度.  相似文献   

16.
一幅真实的图像中噪声特性是一致的,而由多幅图像内容拼接而成的合成图像噪声特性是不一致的.本文利用这一特点,提出了一种基于K均值奇异值分解(K-SVD)字典学习的合成图像盲检测方法.该方法首先通过K-SVD算法对合成图像进行训练得到其稀疏表示字典,然后利用学习得到的字典对背景噪声进行去除,最后根据去噪前后图像对应子块的相关系数异同实现篡改区域的检测与定位.实验结果表明,该方法对于鉴别含有不同背景噪声的合成图像具有显著效果,同时,算法对JPEG压缩、重采样和模糊等后处理操作都具有较好的鲁棒性.  相似文献   

17.
对于非盲的高斯降噪算法而言,噪声水平值是非常重要的参数。传统的噪声水平估计算法多采用复杂的处理过程操作且效率较低。为此,本文利用非线性映射能力强大的卷积神经网络实现了一种快速高斯噪声水平估计算法。该算法首先对大量原始无失真自然图像施加不同水平的高斯噪声构成噪声图像集合,将噪声图像及其对应的噪声水平值作为卷积神经网络(convolution neural network,CNN)的输入和输出,训练得到一个噪声水平估计模型。模型一旦训练完成,即可快速地估计出任意给定的噪声图像的高斯噪声水平大小,整个过程无需人工设置任何参数。实验数据表明,与经典的噪声水平估计算法相比,所提出的算法保证了一定的预测准确性,且在执行效率方面更有优势,可适用于需要噪声水平作为输入参数的非盲降噪算法。  相似文献   

18.
针对移动机器人视觉图像间的连续特性,提出了一种基于小波模极大值的图像特征匹配算法,该算法利用小波模极大值提取图像轮廓及模方位矩阵,并在轮廓图像中寻找极大区域,以该区域中心点作为图像特征点,且将区域小波模方位、特征点区域图像重心坐标和区域轮廓重心方向组合生成这些特征点的特征向量,利用这些特征向量实现图像间的特征点匹配.并通过相应的实验证明提出的新算法高效可靠.  相似文献   

19.
一种基于指纹分类的指纹识别算法   总被引:4,自引:0,他引:4  
依据指纹特征点在指纹图像中的特性给出了一种基于指纹分类的识别算法.该算法利用中心点和三角点信息对指纹进行分类并初匹配,然后用可靠性较高的分叉点所在脊线的相似度寻找出基准点对,根据基准点与周围特征点的关系筛选基准点对、确定变换参数,有效地解决基准点筛选受噪声影响问题,最后利用可变限界盒实现指纹匹配.实验结果表明,该算法能快速、准确地定位基准点,正确有效地实现指纹匹配,同时提高匹配速度及精确度.  相似文献   

20.
随着大数据时代的来临,重复数据在存储系统中占有很高比例,如何在保障数据可用性的前提下提高存储系统利用率问题一直是研究人员关注的热点.重复数据删除技术是一种存储系统优化技术,通过比较数据指纹确定冗余并删除,达到保障数据唯一性的目的.在重复数据分块检测过程中,无匹配指纹的块即认定为新数据存储,然而通过研究发现,未匹配块中仍然包含大量的重复数据,若能检测到未匹配块内的重复数据,则能够在一定程度上进一步提高重复数据检测率.本文提出一种基于回归检测的滑动块重复数据删除算法,对传统滑动块技术产生的未匹配数据块进行回归检测,通过对比未匹配块的结构变化进而确定数据操作类型,再根据不同的操作类型执行不同的检测算法,达到去除未匹配块内重复数据的目的.实验表明:本算法在时间开销方面比较合理,并能够有效提高重复数据检测率.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号