首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 234 毫秒
1.
图像内区域复制粘贴篡改鉴定   总被引:1,自引:0,他引:1  
区域复制粘贴篡改检测算法是以图像块匹配为基础的,然而传统的匹配算法计算量大,匹配速度慢,效率低下.针对现有的图像内区域复制粘贴检测算法计算量大,时间复杂度高的问题提出一种有效快速的检测与定位篡改区域算法.首先利用小波变换获取图像低频区域,然后对得到的图像低频部分进行分割,然后对分割后得到的每个图像块进行DCT变换,通过特征向量排序缩小匹配空间,最后通过经验阈值进行真伪鉴定,实验结果表明该算法过程中除掉图像冗余,减少检测块数,降低了时间复杂度,提高了检测效率.  相似文献   

2.
针对单节点的图像分类算法效率低,实时性差的难题,提出基于云计算的图像分类算法。首先提取图像数据库中的图像分类特征;然后将待分类图像通过云计算模式与图像库中的特征进行匹配,并根据匹配结果将其划分到相应的类别中;最后采用UPenn和Caltech-101数据库测试算法的可行性。结果表明,该算法降低了图像分类的时间复杂度,取得了不错的图像分类结果,且分类效率要明显优于对比算法,具有良好的实际应用价值。  相似文献   

3.
基于复杂天空背景下红外小目标的特性分析,提出了一种利用分类背景预测与图像分块技术进行红外小目标检测的有效算法。该算法以背景预测理论为基础,通过边缘检测技术、最大均值和局部最相似分类背景预测技术获得较为准确的图像背景,进而采用统计分割算法从残差图像中提取出较为精确的目标位置。其中,通过图像分块处理,提高了算法计算效率。最后,选取了三组具有代表性的红外序列对算法的性能进行了检验。实验结果表明,所提出预测算法在检测准确性、鲁棒性以及计算效率上都具有明显的优越性。  相似文献   

4.
针对数字图像检测中一类常见的复制-粘贴图像篡改,提出了一种基于小波变换和奇异值分解的检测算法。该算法利用小波变换提取图像的低频分量,对低频分量分块提取奇异值特征,然后将特征矢量进行按行字典排序,并且配合图像块的偏移位置信息,进行图像复制伪造区域的检测和定位。实验表明该算法大大减小了特征向量的维数,从而提高了相似块的匹配检测效率。为了更方便快捷的检测图像是否被恶意篡改,设计了简单明了的系统检测界面,只需载入待检测的图像并输入相应的参数就能进行检测,最后将检测结果返回给界面,而且系统完成了篡改检测算法的DSP硬件实现,该算法将有利于推动数字图像取证技术的理论研究与应用推广的发展。  相似文献   

5.
提出了一种新的脆弱盲水印生成算法用于图像完整性证明和内容篡改证明。首先将原始图像分块,对各分块进行一次整数小波变换;计算4个子带(LL,HL,LH,HH)小波系数绝对值的均值,分别映射为混沌初值,经过迭代、量化生成二值水印信息;最后将水印信息随机嵌入到4个子带中。实验结果表明,所提出的算法提高了篡改检测率,对图像的篡改具有高度敏感性和准确的篡改定位能力。水印提取为盲提取,篡改检测只用到了篡改后的水印图像。  相似文献   

6.
针对单像素篡改检测算法和分块篡改检测算法的缺点,提出了基于交叉划分的篡改检测与恢复算法.根据图像内容生成的2×2分块水印被两次嵌入到不同的对应块中,两次分块方式采用交叉划分方式.在水印嵌入时采用混沌映射序列对水印进行了加密.根据不同的分块位置进行两次篡改检测,并根据两次检测结果交叉后逐步求精,得到最终检测结果.图像恢复采用像素级恢复方式,先确定水印嵌入区域是否被篡改然后再根据两次嵌入的信息进行恢复.实验结果表明,该算法篡改检测定位精度可以达到像素级,恢复图像质量好,能够抵抗矢量攻击和噪声攻击.  相似文献   

7.
提出一种用于高光谱图像降维和分类的分块低秩张量分析方法。该算法以提高分类精度为目标,对图像张量分块进行降维和分类。将高光谱图像分成若干子张量,不仅保存了高光谱图像的三维数据结构,利用了空间与光谱维度的关联性,还充分挖掘了图像局部的空间相关性。与现有的张量分析法相比,这种分块处理方法克服了图像的整体空间相关性较弱以及子空间维度的设定对降维效果的负面影响。只要子空间维度小于子张量维度,所提议的分块算法就能取得较好的降维效果,其分类精度远远高于不分块的算法,从而无需借助原本就不可靠的子空间维度估计法。仿真和真实数据的实验结果表明,所提议分块低秩张量分析算法明显地表现出较好的降维效果,具有较高的分类精度。  相似文献   

8.
针对图像中特征提取不均匀、单尺度超像素划分对伪造定位结果影响较大的问题,提出一种基于深度特征提取和图神经网络(graph neural network,GNN) 匹配的图像复制粘贴篡改检测(cope-move forgery detection,CMFD) 算法。首先将图像进行多尺度超像素分割并提取深度特征,为保证特征点数目充足,以超像素为单位计算特征点分布的均匀度,自适应降低特征提取阈值;随后引入新的基于注意力机制的GNN特征匹配器,进行超像素间的迭代匹配,且用随机采样一致性(random sample consensus,RANSAC) 算法消除误匹配;最后将多尺度匹配结果进行融合,精确定位篡改区域。实验表明,所提算法具有良好的性能,也证明了GNN在图像篡改检测领域的可用性。  相似文献   

9.
刘福金 《电视技术》2015,39(3):107-109,132
现有的大多数图像篡改检测算法不能够很好地检测多次篡改区域,针对此不足,提出了一种有效的基于SVD和直方图的JPEG图像篡改盲检测算法。该算法首先以设定的窗口块在待检测图像上依次滑动一个像素得到每个单独的滑窗分块,每个分块用奇异值分解(SVD)值表征;然后字典排序所有分块量化后的SVD值矩阵,并通过统计排序后的矩阵的偏移频率来得到直方图;最后通过直方图设定阈值以判断分块是否属于复制粘贴块。实验结果表明,该算法不仅能对单次篡改区域进行准确定位,还能较好地检测到多次篡改区域。  相似文献   

10.
基于脆弱水印的图像认证算法研究   总被引:17,自引:3,他引:17       下载免费PDF全文
很多基于分块的图像认证算法为了提高安全性,采用大分块或者分块相关技术,因而牺牲了定位精度.通过对各种攻击的分析,提出了一种基于脆弱水印的图像认证方案.使用SHA512算法和基于背包问题的单向函数来产生水印,使用滑动窗口技术和层次结构来嵌入水印,使强加密算法在小分块上得以应用.该方案不但能够抵抗矢量量化等目前已知的各种攻击,而且能够将篡改定位到2×2大小的像素块上.理论分析和实验数据表明,该方案在保证系统安全性的同时,有效地提高了篡改定位的精度.  相似文献   

11.
针对利用相机传感器模式噪声的篡改检测在待测 图像纹理复杂区域存在较高的虚警,提出了一种考 虑纹理复杂度的自适应阈值检测算法。根据Nyman-Pierson(N-P)准则,确定不同纹理复杂 度对应的相关性匹配 判定阈值,而得到相关性阈值与纹理复杂度的关系拟合函数。在不重叠分块计算待测 图像噪声残差 和其来源相机传感器模式噪声对应块相关性的基础之上,根据待测图像块不同的纹理复杂度 进行相关性匹 配,确定大致篡改位置;再用快速零均值归一化互相关(ZNCC) 算法计算两噪声图像中大致篡改区域对应点的相关性,实现精确定 位。在手机图像库上的实验表明,与现有的固定阈值方法相比,本文算法的检测率达 到了98.8%,而虚 警率仅为1.897%,有效地降低纹理复杂区域的虚警率,并实现对篡改 区域的精确定位;同 时,与传统的滑动窗口方法相比,本文算法检测效率平均提高了26倍 。  相似文献   

12.
无序图像分类问题是多视图匹配、三维重构、图像检索等应用的基础研究。提出一种新的相似度度量准则,准确划分场景相关图像和非相关图像;接着在通用匹配算法的基础上,提出试探匹配算法和种子扩散算法2种加速策略,显著提升了无序多图匹配及分类的效率,为三维重构等应用提供了更好的基础数据。  相似文献   

13.
由于具有恒虚警和自适应的能力,恒虚警率(CFAR)是应用最为广泛的SAR图像舰船检测算法之一,它在传统的中低分辨力图像中效果较好。但随着合成孔径雷达(SAR)幅宽与分辨力的提高,这种检测方法已不能满足舰船检测的近实时性要求。本文针对高分辨宽幅SAR图像中的舰船检测问题,提出了一种基于分块预判断的SAR图像舰船目标检测方法。该方法首先对SAR图像进行分块,然后利用一个预先训练的支持向量机(SVM)分类器对所有分块进行可能性判断,最后只对判断为存在目标的分块进行能量比检测。基于实测数据的实验表明,本文方法较以往算法在取得较好检测效果的同时,检测效率也有较大提升。  相似文献   

14.
当前较多图像篡改检测方法主要通过对图像特征间的距离进行测量来完成特征匹配,忽略了图像的色彩信息,导致检测结果中存在较多的误检测和漏检测现象。对此,本文将色彩信息引入到图像特征匹配过程中,设计了一种采用色彩制约模型的篡改检测算法。利用Laplacian算子与Harris算子提取图像特征,并利用像素点的红(R)、绿(G)、蓝(B)三原色信息,结合特征描述符建立色彩制约模型,对特征点间的色彩信息进行度量,再借助该度量值与特征点间的距离测量值共同完成图像特征匹配,充分剔除误匹配现象,有效提高匹配准确度。该算法还根据特征点间距离方差构造距离惩罚模型,对匹配后的图像特征进行聚类,准确识别篡改内容。通过实验结果发现,与其他篡改检测算法相比,本文算法不仅对伪造内容具备更高的检测准确度,而且对模糊及旋转等内容操作也具有更好的适应性。  相似文献   

15.
《现代电子技术》2017,(1):57-60
针对单一单板机的图像分类效率低的缺陷,提出一种基于云计算的图像分类算法。首先通过特征提取算法提取图像的多种特征,然后采用Map/Reduce模型对图像进行匹配和分类,根据匹配结果得到图像的最优分类结果,最后采用Matlab软件实现图像分类的仿真实验。结果表明,相比于其他图像分类算法,该算法减少了图像的分类时间,提高了图像的分类速度,尤其对大规模图像分类优势更加明显。  相似文献   

16.
核匹配追踪算法在生成函数字典的过程中常采用贪婪算法进行全局最优搜索,导致算法学习时间过长。该文针对这一缺陷,提出一种基于近邻传播(Affinity Propagation, AP)聚类与核匹配追踪相结合的分类方法(AP-Kernel Matching Pursuit, AP-KMP),该方法利用聚类算法来优化核匹配追踪算法中的字典划分过程,使用近邻传播聚类将目标数据集划分为若干小型字典空间,随后KMP算法在小型字典空间进行局部搜索,从而缩短学习时间。针对部分UCI数据集和遥感图像数据集,分别采用AP-KMP算法与另4种经典算法进行分类比较实验,结果表明该文算法在时间开销和分类性能上均有一定的优越性。  相似文献   

17.
图像的复制-粘贴篡改是常见的图像篡改方法之一。现有基于SIFT特征的算法能够有效地检测复制-粘贴篡改,但由于SIFT特征本身不能抵抗翻转,因此,这些方法不能检测出具有翻转操作的复制-粘贴篡改。基于SIFT特征,提出了一种抗翻转的图像复制-粘贴篡改检测算法。通过在检测框架中引入图像预处理操作,不仅能够有效地检测出存在翻转的复制-粘贴篡改块,而且能够抵抗旋转、缩放等图像处理行为。同时,在SIFT关键点匹配环节提出了ng2NN匹配方法,提高了算法的检测效果。实验结果证明了所提出算法在抵抗翻转、缩放、旋转以及检测多重复制-粘贴篡改等方面的有效性。  相似文献   

18.
局部不变特征匹配的并行加速技术研究   总被引:4,自引:2,他引:2  
王灿进  孙涛  陈娟 《液晶与显示》2014,29(2):266-274
针对SIFT、SURF等局部不变特征在大尺寸图像上匹配时过于耗时的问题,将FREAK算子应用于图像匹配中,并提出一种多线程并行加速方法。首先介绍FREAK描述子的特征点的检测、特征描述向量的生成和特征向量的匹配的过程,并分析其优势。其次提出并行处理的2种思路:一是对待匹配图像进行有重叠的分块,对于每一块子图像,开辟新的线程分别进行处理;二是对匹配过程的3个步骤,采用流水线技术进行并行处理,每检测出一个特征点,随即提取出该点的特征向量,然后和模板图像的特征向量集进行匹配。改写SIFT、SURF和FREAK算法进行实验验证,结果证明FREAK计算过程比SIFT和SURF快得多,而并行方法可以在保证匹配精度的同时明显缩短匹配时间。  相似文献   

19.
为了实现超分辨率图像重建中高精度快速图像配准,提出一种改进BRISK特征的快速图像配准算法。原有BRISK算法在特征提取和匹配过程中,忽视了角点分布信息,其匹配策略单一,导致误匹配率高。针对该问题,首先利用BRISK算法构建连续尺度空间,在此基础上对图像进行分块,然后利用图像区域显著性自适应选择角点检测阈值,获得均匀分布的角点,最后利用快速最近邻FLANN算法结合RANSAC的方法进行二值特征快速匹配。实验结果表明:改进的BRISK算法相比原算法在保持速度的基础上达到亚像素级配准精度,并具有优越的场景适应性能。  相似文献   

20.
基于良分布的亚像素定位角点的图像配准   总被引:3,自引:0,他引:3  
针对Harris检测出的角点位置会发生偏移和易产生伪角点,以及在角点匹配过程中计算复杂,容易产生误匹配等缺点,该文提出了基于良分布的亚像素定位角点的图像配准方法。该方法首先使用多尺度Harris算子检测图像的角点作为初始兴趣点,并采用自适应非极大值抑制对兴趣点的数量进行限制,以减少后续过程的计算复杂度,提高算法效率,同时使得角点在图像中处于良分布状态。然后利用亚像素定位技术进行精确定位,排除伪角点和不稳定的角点。最后使用随机抽样一致性算法对初始匹配进行鲁棒的模型参数估计。实验结果表明算法配准效率改进明显,并具有良好的精确性和鲁棒性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号