首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 155 毫秒
1.
目的 恶意的图像拼接篡改给名誉、法律、政治等带来一系列的挑战,而现有的图像拼接检测算法通常采用参数固定的高通滤波器提取滤波特征进行预处理,没有考虑图像之间的差异。方法 本文设计自适应残差模块(adaptive residuals module, ARM)凸显拼接篡改痕迹,将卷积运算后的残差多次拼接,且每次拼接后再利用注意力机制实现通道间的非线性交互。然后,使用通道注意力SE(squeeze and excitation)模块以减少由ARM提取残差特征产生的通道之间信息冗余,并以在图像分类领域获得卓越性能的EfficientNet(high-efficiency network)为骨干网络,提出一种新的图像拼接检测算法。结果 实验结果表明,所提算法在CASIA I(CASIA image tampering detection evaluation database),CASIA II,COLUMBIA COLOR,NIST16(NIST special database 16)和FaceForensic++这5个公开数据集上分别取得98.95%,98.88%,100%,100%,88.20%的检测准确率,获得比现有算法更高的准确率。提出的ARM将骨干网络EfficientNet在CASIA II数据集的准确率提高了3.94%以上。结论 提出的基于自适应残差的图像拼接检测算法充分考虑图像之间的差异,凸显篡改区域与未篡改区域之间的区别,并获得更好的拼接检测结果。  相似文献   

2.
目的 变电站图像拼接篡改是电力系统的一大安全隐患,针对篡改图像背景复杂、篡改内容尺度不一造成的误检漏检问题以及相关研究较少,本文提出一种面向变电站的拼接篡改图像的双通道检测模型。方法 两通道均采用深度学习方法自适应提取篡改图像和残差图像的特征,其中篡改图像包含丰富的色彩特征和内容信息,残差图像重点凸显了篡改区域的边缘,有效应对了篡改图像多样性导致的篡改特征提取困难问题;将特征金字塔结构Transformer通道作为网络主分支,通过全局交互机制获取图像全局信息,建立关键点之间的联系,使模型具备良好的泛化性和多尺度特征处理能力;引入浅层卷积神经网络(convolutional neural network, CNN)通道作为辅助分支,着重提取篡改区域的边缘特征,使模型在整体轮廓上更容易定位篡改区域。结果 实验在自制变电站拼接篡改数据集(self-made substation splicing tampered dataset, SSSTD)、CASIA(Chinese Academy of Sciences Institute of Automation dataset)和NIST16(National Institute of Standards and Technology 16)上与4种同类型方法进行比较。定量上看,在SSSTD数据集中,本文模型相对性能第2的模型在精确率、召回率、F1和平均精度上分别提高了0.12%、2.17%、1.24%和7.71%;在CASIA和NIST16数据集中,本文模型也取得了最好成绩。定性上看,所提模型减少了误检和漏检,同时定位精度更高。结论 本文提出的双通道拼接篡改检测模型结合了Transformer和CNN在图像篡改检测方面的优势,提高了模型的检测精度,适用于复杂变电站场景下的篡改目标检测。  相似文献   

3.
目的 从图像中裁剪出构图更佳的区域是提升图像美感的有效手段之一,也是计算机视觉领域极具挑战性的问题。为提升自动裁图的视觉效果,本文提出了聚合细粒度特征的深度注意力自动裁图方法(deep attention guided image cropping network with fine-grained feature aggregation,DAIC-Net)。方法 整体模型结构由通道校准的语义特征提取(semantic feature extraction with channel calibration,ECC)、细粒度特征聚合(fine-grained feature aggregation,FFA)和上下文注意力融合(contextual attention fusion,CAF)3个模块构成,采用端到端的训练方式,核心思想是多尺度逐级增强不同细粒度区域特征,融合全局和局部注意力特征,强化上下文语义信息表征。ECC模块在通用语义特征的通道维度上进行自适应校准,融合了通道注意力;FFA模块将多尺度区域特征级联互补,产生富含图像构成和空间位置信息的特征表示;CAF模块模拟人眼观看图像的规律,从不同方向、不同尺度显式编码图像空间不同像素块之间的记忆上下文关系;此外,定义了多项损失函数以指导模型训练,进行多任务监督学习。结果 在3个数据集上与最新的6种方法进行对比实验,本文方法优于现有的自动裁图方法,在最新裁图数据集GAICD (grid anchor based image cropping database)上,斯皮尔曼相关性和皮尔森相关性指标分别提升了2.0%和1.9%,其他最佳回报率指标最高提升了4.1%。在ICDB (image cropping database)和FCDB (flickr cropping database)上的跨数据集测试结果进一步表明了本文提出的DAIC-Net的泛化性能。此外,消融实验验证了各模块的有效性,用户主观实验及定性分析也表明DAIC-Net能裁剪出视觉效果更佳的裁图结果。结论 本文提出的DAIC-Net在GAICD数据集上多种评价指标均取得最优的预测结果,在ICDB和FCDB测试集上展现出较强的泛化能力,能有效提升裁图效果。  相似文献   

4.
目的 针对已有图像拼接篡改检测方法中存在的真伪判断分类精度不高、拼接篡改区域定位不准确问题,本文设计了一种篡改边缘两侧和篡改区域内外不一致性引导下的重点关注篡改区域与篡改边缘的图像拼接篡改检测卷积神经网络。方法 图像内容在篡改过程中,拼接物体的边缘都会留下篡改痕迹,这是图像拼接篡改检测的重要线索。因此,本文设计了一条篡改边缘提取分支,通过学习拼接物体边缘两侧的不一致性,重点提取拼接篡改区域的边缘轮廓。考虑到篡改边缘像素点过少会导致网络难以收敛,提出一个边缘加粗策略,形成一个边缘加粗的"甜甜圈",使得篡改边缘提取结果更具完整性。在不同图像采集过程中,所用相机设备和光线条件等因素不同,导致每幅图像包含的信息也不尽相同。对此,设计了一条篡改区域定位分支,重点学习来自不同图像拼接区域与周围区域之间不一致性的差异化特征,并将注意力机制引入图像拼接篡改检测的篡改区域定位分支,进一步提高对拼接篡改区域的学习关注程度。面向真伪判断设计了一条图像是否经过拼接篡改的二分类网络分支,不但可以快速有效地给出输入图像是否为篡改图像的判断结果,而且可以与上述两条分支的输出结果一起提供给用户,由用户结合视觉语义信息进行综合判断。结果 本文算法与已有的4个代表性方法在4个专业数据集上进行算法实验和性能比较。在真伪判断分类的精确度方面,在Dresden、COCO(common objects in context)、RAISE(a raw images dataset for digital image forensics)和IFS-TC(information forensics and security technical committee)数据集上分别提高了8.3%、4.6%、1.0%和1.0%;在篡改区域定位的准确度方面,F1评分与重叠度IOU(intersection over union)指标较已有方法分别提升了9.4%和8.6%。结论 本文算法将真伪判别分类、篡改区域定位和篡改边缘提取融合在一起,互相促进,较大提升了各分支任务的性能表现,在图像拼接篡改检测方面取得了优于已有方法的效果,为数字图像取证技术领域的研究工作拓展了思路。  相似文献   

5.
目的 图像区域复制粘贴篡改是目前众多图像篡改技术中一种简单而且常见的方式。针对目前大多数区域复制粘贴篡改检测算法鲁棒性不强,提出一种基于指数矩的图像篡改检测算法。方法 首先将图像分成重叠的图像子块,然后提取每一图像子块的指数矩作为特征向量进行字典排序,利用向量相似度和位移初步确定疑似图像子块,再根据疑似图像子块的相邻子块个数和角度方差去除误匹配块,得到最终篡改区域。结果 该算法具有良好的鲁棒性,与采用圆谐-傅里叶矩的算法相比,在图像受到噪声干扰时,检测率平均提高26.66%,错误率平均降低33.77%。结论 本文算法利用图像的指数矩,针对图像区域复制粘贴篡改操作,能有效检测出图像的篡改区域。检测图像在经过旋转、高斯模糊和添加噪声等后期处理时,算法依然有效。  相似文献   

6.
目的 为了解决现有图像区域复制篡改检测算法只能识别图像中成对的相似区域而不能准确定位篡改区域的问题,提出一种基于JPEG(joint photographic experts group)图像双重压缩偏移量估计的篡改区域自动检测定位方法。方法 首先利用尺度不变特征变换(SIFT)算法提取图像的特征点和相应的特征向量,并采用最近邻算法对特征向量进行初步匹配,接下来结合特征点的色调饱和度(HSI)彩色特征进行优化匹配,消除彩色信息不一致引发的误匹配;然后利用随机样本一致性(RANSAC)算法对匹配对之间的仿射变换参数进行估计并消除错配,通过构建区域相关图确定完整的复制粘贴区域;最后根据对复制粘贴区域分别估计的JPEG双重压缩偏移量区分复制区域和篡改区域。结果 与经典SIFT和SURF(speeded up robust features)的检测方法相比,本文方法在实现较高检测率的同时,有效降低了检测虚警率。当第2次JPEG压缩的质量因子大于第1次时,篡改区域的检出率可以达到96%以上。 结论 本文方法可以有效定位JPEG图像的区域复制篡改区域,并且对复制区域的几何变换以及常见的后处理操作具有较强的鲁棒性。  相似文献   

7.
目的 多部位病灶具有大小各异和类型多样的特点,对其准确检测和分割具有一定的难度。为此,本文设计了一种2.5D深度卷积神经网络模型,实现对多种病灶类型的计算机断层扫描(computed tomography,CT)图像的病灶检测与分割。方法 利用密集卷积网络和双向特征金字塔网络组成的骨干网络提取图像中的多尺度和多维度信息,输入为带有标注的中央切片和提供空间信息的相邻切片共同组合而成的CT切片组。将融合空间信息的特征图送入区域建议网络并生成候选区域样本,再由多阈值级联网络组成的Cascade R-CNN(region convolutional neural networks)筛选高质量样本送入检测与分割分支进行训练。结果 本文模型在DeepLesion数据集上进行验证。结果表明,在测试集上的平均检测精度为83.15%,分割预测结果与真实标签的端点平均距离误差为1.27 mm,直径平均误差为1.69 mm,分割性能优于MULAN(multitask universal lesion analysis network for joint lesion detection,tagging and segmentation)和Auto RECIST(response evaluation criteria in solid tumors),且推断每幅图像平均时间花费仅91.7 ms。结论 对于多种部位的CT图像,本文模型取得良好的检测与分割性能,并且预测时间花费较少,适用病变类别与DeepLesion数据集类似的CT图像实现病灶检测与分割。本文模型在一定程度上能满足医疗人员利用计算机分析多部位CT图像的需求。  相似文献   

8.
目的 度量学习是少样本学习中一种简单且有效的方法,学习一个丰富、具有判别性和泛化性强的嵌入空间是度量学习方法实现优秀分类效果的关键。本文从样本自身的特征以及特征在嵌入空间中的分布出发,结合全局与局部数据增强实现了一种元余弦损失的少样本图像分类方法(a meta-cosine loss for few-shot image classification,AMCL-FSIC)。方法 首先,从数据自身特征出发,将全局与局部的数据增广方法结合起来,利于局部信息提供更具区别性和迁移性的信息,使训练模型更多关注图像的前景信息。同时,利用注意力机制结合全局与局部特征,以得到更丰富更具判别性的特征。其次,从样本特征在嵌入空间中的分布出发,提出一种元余弦损失(meta-cosine loss,MCL)函数,优化少样本图像分类模型。使用样本与类原型间相似性的差调整不同类的原型,扩大类间距,使模型测试新任务时类间距更加明显,提升模型的泛化能力。结果 分别在5个少样本经典数据集上进行了实验对比,在FC100(Few-shot Cifar100)和CUB(Caltech-UCSD Birds-200-2011)数据集上,本文方法均达到了目前最优分类效果;在MiniImageNet、TieredImageNet和Cifar100数据集上与对比模型的结果相当。同时,在MiniImageNet,CUB和Cifar100数据集上进行对比实验以验证MCL的有效性,结果证明提出的MCL提升了余弦分类器的分类效果。结论 本文方法能充分提取少样本图像分类任务中的图像特征,有效提升度量学习在少样本图像分类中的准确率。  相似文献   

9.
目的 图像编辑软件的普及使得篡改图像内容、破坏图像语义的成本越来越低。为避免恶意篡改图像对社会稳定和安全的威胁,检测图像的完整性和真实性尤为重要。面对新型成像设备和算法,需要重新验证现有图像篡改检测算法的有效性并针对双目超分辨率图像的安全性展开进一步研究。但由于双目超分辨率图像篡改数据集的缺乏,难以满足研究的需要。为此,构建了一个双目超分辨率图像通用篡改检测数据集SSRGFD(stereo superresolution forensic general dataset)。方法 数据集构建考虑复制黏贴、拼接和图像修复3种常见的篡改类型。为使数据集图像更贴合真实篡改场景,本文从篡改图像内容和隐藏篡改痕迹两方面出发为不同篡改类型设计了不同的篡改标准。首先使用超分辨率算法PASSRnet (parallax attention stereo image super-resolution network)从Flickr1024数据集生成双目超分辨率图像,分别基于3种篡改标准通过手工或深度学习算法对图像进行篡改,构建了2 067幅篡改图像,并为每一幅篡改图像提供了对应的篡改区域掩膜。结果 实验从主观和客观两个角度评估数据集图像视觉质量。通过双刺激连续质量分级法得到的主观质量平均评分差异基本都低于1.5。客观质量评价方法BRISQUE(blind/referenceless image spatial quality evaluator)、NIQE(natural image quality evaluator)和PIQE(parent institute forquality education)的平均评估结果分别为30.76、4.248和34.11,与真实图像十分接近。实验使用多种检测方法在SSRGFD和单目图像数据集上进行比较。QMPPNet (multi-scale pyramid hybrid loss network)的性能指标均表现最优,但所有检测方法在SSRGFD上的性能相比于在单目图像数据集上的性能显著下降。结论 构建的SSRGFD数据集内容丰富且具有较好的视觉质量,能够为双目超分辨率图像篡改检测研究工作提供良好的数据支持。SSRGFD数据集可以从https://github.com/YL1006/SSRGFD上获取。  相似文献   

10.
目的 通道注意力机制在图像超分辨率中已经得到了广泛应用,但是当前多数算法只能在通道层面选择感兴趣的特征图而忽略了空间层面的信息,使得特征图中局部空间层面上的信息不能合理利用。针对此问题,提出了区域级通道注意力下的图像超分辨率算法。方法 设计了非局部残差密集网络作为网络的主体结构,包括非局部模块和残差密集注意力模块。非局部模块提取非局部相似信息并传到后续网络中,残差密集注意力模块在残差密集块结构的基础上添加了区域级通道注意力机制,可以给不同空间区域上的通道分配不同的注意力,使空间上的信息也能得到充分利用。同时针对当前普遍使用的L1和L2损失函数容易造成生成结果平滑的问题,提出了高频关注损失,该损失函数提高了图像高频细节位置上损失的权重,从而在后期微调过程中使网络更好地关注到图像的高频细节部分。结果 在4个标准测试集Set5、Set14、BSD100(Berkeley segmentation dataset)和Urban100上进行4倍放大实验,相比较于插值方法和SRCNN(image super-resolution using deep convolutional networks)算法,本文方法的PSNR(peak signal to noise ratio)均值分别提升约3.15 dB和1.58 dB。结论 区域级通道注意力下的图像超分辨率算法通过使用区域级通道注意力机制自适应调整网络对不同空间区域上通道的关注程度,同时结合高频关注损失加强对图像高频细节部分的关注程度,使生成的高分辨率图像具有更好的视觉效果。  相似文献   

11.
现有的篡改检测方法中特征点提取不充分会导致篡改检测精度不高,特征点描述符识别率差,针对该问题提出一种基于颜色矩的区域划分和四元数Hu矩的彩色图像复制粘贴篡改检测算法。首先,使用自适应形态重建算法对图像进行超像素分割,通过密度聚类算法对图像自适应划分区域;其次,提出一种关键点提取方法得到均匀的SIFT特征点;然后,在一种新颖的彩色图像四元数表示方法中构建局部高斯金字塔提取Hu矩特征;最后,利用2NN进行特征匹配后,结合Delaunay三角形算法定位出复制粘贴篡改区域。在公共数据集上的实验结果表明,该算法可以更有效地定位篡改区域。  相似文献   

12.
Image forgery detection remains a challenging problem. For the most common copy-move forgery detection, the robustness and accuracy of existing methods can still be further improved. To the best of our knowledge, we are the first to propose an image copy-move forgery passive detection method by combining the improved pulse coupled neural network (PCNN) and the self-selected sub-images. Our method has the following steps: First, contour detection is performed on the input color image, and bounding boxes are drawn to frame the contours to form suspected forgery sub-images. Second, by improving PCNN to perform feature extraction of sub-images, the feature invariance of rotation, scaling, noise adding, and so on can be achieved. Finally, the dual feature matching is used to match the features and locate the forgery regions. What's more, the self-selected sub-images can quickly obtain suspected forgery sub-images and lessen the workload of feature extraction, and the improved PCNN can extract image features with high robustness. Through experiments on the standard image forgery datasets CoMoFoD and CASIA, it is effectively verified that the robustness score and accuracy of proposed method are much higher than the current best method, which is a more efficient image copy-move forgery passive detection method.  相似文献   

13.
目的 伪造图像给众多行业埋下了隐患,这会造成大量潜在的经济损失。方法 提出一种边缘引导的双注意力图像拼接检测网络(boundary-guided dual attention network,BDA-Net),该网络通过将空间通道依赖和边缘预测集成到网络提取的特征中来得到预测结果。首先,提出一种称为预测分支的编解码模型,该分支作为模型的主干网络,可以提取和融合不同分辨率的特征图。其次,为了捕捉不同维度的依赖关系并增强网络对感兴趣区域的关注能力,设计了一个沿多维度进行特征编码的坐标—空间注意力模块(coordinate-spatial attention module,CSAM)。最后,设计了一条边缘引导分支来捕获篡改区域和非篡改区域之间的微小边缘痕迹,以辅助预测分支进行更好的分割。结果 实验使用4个图像拼接数据集与多种方法进行比较,评价指标为F1值。在Columbia数据集中,与排名第1的模型相比,F1值仅相差1.6%。在NIST16 Splicing(National Institute of Standards and Technology 16 Splicing)数据集中,F1值与最好的模型略有差距。而在检测难度更高的CASIA2.0 Splicing(Chinese Academy of Sciences Institute of Automation Dataset 2.0 Splicing)和IMD2020(Image Manipulated Datasets 2020)数据集中,BDA-Net的F1值相比排名第2的模型分别提高了15.3%和11.9%。为了验证模型的鲁棒性,还对图像施加JPEG压缩、高斯模糊、锐化、高斯噪声和椒盐噪声攻击。实验结果表明,BDA-Net的鲁棒性明显优于其他模型。结论 本文方法充分利用深度学习模型的优点和图像拼接检测领域的专业知识,能有效提升模型性能。与现有的检测方法相比,具有更强的检测能力和更好的稳定性。  相似文献   

14.
Copy–move image forgery detection has recently become a very active research topic in blind image forensics. In copy–move image forgery, a region from some image location is copied and pasted to a different location of the same image. Typically, post-processing is applied to better hide the forgery. Using keypoint-based features, such as SIFT features, for detecting copy–move image forgeries has produced promising results. The main idea is detecting duplicated regions in an image by exploiting the similarity between keypoint-based features in these regions. In this paper, we have adopted keypoint-based features for copy–move image forgery detection; however, our emphasis is on accurate and robust localization of duplicated regions. In this context, we are interested in estimating the transformation (e.g., affine) between the copied and pasted regions more accurately as well as extracting these regions as robustly by reducing the number of false positives and negatives. To address these issues, we propose using a more powerful set of keypoint-based features, called MIFT, which shares the properties of SIFT features but also are invariant to mirror reflection transformations. Moreover, we propose refining the affine transformation using an iterative scheme which improves the estimation of the affine transformation parameters by incrementally finding additional keypoint matches. To reduce false positives and negatives when extracting the copied and pasted regions, we propose using “dense” MIFT features, instead of standard pixel correlation, along with hysteresis thresholding and morphological operations. The proposed approach has been evaluated and compared with competitive approaches through a comprehensive set of experiments using a large dataset of real images (i.e., CASIA v2.0). Our results indicate that our method can detect duplicated regions in copy–move image forgery with higher accuracy, especially when the size of the duplicated region is small.  相似文献   

15.
颜普  苏亮亮  邵慧  吴东升 《计算机应用》2019,39(9):2707-2711
图像伪造检测是目前数字图像处理领域中的一个研究热点,其中复制-粘贴是最常用的伪造手段。由于伪造区域在粘贴前会被进行一定的尺度、旋转、JPEG压缩、添加噪声等操作,这使得检测伪造区域具有一定的挑战性。针对图像复制-粘贴伪造技术,提出一种基于多支持区域局部亮度序模式(LIOP)的图像伪造检测算法。首先,利用最大稳定极值区域(MSER)算法提取具有仿射不变性的区域作为支持区域;其次,利用非抽样Contourlet变换得到不同尺度、不同分辨率和不同方向的多个支持区域;然后,在每个支持区域上提取同时具有旋转不变性和单调亮度不变性的LIOP描述子,并利用双向距离比值法实现特征初匹配;接着,采用空间聚类将匹配的特征进行归类,进而用随机抽样一致性(RANSAC)算法对每个归类进行几何变换参数估计;最后,使用必要的后处理等操作来检测出伪造区域。实验表明,提出的算法具有较高的伪造检测精度与可信度。  相似文献   

16.
A copy-move forgery detection scheme by using multi-scale feature extraction and adaptive matching is proposed in this paper. First, the host image is segmented into the non-overlapping patches of irregular shape in different scales. Then, Scale Invariant Feature Transform is applied to extract feature points from all patches, to generate the multi-scale features. An Adaptive Patch Matching algorithm is subsequently proposed for finding the matching that indicate the suspicious forged regions in each scale. Finally, the suspicious regions in all scales are merged to generate the detected forgery regions in the proposed Matched Keypoints Merging algorithm. Experimental results show that the proposed scheme performs much better than the existing state-of-the-art copy-move forgery detection algorithms, even under various challenging conditions, including the geometric transforms, such as scaling and rotation, and the common signal processing, such as JPEG compression and noise addition; in addition, the special cases such as the multiple copies and the down-sampling are also evaluated, the results indicate the very good performance of the proposed scheme.  相似文献   

17.
下采样对数字图像伪造检测的影响分析   总被引:1,自引:0,他引:1       下载免费PDF全文
在数字图像伪造检测中,取证过程容易导致伪造痕迹丢失,造成图像内容鉴别困难。为此,研究数字图像伪造检测方法的可靠性。给出图像复制-移动伪造检测流程,分析下采样处理对图像伪造检测的影响。理论分析与实验结果表明,在一定情况下,下采样处理会移除数字图像的伪造痕迹,影响检测结果。  相似文献   

18.
Copy-move forgery is one of the most common types of image forgeries, where a region from one part of an image is copied and pasted onto another part, thereby concealing the image content in the latter region. Keypoint based copy-move forgery detection approaches extract image feature points and use local visual features, rather than image blocks, to identify duplicated regions. Keypoint based approaches exhibit remarkable performance with respect to computational cost, memory requirement, and robustness. But unfortunately, they usually do not work well if smooth background areas are used to hide small objects, as image keypoints cannot be extracted effectively from those areas. It is a challenging work to design a keypoint-based method for detecting forgeries involving small smooth regions. In this paper, we propose a new keypoint-based copy-move forgery detection for small smooth regions. Firstly, the original tampered image is segmented into nonoverlapping and irregular superpixels, and the superpixels are classified into smooth, texture and strong texture based on local information entropy. Secondly, the stable image keypoints are extracted from each superpixel, including smooth, texture and strong texture ones, by utilizing the superpixel content based adaptive feature points detector. Thirdly, the local visual features, namely exponent moments magnitudes, are constructed for each image keypoint, and the best bin first and reversed generalized 2 nearest-neighbor algorithm are utilized to find rapidly the matching image keypoints. Finally, the falsely matched image keypoints are removed by customizing the random sample consensus, and the duplicated regions are localized by using zero mean normalized cross-correlation measure. Extensive experimental results show that the newly proposed scheme can achieve much better detection results for copy-move forgery images under various challenging conditions, such as geometric transforms, JPEG compression, and additive white Gaussian noise, compared with the existing state-of-the-art copy-move forgery detection methods.  相似文献   

19.
摘要:随着数字多媒体技术及计算机网络技术的发展,数字图像在信息技术时代扮演着越来越重要的角色,图像的真实性成为现代人们广泛关注的热点之一,为此提出了一种基于均值漂移的图像复制粘贴伪造盲检测算法。提取图像的SURF(Speed up robust feature)特征点,通过最近邻匹配方法进行特征匹配,滤除冗余点,初步定位复制粘贴伪造区域。均值漂移(Mean Shift)将具有相同或相似属性的图像像素分割为同一区域,利用匹配后的SURF特征点与其所在均值漂移分割区域的位置依赖关系确定伪造区域,并采用边缘直方图和HSV颜色直方图衡量特征点所在分割区域与相邻分割区域间的相似度,进一步细化伪造检测结果,最终实现图像的复制粘贴伪造盲检测。实验结果表明,该算法能够鲁棒地、高效地检测出图像的复制粘贴伪造区域。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号