首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 156 毫秒
1.
针对视频帧间复制粘贴伪造,本文提出一种基于非负矩阵分解(Nonnegative matrix factorization, NMF)和加速稳健特征(Speed-up robust features, SURF)的帧间复制粘贴伪造盲检测算法。通过对视频帧进行小波变换,提取低频系数矩阵进行非负矩阵分解,将得到的系数矩阵作为视频帧的特征表示衡量帧间的相似性,根据相似度变化趋势判断视频帧间的连续性,从而确定疑似伪造复制粘贴序列的首帧及尾帧,并通过SURF特征匹配进行二次判定。实验结果表明,本文所提出帧间伪造检测算法对连续多帧的复制粘贴伪造具有较好的检测效果,避免了逐帧比对,降低了时间复杂度。  相似文献   

2.
利用SIFT特征的非对称匹配图像拼接盲检测   总被引:2,自引:2,他引:0       下载免费PDF全文
复制粘贴伪造图像鉴定检测图像中的疑似相似区域。传统的逐像素或逐块的鉴定方式耗时冗长。提出一种利用SIFT(尺度不变特征转换)特征的非对称搜索的复制粘贴伪造图像盲检测算法,算法利用图像SIFT特征初步定位复制粘贴伪造疑似区域,利用非对称特征搜索方式进行方向性的特征匹配,准确定位复制粘贴伪造区域。实验结果表明,本文算法能够准确检测复制粘贴伪造区域,检测结果不受高斯、椒盐等噪声的影响,检测效率比传统算法提高了1~2个数量级。  相似文献   

3.
近年来在同源复制粘贴篡改检测中,SIFT特征得到了广泛的应用.但由于该特征在提取过程中摒弃了颜色信息,会造成一部分特征点的误匹配和漏匹配.为此,提出一种基于彩色信息与SIFT融合的CSIFT特征的检测方法,在提取特征点时加入颜色不变量信息,提高了匹配的准确性和效率.算法首先利用结构相似度将视频帧序列分段,提取每段序列的关键帧;然后提取关键帧的CSIFT特征;最终定位复制粘贴区域,并利用目标跟踪算法计算篡改区域在后续帧上的位置.通过实验验证了算法的鲁棒性,与基于SIFT等特征的算法相比,时间效率和准确性更高.  相似文献   

4.
摘要:随着数字多媒体技术及计算机网络技术的发展,数字图像在信息技术时代扮演着越来越重要的角色,图像的真实性成为现代人们广泛关注的热点之一,为此提出了一种基于均值漂移的图像复制粘贴伪造盲检测算法。提取图像的SURF(Speed up robust feature)特征点,通过最近邻匹配方法进行特征匹配,滤除冗余点,初步定位复制粘贴伪造区域。均值漂移(Mean Shift)将具有相同或相似属性的图像像素分割为同一区域,利用匹配后的SURF特征点与其所在均值漂移分割区域的位置依赖关系确定伪造区域,并采用边缘直方图和HSV颜色直方图衡量特征点所在分割区域与相邻分割区域间的相似度,进一步细化伪造检测结果,最终实现图像的复制粘贴伪造盲检测。实验结果表明,该算法能够鲁棒地、高效地检测出图像的复制粘贴伪造区域。  相似文献   

5.
针对传统图像复制粘贴伪造盲检测算法存在的耗时长、计算量大、检测精度不高的问题,提出了一种基于均值漂移(MS)的图像复制粘贴伪造盲检测算法。该方法提取图像的加速稳健特征(SURF)特征点,通过最近邻匹配方法进行特征匹配,滤除冗余点,初步定位复制粘贴伪造区域。利用均值漂移将具有相同或相似属性的图像像素分割为同一区域,借助匹配后的SURF特征点与其所在均值漂移分割区域的位置依赖关系确定伪造区域,并采用边缘直方图和HSV颜色直方图衡量特征点所在分割区域与相邻区域间的相似度,将大于相似度阈值的邻域划分到复制粘贴伪造区域中,进一步细化伪造检测结果,最终实现图像的复制粘贴伪造盲检测。实验结果表明,在细节轮廓清晰和灰度值变化明显的图像中,该算法能够达到比较理想的检测效果,能够鲁棒地、高效地检测出图像的复制粘贴伪造区域。  相似文献   

6.
针对目前深度学习领域人体姿态估计算法计算复杂度高的问题,提出了一种基于光流的快速人体姿态估计算法.在原算法的基础上,首先利用视频帧之间的时间相关性,将原始视频序列分为关键帧和非关键帧分别处理(相邻两关键帧之间的图像和前向关键帧组成一个视频帧组,同一视频帧组内的视频帧相似),仅在关键帧上运用人体姿态估计算法,并通过轻量级光流场将关键帧识别结果传播到其他非关键帧.其次针对视频中运动场的动态特性,提出一种基于局部光流场的自适应关键帧检测算法,以根据视频的局部时域特性确定视频关键帧的位置.在OutdoorPose和HumanEvaI数据集上的实验结果表明,对于存在背景复杂、部件遮挡等问题的视频序列中,所提算法较原算法检测性能略有提升,检测速度平均可提升89.6%.  相似文献   

7.
针对运动类视频特征不易提取且其关键帧结果中易产生较多漏检帧的问题,提出基于运动目标特征的关键帧提取算法。该算法在强调运动目标特征的同时弱化背景特征,从而防止由于运动目标过小而背景占据视频画面主要内容所导致的漏检和冗余现象。根据视频帧熵值将颜色变化明显的帧作为部分关键帧,对颜色未发生突变的帧根据运动物体的尺度不变特征变换(SIFT)获得帧内运动目标的特征点;最后分别根据帧熵值及运动物体SIFT点分布提取视频关键帧。实验表明该算法所得关键帧结果集不仅漏检率较低且能够准确地表达原视频内容。  相似文献   

8.
提出了一种基于复合图像特征的复制粘贴伪造图像盲检测算法。复合图像特征由一维特征矩、二维特征矩、马尔科夫特征组成,从时空、局部和全局综合提取图像特征描述,提高了图像特征描述符的表示能力。本文所提的伪造图像盲检测算法基于复合图像特征,分析图像块间的相似度,搜索复制粘贴伪造区域。通过哥伦比亚大学伪造图像数据集的测试结果表明,在灰度值变化明显和细节轮廓清晰的图像中,所提算法能达到比较理想的检测效果,准确率较高。  相似文献   

9.
针对目前图像复制粘贴检测算法有时间复杂度高、当图像中有光滑区域时错检率大的缺点,将图像角点区域及其八方向邻接圆形区域作为伪造检测区域,提取每个检测区域的矩特征后用k-d树进行排序,并通过比较每个区域矩特征的相似性来定位伪造复制区域.该算法效率高,且对经过旋转、添加噪声、模糊、JPEG压缩等后处理的复制粘贴伪造图像检测效果很好.  相似文献   

10.
目前大多数时域视频帧复制粘贴篡改检测算法都是针对至少20帧以上的视频子序列的复制粘贴篡改,而对单帧复制粘贴篡改无法判断。而根据人眼视觉感知的特性,修改视频内容需要至少15帧以上的帧操作,因此篡改帧想通过单帧复制粘贴篡改来达到想要的效果,必须进行连续多次粘贴操作。为了检测这种篡改方式,针对性地提出了一种基于量化离散余弦变换(DCT)系数的视频单帧连续多次复制-粘贴篡改检测算法。首先,将视频转换为图像,采用量化后的DCT系数作为视频帧图像特征向量,并通过计算巴氏(Bhattacharyya)系数来衡量两相邻帧帧间相似度;再设定阈值来判断两相邻帧帧间相似度是否有异常,最后根据出现相似度异常的帧是否连续,以及连续出现的帧数来判断视频是否经过篡改,并定位篡改位置。实验结果表明,所提算法对不同场景的视频都能检测,不仅检测速度快,而且不受再压缩因素影响,算法的正确率高、漏检率低。  相似文献   

11.
目的 为了解决现有图像区域复制篡改检测算法只能识别图像中成对的相似区域而不能准确定位篡改区域的问题,提出一种基于JPEG(joint photographic experts group)图像双重压缩偏移量估计的篡改区域自动检测定位方法。方法 首先利用尺度不变特征变换(SIFT)算法提取图像的特征点和相应的特征向量,并采用最近邻算法对特征向量进行初步匹配,接下来结合特征点的色调饱和度(HSI)彩色特征进行优化匹配,消除彩色信息不一致引发的误匹配;然后利用随机样本一致性(RANSAC)算法对匹配对之间的仿射变换参数进行估计并消除错配,通过构建区域相关图确定完整的复制粘贴区域;最后根据对复制粘贴区域分别估计的JPEG双重压缩偏移量区分复制区域和篡改区域。结果 与经典SIFT和SURF(speeded up robust features)的检测方法相比,本文方法在实现较高检测率的同时,有效降低了检测虚警率。当第2次JPEG压缩的质量因子大于第1次时,篡改区域的检出率可以达到96%以上。 结论 本文方法可以有效定位JPEG图像的区域复制篡改区域,并且对复制区域的几何变换以及常见的后处理操作具有较强的鲁棒性。  相似文献   

12.
现有的篡改检测方法中特征点提取不充分会导致篡改检测精度不高,特征点描述符识别率差,针对该问题提出一种基于颜色矩的区域划分和四元数Hu矩的彩色图像复制粘贴篡改检测算法。首先,使用自适应形态重建算法对图像进行超像素分割,通过密度聚类算法对图像自适应划分区域;其次,提出一种关键点提取方法得到均匀的SIFT特征点;然后,在一种新颖的彩色图像四元数表示方法中构建局部高斯金字塔提取Hu矩特征;最后,利用2NN进行特征匹配后,结合Delaunay三角形算法定位出复制粘贴篡改区域。在公共数据集上的实验结果表明,该算法可以更有效地定位篡改区域。  相似文献   

13.
Copy–move image forgery detection has recently become a very active research topic in blind image forensics. In copy–move image forgery, a region from some image location is copied and pasted to a different location of the same image. Typically, post-processing is applied to better hide the forgery. Using keypoint-based features, such as SIFT features, for detecting copy–move image forgeries has produced promising results. The main idea is detecting duplicated regions in an image by exploiting the similarity between keypoint-based features in these regions. In this paper, we have adopted keypoint-based features for copy–move image forgery detection; however, our emphasis is on accurate and robust localization of duplicated regions. In this context, we are interested in estimating the transformation (e.g., affine) between the copied and pasted regions more accurately as well as extracting these regions as robustly by reducing the number of false positives and negatives. To address these issues, we propose using a more powerful set of keypoint-based features, called MIFT, which shares the properties of SIFT features but also are invariant to mirror reflection transformations. Moreover, we propose refining the affine transformation using an iterative scheme which improves the estimation of the affine transformation parameters by incrementally finding additional keypoint matches. To reduce false positives and negatives when extracting the copied and pasted regions, we propose using “dense” MIFT features, instead of standard pixel correlation, along with hysteresis thresholding and morphological operations. The proposed approach has been evaluated and compared with competitive approaches through a comprehensive set of experiments using a large dataset of real images (i.e., CASIA v2.0). Our results indicate that our method can detect duplicated regions in copy–move image forgery with higher accuracy, especially when the size of the duplicated region is small.  相似文献   

14.

A copy-move forgery is a passive tampering wherein one or more regions have been copied and pasted within the same image. Often, geometric transformations, including scale, rotation, and rotation+scale are applied to the forged areas to conceal the counterfeits to the copy-move forgery detection methods. Recently, copy-move forgery detection using image blobs have been used to tackle the limitation of the existing detection methods. However, the main limitation of blobs-based copy-move forgery detection methods is the inability to perform the geometric transformation estimation. To tackle the above-mentioned limitation, this article presents a technique that detects copy-move forgery and estimates the geometric transformation parameters between the authentic region and its duplicate using image blobs and scale-rotation invariant keypoints. The proposed algorithm involves the following steps: image blobs are found in the image being analyzed; scale-rotation invariant features are extracted; the keypoints that are located within the same blob are identified; feature matching is performed between keypoints that are located within different blobs to find similar features; finally, the blobs with matched keypoints are post-processed and a 2D affine transformations is computed to estimate the geometric transformation parameters. Our technique is flexible and can easily take in various scale-rotation invariant keypoints including AKAZE, ORB, BRISK, SURF, and SIFT to enhance the effectiveness. The proposed algorithm is implemented and evaluated on images forged with copy-move regions combined with geometric transformation from standard datasets. The experimental results indicate that the new algorithm is effective for geometric transformation parameters estimation.

  相似文献   

15.
基于向量空间模型的视频语义相关内容挖掘   总被引:1,自引:0,他引:1       下载免费PDF全文
对海量视频数据库中所蕴涵的语义相关内容进行挖掘分析,是视频摘要生成方法面临的难题。该文提出了一种基于向量空间模型的视频语义相关内容挖掘方法:对新闻视频进行预处理,将视频转化为向量形式的数据集,采用主题关键帧提取算法对视频聚类内容进行挖掘,保留蕴涵场景独特信息的关键帧,去除视频中冗余的内容,这些主题关键帧按原有的时间顺序排列生成视频的摘要。实验结果表明,使用该视频语义相关内容挖掘的算法生成的新闻视频具有良好的压缩率和内容涵盖率。  相似文献   

16.
目的 数字视频区域篡改是指视频帧图像的某个关键区域被覆盖或被替换,经过图像编辑和修补之后,该关键区域的修改痕迹很难通过肉眼来分辨。视频图像的关键区域承载了视频序列的关键语义信息。如果该篡改操作属于恶意的伪造行为,将产生非常严重的影响和后果。因此,视频区域篡改的检测与定位研究具有重要的研究价值和应用前景。方法 数字图像的复制粘贴篡改检测已经取得较大的研究进展,相关研究成果也很多。但是,数字视频区域篡改的检测与定位不能直接采用数字图像的复制—粘贴篡改取证算法。数字视频区域篡改检测与定位是数字视频被动取证研究领域中的一个新兴的研究方向,近年来越来越多的学者在该领域开展研究工作。目前,数字视频的区域篡改检测与定位研究还缺少完善的理论支撑和通用的检测与定位算法。在广泛调研最近几年的最新研究成果的基础上,对数字视频区域篡改的被动取证概念及重要性进行了介绍,将现有的数字视频区域篡改被动取证算法分为4类:基于噪声模式的算法、基于像素相关性的算法、基于视频内容特征的算法和基于抽象统计特征的算法。然后,对这些区域篡改检测与定位的算法进行对比分析,并介绍现有的视频区域篡改软件和算法,以及篡改检测算法的测试数据库。最后,对本研究领域存在的问题和挑战进行总结,并对未来的研究趋势进行展望。结果 选取了20篇文献中的18种算法,分别介绍每种算法的算法原理,并对这些算法进行对比分析。大部分的算法都宣称可以检测并定位出篡改可疑区域,但是检测和定位的精度、计算复杂度都各有差异。其中,基于时空域的像素相关性分析的算法具有较好的检测和定位效果,并且支持运动背景视频中的运动目标删除篡改检测和定位。基于光流平滑性异常的算法和基于运动目标检测的算法都是基于公开的视频篡改测试库进行比较测试的,两种算法都具有较好的检测和定位效果。基于隐写分析特征提取的集成分类算法虽然只能实现时域上的篡改定位,不能实现更精细的空域篡改定位,但是该算法为基于机器学习的大规模视频篡改取证研究提供了新思路和可能的发展方向,具有较大的指导意义。结论 由于视频编码压缩引入噪声,以及视频区域篡改软件工具和技术的改进,视频区域篡改检测和定位仍是一个极具挑战的课题。未来几年,基于视频内容特征和抽象统计特征的视频区域篡改检测和定位算法,有可能结合深度学习算法,得到进一步的研究和发展;相关的理论算法、系统模型和评价标准等研究成果将逐步完善。  相似文献   

17.
目的 图像篡改区域检测是图像取证领域的一个挑战性任务,其目的是找出图像的篡改区域。传统方法仅针对某种特定的篡改方式进行设计,难以检测其他篡改方式的图像。基于卷积神经网络的方法能够自适应地提取特征,同时检测包含多种篡改方式的图像。但是其中多数方法都选择增强图像的噪声特征,这种机制无法较好处理篡改区域与原图像来源相同、噪声相似的情况。多数方法还忽略了篡改区域过小而产生的样本不平衡问题,导致检测效果不佳。方法 提出了一个基于区域损失的用于检测小篡改区域的U型网络,该网络构建了一个异常区域特征增强机制,放大与图像背景差异较大的异常区域的特征。此外,还利用区域损失增强对篡改区域框内像素的判别能力,可以解决因篡改区域过小而产生的样本不平衡问题。结果 消融实验说明了异常区域特征增强机制和区域损失机制的有效性;对JPEG压缩和高斯模糊的对抗性测试证明了模型的鲁棒性;在CASIA2.0(CASI-A image tampering detection evaluation database)、NIST2016(NIST nimble 2016 datasets)、COLUMBIA (Columbia uncompressed image splicing detection evaluation dataset)和COVERAGE (a novel database forcopy-move forgery detection)数据集上与最新方法进行比较时,本文方法取得了最优性能,其F1 score分别为0.979 5、0.982 2、0.995 3和0.987 0。结论 本文的异常区域特征增强机制和区域损失机制能有效提高模型性能,同时缓解篡改区域过小导致的样本不平衡问题,大量实验也表明了本文提出的小篡改区域检测方法的优越性。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号