首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 125 毫秒
1.
利用JPEG图像经篡改后块效应不一致的特性,提出一种根据JPEG篡改图像块效应值的分布检测篡改区域的方法。改进一种通过参照DCT系数的功率谱直方图估计量化表的方法,根据量化表求得图像每个8×8块的块效应,然后根据块效应值的分布规律检测出图像篡改区域。实验表明算法的应用范围广,具有一定的实践意义。  相似文献   

2.
利用JPEG块效应不一致性的合成图像盲检测   总被引:4,自引:1,他引:3       下载免费PDF全文
合成图像的篡改对象和背景区域一般来源于不同的JPEG图像.为了快速有效地检测这种图像篡改,提出了一种盲检测JPEG合成图像的方法.首先将图像与Laplacian模板卷积得到二阶差分图像,沿水平(垂直)方向平均后进行离散Fourier变换得到归一化的频谱,基于频谱幅值构造JPEG块效应测度;然后将待检测图像重叠分块并计算其相应块效应测度,利用块效应不一致性检测篡改区域.实验结果表明,该方法是快速有效的.  相似文献   

3.
基于JPEG块效应差异的图像篡改区域自动定位   总被引:3,自引:1,他引:2  
王鑫  鲁志波 《计算机科学》2010,37(2):269-273
不同JPEG栅格位置或不同压缩质量的图像区域被合成为篡改图像时会出现JPEG块效应的差异,据此提出了一种能自动定位篡改区域的图像盲被动取证方法。算法先通过一种基于小波的图像去噪方法提取噪声,利用噪声衡量局部JPEG块效应以提高块效应信号的信噪比;然后通过迭代方法寻找到合适的阈值,在块效应直方图中分离出篡改区域。针对不同类型的篡改区域的实验说明了算法的有效性。  相似文献   

4.
段新涛  彭涛  李飞飞  王婧娟 《计算机应用》2015,35(11):3198-3202
JPEG图像的双量化效应为JPEG图像的篡改检测提供了重要线索.根据JPEG图像被局部篡改后,又被保存为JPEG格式时,未被篡改的区域(背景区域)的离散余弦变换(DCT)系数会经历双重JPEG压缩,篡改区域的DCT系数则只经历了1次JPEG压缩.而JPEG图像在经过离散余弦变换后其DCT域的交流(AC)系数的分布符合一个用合适的参数来描述的拉普拉斯分布,在此基础上提出了一种JPEG图像重压缩概率模型来描述重压缩前后DCT系数统计特性的变化,并依据贝叶斯准则,利用后验概率表示出图像篡改中存在的双重压缩效应块和只经历单次压缩块的特征值.然后设定阈值,通过阈值进行分类判断就可以实现对篡改区域的自动检测和提取.实验结果表明,该方法能快速并准确地实现篡改区域的自动检测和提取,并且在第2次压缩因子小于第1次压缩因子时,检测结果相对于利用JPEG块效应不一致的图像篡改盲检测算法和利用JPEG图像量化表的图像篡改盲检测算法有了明显的提高.  相似文献   

5.
利用篡改后JPEG图像量化表不一致的特性,提出一种针对JPEG图像的篡改盲检测新方法。通过智能选取若干图像块,迭代估计出待测图像的原始量化表,大致定位出篡改区域。然后用估计出的原始量化表对篡改区域再进行一次JPEG压缩,由压缩前后图像像素值的差值最终确定篡改位置。实验结果表明,提出的估计量化表算法复杂度小,精度高。检测算法能有效地检测出多种篡改类型的JPEG图像,且对篡改区域和未篡改区域压缩因子相差较小的JPEG合成类篡改,检测正确率更高。  相似文献   

6.
JPEG图像的双量化效应是检测和发现JPEG图像篡改的重要线索。针对现有检测算法大多数是基于DCT块效应而较少利用双量化效应的情况,提出了一种利用JPEG双量化效应的图像篡改盲检测新方案。该方案对比用DCT系数直方图计算的未篡改区域后验概率和用区间长度计算的未篡改区域后验概率之间的差异性,提取能有效区分篡改块和未篡改块的特征,计算每个DCT块的特征值,然后设置阈值,将特征值大于阈值的图像块判定为篡改块,最后通过选取连通区域,标定篡改区域。实验结果表明,与已有的类似方案相比,该方案能够较精确地检测和定位篡改区域,且对颜色、纹理丰富的图像具有明显优势。  相似文献   

7.
作为应用最为广泛的图像压缩格式,JPEG图像格式活跃于各个信息渠道之中,随之而来的针对JPEG图像的合成和修改也日益增多.由于JPEG图像中的块效应的存在,很多修改痕迹被掩盖,使得JPEG合成图像盲检测一直是修改图像检测的瓶颈之一.但是,在JPEG图像的合成过程中,为了达到较好的视觉效应,在修改区域往往会出现8×8子块的错位,这一错位在频域中表现为原有波峰的衰减或分裂.通过对这一特征的分析,提出了一个新的基于块效应的JPEG合成图像的盲检测算法,并且通过实验证实了其有效性.  相似文献   

8.
JPEG图像篡改引入的双重压缩会导致篡改区域的原始压缩特性发生改变,因此可以利用篡改区域压缩特性的不一致性来检测图像的篡改。利用该原理,提出了一种基于量化噪声的JPEG图像篡改检测算法。算法对待检测图像进行分块,计算每块的量化噪声,求取图像块的量化噪声服从均匀分布和高斯分布的概率,从而检测出篡改过的双重压缩区域。实验结果表明:该算法能有效检测双重压缩的JPEG图像篡改,并能定位出篡改区域。  相似文献   

9.
JPEG图像篡改的盲检测技术   总被引:1,自引:0,他引:1       下载免费PDF全文
数字图像被动认证技术是一门不依赖数字水印或者签名等图像先验知识而对图像来源和内容真实性进行认证的新兴技术,JPEG图像篡改的盲检测已成为当前被动认证的研究热点。详细分析了三种基于JPEG压缩的盲检测算法:JPEG压缩历史检测和量化表的估计,块效应不一致性的篡改区域检测,JPEG二次压缩的检测,系统阐明了现有算法的基本特征和优缺点,最后展望了未来的研究方向。  相似文献   

10.
数字图像在进行拼接篡改时,为了不留下视觉上的明显篡改痕迹,往往会对篡改的区域进行缩放、旋转等重采样操作。针对这一现象,本文提出一种新的基于重采样检测的JPEG图像拼接篡改取证算法,该算法通过对JPEG图像局部区域二阶导数进行Radon变换,并求其自协方差后进行快速傅里叶变换,在频域中消除JPEG压缩的影响,最后判断该局部区域是否经过重采样操作,以作为判断被检测的JPEG图像是否经过拼接篡改的证据。实验结果表明,本文算法对于经过包括缩放和旋转等重采样操作后拼接成的JPEG图像有较好的篡改取证效果。  相似文献   

11.
The comblike histogram of DCT coefficients on each subband and the blocking artifacts among adjacent blocks are the two main fingerprints of the image that was once compressed by JPEG. Stamm and Liu proposed an anti-forensics method for removing these fingerprints by dithering the DCT coefficients and adding noise into the pixels. However, some defects emerge inside the anti-forensically processed images. First, the noise distributions are abnormal in the resulting images; and second, the quality of the processed image is poor compared with the original image. To fill these gaps, this paper proposes an improved anti-forensics method for JPEG compression. After analyzing the noise distribution, we propose a denoising algorithm to remove the grainy noise caused by image dithering, and a deblocking algorithm to combat Fan and Queiroz's forensics method against blocking artifacts. With the proposed anti-forensics method, fingerprints of the comblike histograms and the blocking artifacts are removed, noise distribution abnormality is avoided, and the quality of the processed image is improved.  相似文献   

12.

In this paper, we propose a new no-reference image quality assessment for JPEG compressed images. In contrast to the most existing approaches, the proposed method considers the compression processes for assessing the blocking effects in the JPEG compressed images. These images have blocking artifacts in high compression ratio. The quantization of the discrete cosine transform (DCT) coefficients is the main issue in JPEG algorithm to trade-off between image quality and compression ratio. When the compression ratio increases, DCT coefficients will be further decreased via quantization. The coarse quantization causes blocking effect in the compressed image. We propose to use the DCT coefficient values to score image quality in terms of blocking artifacts. An image may have uniform and non-uniform blocks, which are respectively associated with the low and high frequency information. Once an image is compressed using JPEG, inherent non-uniform blocks may become uniform due to quantization, whilst inherent uniform blocks stay uniform. In the proposed method for assessing the quality of an image, firstly, inherent non-uniform blocks are distinguished from inherent uniform blocks by using the sharpness map. If the DCT coefficients of the inherent non-uniform blocks are not significant, it indicates that the original block was quantized. Hence, the DCT coefficients of the inherent non-uniform blocks are used to assess the image quality. Experimental results on various image databases represent that the proposed blockiness metric is well correlated with the subjective metric and outperforms the existing metrics.

  相似文献   

13.
JPEG images are widely used in a large range of applications. The properties of JPEG compression can be used for detection of forgery in digital images. The forgery in JPEG images requires the image to be resaved thereby, re-compression of image. Therefore, the traces of recompression can be identified in order to detect manipulation. In this paper, a method to detect forgery in JPEG image is presented and an algorithm is designed to classify the image blocks as forged or non-forged based on a particular feature present in multi-compressed JPEG images. The method performs better than the previous methods which use the probability based approach for detecting forgery in JPEG images.  相似文献   

14.
数字图像的盲取证技术由于不依赖任何预嵌入的信息来鉴别图像真实性和完整性的优势,正逐步成为数字媒体安全领域新的研究热点。由于JPEG图像是目前最流行的图像格式,并且块效应是JPEG图像与生俱来的本质特征,因此如何更加有效地利用块效应特征对JPEG图像的真伪进行盲取证研究具有非常重要的现实意义和应用价值。首先对目前国内外利用JPEG图像编码特性的盲取证方法进行归类分析;然后重点针对利用块效应特征的JPEG图像盲取证技术展开讨论,详细介绍并总结了基于块效应测度和基于块效应网格提取的两类盲取证算法的核心思想和局限性;最后提出了存在的问题及未来的研究方向。  相似文献   

15.
颜普  苏亮亮  邵慧  吴东升 《计算机应用》2019,39(9):2707-2711
图像伪造检测是目前数字图像处理领域中的一个研究热点,其中复制-粘贴是最常用的伪造手段。由于伪造区域在粘贴前会被进行一定的尺度、旋转、JPEG压缩、添加噪声等操作,这使得检测伪造区域具有一定的挑战性。针对图像复制-粘贴伪造技术,提出一种基于多支持区域局部亮度序模式(LIOP)的图像伪造检测算法。首先,利用最大稳定极值区域(MSER)算法提取具有仿射不变性的区域作为支持区域;其次,利用非抽样Contourlet变换得到不同尺度、不同分辨率和不同方向的多个支持区域;然后,在每个支持区域上提取同时具有旋转不变性和单调亮度不变性的LIOP描述子,并利用双向距离比值法实现特征初匹配;接着,采用空间聚类将匹配的特征进行归类,进而用随机抽样一致性(RANSAC)算法对每个归类进行几何变换参数估计;最后,使用必要的后处理等操作来检测出伪造区域。实验表明,提出的算法具有较高的伪造检测精度与可信度。  相似文献   

16.
孙力  黄正谦 《测控技术》2015,34(10):30-34
当前基于光响应非均匀性噪声的伪造检测算法使用了滤色器阵列,容易产生颜色插值噪声,严重影响了其噪声的提取精度及相关性检测的分辨率;且没有考虑源相机的相关性,借助局部像素统计决策进行目标识别,削弱了算法检测精度.提出了颜色解耦光响应非均匀性(,CD-PRNU color decoupled photo response non-uniformity)噪声融合凸优化方案的图像伪造检测算法.设计颜色解耦光响应非均匀性噪声;并构造了CD-PRNU噪声残留的数学计算模型;再嵌入Bayes原理,形成贝叶斯最小风险决策,利用图像全局像素,完成伪造目标检测.同时提出凸优化方案,将真伪决策演变为凸问题,降低算法复杂度.仿真结果显示:该算法能够更有效地检测出微小尺寸伪造目标,且其误检率更低.  相似文献   

17.
提出了一种有效的盲检测算法来识别图像复制区域伪造。该算法采用截尾奇异值分解(truncatedsingular value decomposition,TSVD)变换来处理图像块数据,并对图像块进行相似性匹配检测。实验结果表明,本算法具有较强的检测能力,能够有效抵抗多种修饰操作,如JPEG有损压缩、高斯模糊、高斯白噪声污染等。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号