首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到15条相似文献,搜索用时 138 毫秒
1.
重采样是图像篡改中的一种典型操作,针对现有重采样伪作检测算法对于JPEG压缩格式的图像检测效果不理想,也无法准确估计其中的缩放因子的问题,提出了基于再采样的图像重采样检测算法。该算法先将待检验的JPEG图像以缩放因子小于1进行再次重采样,以削弱JPEG压缩对算法的影响,再利用重采样信号二阶导数具有的周期性来进行重采样操作检测。实验结果表明,该算法具有很强的抗JPEG压缩能力,同时能够准确估计真实的缩放因子。另外,该算法对于经过不同缩放因子而得到的图像进行合成时的重采样操作,也有明显的检测效果。  相似文献   

2.
数字图像在进行拼接篡改时,为了不留下视觉上的明显篡改痕迹,往往会对篡改的区域进行缩放、旋转等重采样操作。针对这一现象,本文提出一种新的基于重采样检测的JPEG图像拼接篡改取证算法,该算法通过对JPEG图像局部区域二阶导数进行Radon变换,并求其自协方差后进行快速傅里叶变换,在频域中消除JPEG压缩的影响,最后判断该局部区域是否经过重采样操作,以作为判断被检测的JPEG图像是否经过拼接篡改的证据。实验结果表明,本文算法对于经过包括缩放和旋转等重采样操作后拼接成的JPEG图像有较好的篡改取证效果。  相似文献   

3.
基于最优空间重采样的图像压缩算法   总被引:1,自引:0,他引:1       下载免费PDF全文
给出了一种基于最优空间重采样模型的图像压缩算法。该算法通过对图像像素的重采样,以还原误差最小化为准则选择性地保存图像中的部分像素来以达到压缩的目的,并通过分段线性插值来估计被删除的像素灰度完成还原。图像压缩实验证明其压缩性能接近JPEG2000,对复杂纹理图像的压缩稍差,对低码率和带噪图像的压缩还原结果在边界保持和视觉效果上要优于JPEG2000。  相似文献   

4.
有损压缩与重采样操作在图像像素间产生的相关统计特性导致有损压缩图像难以被检测。为解决该问题,提出一种适用于无损图像的重采样检测算法,利用插值信号的周期性对图像频域特征进行分析,通过估算插值系数实现重采样检测。实验结果表明,该算法鲁棒性强、应用范围广,对于JPEG有损压缩图像的重采样检测具有较高的正确率。  相似文献   

5.
图像编辑工具的普及导致JPEG图像越来越容易被篡改,其中重采样操作方法通过几何变换能够使伪造的图像更加逼真,因此对JPEG图像进行重采样检测至关重要。传统的光谱分析法依据差分图像相邻极值的间隔遵循几何分布,以及在直方图上的峰值呈现周期性,通过峰值分析对下采样因子进行估计,但由于图像纹理统计特征的周期性干扰了直方图的提取,导致检测准确性较低。提出一种用于JPEG预压缩图像降尺度因子检测的纹理免疫块效应分析算法,利用快速导向滤波对图像进行预处理,并去除图像的纹理和噪声。使用Canny算子对滤波后的图像进行边缘检测,以减轻周期性边缘的干扰,对图像进行交叉差分,从而凸显块效应,提高JPEG图像降尺度因子估计的准确性。在此基础上,结合极大似然估计和谱分析得出降尺度因子的估计值,减小估计误差。实验结果表明,该算法能有效削弱图像纹理对重采样估计的影响,具有较强的纹理免疫能力。  相似文献   

6.
数字图像取证中,目前的重采样检测算法都是检测图像中是否存在插值过程引入的周期性,而周期性的判定一般通过在频域的幅度谱中寻找峰值来进行,进而通过峰值的位置来计算重采样因子。但是由于重采样过程中的频率混叠问题导致了重采样因子不能完全确定。针对这个问题,本文提出一种时域中计算重采样因子的方法。重采样图像中每个像素行(或列)和相邻行(或列)的冗余性大小不同,并且冗余性大小呈现出周期性的分布。通过检测此特征就可以实现对重采样的取证,并且确定重采样因子。实验显示,在未压缩的图像中算法可以正确地估计出所有重采样因子,在压缩图像中本文的算法较之前的算法也有明显的优势。  相似文献   

7.
检测重采样痕迹是数字取证中判断图像是否被篡改的有效途径之一。针对现有重采样检测方法大多只考虑单次重采样情况,对再次经历重采样的伪造图像不能有效区分定位篡改区域这一问题,提出一种基于重采样痕迹的图像伪造检测算法。首先定义出能够描述并区分不同重采样痕迹的两个特征量,将待测图像重叠分块,计算每块的特征量,然后利用特征量的不一致性检测定位篡改区域。实验结果表明,该方法能够区分旋转与缩放的操作历史痕迹,进行篡改伪造图像的自动判断与篡改区域定位;并且当伪造图像再次经历重采样操作后,仍能区分出图像中的不同插值区域,即对再次重采样操作具有一定的鲁棒性。  相似文献   

8.
信息取证中图像重采样检测   总被引:5,自引:0,他引:5  
经过重采样后的数字图像,实质是原始图像信号和周期信号的叠加。通过期望最大化算法对两种信号进行聚类分析,便可以检测其中的重采样痕迹。通过对已有的模型进行改进,将原始信号分布代替均匀分布并增加了先验概率的迭代,使得分布情况更符合实际。同时,通过增加小补偿量的方法避免EM算法可能遇到的奇异点。实验证实该算法可以检测出对于未压缩图像的缩小、放大和旋转及图像是否被JPEG压缩过。  相似文献   

9.
伪造图像典型篡改操作的检测   总被引:1,自引:0,他引:1       下载免费PDF全文
在图像篡改中常使用几何变换、JPEG(Joint Photographic Experts Group)压缩以及模糊操作,其特性是图像伪作检测的依据。首先定义兼顾重采样和JPEG压缩特性的块度量因子,将待测图像重叠分块计算块度量因子,利用其值的不一致性来检测定位篡改区域。实验结果表明,与现有针对性单一的检测方法相比,该方法可以检测更多篡改组合模式下的篡改操作并能有效定位出篡改区域,且对于有损JPEG压缩具有较好的鲁棒性。其次,提出一种检测模糊痕迹的方法。利用一定的模糊核对待测图像进行再次模糊,计算模糊前后两图像的像素差值,根据差值图像值的不同分类完成模糊篡改区域的定位。实验结果表明,该方法能实现对不同模糊方式的盲检测,且对JPEG压缩的抵抗能力较好,同时与现有基于分块检测的方法相比,大大降低了计算复杂度且能检测出较细小的模糊痕迹。  相似文献   

10.
传统JPEG篡改图像盲检测算法采用不同质量因子对待测图像进行尝试性再压缩.为了缩短检测时间,减少计算量,提出一种基于量化表估计的JPEG篡改图像盲检测有效算法.首先通过DCT系数直方图估计出篡改图像某一部分量化表,然后通过计算小块DCT系数中分别是对应量化步长整数倍的个数进一步判定该小块是否属于篡改区域.实验结果表明,提出的量化步长估计算法复杂度小,正确率高;检测算法能准确检测出copy-move和合成类图像篡改.此外,改进方法不仅对标准量化表压缩的JPEG篡改图像具有非常好的检测结果,而且对非标准量化表压缩的JPEG篡改图像检测也有效.  相似文献   

11.
Resampling forgery generally refers to as the technique that utilizes interpolation algorithm to maliciously geometrically transform a digital image or a portion of an image. This paper investigates the problem of image resampling detection based on the linear parametric model. First, we expose the periodic artifact of one-dimensional 1-D) resampled signal. After dealing with the nuisance parameters, together with Bayes’ rule, the detector is designed based on the probability of residual noise extracted from resampled signal using linear parametric model. Subsequently, we mainly study the characteristic of a resampled image. Meanwhile, it is proposed to estimate the probability of pixels’ noise and establish a practical Likelihood Ratio Test (LRT). Comparison with the state-of-the-art tests, numerical experiments show the relevance of our proposed algorithm with detecting uncompressed/compressed resampled images.  相似文献   

12.
Liu  Xianjin  Lu  Wei  Huang  Tao  Liu  Hongmei  Xue  Yingjie  Yeung  Yuileong 《Multimedia Tools and Applications》2019,78(7):7947-7964

Scaling factor estimation is one of the most important topics in image forensics. The existing methods mainly employ the peak of the Fourier spectrum of the variance on image difference to detect the scaling factor. However, when the image is compressed, there will be additional stronger peaks which greatly affect the detection ability. In this paper, a novel method to estimate the scaling factor on JPEG compressed images in the presence of image scaling before the compression is proposed. We find the squared image difference can more effectively obtain the resampling characteristics, and we will mathematically show its periodicity. To further improve the detection ability, we analyze the flat block. It also produces periodic peaks in the spectrum, meanwhile which are enhanced by JPEG compression. To solve this problem, a method based on interpolation on the flat block is developed to remove these influences. The experimental results demonstrate that the proposed detection method outperforms some state-of-the-art methods.

  相似文献   

13.
粒子滤波自适应部分系统重采样算法研究*   总被引:1,自引:1,他引:0  
样本退化是基于序列重要性采样的粒子滤波中的一个主要问题,为了解决这个问题重采样被引入。常规的重采样算法可以解决样本退化问题,但容易导致样本衰竭,增加计算的复杂度。本文在部分重采样的基础上,提出了自适应部分系统分重采样算法,该算法自适应调整重采样的时间,重采样前按照粒子的权值对其分类,只对少数粒子进行重采样,不仅减少了重采样的时间而且增加了粒子的多样性,仿真结果表明该算法与部分重采样相比有效的提高了粒子滤波的性能,减少了运行的时间。  相似文献   

14.
In order to improve the JPEG compression resistant performance of the current steganogrpahy algorithms resisting statistic detection, an adaptive steganography algorithm resisting JPEG compression and detection based on dither modulation is proposed. Utilizing the adaptive dither modulation algorithm based on the quantization tables, the embedding domains resisting JPEG compression for spatial images and JPEG images are determined separately. Then the embedding cost function is constructed by the embedding costs calculation algorithm based on side information. Finally, the RS coding is combined with the STCs to realize the minimum costs messages embedding while improving the correct rates of the extracted messages after JPEG compression. The experimental results demonstrate that the algorithm can be applied to both spatial images and JPEG images. Compared with the current S-UNIWARD steganography, the message extraction error rates of the proposed algorithm after JPEG compression decrease from about 50 % to nearly 0; compared with the current JPEG compression and detection resistant steganography algorithms, the proposed algorithm not only possesses the comparable JPEG compression resistant ability, but also has a stronger detection resistant performance and a higher operation efficiency.  相似文献   

15.
段新涛  彭涛  李飞飞  王婧娟 《计算机应用》2015,35(11):3198-3202
JPEG图像的双量化效应为JPEG图像的篡改检测提供了重要线索.根据JPEG图像被局部篡改后,又被保存为JPEG格式时,未被篡改的区域(背景区域)的离散余弦变换(DCT)系数会经历双重JPEG压缩,篡改区域的DCT系数则只经历了1次JPEG压缩.而JPEG图像在经过离散余弦变换后其DCT域的交流(AC)系数的分布符合一个用合适的参数来描述的拉普拉斯分布,在此基础上提出了一种JPEG图像重压缩概率模型来描述重压缩前后DCT系数统计特性的变化,并依据贝叶斯准则,利用后验概率表示出图像篡改中存在的双重压缩效应块和只经历单次压缩块的特征值.然后设定阈值,通过阈值进行分类判断就可以实现对篡改区域的自动检测和提取.实验结果表明,该方法能快速并准确地实现篡改区域的自动检测和提取,并且在第2次压缩因子小于第1次压缩因子时,检测结果相对于利用JPEG块效应不一致的图像篡改盲检测算法和利用JPEG图像量化表的图像篡改盲检测算法有了明显的提高.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号