首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 798 毫秒
1.
曹玉东  蔡希彪 《计算机应用》2020,40(11):3166-3171
为了提高无参考图像质量评价(NR-IQA)方法的性能,参考先进的深度生成对抗网络(GAN)研究成果,提出一种基于增强型对抗学习的无参考图像质量评价算法,即通过改进损失函数、网络模型结构来增强对抗学习强度,输出更可靠的模拟“参考图”,进而可以像全参考图像质量评价(FR-IQA)方法一样模拟人的视觉比较过程。首先,利用数据集中失真的图像和未失真的原图像作为输入,从而基于增强对抗学习来训练网络模型;然后,利用该模型输出待测图像的模拟仿真图,提取仿真图的深度卷积特征;最后,将仿真图和待测失真图的卷积特征相融合,并输入到训练好的图像质量评价回归网络,输出图像的评测分数。在LIVE、TID2008和TID2013数据集上完成实验。实验结果表明,所提算法在图像质量上的总体客观评价性能优于当前的主流算法,与人的主观评价表现出的性能相一致。  相似文献   

2.
曹玉东  蔡希彪 《计算机应用》2005,40(11):3166-3171
为了提高无参考图像质量评价(NR-IQA)方法的性能,参考先进的深度生成对抗网络(GAN)研究成果,提出一种基于增强型对抗学习的无参考图像质量评价算法,即通过改进损失函数、网络模型结构来增强对抗学习强度,输出更可靠的模拟“参考图”,进而可以像全参考图像质量评价(FR-IQA)方法一样模拟人的视觉比较过程。首先,利用数据集中失真的图像和未失真的原图像作为输入,从而基于增强对抗学习来训练网络模型;然后,利用该模型输出待测图像的模拟仿真图,提取仿真图的深度卷积特征;最后,将仿真图和待测失真图的卷积特征相融合,并输入到训练好的图像质量评价回归网络,输出图像的评测分数。在LIVE、TID2008和TID2013数据集上完成实验。实验结果表明,所提算法在图像质量上的总体客观评价性能优于当前的主流算法,与人的主观评价表现出的性能相一致。  相似文献   

3.
针对通用型无参考图像质量评价(NR-IQA)算法,提出一种基于伪参考图像显著性深层特征的评价算法。首先,在失真图像的基础上,利用微调的ConSinGAN模型生成相应的伪参考图像作为失真图像的补偿信息,弥补NRIQA算法缺少真实参考信息的不足;然后,提取伪参考图像的显著性信息,将伪参考显著性图像与失真图像输入到VGG16网络中提取深层特征;最后,融合二者的深层特征并将其映射到由全连接层组成的回归网络中,从而产生与人类视觉一致的质量预测。为了验证算法的有效性,在四个大型公开的图像数据集TID2013、TID2008、CSIQ与LIVE上进行实验,结果显示所提算法在TID2013数据集上的斯皮尔曼秩相关系数(SROCC)比H-IQA算法提升了5个百分点,比RankIQA算法提升了14个百分点,针对单一失真类型也具有稳定的性能。实验结果表明,所提算法总体表现优于现有主流全参考图像质量评价(FR-IQA)和NR-IQA算法,与人类主观感知表现一致。  相似文献   

4.
针对通用型无参考图像质量评价(NR-IQA)算法,提出一种基于伪参考图像显著性深层特征的评价算法。首先,在失真图像的基础上,利用微调的ConSinGAN模型生成相应的伪参考图像作为失真图像的补偿信息,弥补NRIQA算法缺少真实参考信息的不足;然后,提取伪参考图像的显著性信息,将伪参考显著性图像与失真图像输入到VGG16网络中提取深层特征;最后,融合二者的深层特征并将其映射到由全连接层组成的回归网络中,从而产生与人类视觉一致的质量预测。为了验证算法的有效性,在四个大型公开的图像数据集TID2013、TID2008、CSIQ与LIVE上进行实验,结果显示所提算法在TID2013数据集上的斯皮尔曼秩相关系数(SROCC)比H-IQA算法提升了5个百分点,比RankIQA算法提升了14个百分点,针对单一失真类型也具有稳定的性能。实验结果表明,所提算法总体表现优于现有主流全参考图像质量评价(FR-IQA)和NR-IQA算法,与人类主观感知表现一致。  相似文献   

5.
针对显著性图像质量评价问题,参考人眼视觉对图像色彩的差异化感知,提出一种基于孪生神经网络对图像色彩对比显著区域进行质量评价的算法。首先,根据图像中的色彩对比和语义信息分别提取原始图像和失真图像中的色彩对比显著区域;然后,将原始图像和失真图像中对应的色彩区域作为子图像,以样本对的形式输入孪生神经网络;最后,计算主客观图像质量评估值的相关性。实验采用残差结构的Inception-ResNet-V2网络作为基础模型,同时增加EMD损失函数优化对图像质量的距离损失,经过Softmax层后输出图像质量评估值,并在TID2013数据集上进行了测试。结果表明,提出的算法在该数据集上性能良好。  相似文献   

6.
温阳  张宾  杨琳 《测控技术》2017,36(9):39-42
客观图像质量评价(IQA)方法旨在利用计算模型自动实现与主观感知一致的图像质量评估,是当前计算机视觉领域和图像处理领域的研究热点.由于图像的边缘信息对理解图像语义信息至关重要,提出一种基于边缘信息的图像质量客观评价方法.通过比较参考图像和失真图像的多方向边缘强度、边缘强度对比度及亮度信息等特征的相似性,实现图像质量的客观评价.利用国外的LIVE2、TID2008及CSIQ等多个图形数据库计算结果证明,本算法能实现对多种失真类型的图像的质量预测,并且在预测准确性、鲁棒性和主观评价一致性方面与当前大多数方法相比都有明显优势.  相似文献   

7.
为了规避图像质量评价中的视觉特征和池化策略难以选取和解释的问题,在提取参考图像和失真图像的多种底层特征的基础上,采用机器学习的方法自动预测真实图像质量,提出多特征融合的图像质量评价方法.针对参考图像和失真图像分别提取相位一致性、梯度、视觉显著性、对比度特征,计算4种特征的相似度图,提取相似度图的均值和方差特征,最后采用支持向量回归评价文中方法.在LIVE、CSIQ、TID2008和TID2013图像库上的实验表明,文中方法的主客观一致性较好.  相似文献   

8.
图像质量评价是对图像或视频的视觉质量的一种度量,主要分析了最近10年图像质量评价算法的研究情况。介绍了图像质量评价算法的衡量指标以及常用的图像质量评价数据集,对图像质量评价方法的分类做了阐述,重点分析了基于深度学习技术的图像质量评价算法。目前,该类算法的基础模型主要包括深度卷积神经网络、深度生成对抗网络和变换器,其性能通常高于传统的图像质量评价算法。描述了基于深度学习技术的图像质量评价算法的原理,重点介绍了基于深度生成对抗网络的无参考图像质量评价算法,通过增强对抗学习强度提高模拟参考图的可靠性。深度学习技术需要海量训练数据的支持,探讨和总结数据集增强的方法,对数字图像质量评价方法的未来研究进行展望。  相似文献   

9.
熊润生  李朝锋  张伟 《计算机科学》2015,42(9):282-284, 308
立体图像质量评价是图像处理领域中一项重要技术,现有的2D图像质量评价方法并不能很好地应用于立体图像。为了更好地评价立体图像质量,提出了一种基于小波变换提取左右图像及其合成图像特征的无参考立体图像质量评价方法。该方法首先通过对失真的立体左右图像计算合成图像;再通过小波分解提取左右图像及其合成图像的小波系数,获取小波子带能量作为立体图像质量感知特征;最后通过支持向量回归建立立体图像特征与主观得分的关系模型,来预测和得到立体图像质量的客观评价得分。实验结果表明,与现有无参考立体图像质量评价方法相比较,该客观评价模型可以获得更好的主观感知一致性,更加符合人眼视觉系统。  相似文献   

10.
基于几何结构失真模型的图像质量评价研究   总被引:1,自引:0,他引:1  
客观图像质量评价研究的目的是设计一种和视觉感知保持一致,且适用于各种失真模型的质量评价方法. 传统的结构相似度量质量评价方法忽视了自然图像本身的特点,不能很好地评判某些失真类型图像. 本文根据人眼视觉系统(Human visual system, HVS)在感知图像质量过程中的特点,探索自然图像的本征几何结构特征, 考虑像素点的方向失真、幅度失真和方差失真,提出了一种新型的基于图像几何结构失真模型的完全参考质量评价方法. 在标准数据库上的实验结果表明,本文方法适用于所有失真模型图像数据的质量评价, 计算复杂度相对较低,得到的图像客观评价结果和主观评价方法具有更好的一致性, 能够很好地反映人眼对图像质量的主观感受.  相似文献   

11.
王宽  杨环  潘振宽  司建伟 《计算机工程》2022,48(2):207-214+223
在立体图像质量评价领域,有效地模拟人类视觉系统对图像质量进行评价具有重要意义,考虑到人眼的视觉感知特性,基于单目和双目视觉信息构建一种立体图像质量评价模型MB-FR-SIQA。采用基于结构相似性的立体视差算法得到参考和失真立体图像的视差矩阵,结合Gabor能量响应图、显著性图和视差矩阵生成中间视图,并优化左右眼加权系数计算方法,以提高生成中间视图的准确性。分别利用单目图像和中间视图提取单目和双目视觉信息,计算单目质量分数和双目质量分数,并融合得到立体图像的质量分数,达到评价立体图像质量的目的。实验结果表明,MB-FR-SIQA模型在LIVE-I数据库上具有较高的预测精度,其斯皮尔曼等级相关系数、皮尔森线性相关系数、均方根误差分别为0.945、0.951、5.318,且预测的质量分数符合人类主观评估。  相似文献   

12.
半参考图像质量评价方法是一种利用原始图像的部分信息对失真图像进行质量预测的方法,提出了一种基于轮廓波变换数字水印的JPEG图像压缩半参考质量评价方法。首先参考人类视觉系统(Human Visual System,HVS)的思想,选取轮廓波变换的低频区域作为水印嵌入区域,从而生成半脆弱数字水印。然后根据已嵌入水印图像与原始图像之间的结构相似度(Structural Similarity,SSIM)的值,设计自适应水印嵌入系统,以保证水印的不可见性。最后分别在LIVE图像数据库2和TID2008图像数据库中,根据已嵌入水印图像进行数据库重建,并测试该算法的性能。实验结果对比显示,该算法与其他算法相比较,具有较好的准确性、单调性以及一致性,能够较好地反应JPEG失真图像的质量。  相似文献   

13.
基于色彩空间自然场景统计的无参考图像质量评价   总被引:3,自引:0,他引:3  
李俊峰 《自动化学报》2015,41(9):1601-1615
RGB色彩空间中各色彩分量间存在强相关性, 图像发生失真会改变各分量间的相关性. 基于此, 本文提出了一种新的通用无参考图像质量评价方法. 首先, 根据人类视觉对RGB色彩空间中绿色分量更为敏感的颜色感知特性, 提取了G分量MSCN系数及其4方向邻域系数的统计特征; 其次, 在分析RGB色彩空间中R、G及B分量间相关性的基础上, 分别计算RGB色彩空间各色彩分量及其纹理、相位间的互信息, 利用互信息作为统计特征来描述其各分量间的相关性; 进而, 结合上述统计特征, 分别利用SVR和SVC构建无参考图像质量评价模型和图像失真类型识别模型; 最后, 在LIVE、CSIQ 及TID2008图像质量评价数据库上进行了算法与DMOS (Different mean opinion score)的相关性、失真类型识别及计算复杂性等方面的实验. 实验结果表明, 本文方法的评价结果与人类主观评价具有高度的一致性, 在LIVE 数据库上的斯皮尔曼等级相关系数和皮尔逊线性相关系数均在0.942以上; 而且, 图像失真类型识别模型的识别准确率也高达93.59%, 明显高于当今主流无参考图像质量评价方法.  相似文献   

14.
图像质量评价一直是图像处理和计算机视觉领域的一个基础问题,图像质量评价模型也广泛应用于图像/视频编码、超分辨率重建和图像/视频视觉质量增强等相关领域。图像质量评价主要包括全参考图像质量评价、半参考图像质量评价和无参考图像质量评价。全参考图像质量评价和半参考图像质量评价分别指预测图像质量时参考信息完全可用和部分可用,而无参考图像质量评价是指预测图像质量时参考信息不可用。虽然全参考和半参考图像质量评价模型较为可靠,但在计算过程中必须依赖参考信息,使得应用场景极为受限。无参考图像质量评价模型因不需要依赖参考信息而有较强的适用性,一直都是图像质量评价领域研究的热点。本文主要概述2012—2020年国内外公开发表的无参考图像质量评价模型,根据模型训练过程中是否需要用到主观分数,将无参考图像质量评价模型分为有监督学习和无监督学习的无参考图像质量评价模型。同时,每类模型分成基于传统机器学习算法的模型和基于深度学习算法的模型。对基于传统机器学习算法的模型,重点介绍相应的特征提取策略及思想;对基于深度学习算法的模型,重点介绍设计思路。此外,本文介绍了图像质量评价在新媒体数据中的研究工作及图像质量评价的应用。最后对介绍的无参考图像质量评价模型进行总结,并指出未来可能的发展方向。  相似文献   

15.

No reference image quality assessment (NR-IQA) has received considerable importance in the last decade due to a rise in the use of multimedia content in our daily lives. Due to limitations in technology, multiple distortions may be introduced in the images that need to be assessed. Recently feature selection has shown promising results for single distorted NR-IQA and their effectiveness on multiple distorted images still need to be addressed. In this paper, impact of feature level fusion and feature selection on multiple distorted image quality assessment is presented. To this end features are extracted from multiple distorted images using six NR-IQA techniques (BLIINDS-II, BRISQUE, CurveletQA, DIIVINE, GM-LOG, SSEQ) that extract features in different (discrete cosine transform, spatial, curvelet transform, wavelet transform, spatial and gradient, spatial and spectral) domains. The extracted features from different domains are fused to generate a single feature vector. All combinations of feature-level fusion from six different techniques have been evaluated. Three different feature selection algorithms (genetic search, linear forward search, particle swarm optimization) are then applied to select optimum features for NR-IQA. The selected features are then used by the support vector regression model to predict the quality score. The performance of the proposed methodology is evaluated for two multiple distorted IQA databases (LIVE multiple distorted image dataset (LIVEMD), multiply distorted image database (MDID2017)), two singly synthetically distorted IQA databases (Tampere image database (TID2013), Computational and subjective image quality database (CSIQ)), and one screen content IQA database (Screen content image quality database (SIQAD)). Experimental results show that the fusion of features from different domains gives better performance in comparison to existing multiple-distorted NR-IQA techniques with SROCC scores of 0.9555, 0.9587, 0.6892, 0.9452, and 0.7682 on the LIVEMD, MDID, TID2013, CSIQ, and SIQAD databases respectively. Moreover, the performance is further improved when the genetic search feature selection algorithm is applied to fused features to remove the redundant and irrelevant features. The SROCC scores are improved to 0.9691, 0.9723, and 0.6897 for LIVEMD, MDID, and TID2013 databases respectively.

  相似文献   

16.
In this paper, we proposed a novel method for No-Reference Image Quality Assessment (NR-IQA) by combining deep Convolutional Neural Network (CNN) with saliency map. We first investigate the effect of depth of CNNs for NR-IQA by comparing our proposed ten-layer Deep CNN (DCNN) for NR-IQA with the state-of-the-art CNN architecture proposed by Kang et al. (2014). Our results show that the DCNN architecture can deliver a higher accuracy on the LIVE dataset. To mimic human vision, we introduce saliency maps combining with CNN to propose a Saliency-based DCNN (SDCNN) framework for NR-IQA. We compute a saliency map for each image and both the map and the image are split into small patches. Each image patch is assigned with a patch importance value based on its saliency patch. A set of Salient Image Patches (SIPs) are selected according to their saliency and we only apply the model on those SIPs to predict the quality score for the whole image. Our experimental results show that the SDCNN framework is superior to other state-of-the-art approaches on the widely used LIVE dataset. The TID2008 and the CISQ image quality datasets are utilised to report cross-dataset results. The results indicate that our proposed SDCNN can generalise well on other datasets.  相似文献   

17.
Image quality assessment of distorted or decompressed images without any reference to the original image is challenging from computational point of view. Quality of an image is best judged by human observers without any reference image, and evaluated using subjective measures. The paper aims at designing a generic no-reference image quality assessment (NR-IQA) method by incorporating human visual perception in assigning quality class labels to the images. Using fuzzy logic approach, we consider information theoretic entropies of visually salient regions of images as features and assess quality of the images using linguistic values. The features are transformed into fuzzy feature space by designing an algorithm based on interval type-2 (IT2) fuzzy sets. The algorithm measures uncertainty present in the input–output feature space to predict image quality accurately as close to human observations. We have taken a set of training images belonging to five different pre-assigned quality class labels for calculating foot print of uncertainty (FOU) corresponding to each class. To assess the quality class label of the test images, maximum of T-conorm applied on the lower and upper membership functions of the test images belonging to different classes is calculated. Our proposed image quality metric is compared with other no-reference quality metrics demonstrating more accurate results and compatible with subjective mean opinion score metric.  相似文献   

18.
目的 现有方法存在特征提取时间过长、非对称失真图像预测准确性不高的问题,同时少有工作对非对称失真与对称失真立体图像的分类进行研究,为此提出了基于双目竞争的非对称失真立体图像质量评价方法。方法 依据双目竞争的视觉现象,利用非对称失真立体图像两个视点的图像质量衰减程度的不同,生成单目图像特征的融合系数,融合从左右视点图像中提取的灰度空间特征与HSV (hue-saturation-value)彩色空间特征。同时,量化两个视点图像在结构、信息量和质量衰减程度等多方面的差异,获得双目差异特征。并且将双目融合特征与双目差异特征级联为一个描述能力更强的立体图像质量感知特征向量,训练基于支持向量回归的特征—质量映射模型。此外,还利用双目差异特征训练基于支持向量分类模型的对称失真与非对称失真立体图像分类模型。结果 本文提出的质量预测模型在4个数据库上的SROCC (Spearman rank order correlation coefficient)和PLCC (Pearson linear correlation coefficient)均达到0.95以上,在3个非对称失真数据库上的均方根误差(root of mean square error,RMSE)取值均优于对比算法。在LIVE-II(LIVE 3D image quality database phase II)、IVC-I(Waterloo-IVC 3D image qualityassessment database phase I)和IVC-II (Waterloo-IVC 3D image quality assessment database phase II)这3个非对称失真立体图像测试数据库上的失真类型分类测试中,对称失真立体图像的分类准确率分别为89.91%、94.76%和98.97%,非对称失真立体图像的分类准确率分别为95.46%,92.64%和96.22%。结论 本文方法依据双目竞争的视觉现象融合左右视点图像的质量感知特征用于立体图像质量预测,能够提升非对称失真立体图像的评价准确性和鲁棒性。所提取双目差异性特征还能够用于将对称失真与非对称失真立体图像进行有效分类,分类准确性高。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号