首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 281 毫秒
1.
针对单幅图像超分辨率(SR)复原样本资源不足和抗噪性差的问题,提出一种基于结构自相似和形变块特征的单幅图像超分辨率算法。首先,该方法通过构建尺度模型,尽可能地扩展搜索空间,克服单幅图像超分辨率训练样本不足的缺陷;接着,通过样例块的几何形变提升了局限性的内部字典大小;最后,为了提升重建图片的抗噪性,利用组稀疏学习字典来重建图像。实验结果表明:与Bicubic、稀疏字典学习(ScSR)算法和基于卷积神经网络的超分辨率(SRCNN)等优秀字典学习算法相比,所提算法可以得到主观视觉效果更为清晰和客观评价更高的超分辨率图像,峰值信噪比(PSNR)平均约提升了0.35 dB。另外所提算法通过几何形变的方式扩展了字典规模和搜索的准确性,在算法时间消耗上平均约减少了80 s。  相似文献   

2.
单幅图像超分辨率(Super Resolution,SR)重建,是计算机视觉领域的一个经典问题,其目的在于从一个低分辨率图像得到一个高分辨率图像。目前的卷积神经网络重建算法只有三层结构,浅层结构在处理内部结构复杂的数据时,会出现表征能力不足的问题,因此提出了一个基于特征转移的八层卷积神经网络结构来实现图像超分辨率重建。针对不同的测试集,提出的卷积神经网络模型取得了更佳的超分辨率结果,不管是在主观视觉上还是在客观评价指标上均有明显改善,把数据集图像放大3倍时,对于不同算法的对比图像,该算法的峰值信噪比最高,而且在清晰度方面尤其是图像纹理边缘得到了增强。实验结果证明了基于迁移转移的八层卷积神经网络对图像超分辨率重建的有效性,且网络的收敛速度更快,在精细度方面具有更高的优势。  相似文献   

3.
针对经典的基于卷积神经网络的单幅图像超分辨率重建方法网络较浅、提取的特征少、重建图像模糊等问题,提出了一种改进的卷积神经网络的单幅图像超分辨率重建方法,设计了由密集残差网络和反卷积网络组成的新型深度卷积神经网络结构。原始低分辨率图像输入网络,利用密集残差学习网络获取更丰富的有效特征并加快特征梯度流动,其次通过反卷积层将图像特征上采样到目标图像大小,再利用密集残差学习高维特征,最后融合不同卷积核提取的特征得到最终的重建图像。在Set5和Set14数据集上进行了实验,并和Bicubic、K-SVD、SelfEx、SRCNN等经典重建方法进行了对比,重建出的图像在整体清晰度和边缘锐度方面更好,另外峰值信噪比(PSNR)平均分别提高了2.69?dB、1.68?dB、0.74?dB和0.61?dB。实验结果表明,该方法能够获取更丰富的细节信息,得到更好的视觉效果,达到了图像超分辨率的增强任务。  相似文献   

4.
为更有效地提升图像的超分辨率(SR)效果,提出了一种多阶段级联残差卷积神经网络模型。首先,该模型采用了两阶段超分辨率图像重建方法先重建2倍超分辨率图像,再重建4倍超分辨率图像;其次,第一阶段与第二阶段皆使用残差层和跳层结构预测出高分辨率空间的纹理信息,由反卷积层分别重建出2倍与4倍大小的超分辨率图像;最后,以两阶段的结果分别构建多任务损失函数,利用第一阶段的损失指导第二阶段的损失,从而提高网络的训练速度,加强网络学习中的监督指导。实验结果表明,与bilinear算法、bicubic算法、基于卷积神经网络的图像超分辨率(SRCNN)算法和加速的超分辨率卷积神经网络(FSRCNN)算法相比,所提模型能更好地重建出图像的细节和纹理,避免了经过迭代之后造成的图像过度平滑,获得更高的峰值信噪比(PSNR)和平均结构相似度(MSSIM)。  相似文献   

5.
针对卷积神经网络中的图像超分辨率重建模型训练不稳定与收敛速度较慢等问题,提出一种可嵌入式并行网络框架(EPNF),用于单幅图像超分辨率重建任务。将现有的图像超分辨率网络模型作为EPNF框架的深层结构部分嵌入到该框架中,能够以较小参数代价加快所嵌入的超分辨率模型的收敛速度,在一定程度上提高模型的准确率。在EPNF网络结构的基础上,提出一种新的超分辨率重建方法EPNF_DCSR,采用稠密跳跃连接构造高分辨率(HR)图像的高频成分,并使用单层卷积构造HR图像的低频成分,合成一幅HR输出图像。实验结果表明,与当前主流的图像超分辨率算法相比,EPNF_DCSR具有更好的图像生成效果。  相似文献   

6.
为解决现有医学图像超分辨率重建中存在的图像细节模糊、全局信息利用不充分等问题,提出一种基于空洞卷积与改进的混合注意力机制的医学图像超分辨率重建算法。首先,将深度可分离卷积与空洞卷积相结合,使用不同大小的感受野对图像进行不同尺度的特征提取,从而增强特征表达能力;其次,引入边缘通道注意力机制,在提取图像高频特征的同时融合边缘信息,从而提高模型的重建精度;再次,混合L1损失与感知损失函数作为整体损失函数,使重建后的图像效果更符合人类视觉感观。实验结果表明,在放大因子为3时,与基于卷积神经网络的图像超分辨率(SRCNN)算法、VDSR(Very Deep convolutional networks Super-Resolution)相比,所提算法的峰值信噪比(PSNR)平均提高了11.29%与7.85%;结构相似性(SSIM)平均提高了5.25%和2.44%。可见,所提算法能增强医学图像的效果与纹理特征,且对图像整体结构还原更加完整。  相似文献   

7.
由于水体本身的特性以及水中悬浮颗粒对光的吸收和散射作用,水下图像普遍存在信噪比(SNR)低、分辨率低等一系列问题,但大部分方法传统处理方法包含图像增强、复原及重建,都依赖退化模型,并存在算法病态性问题。为进一步提高水下图像恢复算法的效果和效率,提出了一种改进的基于深度卷积神经网络的图像超分辨率重建方法。该方法网络中引入了改良的密集块结构(IDB),能在有效解决深度卷积神经网络梯度弥散问题的同时提高训练速度。该网络对经过配准的退化前后的水下图像进行训练,得到水下低分辨率图像和高分辨率图像之间的一个映射关系。实验结果表明,在基于自建的水下图像作为训练集上,较卷积神经网络的单帧图像超分辨率重建算法(SRCNN),使用引入了改良的密集块结构(IDB)的深度卷积神经网络对水下图像进行重建,重建图像的峰值信噪比(PSNR)提升达到0.38 dB,结构相似度(SSIM)提升达到0.013,能有效地提高水下图像的重建质量。  相似文献   

8.
针对当前图像超分辨率重建算法中存在的字典单一而导致重建图像质量不佳的问题,提出一种将图像块分类与图像卡通纹理分解相结合的单幅图像超分辨率重建算法。首先,将图像分块,并将图像块分为边缘类、纹理类和平滑类三类,其中纹理类用形态成分分析(MCA)算法分解为卡通部分和纹理部分;然后,对边缘类、卡通部分和纹理部分分别训练高低分辨率字典;最后,求解稀疏系数并与高分辨率字典重建图像块。仿真结果显示,与基于稀疏表示的超分辨率重建(SCSR)算法和单幅图像超分辨率重建(SISR)算法相比,所提算法的峰值信噪比(PNSR)值分别提高了0.26 dB和0.14 dB,表明该算法的重建效果更好,重建图像纹理细节更丰富。  相似文献   

9.
目的 针对基于学习的图像超分辨率重建算法中存在边缘信息丢失、易产生视觉伪影等问题,提出一种基于边缘增强的深层网络模型用于图像的超分辨率重建。方法 本文算法首先利用预处理网络提取输入低分辨率图像的低级特征,然后将其分别输入到两路网络,其中一路网络通过卷积层级联的卷积网络得到高级特征,另一路网络通过卷积网络和与卷积网络成镜像结构的反卷积网络的级联实现图像边缘的重建。最后,利用支路连接将两路网络的结果进行融合,并将其结果通过一个卷积层从而得到最终重建的具有边缘增强效果的高分辨率图像。结果 以峰值信噪比(PSNR)和结构相似度(SSIM)作为评价指标来评价算法性能,在Set5、Set14和B100等常用测试集上放大3倍情况下进行实验,并且PSNR/SSIM指标分别取得了33.24 dB/0.9156、30.60 dB/0.852 1和28.45 dB/0.787 3的结果,相比其他方法有很大提升。结论 定量与定性的实验结果表明,基于边缘增强的深层网络的图像超分辨重建算法所重建的高分辨率图像不仅在重建图像边缘信息方面有较好的改善,同时也在客观评价和主观视觉上都有很大提高。  相似文献   

10.
为重建边缘清晰平滑的高分辨率图像,提出一种基于卷积神经网的单幅图像超分辨率重建算法.该算法使用固定大小的小卷积核,有效地提取梯度信息;设计深度为6层的卷积神经网,重建出边缘更清晰的图像,在一定程度上抑制了边缘的振铃效应;使用更大的样本库进行训练,避免发生过拟合.实验结果表明,虽然文中算法在Dong的卷积神经网超分辨率重建算法所提供的小训练库上优势不明显;但在Image Net这类大训练库上,该算法重建的高分辨率图像在主观视觉感受和客观图像质量评价(如峰值信噪比)上都有更好的表现.  相似文献   

11.
This paper plans to develop an intelligent super resolution model with the linkage of Wavelet lifting scheme and Deep learning algorithm. Before initiating the resolution procedure, the entire HR images are converted into Low Resolution (LR) images using bicubic interpolation-based downsampling and upsampling. Further, the Wavelet lifting scheme helps to generate the four subbands of each image like LR wavelet Sub-Bands for LR images, and High Resolution (HR) wavelet Sub-Bands for HR images. The residual image is generated by taking the difference between the LR wavelet Sub-Bands and HR wavelet Sub-Bands images. The proposed model involves two main phases: Training phase and Testing. The training phase trains the residual image of all images by Deep Convolutional Neural Network with LR wavelet Sub-Bands as input and residual image as target. On the other hand, in testing phase, the LR wavelet Sub-Bands query image is subjected to Deep Convolutional Neural Network, which outputs the concerned residual image. This generated residual image is summed with LR wavelet Sub-Bands image, followed by inverse wavelet lifting scheme to obtain the final super resolution image. The main contribution of this paper is to improve the conventional Deep Convolutional Neural Network by optimizing the number of hidden layer, and hidden neurons using modified Whale Optimization Algorithm called Average Fitness Enabled Whale Optimization Algorithm by considering the objective of maximizing the Peak Signal-to-Noise Ratio. Finally, the proposed method achieves an improved quality of the results which is comparable the existing models.  相似文献   

12.
基于深度卷积神经网络的图像检索算法研究   总被引:2,自引:0,他引:2  
为解决卷积神经网络在提取图像特征时所造成的特征信息损失,提高图像检索的准确率,提出了一种基于改进卷积神经网络LeNet-L的图像检索算法。首先,改进LeNet-5卷积神经网络结构,增加网络结构深度。然后,对深度卷积神经网络模型LeNet-L进行预训练,得到训练好的网络模型,进而提取出图像高层语义特征。最后,通过距离函数比较待检图像与图像库的相似度,得出相似图像。在Corel数据集上,与原模型以及传统的SVM主动学习图像检索方法相比,该图像检索方法有较高的准确性。经实验结果表明,改进后的卷积神经网络具有更好的检索效果。  相似文献   

13.
This paper describes an efficient constructive training algorithm using a Multi Layer Perceptron (MLP) neural network dedicated for Isolated Word Recognition (IWR) systems. Incremental training procedure was employed and this approach was based on novel hidden neurons recruiting for a single hidden-layer. During Neural Network (NN) training phase, the number of pronunciation samples extracted from the Training Data (TD) was sequentially increased. Optimal structure of the NN classifier with optimized TD size was obtained using this proposed MLP constructive training algorithm.  相似文献   

14.
王斯藤  唐旭晟  陈丹 《计算机应用》2014,34(9):2595-2599
针对传统的三维人脸识别分类算法大多需要多个样本进行训练,而在单训练样本的前提下识别性能会严重降低的问题,提出了基于模糊自适应共振理论映射(Fuzzy ARTMAP)的算法对三维人脸数据库进行分类识别。首先对三维人脸深度图像进行局部二值模式(LBP)统一模式算子的特征提取,再对LBP特征进行Log-Gabor小波变换,提取图像的频域特征向量作为训练的输入向量,最后将单样本训练向量集送入Fuzzy ARTMAP分类器进行训练识别。该算法在FRGC v2.0三维人脸数据库中的识别率可达到87.15%,分类器的训练时间为24.88s,单张待识别人脸样本与单张已注册的人脸匹配时间为0.0015s,一张新的人脸样本在数据库完成一次搜索匹配则需要1.08s。实验结果表明,所提方法在测试中的性能优于概率神经网络(PNN)和极限学习机神经网络(ELM),既能保证较高的识别率,又能拥有较短的训练时间,且时间增幅稳定,可控性强。  相似文献   

15.
针对目前的图像超分辨率重建算法中存在的大尺度因子的重建效果较差、不同尺度的图像重建均需要单独训练等问题,提出一种基于拉普拉斯金字塔生成对抗网络(GAN)的图像超分辨率重建算法。算法中的生成器使用金字塔结构实现多尺度的图像重建,从而以渐进上采样的方式降低了大尺度因子的学习难度,并在层与层之间使用密集连接加强特征传播,从而有效避免了梯度弥散问题。算法中使用马尔可夫判别器将输入数据映射为结果矩阵,并在训练的过程中引导生成器关注图像的局部特征,从而丰富了重建图像的细节。实验结果表明:在Set5等基准数据集上分别进行放大2倍、4倍、8倍的图像重建时,所提算法的平均峰值信噪比(PSNR)分别达到了33.97 dB、29.15 dB、25.43 dB,平均结构相似性(SSIM)分别达到了0.924、0.840、0.667,相比用于超分辨率重建的卷积神经网络(SRCNN)、深度拉普拉斯金字塔超分辨率重建网络(LapSRN)、用于超分辨率重建的生成对抗式网络(SRGAN)等其他算法有较大提升,且其重建的图像在主观视觉上保留了更多生动的纹理和小颗粒细节。  相似文献   

16.
林静  黄玉清  李磊民 《计算机应用》2020,40(8):2345-2350
由于网络训练不稳定,基于生成对抗网络(GAN)的图像超分辨率重建存在模式崩溃的现象。针对此问题,提出了一种基于球形几何矩匹配与特征判别的球面双判别器超分辨率重建网络SDSRGAN,通过引入几何矩匹配与高频特征判别来改善网络训练的稳定性。首先,生成器对图像提取特征并通过上采样生成重建图像;接着,球面判别器将图像特征映射至高维球面空间,充分利用特征数据的高阶统计信息;然后,在传统判别器的基础上增加特征判别器,提取图像高频特征,重建特征高频分量和结构分量两方面;最后,对生成器与双判别器进行博弈训练,提高生成器重建图像质量。实验结果表明,所提算法能有效收敛,其网络能够稳定训练,峰值信噪比(PSNR)为31.28 dB,结构相似性(SSIM)为0.872,而与双三次差值、超分辨率残差网络(SRResNet)、加速的卷积神经网络超分辨率(FSRCNN)、基于GAN的单图像超分辨率(SRGAN)和增强型超分辨率生成对抗网络(ESRGAN)算法相比,所提算法的重建图像具有更加逼真的结构纹理细节。所提算法为基于GAN的图像超分辨率研究提供了球形矩匹配与特征判别的双判别方法,在实际应用中可行且有效。  相似文献   

17.
在基于字典的单帧图像超分辨率重建算法中,依赖人工浅层特征设计的字典表达图像特征能力有限。为此,提出基于深度学习特征字典的超分辨重建方法。该算法首先利用深度网络进行高、低分辨率训练样本图像深层次特征学习;然后,在稀疏字典超分辨框架下联合训练特征字典;最后,输入单帧低分辨率图像并利用该字典实现超分辨率重建。理论分析表明,引入深度网络提取图像深层次特征并用于字典训练,对低分辨率图像的高频信息补充更加有利。实验证明,与双三次插值以及基于一般人工特征字典的超分辨重建算法相比,本文算法的主观视觉和客观评价指标均高于对比算法。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号