首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 546 毫秒
1.
目的 沙尘环境中获取的图像存在颜色失真、对比度低等问题,不利于人眼辨识以及进一步的图像处理。为解决沙尘降质图像的这些问题,提出一种新的基于颜色调整和对比度增强的沙尘降质图像的增强算法。方法 沙尘降质图像增强要解决两个问题,即颜色偏移和对比度增强。基于沙尘降质图像的的颜色直方图存在的集中性、顺序性以及偏离性等特性,使用高斯模型分别对各通道颜色进行建模,进而进行颜色调整。针对颜色调整后的图像存在的整体灰暗,对比度低以及噪声等特点,利用改进的基于奇异值分解的增强算法,从而有效地增加图像对比度并抑制噪声。结果 为了验证本文算法的有效性,与带有色彩恢复的多尺度Retinex算法、GUM算法、Tarel算法、融合算法4种方法进行了对比。从增强结果可以看出,本文算法能够有效解决降质图像的颜色偏移和对比度低的问题,并增强图像的整体视觉效果。结论 本文算法充分利用沙尘降质图像三通道颜色直方图分布的特点,能够快速高效地实现颜色校正,并通过图像频域的奇异值信息进一步提升图像的对比度。经过多幅沙尘降质图像清晰化实验验证,表明本文方法能够实现对不同程度沙尘降质图像的增强,具有较强的适用性。  相似文献   

2.
针对沙尘天气下图像色彩偏移严重及对比度低等问题,提出一种基于直方图均衡化与带色彩恢复的多尺度视网膜(MSRCR)增强的沙尘降质图像增强算法。通过偏色校正和图像增强两个步骤进行图像恢复,将RGB图像各通道预处理后利用限制对比度自适应直方图均衡方法得到校正后的图像,对图像采用双边滤波进行降噪处理,通过MSRCR算法进一步解决色彩失衡问题。由于处理后的图像对比度较低,存在一定色偏,利用伽马校正和基于图像分析的偏色检测及颜色校正方法进行处理得到最终结果。对大量沙尘降质图像进行仿真实验,结果表明,该算法能够有效处理不同偏色程度的沙尘图像,不仅提高了图像的对比度,而且有效避免了图像颜色偏移现象,相比GCANet、MSRCR等算法,平均时间效率提升了46.2%~94.7%。  相似文献   

3.
目的 针对已有的细节增强方法难以保持输入图像帧的色调分布的缺点,提出一种基于色调优化的图像视频细节增强算法。方法 首先,为了避免颜色通道的相关性所带来的偏色现象并提高算法效率,对输入图像帧进行颜色空间的转换,提取亮度信息。然后,采用基于局部极值的边缘保持图像滤波方法,快速地将亮度通道图像分解成一幅含有大尺度边缘信息的基图像和多幅含有小尺度细节信息的细节层图像。接着,在用户期望的细节增强系数和输入图像的颜色场的约束下,提出基于梯度域上能量优化的细节增强算法,获得色调一致的细节增强亮度图像。最后,通过颜色空间的逆转换得到最终的细节凸显效果。结果 实验结果表明,本文算法不但能够显著地增强输入图像帧的细节内容,而且能够有效地保持其原有的色调分布,显得更加真实生动。结论 本文算法基本满足科学观察、视频监控和数字视觉特效等领域的技术要求,具有很大的应用潜力。  相似文献   

4.
为了解决沙尘暴环境下拍摄的图像中存在的颜色偏移、对比度低等降质问题,提出基于偏色校正和信息损失约束的沙尘降质图像增强算法,主要包含偏色校正和对比度增强2个模块,在偏色校正模块中,通过分析沙尘降质图像的RGB 3个通道直方图分布特点,提出一个改进的基于高斯模型的偏色校正算法;在对比度增强模块中,通过结合基于暗通道先验和信息损失约束算法,提出一种基于大气散射模型的对比度增强算法.为了验证算法的有效性,通过与4种已有算法的大量实验结果对比发现:文中算法不但能够很好地增强不同种类的沙尘降质图像的对比度,而且可以有效地避免图像偏色现象,并且保持良好的色彩保真度和合适的亮度.  相似文献   

5.
目的 低光照图像增强是图像处理中的基本任务之一。虽然已经提出了各种方法,但它们往往无法在视觉上产生吸引人的结果,这些图像存在细节不清晰、对比度不高和色彩失真等问题,同时也对后续目标检测、语义分割等任务有不利影响。针对上述问题,提出一种语义分割和HSV(hue,saturation and value)色彩空间引导的低光照图像增强方法。方法 首先提出一个迭代图像增强网络,逐步学习低光照图像与增强图像之间像素级的最佳映射,同时为了在增强过程中保留语义信息,引入一个无监督的语义分割网络并计算语义损失,该网络不需要昂贵的分割注释。为了进一步解决色彩失真问题,在训练时利用HSV色彩空间设计HSV损失;为了解决低光照图像增强中出现细节不清晰的问题,设计了空间一致性损失,使增强图像与对应的低光照图像尽可能细节一致。最终,本文的总损失函数由5个损失函数组成。结果 将本文方法与LIME(low-light image enhancement)、RetinexNet(deep retinex decomposition)、EnlightenGAN(deep light enhancement using generative adversarial networks)、Zero-DCE(zero-reference deep curve estimation)和SGZ(semantic-guided zero-shot learning)5种方法进行了比较。在峰值信噪比(peak signal-to noise ratio,PSNR)上,本文方法平均比Zero-DCE(zero-reference deep curve estimation)提高了0.32dB;在自然图像质量评价(natural image quality evaluation,NIQE)方面,本文方法比EnlightenGAN提高了6%。从主观上看,本文方法具有更好的视觉效果。结论 本文所提出的低光照图像增强方法能有效解决细节不清晰、色彩失真等问题,具有一定的应用价值。  相似文献   

6.
目的 针对雾天图像高亮和雾浓区域中容易出现场景透射率值求取不准确,导致复原后的图像细节丢失、出现光晕现象、对比度和色彩难以满足人眼的视觉特性等问题,提出了一种融合引导滤波优化的色彩恢复多尺度视网膜算法(GF-MSRCR)和暗通道先验的图像去雾算法。方法 首先利用加权四叉树方法从最小通道图中快速搜索全局大气光值,再从图像增强角度应用GF-MSRCR算法初步估计场景透射率值,依据暗通道先验原理对最小通道图进行二次估测,根据两次求取结果按一定比例进行像素级图像融合,得到场景透射率估计值;利用变差函数修正估计值,经中值滤波进一步优化得到场景透射率的精确值,最后通过大气散射模型恢复雾天图像,调整对比度和恢复颜色后,得到了轮廓完整且细节清晰的无雾图像。结果 理论分析和实验结果表明,经本文算法去雾处理后的图像信息熵、对比度、平均梯度、结构相似性分别平均提升了7.87%、21.95%、47.73%和15.58%,同时运行时间缩短了53.22%,对近景、含小部分天空区域、含大片天空区域和含白色物体场景的多种类型雾天图像显示出较好的复原效果。结论 融合GF-MSRCR和暗通道先验的图像去雾算法能快速有效保留图像的细节信息、消除光晕,满足了人眼的视觉特性,具有一定的实用性以及普适性。  相似文献   

7.
目的 雾霾、雨雪天气和水下等非理想环境因素会引起图像退化,导致出现低质图像,从而影响人类主观视觉感受及机器视觉应用任务的性能,因此,低质图像被利用之前进行图像增强成为惯常的预处理过程。然而,图像增强能否提高图像机器视觉应用任务的性能及影响程度等问题鲜有系统性研究。针对上述问题,本文以图像显著性目标检测这一机器视觉应用为例,研究图像增强对显著性目标检测性能的影响。方法 首先利用包括5种传统方法、6种深度学习方法等共11种典型图像增强方法对图像进行增强处理,然后利用8种典型的显著性目标检测方法对增强前后的图像分别进行显著性目标检测实验,并对比分析其结果。结果 实验表明,图像增强对低质图像显著性目标检测方法性能的促进作用不明显,某些增强方法甚至表现出负面影响,也存在同一增强方法对不同的显著性目标检测方法作用不同的现象。结论 图像增强对于显著性目标检测及其他的机器视觉应用的实际效果值得进一步研究,如何根据图像机器视觉应用的需求来选择和设计有效的增强方法需进一步探讨。  相似文献   

8.
结合暗通道原理和双边滤波的遥感图像增强   总被引:8,自引:3,他引:5       下载免费PDF全文
目的 在遥感应用如目视解译等任务中,需要提高遥感影像的视觉质量,为此提出一种基于暗通道原理和双边滤波的遥感图像增强算法。方法 由于暗通道模型的softmatting过程计算复杂性高,故使用双边滤波估计大气光幕,进而获得优化透射图,代替He算法中softmatting过程,提高了计算效率。针对将暗通道原理应用于遥感图像增强时所产生的色彩失真现象,提出透射图的改进算法,提高景深图像的取值,同时约束其最大值不大于1。最后,基于景深图像和暗通道原理获得增强后的遥感图像。结果 实验结果表明,本文算法能够有效地增加图像的对比度。与基于双边滤波单尺度Retinex图像增强、四尺度Retinex增强、直方图均衡化及MSRCR增强的结果进行了比较,实验结果验证了算法的有效性。结论 本文模型能够使处理后的遥感图像更符合视觉特性,以便于目视解译与分析。该算法适用于遥感图像的可视化增强。  相似文献   

9.
10.
水下机器人可用于水产养殖动态监测和水下拍摄,然而摄像机在水下抓拍的海洋图像呈现蓝绿色调、对比度低、细节模糊、亮度暗等问题,严重影响水下目标识别与检测的准确率。为此,本文提出了一种基于图像融合的低照度水下图像增强方法。首先,利用灰度世界算法对图像颜色进行校正,有效去除水下图像的蓝(绿)色基调;然后,对颜色校正后的图像分别进行锐化处理和HSV颜色空间下的亮度增强,分别得到细节增强图像和亮度增强图像;最后,将细节增强图像和亮度增强图像进行多尺度融合,得到最后的增强图像。实验结果表明,该算法不仅有效地解决了水下图像呈现蓝绿色的问题,而且增强了图像的整体亮度,使得细节更加清晰,提高了水下机器人的视觉感知能力。  相似文献   

11.
目的 图像去雾是计算机视觉的重要研究方向,既获得高质量的去雾图像,又保证较低的时间复杂度一直是图像去雾面临的挑战,为此提出了一种基于雾天图像降质模型的优化去雾方法。方法 根据雾天图像降质模型,暗原色作为先验知识,对模型的两个物理量大气光值和透射率进行优化。传统优化算法中通常都是固定其一,优化另一个物理量,与传统方法不同,考虑到大气光和透射率的相关性,采用多元优化策略,将这两个物理量作为互相影响的整体,利用迭代算法进行优化。为保持去雾图像颜色真实、自然,基于对无雾图像的统计特性,多阈值融合的约束条件作为迭代停止的条件,控制优化去雾程度,复原高质量去雾图像。结果 本文方法与其他去雾方法相比,在视觉效果上,图像结构更加清晰,细节更加丰富,色彩更加真实。在客观数据方面,本文方法获得图像的彩色直方图与有雾图像的彩色直方图在形状上更相似,同时在Cones、Herzeliya、House、Dolls对比图像中,本文方法结果图像的信息熵值都比较高,分别为13.801 270、15.490 912、15.395 014、16.276 838,且时间复杂度较He方法(使用软抠图算法优化透射率)降低了3~5倍。结论 本文去雾方法利用迭代算法对大气光和透射率进行多元优化,同时采用多阈值融合约束条件控制优化去雾程度。本文方法在色彩保真度、细节恢复等方面都优于经典算法,同时获得了较好的客观评价数据。实验结果表明,本文方法能够达到主客观都满意的效果。  相似文献   

12.
目的 色彩纠正和图像融合是生成高质量全景场景图像的关键技术。色彩纠正中参考图像的选择以及图像融合算法,决定着所生成全景图像的质量和速度。现有方法在确定一幅图像是否适合作为参考图像时,需要遍历所有其他图像,计算其作为参考图像进行色彩纠正的效果,复杂度高,速度慢;在图像融合时存在融合质量与融合速度之间的矛盾。因此,如何快速生成高质量的全景图像就成为全景场景再现的主要诉求。为此本文提出优化的参考图像自动选择的色彩纠正方法和基于重叠区域划分的分区融合方法。方法 针对参考图像选择算法复杂度高的问题,根据图像质量与稳定性通常呈反比关系的事实,采用贪婪策略,选择质量最差的图像在色彩纠正前后的相似度,作为是否选择当前图像作为参考图像的评价指标,在保证参考图像满足色彩纠正需求的前提下,大幅降低计算复杂度。针对融合质量与融合速度之间的矛盾,提出分区融合:将重叠区域划分为接缝区域和非接缝区域,利用泊松融合的接缝不可见性和线性融合实现速度快的特性分别对接缝区域和非接缝区域进行融合,既保证融合的质量,又加快融合速度。在此基础上,加入简单点光源,解决上述过程产生的光线一致性问题,进一步提高图像质量。结果 采用主观和客观相结合的方法对结果进行评估。主观方面,本文算法生成的全景图像色彩基本实现平滑过渡且图像原始信息保留完整。客观方面,色彩纠正前后图像的结构相似度(SSIM)控制在0.850.99之间,时间复杂度由原来的O(n2)降低到O(n);分区融合后图像信息熵接近于泊松融合,但时间消耗降低72%。采用基于PC端的问卷调查法和OG-IQA算法将本文算法与PTGui、OpenCV、Xiong方法生成的全景图质量进行对比,在大多数情况下本文算法均优于上述算法。结论 实验表明,本文算法适用于多种场景,在保证目视效果良好的前提下,时间消耗降低,可广泛应用于医学、数字旅游、遥感等领域。  相似文献   

13.
目的 室外监控在雾霾天气所采集图像的成像清晰度和目标显著程度均会降低,当在雾霾图像提取与人眼视觉质量相关的自然场景统计特征和与目标检测精度相关的目标类别语义特征时,这些特征与从清晰图像提取的特征存在明显差别。为了提升图像质量并且在缺乏雾霾天气目标检测标注数据的情况下提升跨域目标检测效果,本文综合利用传统方法和深度学习方法,提出了一种无监督先验混合图像特征级增强网络。方法 利用本文提出的传统先验构成雾气先验模块;其后连接一个特征级增强网络模块,将去散射图像视为输入图像,利用像素域和特征域的损失实现场景统计特征和目标类别语义相关表观特征的增强。该混合网络突破了传统像素级增强方法难以表征抽象特征的制约,同时克服了对抗迁移网络难以准确衡量无重合图像域在特征空间分布差异的弱点,也减弱了识别算法对于低能见度天候采集图像标注数据的依赖,可以同时提高雾霾图像整体视觉感知质量以及局部目标可识别表现。结果 实验在两个真实雾霾图像数据集、真实图像任务驱动的测试数据集(real-world task-driven testing set, RTTS)和自动驾驶雾天数据集(foggy driving dense)上与最新的5种散射去除方法进行了比较,相比于各指标中性能第2的算法,本文方法结果中梯度比指标R值平均提高了50.83%,属于感知质量指标的集成自然图像质量评价指标(integrated local natural image quality evaluator, IL-NIQE)值平均提高了6.33%,属于跨域目标检测指标的平均精准率(mean average precision, MAP)值平均提高了6.40%,平均查全率Recall值平均提高了7.79%。实验结果表明,本文方法结果在视觉质量和目标可识别层面都优于对比方法,并且本文方法对于高清视频的处理速度达50帧/s,且无需标注数据,因而在监控系统具有更高的实用价值。结论 本文方法可以同时满足雾霾天候下对采集视频进行人眼观看和使用识别算法进行跨域目标检测的需求,具有较强的应用意义。  相似文献   

14.
目的 现有的低照度图像增强算法常存在局部区域欠增强、过增强及色彩偏差等情况,且对于极低照度图像增强,伴随着噪声放大及细节信息丢失等问题。对此,提出了一种基于照度与场景纹理注意力图的低光图像增强算法。方法 首先,为了降低色彩偏差对注意力图估计模块的影响,对低光照图像进行了色彩均衡处理;其次,试图利用低照度图像最小通道约束图对正常曝光图像的照度和纹理进行注意力图估计,为后续增强模块提供信息引导;然后,设计全局与局部相结合的增强模块,用获取的照度和场景纹理注意力估计图引导图像亮度提升和噪声抑制,并将得到的全局增强结果划分成图像块进行局部优化,提升增强性能,有效避免了局部欠增强和过增强的问题。结果 将本文算法与2种传统方法和4种深度学习算法比较,主观视觉和客观指标均表明本文增强结果在亮度、对比度以及噪声抑制等方面取得了优异的性能。在VV(Vasileios Vonikakis)数据集上,本文方法的BTMQI(blind tone-mapped quality index)和NIQMC(no-reference image quality metric for contrast distortion)指标均达到最优值;在178幅普通低照度图像上本文算法的BTMQI和NIQMC均取得次优值,但纹理突出和噪声抑制优势显著。结论 大量定性及定量的实验结果表明,本文方法能有效提升图像亮度和对比度,且在突出暗区纹理时,能有效抑制噪声。本文方法用于极低照度图像时,在色彩还原、细节纹理恢复和噪声抑制方面均具有明显优势。代码已共享在Github上:https://github.com/shuanglidu/LLIE_CEIST.git。  相似文献   

15.
目的 现有大多数低照度图像增强算法会放大噪声,且用于极低照度图像时会出现亮度提升不足、色彩失真等问题。为此,提出一种基于Retinex(retina cortex)的增强与去噪方法。方法 为了增强极低照度图像,首先利用暗通道先验原理估计场景的全局光照,若光照低于0.5,对图像进行初始光照校正;其次,提出一种Retinex顺序分解模型,使低照度图像中的噪声均体现在反射分量中,基于分解结果,利用Gamma校正求取增强后的噪声图像;最后,提出一种基于内外双重互补先验约束的去噪机制,利用非局部自相似性原理为反射分量构建内部先验约束,基于深度学习,为增强后的噪声图像构建外部先验约束,使内外约束相互制约。结果 将本文算法与6种算法比较,在140幅普通低照度图像和162幅极低照度图像上(有正常曝光参考图像)进行主观视觉和客观指标评价比较,结果显示本文方法在亮度提升、色彩保真及去噪方面均有明显优势,对于普通低照度图像,BTMQI(blind tone-mapped quality index)和NIQE(natural image quality evaluator)指标均取得次优值,对于极低照度图像...  相似文献   

16.
The demand for the exploration of ocean resources is increasing exponentially. Underwater image data plays a significant role in many research areas. Despite this, the visual quality of underwater images is degraded because of two main factors namely, backscattering and attenuation. Therefore, visual enhancement has become an essential process to recover the required data from the images. Many algorithms had been proposed in a decade for improving the quality of images. This paper aims to propose a single image enhancement technique without the use of any external datasets. For that, the degraded images are subjected to two main processes namely, color correction and image fusion. Initially, veiling light and transmission light is estimated to find the color required for correction. Veiling light refers to unwanted light, whereas transmission light refers to the required light for color correction. These estimated outputs are applied in the scene recovery equation. The image obtained from color correction is subjected to a fusion process where the image is categorized into two versions and applied to white balance and contrast enhancement techniques. The resultants are divided into three weight maps namely, luminance, saliency, chromaticity and fused using the Laplacian pyramid. The results obtained are graphically compared with their input data using RGB Histogram plot. Finally, image quality is measured and tabulated using underwater image quality measures.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号