首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到19条相似文献,搜索用时 171 毫秒
1.
为了较好地平滑边缘区域,避免边缘衔接处产生伪影,提出了一种基于双尺度分解与随机游走的多聚焦图像融合方法。首先,将源图像利用高斯滤波分解为大尺度与小尺度聚焦图,对分解得到的大尺度和小尺度聚焦图采用不同的引导滤波对其边缘进行平滑;然后,将大尺度与小尺度聚焦图作为随机游走算法的标记节点通过融合算法得到初始决策图,并再次使用引导滤波对决策图进行优化;最后,根据决策图对源图像进行重构,得到最终融合图像。实验结果表明,所提方法较好地获取了源图像中的聚焦信息,更好地保留了聚焦区域的边缘纹理及细节信息,在主观评价和客观评价指标方面均取得了更优的效果。  相似文献   

2.
杨艳春  王可  闫岩 《激光与红外》2023,53(10):1593-1601
为解决图像融合中边缘细节保留不理想的问题,本文提出了一种快速滚动引导滤波器和改进脉冲耦合神经网络相结合的红外可见光图像融合方法。提出的快速滚动引导滤波器可以较好地在保留边缘、细节纹理信息的同时有效提高运行效率。首先,利用快速滚动引导滤波和高斯滤波对源图像进行多尺度分解;其次,为了使基础层图像更好地突出轮廓信息,采用相似性匹配的融合规则对图像进行融合;然后,细节层采用改进参数自适应脉冲耦合神经网络规则进行融合;最后,经过多尺度重构得到融合结果图。实验结果表明,与其它5种融合方法相比,该算法不仅在视觉效果上得到了提升,而且能够充分保存图像的边缘和纹理等信息,极大地提高了运行效率。另外,该方法在客观评价指标上均优于对比方法。  相似文献   

3.
荣传振  贾永兴  杨宇  朱莹  王渊 《信号处理》2019,35(7):1141-1151
为有效突出红外目标,同时尽可能多地保留可见光图像中的纹理细节信息,使得最终的融合图像更符合人类视觉感知效果,本文提出一种新的基于红外目标特征提取的红外与可见光图像融合方法。首先,利用高斯滤波器将源图像分解为粗略尺度信息和边缘纹理细节信息;对红外图像的边缘纹理细节信息进行去“光晕”分解,在此基础上进一步利用OTSU多阈值分割算法将红外图像分割为目标区域、过渡区域和背景区域;最后,依据分割结果确定各分解子信息的融合权重,以有效地将红外目标信息注入到可见光图像中,同时尽可能多地保留可见光图像中重要的场景细节信息。实验结果表明,本文方法无论从主观视觉还是客观评价指标上,都要优于目前常用的有代表性的图像融合方法。   相似文献   

4.
《红外技术》2018,(2):139-145
目前基于多尺度分解的图像融合算法存在以下问题:1)多尺度分解时,图像边缘被平滑;2)融合结果中红外显著区域的对比度降低;3)小尺度细节受到抑制,在融合图像中显示不清晰。为解决上述问题,本文提出了一种基于BMA(Bayesian model averaging)滤波器和边缘的图像融合算法。首先,利用BMA滤波器分别对红外与可见光图像进行多尺度分解;其次,分别利用显著性提取和边缘权值映射算法,计算各基层和细节层的融合权值矩阵;最后通过图像重构获得融合图像。实验证明,该融合算法优于传统的图像融合算法。  相似文献   

5.
李永萍  杨艳春  党建武  王阳萍 《红外技术》2022,44(12):1293-1300
针对红外与可见光图像融合中出现细节信息丢失及边缘模糊的问题,提出一种在变换域中通过VGGNet19网络的红外与可见光图像融合方法。首先,为了使得源图像在分解过程中提取到精度更高的基础与细节信息,将源图像利用具有保边平滑功能的多尺度引导滤波器进行分解,分解为一个基础层与多个细节层;然后,采用具有保留主要能量信息特点的拉普拉斯能量对基础层进行融合得到基础融合图;其次,为了防止融合结果丢失一些细节边缘信息,采用VGGNet19网络对细节层进行特征提取,L1正则化、上采样以及最终的加权平均策略得到融合后的细节部分;最后,通过两种融合图的相加即可得最终的融合结果。实验结果表明,本文方法更好地提取了源图像中的边缘及细节信息,在主观评价以及客观评价指标中均取得了更好的效果。  相似文献   

6.
陈峰  李敏  马乐  邱晓华 《红外技术》2020,42(1):54-61
针对红外与可见光图像融合时,易产生细节丢失、噪声抑制不佳等问题,本文提出了一种改进的滚动引导滤波融合算法。该算法充分利用了滚动引导滤波边缘和局部亮度保持特性,在通过均值滤波将输入图像分解为基础层与细节层的基础上,结合滚动引导滤波与高斯滤波获取输入图像的显著图,利用不同尺度参数的引导滤波对显著图优化得到权重图,将权重图作为权重分别指导基础层与细节层的融合,最后联合融合后的子图重构得到融合图像。针对3类测试数据进行的融合实验表明,与非下采样轮廓波变换、基于引导滤波、基于显著性检测的两个尺度的图像融合等经典方法相比,本文方法得到的融合图像不但从主观视觉效果上细节信息更丰富、目标对比度加强,并且在非线性相关信息熵、相位一致性等6项客观评价指标上均具有较好的效果。  相似文献   

7.
红外图像与可见光图像融合的目的是为人类观察或其他计算机视觉任务生成信息更加丰富的图像。本文针对深度学习近年来在计算机视觉领域取得的巨大成功,提出一种基于卷积神经网络的红外与可见光图像融合算法。首先,使用引导滤波和高斯滤波器组成的尺度感知边缘保护滤波器对输入的源图像进行多尺度分解,基础层利用像素强度分布的加权平均融合规则进行融合,细节层借助卷积神经网络对空间细节进行提取融合。实验结果表明,本文算法可以较好的将特定尺度信息进行保存,并减小滤波对边缘细节带来的光晕影响,融合后图像噪声较少,细节呈现的更加自然,并且适合人类视觉感知。  相似文献   

8.
针对红外与可见光图像在融合过程中目标物体的边缘模糊导致细节丢失的问题,提出一种基于滚动引导滤波器(RGF)和卷积稀疏表示(CSR)的红外与可见光图像融合方法。首先,利用RGF和高斯滤波器对配准后的源图像进行多尺度分解;其次,针对基础层,通过构建对比显著图和权重矩阵进行融合;然后,针对细节层,利用交替方向乘子方法(ADMM)求解卷积稀疏系数,采用CSR融合规则完成特征响应系数融合;最后,经过重构得到融合结果图。实验结果表明,所提方法能够克服在目标物体的边缘处模糊导致细节信息丢失的问题,较好地保留源图像的对比度和边缘纹理信息,同时提高了多个客观评价指标。  相似文献   

9.
图像融合将来自不同捕获条件或不同传感器的互补图像进行融合以提高图像的视觉质量。针对这一任务,本文提出一种改进的滚动引导滤波与神经网络相结合的多尺度融合算法。首先,使用孪生卷积神经网络学习图像特征,并以此获得包含源图像显著特征的权值映射图。随后,使用改进的滚动引导滤波对图像进行多尺度分解,结合信息熵使滚动引导滤波权重参数自适应化来实现多尺度自适应分解,并结合非线性映射增强图像细节信息。最后,采用局部能量与权值图相结合的自适应调整融合模式对多尺度图像进行融合。经实验对比,所提方法能够避免出现图像边缘圆晕效应,且能够更好地突出图像边缘、细节纹理特征。另外,与其他算法相比,本文所提出的算法在平均梯度、信息熵、视觉信息保真度以及空间频率等客观评价指标项上均取得了更优的性能表现。  相似文献   

10.
基于多尺度导引滤波的图像融合方法   总被引:1,自引:3,他引:1  
提出了 一种基于多尺度导引滤波的图像融合方法。首先,对源图像进行多尺度边缘保持分解,分别 得到一幅基本图像和一系列细节图像;然后,对基 本图像和不同尺度下的细节图像采用不同的融合策略,即基于导引滤波的融合策略;最后, 将融合 后的基本图像和融合后的细节图像相加,得到最后的融合图像。实验结果表明,本文提出的 融合方法 在保留光谱信息的同时,能较好地将源图像中的边缘细节信息保持到融合图像中,而且也取 得了较高的归一 化互信息(MI)值,相对于其他融合算法,MI值平均提升0.5;能更好地体现图 像细节特征,为融合图像提供更加丰富的信息。  相似文献   

11.
图像显著性检测能够获取一幅图像的视觉显著性区域,是计算机视觉的研究热点之一。提出一种结合颜色特征和对比度特征的图像显著性检测方法。首先构造图像在HSV空间的颜色函数以获取图像颜色特征;然后使用SLIC超像素分割算法对图像进行预处理,基于超像素块的对比度特征计算图像显著性;最后将融合颜色特征和对比度特征的显著图经过导向滤波优化形成最终的显著图。使用本文算法在公开数据集MSRA-1000上进行图像显著性检测,并与其他6种算法进行比较。实验结果表明本文算法结合了图像像素点和像素块的信息,检测的图像显著性区域轮廓更加完整,优于其他方法。  相似文献   

12.
针对现有红外与可见光图像融合后,易出现边缘平滑严重、纹理细节恢复不足、对比度低、显著目标不突出、部分信息缺失等问题,提出一种基于非下采样剪切波变换(non-subsampled shearlet transform,NSST)的红外与可见光双波段图像融合算法。首先,采用基于自适应引导滤波(adaptive guided filter,AGF)的方法对源红外、可见光图像增强。其次,利用NSST正变换分别对源红外与可见光图像分解,得到红外、可见光图像的低、高频子带分量。然后,分别通过基于局部自适应亮度(local adaptive intensity,LAI)与双通道自适应脉冲耦合神经网络(dual channel adaptive pulse coupled neural network,DCAPCNN)规则融合低、高频子带分量。最后,通过NSST逆变换得到最终融合图像。实验结果表明,本文算法整体对比度更适宜,对红外热目标及可见光背景的边缘与纹理的细节恢复性更好,融合图像信噪比高,有效结合了红外及可见光图像的各自优势,与现有传统图像融合与深度学习融合算法相比,本文算法达到了更好的实验效果,在主观视觉感知和客观指标评价中均具有更好的融合性能。  相似文献   

13.
王凡  王屹  刘洋 《信号处理》2020,36(4):572-583
红外和可见光图像融合作为图像融合技术中一个重要组成部分,被广泛应用于军事、工业和生活领域。它能够集成两种模态图像的互补信息,融合成一幅信息丰富、质量较好的图像,不仅能够突出目标信息,还能够保持源有图像的纹理信息和一些显著性的细节。本文提出一种新的红外和可见光图像融合方法,在鲁棒稀疏表示模型的基础上增加了结构化稀疏约束,同时结合了图像区域特征相似的一致性约束项,克服现有一些方法所存在的局部模糊和纹理细节丢失等问题,提高了图像融合的精度。本文主要构建了结构化稀疏表示与一致性约束模型,将其应用到红外和可见光图像融合中并进行了求解,将源图像分解为背景信息和显著性信息,再对背景和显著性信息分别设计融合规则,最后利用字典进行重构,获得红外和可见光融合后的图像。实验结果表明,本文提出的融合算法优于现有的一些多聚焦图像融合算法。   相似文献   

14.
Color image enhancement is an active research field in image processing. Currently, many image enhancement methods are capable of enhancing the details of the color image. However, these methods only process the red, green and blue (RGB) color channels separately, which leads to color distortion easily. In order to overcome this problem, the paper presents an approach to integrate the quaternion theory into the traditional guided filter to obtain a quaternion guided filter (QGF). This method makes full use of the color information of an image to realize the holistic processing of RGB color channels. So as to preserve color information while enhancing details, this paper proposes a color image detail enhancement algorithm based on the QGF. Experimental results show that the proposed algorithm is effective in the applications of the color image detail enhancement, and enables image's edges to be more prominent and texture clearer while avoiding color distortion. Compared with the existing image enhancement methods, the proposed method achieves better enhancement performance in terms of the visual quality and the objective evaluating indicators.  相似文献   

15.
Multi-focus image fusion is an effective method of information fusion that can take a series of source images and obtain a fused image where everything is in focus. In this paper, a multi-focus image fusion method based on image texture that adopts a modified Pulse-Coupled Neural Network (PCNN) approach is proposed. First, the texture of an image is obtained by means of image cartoon and texture decomposition. An ignition image is then acquired by inputting the image textures into a modified PCNN. Ignition images are compared to each other to obtain an initial decision map. A small object detection and bilateral filter is then applied to the initial decision map to reduce noise and enable smoother processing. Finally, the source images and decision map are used to produce the fused image. Experimental results demonstrate that the proposed method effectively preserves the source images information while delivering good image fusion performance.  相似文献   

16.
Saliency detection in the compressed domain for adaptive image retargeting   总被引:2,自引:0,他引:2  
Saliency detection plays important roles in many image processing applications, such as regions of interest extraction and image resizing. Existing saliency detection models are built in the uncompressed domain. Since most images over Internet are typically stored in the compressed domain such as joint photographic experts group (JPEG), we propose a novel saliency detection model in the compressed domain in this paper. The intensity, color, and texture features of the image are extracted from discrete cosine transform (DCT) coefficients in the JPEG bit-stream. Saliency value of each DCT block is obtained based on the Hausdorff distance calculation and feature map fusion. Based on the proposed saliency detection model, we further design an adaptive image retargeting algorithm in the compressed domain. The proposed image retargeting algorithm utilizes multioperator operation comprised of the block-based seam carving and the image scaling to resize images. A new definition of texture homogeneity is given to determine the amount of removal block-based seams. Thanks to the directly derived accurate saliency information from the compressed domain, the proposed image retargeting algorithm effectively preserves the visually important regions for images, efficiently removes the less crucial regions, and therefore significantly outperforms the relevant state-of-the-art algorithms, as demonstrated with the in-depth analysis in the extensive experiments.  相似文献   

17.
Multi-focus image fusion is the activity of synthesizing multiple images of different focusing settings to construct a fully focused image. Many of the latest methods for image fusion rarely consider the structural differences between the guidance image and the input image, and do not retain well the important source image features while producing a fully focused image. To address this issue, a method exploiting a combination of static and dynamic filters (SDF) is proposed herein. This combination has good edge smoothing characteristics and strong robustness against artifacts such as gradient inversion and global strength migration. First, SDF is utilized in order to decompose the source image into structure and texture layers. Secondly, a morphological gradient operator filter is used to calculate the significance map of different levels of the source. Thirdly, the maximum pixel value of the significance map is used to construct the binary decision graph of the two source images. Then, the structure and texture layers are fused with the aid of the binary decision graph, and subsequently the final fusion image is created by combining the fused structure layer and texture layer. This process ensures that spatial consistency is preserved. Tests on grayscale and color multi-focus image sets show that the proposed method has better performance than that of any of the existing methods according to both objective and subjective evaluation.  相似文献   

18.
陆明军  叶兵 《半导体光电》2021,42(6):931-935
立体匹配是双目视觉领域的重要研究方向.为在保证图片纹理区域匹配精度的同时降低弱纹理区域的误匹配率,提出一种基于引导滤波及视差图融合的立体匹配方法.首先,根据图像颜色相似性将图片划分为纹理较丰富区域和弱纹理区域.接着,分别采用不同参数的引导滤波进行代价聚合及视差计算,得到两张视差图.然后依据纹理区域划分的结果对获得的两张视差图进行融合.最后,通过左右一致性检测、加权中值滤波等视差优化步骤得到最终视差图.对Middlebury测试平台上标准图像对的实验结果表明,该方法在6组弱纹理图像上的平均误匹配率为9.67%,较传统引导滤波立体匹配算法具有更高的匹配精度.  相似文献   

19.
杨艳春  闫岩  王可 《激光与红外》2023,53(12):1921-1927
针对红外与可见光图像融合中出现红外目标不够突出以及边缘模糊等问题,本文提出了一种基于FGF(快速引导滤波)和VGGNet19的红外与可见光图像融合方法。首先,通过FGF将源图像进行双尺度分解;然后,利用VGGNet19网络得到初步融合权重图;其次,利用OTSU(最大类间方差法)来提取初步融合权重图的前景与背景,进行二值化;然后,对得到的二值图像使用FGF得到最终融合权重图;最后,相加再经过FGF和图像增强实现图像融合。实验结果表明,本文方法能够有效保留显著热目标,边缘细节清晰,在主观评价以及客观评价指标中均取得了更好的效果。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号