首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到20条相似文献,搜索用时 171 毫秒
1.
局部变分有效地增强图像的轮廓信息,但不可避免地模糊图像的细节并在平滑区域产生阶梯效应。非局部变分能有效重构图像的纹理信息,但同时会破坏图像的结构轮廓信息。考虑到局部与非局部变分的互补性,提出了一种基于图像局部梯度与非局部梯度的复合变分模型,并通过Bregman交替迭代极小化图像的局部梯度与非局部梯度的L1范数,使去噪后的图像在去除噪声的同时更好地保留图像的结构与细节信息。对比实验证明,提出的复合变分模型有效地利用了图像的局部变分与非局部变分的优点,在图像评价的主客观方面都表现出了更好的性能。  相似文献   

2.
针对激光主动偏振图像的散斑去除问题,提出了一种新的非局部正则化方法:根据激光主动偏振图像的噪声特点,在全变差模型的基础上,提出了非局部全变差正则化模型.该算法充分利用了图像的全局信息复原图像,在很好地抑制散斑的同时,保持了图像的细节信息.新模型使用轮流最小化方法进行求解,则原始图像和点扩散函数都可以在最小化框架中求解,...  相似文献   

3.
《红外技术》2017,(4):345-352
提出了一种基于多尺度局部自相似性和非局部均值的单幅图像超分辨率算法,该算法不依赖于外界图像,仅仅在原始图像的局部子窗口中搜索目标图像块的相似子块,利用非局部均值算法对相似子块进行加权求和来估计待复原图像,然后在复原图像上叠加最相似子块的高频细节图像,获得高分辨率图像。实验结果表明,本文算法不仅能很好地重构图像的高频细节,还能很好地恢复图像的纹理特征。  相似文献   

4.
基于图像局部方向特性的自适应全变分去噪模型   总被引:1,自引:1,他引:0       下载免费PDF全文
唐玲  陈明举 《液晶与显示》2016,31(5):477-483
针对全变分模型(total variation,TV)以图像的梯度信息作为去噪的尺度参数,未考虑图像局部纹理的方向性的缺点,提出了一种基于图像局部方向特性的自适应全变分去噪模型(Adaptive directional total variation,ADTV),并推导出该模型的迭代数值求解过程。在该模型中,首先,计算出图像局部方向的角度矩阵。然后,构造与图像纹理方向一致的椭圆区域代替TV模型的圆形区域。最后,通过优化最小化算法迭代求解以获得去噪后图像。通过对比实验证明,本文提出的模型取得了更高的峰值信噪比,去噪过程中更好地增强了图像的细节信息。  相似文献   

5.
针对基于传统全变分(TV)模型的图像压缩感知(CS)重建算法不能有效地恢复图像的细节和纹理,从而导致图像过平滑的问题,该文提出一种基于结构组全变分(SGTV)模型的图像压缩感知重建算法。该算法利用图像的非局部自相似性和结构稀疏特性,将图像的重建问题转化为由非局部自相似图像块构建的结构组全变分最小化问题。算法以结构组全变分模型为正则化约束项构建优化模型,利用分裂Bregman迭代将算法分离成多个子问题,并对每个子问题高效地求解。所提算法很好地利用了图像自身的信息和结构稀疏特性,保护了图像细节和纹理。实验结果表明,该文所提出的算法优于现有基于全变分模型的压缩感知重建算法,在PSNR和视觉效果方面取得了显著提升。  相似文献   

6.
 非局部均值利用图像自相似性,有效保持了图像的几何结构信息.提出了非局部patch正则和TV正则结合的图像恢复模型,利用改进的结构张量矩阵构造自适应非局部权函数,根据像素的局部结构计算图像中patch的相似性,提高了图像结构信息的保持性能.在数值解法上,采用分裂Bregman算法迭代求解模型,得到简单快速的迭代形式.数值实验证明所提出方法在提高恢复图像质量和算法效率上都有显著改进.  相似文献   

7.
在解决图像放大中的反问题时,Chambolle变分模型需要大量的计算迭代。针对这种不足,该文提出一类新的基于Besov空间的变分模型来解决相应问题。利用Besov半范数与小波系数范数的等价性,新模型将所求解的变分问题完全转化为基于小波域的变分序列,其极小化过程证明这些序列的最优解都可以表示为基于小波域的正交投影。实验结果表明:新方法处理后的放大图像边缘轮廓清晰、光滑,有意义的细节特征得到保留,去噪效果令人满意。  相似文献   

8.
针对去除遥感图像条带噪声时易造成模糊或细节丢失等问题,分析研究干净图像及条带噪声的方向和结构特征,提出了遥感图像条带噪声分离方法。对于条带噪声,其稀疏结构特征表征为条带的组稀疏性和平滑性,结合条带的L_(2,1)范数和沿条带方向的梯度的L_0范数实现特征约束;对于干净图像,其边缘连续性采用L_1范数进行约束。考虑该约束模型的非凸性,采用基于近端交替方向乘子(PADMM)的算法进行快速求解。模拟数据和实际数据的实验结果表明,所提算法有效去除了图像中的条带噪声,同时高效保留原图像的细节信息,充分验证了算法的可行性和可靠性。  相似文献   

9.
为充分利用残差中的图像信息以提升非局部均值算法的去噪性能,该文提出一种多级残差图像滤波新方法。首先对含噪图像进行非局部均值滤波得到初始的去噪图像和权值分布矩阵,然后对残差图像进行固定权值非局部均值滤波来提取图像结构信息,将提取的信息经高斯平滑抑噪后作为补偿图像,与去噪图像相加得到增强的恢复图像。针对上述方法提出一种多级滤波的实现方案,从理论上推导证明了该方法的原理及可行性,并提出一种无需参考图像的迭代停止准则来自适应地优选滤波级数。实验结果表明,提出的迭代停止准则能够达到与峰值信噪比一致的优选结果;与经典的非局部均值算法相比,在计算效率相当的情况下,所提方法能够显著地提升其去噪性能,峰值信噪比平均可以提高1.2 dB,且具有更好的细节保持能力。  相似文献   

10.
孟勇  周则明  胡宝鹏  胡彪 《红外》2015,36(8):12-17
为了充分利用红外和微光遥感图像中的互补信息,使其便于目视解译,提出了 一种基于变分的图像融合方法。该变分模型定义了细节注入项和结构保真项,在保持红外和微光图像 光谱特性的同时,还改进了融合图像的空间细节和结构特性;引入了正则化能量项,保证了泛函最优解 的平滑性。基于梯度下降流,通过数值迭代获得了融合图像。实验结果表明,该模型能够获取兼具 丰富细节信息和光谱信息的融合图像。与Laplacian金字塔分解方法和多孔小波方法相比,本文 方法具有更佳的融合性能。  相似文献   

11.
袁红星  安鹏  吴少群  郑悠 《电子学报》2018,46(2):447-455
半自动2D转3D的关键是将用户分配的稀疏深度转换为稠密深度.现有方法没有充分考虑纹理图像和深度图之间的结构差异,以及2D转3D对用户误标注的容错性.针对上述问题,借助L1范数对异常数据的抵制,在一个统一框架下实现结构相关具有容错能力的稀疏深度稠密插值.首先,利用L1范数表示估计深度和用户分配深度在标注位置的差异,建立数据项;其次,根据特征的相似性用L1范数计算局部相邻像素点之间的深度差异,建立局部正则项;再次,对图像进行超像素分割,根据不同超像素内代表性像素点之间深度差异的L1测度,建立全局正则项;最后,用上述数据项和正则项构建能量函数,并通过分裂Bregman算法予以求解.无误差和有误差情况下的实验结果表明,与边缘保持的最优化插值、随机游走、混合图割与随机游走、软分割约束的最优化插值和非局部化随机游走相比,本文估计深度图绘制的虚拟视点图像空洞和伪影损伤更小.在误操作情况下,本文比上述方法PSNR改善了0.9dB以上,且在视觉上屏蔽了用户误操作的影响.  相似文献   

12.
针对分块压缩感知(BCS)重建图像质量较差问题,该文提出一种最小化l0范数的分块压缩感知全变差(TV)正则化迭代阈值图像重构算法(BCS-TVIT)。BCS-TVIT算法考虑图像的局部平滑、有界变差等性质,将最小化l0范数与图像的全变差TV正则项结合,构建目标函数。针对目标函数中l0范数项和分块测量约束项无法直接优化问题,采用迭代阈值法使重构图像l0范数最小化,并通过凸集投影保证满足约束条件,完成了目标函数的优化求解。实验表明,与基于l0范数最小化的分块压缩感知平滑投影算法(BCS-SPL)相比,BCS-TVIT算法重构图像峰值信噪比提高2 dB,能消除BCS-SPL的“亮斑”效应,且在视觉效果上明显优于BCS-SPL算法;与最小全变差算法相比,BCS-TVIT算法重构图像峰值信噪比提升1 dB,且能降低重构时间约2个数量级。  相似文献   

13.
如何准确地刻画易于求解的稀疏正则化函数是高光谱图像稀疏解混的难点。变形L1正则化函数是一类由绝对值函数组成的双线性变换的单参数族,类似于Lpp∈0,1范数,通过调整参数a∈0,可以准确表征L0和L1之间的任意范数,并具有无偏、稀疏和Lipschitz连续性。论文首先研究变形L1正则化函数,然后提出变形L1正则化的高光谱稀疏解混变分模型,最后提出变形L1正则化高光谱稀疏解混模型的凸函数差分求解算法。通过模拟和真实的高光谱数据实验,与经典的SUnSAL算法相比,表明提出的算法能够更准确地刻画丰度系数的稀疏性,并获得更高的解混精度。  相似文献   

14.
针对大数据背景下数据分类问题,已有的在线学习算法通常引入L1范数正则化增强预测模型的稀疏性,但单一的正则化约束不能高效的获取稀疏模型.基于此,提出了一种具有双重稀疏机制的在线学习算法(an online learning algorithm with dual sparse mechanisms,DSOL).在DSOL算法中,一方面利用L1/2正则化项约束目标函数以增强预测模型的稀疏性,提高算法的泛化性能.另一方面用改进的梯度截取法对数据特征进行选择,有效稀疏化预测模型.通过L1/2正则化与改进的梯度截取策略的有机融合,有效利用了历史数据信息,提高了算法分类数据的性能.通过与另4种代表性稀疏在线学习算法在9个公开数据集的实验对比表明DSOL算法对数据分类的准确性更高.  相似文献   

15.
This paper presents an indirect linear-phase IIR filter design technique based on a reduction of linear-phase FIR filters. The desired filter is obtained by minimizing the L2 norm of the difference between the original FIR filter and the lower order IIR filter. We first establish a relationship between the Hankel singular values of the discarded part of the FIR filter and the L2 norm of the corresponding filter approximation error based on model truncation. This result motivates us to propose a simple finite search method that will achieve better approximation results than commonly used truncation methods such as the balanced truncation (BT) and the impulse response gramian (IRG) methods. We then develop an iterative algorithm for finding an optimal IIR filter based on a matrix projection of the original FIR filter. The convergence of the proposed algorithm is established. Filters designed using the proposed algorithm are compared with those obtained by other techniques with respect to the amplitude response and group delay characteristics in the passband. Numerical examples show that the proposed algorithm offers the best performance  相似文献   

16.
标准的非负矩阵分解(NMF)应用于高光谱解混时,容易受到噪声和异常值的干扰,解混效果较差。为了提高分解性能,该文将L21范数引入标准的NMF算法中,对模型进行了改进,从而提高算法的鲁棒性。其次,为了提高分解后丰度矩阵的稀疏性,将双重加权稀疏约束引入L21NMF模型中,使其中一个权值提高每个像元对应的丰度向量上的稀疏性,另一个权值提高每个端元对应的丰度向量上的稀疏性。同时,为了利用像元的全局空间分布信息,观察地物在不同图像中的真实分布情况,引入子空间结构正则项,提出了基于子空间结构正则化的L21非负矩阵分解(L21NMF-SSR)算法。通过在模拟数据集和真实数据集与其他经典算法的比较,验证了该算法具有更好的性能,同时具有去噪能力。  相似文献   

17.
This paper presents a new pattern synthesis algorithm for arbitrary arrays based on adaptive array theory. With this algorithm, the designer can efficiently control both mainlobe shaping and sidelobe levels. The element weights optimize a weighted L2 norm between desired and achieved patterns. The values of the weighting function in the L2 norm, interpreted as imaginary jammers as in Olen and Compton's (1990) method, are iterated to minimize exceedance of the desired sidelobe levels and minimize the absolute difference between desired and achieved mainlobe patterns. The sidelobe control can be achieved by iteration only on sidelobe peaks. In comparison to Olen and Compton's method, the new algorithm provides a great improvement in mainlobe shaping control. Example simulations, including both nonuniform linear and planar arrays, are shown to illustrate the effectiveness of this algorithm  相似文献   

18.
提出了一种噪声图像高效滤波算法。该算法对经典非局部均值滤波算法从边缘保持效果和计算复杂度两个方面加以改进。提出一种基于图像结构相似度(SSIM)相似性检测算子,并将其与传统的高斯加权欧氏距离进行加权融合,从而实现对经典非局部均值滤波的改进,可实现对图像边缘和平坦区域滤波的有效兼顾。将其引入到小波变换域,对于高频子图像,首先采用Canny算子实现自适应边缘检测,获得边缘和非边缘图像,采用改进非局部均值滤波和经典非局部均值滤波分别加以处理,然后实现图像的融合;最后实现小波系数重构。通过对实物图像和标准测试图像的仿真实验结果表明,该滤波算法的去噪效果较优,能基本实现对高强度随机噪声情形下的图像复原,从而印证了该滤波思路的可行性。  相似文献   

19.
An L1 norm minimization scheme is applied to the determination of the impulse response vector h of flaws detected in practical examples of ultrasonic nondestructive evaluation in CANDU nuclear reactors. For each problem, parametric programming is applied to find the optimum value of the damping parameter that will yield the best estimate of h according to a quantified performance factor. This performance factor is based on a quantified analysis of the transitions in estimates of h as the damping parameter is varied over a wide range of possible values. It is shown that for the examined cases in which the true impulse response is a sparsely filled spike strain, the L1 norm provides significantly better results than the more commonly used L2 norm minimization schemes. These results are shown to be consistent with theoretical predictions  相似文献   

20.
Simple but effective fast codebook searching algorithms for vector quantisation are presented. The Euclidean distance (L2 norm) calculation requires a number of multiplications. The proposed algorithms use the L1 norm between the input vector and codeword to discard many unlikely codewords. Since the proposed algorithms significantly reduce the number of multiplications, a considerable reduction in encoding time is achieved. Simulation results confirm the effectiveness of the proposed algorithms  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号