首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到17条相似文献,搜索用时 78 毫秒
1.
提出一种基于Zernike矩和多级前馈神经网络的图像配准算法。利用低阶Zernike矩表征图像的全局几何特征,通过多级前馈神经网络学习图像所经历的旋转、缩放和平移等仿射变换参数,在一级前馈神经网络的基础上添加二级前馈网络,以提高参数估计精度。仿真结果表明,与基于DCT系数的神经网络算法相比,该算法旋转、缩放和平移估计精度较高,对噪声的鲁棒性较强。  相似文献   

2.
针对目前弹性图像配准方法较难应用于多模态图像的问题,提出了一种转化图像模态的解决方案。计算图像中每个灰度值在另一幅图像中对应像素的灰度均值,使用该均值代替原图像中对应的像素值,两幅图像灰度被转换为基本一致的状态,使用局部仿射模型配准图像。将灰度转换后的图像与目标图像配准,再将图像的形变参数映射到浮动图像中就可以实现多模态的图像配准。实验结果表明该方法可将局部仿射模型成功地用于多模态图像配准。  相似文献   

3.
邢雨  郑健  徐敏  杨鑫 《计算机应用研究》2010,27(9):3567-3569
提出了一种基于局部特征描述的多模态视网膜图像配准方法,该方法采用圆环结构划分关键点周围区域,通过局部梯度方向直方图构造特征描述子,并对所提取的特征向量进行规范化。实验证明,该算法在多模态视网膜数据集上提高了配准的成功率,相比于经典算法提高了算法的速度和鲁棒性。  相似文献   

4.
基于QPSO的多模态医学图像配准研究   总被引:1,自引:0,他引:1  
本文提出一种基于QPSO的形态金字塔多模态医学图像配准算法,该方法以梯度互信息作为相似性度量标准,运用全局仿射变换建立数学模型,充分利用形态金字塔的非线性、多分辨率等特性将图像进行分层处理,并且利用QPSO和Powell算法结合逐层获取参数解。实验结果表明在任意初始值的情况下,基于QPSO的寻优算法比Levenberg-Marquardt寻优算法运行速度快,并且配准精度更高。  相似文献   

5.
利用高维互信息的多模态医学图像配准   总被引:3,自引:0,他引:3       下载免费PDF全文
互信息相似性测度在多模态医学图像配准中获得了广泛的应用,然而其不足之处在于没用充分利用图像固有的空间信息。针对这一不足,提出了利用图像邻域信息的高维互信息配准方法。首先用图像像素及其邻域构成高维向量的集合,然后利用基于最近邻的熵估计法来估计集合的高维熵,并采用近似最近邻搜索算法来加快高维熵的计算。实验结果验证了新的相似性测度的有效性。  相似文献   

6.
针对图像特征间的视角、模糊、旋转和尺度变换以及噪声干扰等不确定性因素对图像配准精度的影响,定义了基于Zernike矩的相特征不变区域描述符,给出了Zernike矩的归一化及其相值度量方法,提出了一种基于此的图像配准算法。通过对比实验验证,本文算法能够有效提取目标图像特征点并准确进行特征匹配,且在保障配准精度的前提下显著降低了算法复杂度。  相似文献   

7.
王丽芳  成茜  秦品乐  高媛 《计算机应用》2018,38(4):1127-1133
针对稀疏编码相似性测度在非刚性医学图像配准中对灰度偏移场具有较好的鲁棒性,但只适用于单模态医学图像配准的问题,提出基于多通道稀疏编码的非刚性多模态医学图像配准方法。该方法将多模态配准问题视为一个多通道配准问题来解决,每个模态在一个单独的通道下运行;首先对待配准的两幅图像分别进行合成和正则化,然后划分通道和图像块,使用K奇异值分解(K-SVD)算法训练每个通道中的图像块得到分析字典和稀疏系数,并对每个通道进行加权求和,采用多层P样条自由变换模型来模拟非刚性几何形变,结合梯度下降法优化目标函数。实验结果表明,与局部互信息、多通道局部方差和残差复杂性(MCLVRC)、多通道稀疏诱导的相似性测度(MCSISM)、多通道Rank Induced相似性测度(MCRISM)多模态相似性测度相比,均方根误差分别下降了30.86%、22.24%、26.84%和16.49%。所提方法能够有效克服多模态医学图像配准中灰度偏移场对配准的影响,提高配准的精度和鲁棒性。  相似文献   

8.
目的 医学图像配准是医学图像处理和分析的关键环节,由于多模态图像的灰度、纹理等信息具有较大差异,难以设计准确的指标来量化图像对的相似性,导致无监督多模态图像配准的精度较低。因此,本文提出一种集成注意力增强和双重相似性引导的无监督深度学习配准模型(ensemble attention-based and dual similarity guidance registration network,EADSG-RegNet),结合全局灰度相似性和局部特征相似性共同引导参数优化,以提高磁共振T2加权图像和T1加权模板图像配准的精度。方法 EADSG-RegNet模型包含特征提取、变形场估计和重采样器。设计级联编码器和解码器实现图像对的多尺度特征提取和变形场估计,在级联编码器中引入集成注意力增强模块(integrated attention augmentation module,IAAM),通过训练的方式学习提取特征的重要程度,筛选出对配准任务更有用的特征,使解码器更准确地估计变形场。为了能够准确估计全局和局部形变,使用全局的灰度相似性归一化互信息(normalized mutual information,NMI)和基于SSC (self-similarity context)描述符的局部特征相似性共同作为损失函数训练网络。在公开数据集和内部数据集上验证模型的有效性,采用Dice分数对配准结果在全局灰质和白质以及局部组织解剖结构上作定量分析。结果 实验结果表明,相比于传统配准方法和深度学习配准模型,本文方法在可视化结果和定量分析两方面均优于其他方法。对比传统方法ANTs (advanced normalization tools)、深度学习方法voxelMorph和ADMIR (affine and deformable medical image registration),在全局灰质区域,Dice分数分别提升了3.5%,1.9%和1.5%。在全局白质区域分别提升了3.4%,1.6%和1.3%。对于局部组织结构,Dice分数分别提升了5.2%,3.1%和1.9%。消融实验表明,IAAM模块和SSC损失分别使Dice分数提升1.2%和1.5%。结论 本文提出的集成注意力增强的无监督多模态医学图像配准网络,通过强化有用特征实现变形场的准确估计,进而实现图像中细小区域的准确配准,对比实验验证了本文模型的有效性和泛化能力。  相似文献   

9.
基于迭代重加权的非刚性图像配准   总被引:2,自引:2,他引:2  
韩雨  王卫卫  冯象初 《自动化学报》2011,37(9):1059-1066
非刚性图像配准问题是当今重要的研究课题. 本文提出一类基于能量最小化方法的非刚性图像配准模型, 其中包括单模态和多模态两个模型. 在单模态模型中,正则项采用迭代重加权的L2范数度量, 一方面克服了迭代收敛不同步的问题, 另一方面使新模型既能保持图像的边缘几何结构, 又能避免块效应的产生. 在多模态模型中, 不同模态的图像被转化为同一模态进行处理, 提高了配准的效率. 在模型求解方面, 利用算子分裂和交替最小化的方法, 将原问题转化为阈值和加性算子分裂的迭代格式进行求解. 数值实验表明, 本文的方法对含噪以及变形较大的图像都能实现较好的配准.  相似文献   

10.
针对传统多模态配准方法忽视图像的结构信息和像素间的空间关系,并假定灰度全局一致的前提。本文提出了一种在黎曼流形上的多模态医学图像配准算法。首先采用线性动态模型捕捉图像的高维空间的非线性结构和局部信息,然后通过参数化动态模型构造出一种李群群元,形成黎曼流形,继而将流形嵌入到高维的再生核希尔伯特空间,再在核空间上学习出相似性测度。仿真和临床数据实验结果表明本文算法在刚体配准和仿射配准精度上均优于传统互信息方法和基于邻域的相似性测度学习方法。  相似文献   

11.
目的 现有的医学图像配准算法在处理较大非刚性形变的医学图像时,存在配准精度低和泛化能力不足的问题。针对该问题,提出结合密集残差块和生成对抗网络(generative adversarial network,GAN)的图像配准方法,用于多模态医学图像的非刚性配准。方法 将密集残差块引入到生成器,提取待配准图像对的更多高层特征,从而提高配准精度;在GAN中采用最小二乘损失代替逻辑回归构造的交叉熵损失,由于最小二乘损失的收敛条件更严格,同时能缓解梯度消失和过拟合,从而提高配准模型的稳定性;在判别器网络中引入相对平均GAN(relative average GAN,RaGAN),即在标准判别器的基础上增加一项梯度惩罚因子,降低判别器的判别误差,从而相对减少配准模型的配准误差,有助于稳定配准精度。结果 在DRIVE(digital retinal images for vessel extraction)数据集上进行训练和验证,在Sunybrook Cardiac数据集和Brain MRI数据集上进行泛化性能测试,并与几种主流医学图像非刚性配准算法进行对比实验,表明,本文配准模型在精度和泛化能力上均有一定程度的提升,相比其他方法,视网膜图像、心脏图像和脑部图像的配准Dice值分别提升了3.3%、3.0%、1.5%。结论 提出的配准方法能够获取更多高层特征信息,从而提升配准精度;同时基于最小二乘法构建损失函数并对判别器进行加强,能够使得配准模型在训练阶段快速收敛,提高了配准模型的稳定性和泛化能力,适合存在较大非刚性形变的医学图像的配准。  相似文献   

12.
董昌灏  闫镔  曾磊  童莉  李建新 《计算机应用》2013,33(10):2899-2901
针对图割算法对灰度不一致且结构复杂的印刷电路板(PCB)图像不能有效分割的情况,提出一种新的交互式局部渐进图割方法。通过分析用户交互过程中提供的信息生成局部约束能量项,并将其融入图割模型中,其中局部约束能量项依据用户添加的种子点的位置、类型以及与前一次分割结果的相对位置等信息自适应地生成。通过对多组锥束计算机断层成像(CBCT)系统采集的PCB图像进行分割实验,结果表明与经典的图割算法相比,所提方法能得到更准确的分割结果、更好的可控性及用户体验  相似文献   

13.
基于多尺度分析与图割的快速图像分割算法*   总被引:3,自引:0,他引:3  
以GrabCut算法为基础,引入多尺度分析方法,以塔式分解的多尺度图像序列代替固定尺度的原始图像序列估计GMM参数,将粗糙尺度的易分割性与精细尺度的精确性互补,使得算法以较少样本快速确定GMM参数,分割精度不减而效率显著提高。实验表明了算法的有效可行性。  相似文献   

14.
梁志刚  顾军华 《计算机应用》2018,38(9):2683-2688
针对现有医学图像配准算法精度较差、易陷入局部极值和收敛速度慢的问题,结合多分辨率分析,提出改进头脑风暴优化(MBSO)算法与Powell算法结合的图像配准算法。MBSO算法通过改变个体生成方式调节参与局部和全局搜索的个体比例,应用可变步长加强搜索能力,达到跳出局部最优和加速收敛的目的。首先,在低分辨率层利用MBSO算法进行全局搜索;然后,将搜索结果作为Powell算法的初始点在高分辨率层进一步搜索;最后,在原始图像层利用Powell算法搜索并定位全局最优值。与粒子群优化(PSO)算法、蚁群优化(ACO)算法、遗传算法(GA)与Powell算法结合算法相比,所提算法平均均方根误差分别减小了20.89%、30.46%和18.54%,平均配准时间分别缩短了17.86%、27.05%和26.60%,并且达到了100%的成功率。实验结果表明,所提算法具有很强的鲁棒性,能够快速、准确完成医学图像配准任务。  相似文献   

15.
为提高图像配准的速度和精度,对基于区域互信息配准算法进行了改进,运用了两层小波分解策略的配准方法,小波分解得到的最顶层图像采用粒子群优化全局寻优算法,利用搜索的结果作为下一层Powell寻优方法的起点,另外,对待配准图像应用形态学方法去除噪音。针对不同分解层的特点,采用不同的测度方法,得到的顶层图像采用改进后的区域互信息为相似性测度,而底层采用归一化互信息测度和相位一致性的相结合的方法,不仅提高了速度,还克服了图像间明暗对比的影响。实验结果表明,提出的配准算法对图像噪声有较高的鲁棒性,可达到亚像素精度,在配准速度上也有了很大的提高。  相似文献   

16.
基于改进SIFT特征和图转换匹配的图像匹配算法   总被引:1,自引:0,他引:1  
针对SIFT特征在纹理丰富的图像中提取较多的伪点和不稳定的点而影响图像匹配的问题, 提出了一种基于Harris阈值准则的局部不变特征图像匹配算法。该算法在提取SIFT不变特征的基础上, 利用Harris阈值准则对所提取到的不变特征进行选择, 剔除了图像区域中大量可区分性较差的特征点, 从而得到了相对稳定和可区分性较好的特征点。其次, 结合不变特征矢量与图转换匹配(GTM)的方法对提取到的稳定特征点进行了精确匹配。实验对比结果表明, 用取得稳定的特征点, 进而结合一种好的匹配策略, 能够更加增强图像匹配的高效性和鲁棒性。  相似文献   

17.
Image watermarking has emerged as a useful method for solving security issues like authenticity, copyright protection and rightful ownership of digital data. Existing watermarking schemes use either a binary or grayscale image as a watermark. This paper proposes a new robust and adaptive watermarking scheme in which both the host and watermark are the color images of the same size and dimension. The security of the proposed watermarking scheme is enhanced by scrambling both color host and watermark images using Arnold chaotic map. The host image is decomposed by redundant discrete wavelet transform (RDWT) into four sub-bands of the same dimension, and then approximate sub-band undergoes singular value decomposition (SVD) to obtain the principal component (PC). The scrambled watermark is then directly inserted into a principal component of scrambled host image, using an artificial bee colony optimized adaptive multi-scaling factor, obtained by considering both the host and watermark image perceptual quality to overcome the tradeoff between imperceptibility and robustness of the watermarked image. The hybridization of RDWT-SVD provides an advantage of no shift-invariant to achieve higher embedding capacity in the host image and preserving the imperceptibility and robustness by exploiting SVD properties. To measure the imperceptibility and robustness of the proposed scheme, both qualitative and quantitative evaluation parameters like peak signal to noise ratio (PSNR), structural similarity index metric (SSIM) and normalized cross-correlation (NC) are used. Experiments are performed against several image processing attacks and the results are analyzed and compared with other related existing watermarking schemes which clearly depict the usefulness of the proposed scheme. At the same time, the proposed scheme overcomes the major security problem of false positive error (FPE) that mostly occurs in existing SVD based watermarking schemes.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号