首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 160 毫秒
1.
针对残差块中特征图直接相加无法反映特征间相关性以及特征融合阶段存在信息损失的问题,提出一种融合自适应加权模块的目标检测算法.该算法对YOLOv4的主干网络和颈部网络进行改进,设计了一种自适应加权模块,对输入的2个特征图进行通道压缩并提取特征信息,从提取的信息中获取空间权重,最后将空间权重赋予输入特征图来建立其之间的相关性.在特征融合阶段增加跳跃连接,补充特征融合过程中的信息损失.实验结果表明,该算法能够有效地提高目标的精度,在PASCALVOC数据集与KITTI数据集上的精度较YOLOv4算法分别提高了0.90个百分点与0.89个百分点.  相似文献   

2.
脉络膜新生血管(Choroidal Neovascularization,CNV)一般出现在老年性黄斑变性(Age-related macular degeneration,AMD)晚期,在光学相干断层成像(SD-OCT)中对CNV进行准确分割对AMD的诊疗具有重要意义.文中提出了一种融合时序模型与注意力机制的CNV分割网络.该方法将连续的SD-OCT图像输入分割网络,在编码器部分提取图片多尺度信息,为了更好地提取图片局部特征,又在跳跃连接部分加入注意力门;同时,为了解决分割不连续的问题,在分割网络池化后加入了时序约束网络以构建相邻帧连续性约束,并在损失函数中加入梯度约束以更好地保留病变边界;采用空间金字塔将两部分网络特征图融合以产生分割损失,提高了最终的分割精度.基于患者独立性对12名患者的200组眼睛数据进行实验,该方法的Dice系数为76.3%,overlap达到60.7%,能够在SD-OCT图像中对CNV进行可靠的分割.  相似文献   

3.
曹冬梅  徐军 《计算机科学》2014,41(11):301-305,316
提出了一种新颖的基于先验形状学习的混杂活动轮廓(SHAC)模型,该模型采用变分水平集方法,融合自适应区域信息与边界信息,运用主成分分析的方法从给定的含有目标物体轮廓的训练集学习得到最佳形状信息,并将其作为先验形状。将自适应区域特征和轮廓特征作为局部信息,先验形状作为全局信息,在迭代过程中结合全局和局部信息实现对演化曲线的形变进行指导和约束,达到分割目标物体的目的。通过定量和定性地分析低对比度的乳腺核磁共振图像中的乳腺轮廓的分割,以及具有复杂背景的自然图像中感兴趣区域的分割结果,验证了SHAC模型比传统活动轮廓模型具有更高的准确率,表明了该模型不仅提高了图像分割中对弱边界的识别度,减弱了非目标轮廓的干扰,而且具有良好的抗噪能力。  相似文献   

4.
吴江月 《信息与电脑》2022,(22):185-187
针对传统医学图像分割存在像素损失度高、分割效果差的问题,提出了新的基于深度学习的医学图像智能分割方法。建立针对医学图像的灰度共生矩阵提取医学图像纹理特征与形态特征;引进深度学习网络,加权处理图像注意力信息;利用3D区域生长法分割目标区域,完成分割方法设计。以Multi-Modality公开图像集为例,通过对比实验证明,该方法可以有效控制医学图像智能分割后的目标区域的损失度,并且峰值信噪较高,能够实现精准分割医学图像。  相似文献   

5.
针对FCM算法在分割脑MRI图像时存在噪声敏感性和初始聚类中心随机性的问题,提出一种融合图像Tamura纹理特征的改进FCM图像分割算法.首先提取图像的Tamura纹理特征,将其与灰度特征线性加权构成融合特征.然后使用模糊邻域关系计算像素点的密度,将其与距离关系结合自适应选取初始聚类中心.最后使用融合特征作为更新隶属度和聚类中心的特征约束.实验利用该方法与FCM,D-FCM,WKFCM方法对Brain Web脑MRI数据集中的图像进行分割,并在抗噪性、准确性和运行效率方面进行了比较.实验结果表明,所提算法能获取更优的初始聚类中心,在处理噪声和灰度不均匀图像上表现出更好的鲁棒性,能够快速有效地分割脑MRI图像.  相似文献   

6.
针对目前图像分割算法普遍存在噪音鲁棒性差、易发生细小边界信息缺失以及适用范围较窄的缺点,改进Canny边缘提取算法中的问题阈值并与原色特征提取加权融合。首先针对Canny算子阈值的自适应性问题,通过计算图像背景与目标之间的类方差来减少错分概率来决定阈值。然后,在具有丰富信息的彩色图像上提出R、G、B这3种原色特征,通过原色特征提取的分割图像与阈值分割提取的图像加权融合形成全新的分割图像。该算法不仅克服了传统分割提取算法边缘信息丢失、鲁棒性差的问题,而且提高了细节点的单位精度,实验结果表明了本文改进Canny边缘算法的有效性。  相似文献   

7.
针对场景图像语义分割任务中存在多尺度目标以及特征提取网络缺乏对全局上下文信息的获取等问题,设计了一种嵌入改进自注意力机制以及自适应融合多尺度特征的双路径分割算法。在空间路径利用双分支的简易下采样模块进行4倍下采样提取高分辨率的边缘细节信息,使网络对目标边界分割更精确。在语义路径嵌入上下文捕获模块和自适应特征融合模块,为解码阶段提供具有丰富多尺度的高语义上下文信息,并采用类别平衡策略进一步提升分割效果。经过实验验证,该模型在Camvid和Aeroscapes数据集上的MIOU(mean intersection over union)指标分别为59.4%和60.1%,具有较好的分割效果。  相似文献   

8.
针对传统深度网络模型难以精确提取建筑物边缘轮廓特征及对不同尺寸建筑物无法自适应提取的问题,提出一种膨胀卷积特征提取的多尺度特征融合深度神经网络模型(Multiscale-feature fusion Deep Neural Networks with dilated convolution,MDNNet)对遥感图像建筑物自动分割的方法。首先在ResNet101模型中引入膨胀卷积扩大提取视野保留更多特征图像分辨率;其次利用多尺度特征融合模块获取多个尺度的建筑物特征并将不同尺度的特征融合;最终利用特征解码模块将特征图恢复到原始输入图像尺寸,实现遥感图像建筑物精确分割。在WHU遥感图像数据集的实验结果表明,提出模型有效克服道路、树木和阴影等因素影响,分割结果有效保留建筑物边界细节信息,有效提升分割精度,像素准确率PA达到0.864,平均交并比mIoU达到0.815,召回率Recall达到0.862。  相似文献   

9.
动态场景下的非均匀盲去模糊是一个极具挑战性的计算机视觉问题。虽然基于深度学习的去模糊算法已经取得很大进展,但仍存在去模糊不彻底和细节丢失等问题。针对这些问题,提出了一种基于残差注意力和多特征融合的去模糊网络。与现有的单分支网络结构不同,所提网络由两个独立的特征提取子网组成。主干网络采用基于U-Net结构的编码器-解码器网络来获取不同层级的图像特征,并使用残差注意力模块对特征进行筛选,从而自适应地学习图像的轮廓特征和空间结构特征。另外,为了补偿主干网络中下采样操作和上采样操作造成的信息损失,进一步利用具有大感受野的深层次加权残差密集子网来提取特征图的细节信息。最后,使用多特征融合模块逐步融合原分辨率模糊图像以及主干网络和加权残差密集子网生成的特征信息,使得网络能够以整体的方式自适应地学习更有效的特征来复原模糊图像。为了评估网络的去模糊效果,在基准数据集GoPro数据集和HIDE数据集上进行了测试,结果表明所提方法能够有效复原模糊图像。与现有方法相比,提出的去模糊算法在视觉效果上和客观评价指标上均取得了很好的去模糊效果。  相似文献   

10.
基于区块自适应特征融合的图像实时语义分割   总被引:1,自引:0,他引:1  
近年来结合深度学习的图像语义分割方法日益发展, 并在机器人、自动驾驶等领域中得到应用. 本文提出一种基于区块自适应特征融合(Block adaptive feature fusion, BAFF) 的实时语义分割算法, 该算法在轻量卷积网络架构上, 对前后文特征进行分区块自适应加权融合, 有效提高了实时语义分割精度. 首先, 分析卷积网络层间分割特征的感受野对分割结果的影响, 并在跳跃连接结构(SkipNet) 上提出一种特征分区块加权融合机制; 然后, 采用三维卷积进行层间特征整合, 建立基于深度可分离的特征权重计算网络. 最终, 在自适应加权作用下实现区块特征融合. 实验结果表明, 本文算法能够在图像分割的快速性和准确性之间做到很好的平衡, 在复杂场景分割上具有较好的鲁棒性.  相似文献   

11.
视网膜血管分割是医学图像分割中常见的一项任务, 视网膜血管图像有着分割目标小而多的特点, 过去的网络在分割中可以较好地提取粗血管, 但是很容易忽略细血管, 而这部分细血管的提取在一定程度上影响网络的性能, 甚至是诊断的结果. 因此, 为了达到在保证准确提取粗血管的前提下, 提取到更多更连续的细血管的目标, 本文使用对称编解码网络作为基础网络, 使用一种新的卷积模块DR-Conv, 旨在防止过拟合的同时提高网络的学习能力. 同时, 针对最大池化层造成的信息损失问题, 考虑使用小波变换进行图像分解并使用逆小波变换对图像进行恢复, 利用混合损失函数结合不同损失函数的特性以弥补单个损失函数优化能力不足的问题. 为了评估网络的性能, 在3个公共视网膜血管数据集上分别对网络进行了测试, 并与最新方法进行了比较, 实验结果表明本文网络拥有更优的性能.  相似文献   

12.
生成对抗网络近年来发展迅速,其中语义区域分割与生成模型的结合为图像生成技术研究提供了新方向。在当前的研究中,语义信息作为指导生成的条件,可以通过编辑和控制输入的语义分割掩码来生成理想的特定风格图像。文中提出了一种具有语义区域风格约束的图像生成框架,利用条件对抗生成网络实现了图像分区域的自适应风格控制。具体而言,首先获得图像的语义分割图,并使用风格编码器提取出图像中不同语义区域的风格信息;然后,在生成端将风格信息和语义掩码对应生成器中的每个残差块分别仿射变换为两组调制参数;最后,输入到生成器中的语义特征图根据每个残差块的调制参数加权求和,并通过卷积与上采样渐进式地生成目标风格内容,从而有效地将语义信息和风格信息相结合,得到最终的目标风格内容。针对现有模型难以精准控制各语义区域风格的问题,文中设计了新的风格约束损失,在语义层次上约束区域风格变化,减小不同语义区域的风格编码之间的相互影响;另外,在不影响性能的前提下,采取权重量化的方式,将生成器的参数存储规模压缩为原来的15.6%,有效降低了模型的存储空间消耗。实验结果表明,所提模型的生成质量在主观感受和客观指标上较现有方法均有显著提高,其中FID分数比当前最优模型提升了约3.8%。  相似文献   

13.
针对传统视网膜图像血管分割中部分血管轮廓粗糙、血管末梢和分支细节丢失等问题,提出 一种结合线性谱聚类超像素与生成对抗网络(Generative Adversarial Networks,GAN)的视网膜血管分割 方法。该方法首先对 GAN 进行改进,采用空洞空间金字塔池化模块的多尺度特征提取来提高 GAN 分 割精度,在获得视网膜血管分割图像后,利用线性谱聚类超像素分割的边缘贴合性高、轮廓清晰的特 点,将 GAN 输出图像映射到超像素分割图再对像素块进行分类,以达到分割的效果。仿真实验结果表 明,与传统的视网膜血管分割方法相比,该方法在灵敏度和准确性上有一定提升,轮廓边缘细节方面 有着更好的效果。  相似文献   

14.
计算机硬件的发展极大程度地促进了计算机视觉的发展,卷积神经网络在语义分割中取得了令人瞩目的成就,但多卷积层叠加难免造成图像中目标边界信息的丢失。为了尽可能保留边界信息,提高图像分割精度,提出一种多尺度空洞卷积神经网络模型。该模型利用多尺度池化适应图像中不同尺度目标,并利用空洞卷积学习目标特征,在更加准确识别目标的同时,提高目标边界的识别精度,在ISPRS Vaihingen数据集上的实验结果表明,提出的多尺度空洞卷积神经网络对于目标边界的拟合结果较为理想。  相似文献   

15.
由于眼底血管结构复杂多变,且图像中血管与背景对比度低,眼底血管分割存在巨大困难,尤其是微小型血管难以分割.基于深层全卷积神经网络的U-Net能够有效提取血管图像全局及局部信息,但由于其输出为灰度图像,并采用硬阈值实现二值化,这会导致血管区域丢失、血管过细等问题.针对这些问题,提出一种结合U-Net与脉冲耦合神经网络(P...  相似文献   

16.
烟雾图像分割是对烟雾进行识别与精准定位的基础, 是火灾预警的重要手段. 针对烟雾分割时存在过分割、欠分割以及边界拟合粗糙的问题, 本文提出一种基于频率分离特性的烟雾图像分割网络. 所提出的频率分离模块将特征图中的烟雾区域分离为低频主体部分和高频边界部分, 同时基于多任务学习设计多模块权重自适应损失函数对烟雾整体、主体、边界分别监督学习, 起到细化烟雾边界和改善烟雾整体分割结果的作用; 此外, 结合可变形卷积提出改进的空洞空间金字塔池化模块以解决其信息利用率低和特征关联性差的问题. 在对比实验中, FSNet的烟雾交并比为76.55%, 比基线网络提高了4.25%. 可视化分割结果可以看出, FSNet能有效缓解过分割、欠分割, 所得烟雾边界更平滑, 烟雾图像分割的整体性能获得较大提升.  相似文献   

17.
针对目前的分数阶非线性模型图像特征提取能力不足导致分割精度较低的问题,提出一种基于分数阶网络和强化学习(RL)的图像实例分割模型,用来分割出图像中目标实例的高质量轮廓曲线.该模型共包含两层模块:1)第一层为二维分数阶非线性网络,主要采用混沌同步方法来获取图像中像素点的基础特征,并通过根据像素点间的相似性进行耦合连接的方...  相似文献   

18.
提出了一种针对TOF MRA(time-of-flight magnetic resonance angiography)磁共振图像的双重分割脑血管提取方法。首先结合高斯滤波,采用二维OTSU算法,结合MIP(maximum intensity projection)图像获得三维血管种子点,定义全局与局部信息相结合的区域增长规则,通过区域增长算法对血管进行粗分割;然后,采用 Catt 扩散模型对体数据场进行各向异性滤波,提出了局部自适应C-V模型,将初步分割结果作为自适应活动轮廓模型的初始轮廓线进行二次分割。实验结果表明,该算法不仅能够有效分割脑血管粗大分支,而且还能精确提取脑血管的细小结构。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号