首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到16条相似文献,搜索用时 281 毫秒
1.
皮肤病灶图像分割可作为医学相关类疾病辅助诊断的重要依据。针对皮肤病灶区域结构复杂和尺度信息参差错落的特点,提出一种基于U型稠密特征融合的皮肤病灶分割方法。编码器利用稠密网络结构和空洞空间金字塔池化充分提取特征与融合,由稠密空间注意力模块与深度可分离卷积解码深层特征,防止病灶区域周围噪声干扰,同时引入融合压缩注意力模块进一步提高分割性能,通过二值交叉熵与Jaccard系数结合的损失函数优化。在ISBI 2016皮肤病灶数据集进行仿真评估,Jaccard相似度和Dice系数分别达到86.87%和92.98%,有助于提高皮肤病灶诊断效率。  相似文献   

2.
青光眼为多发性眼底疾病,是致盲的主要原因之一。眼底图像来源广,质量参差不齐,且视盘区域具有多尺度性特征,融合上下文信息有利于准确分割多尺度视盘边界。以U-Net为基础,结合上下文信息和卷积注意力模块(CBAM),提出了一种改进的视盘分割模型,包括:(1)使用实例-批处理归一化(IBN)模块与注意力机制改进主干网络ResNet34,提升分割模型的泛化性和图像通道特征的提取能力;(2)提出一种多层次上下文信息提取(MCE)模块处理主干网络输出的特征,融合上下文信息增强分割模型对视盘边缘特征的提取能力;(3)使用Transformer机制替换U-Net中的跳跃连接和上采样,进一步提高视盘多尺度特征和图像通道特征的提取能力。将改进的分割模型与U-Net、U-Net++、DeeplabV3+、FCN和PSPNet分割模型进行视盘分割精度比较,结果表明提出的分割模型具有更好的分割效果,Dice、MIoU、MPA和FPS指标分别为98.18%、96.45%、98.11%和17.56 Img/s。该研究成果可为青光眼的早期诊断提供技术支撑。  相似文献   

3.
为提高对乳腺癌钼靶图像中病灶区域的识别精度,本研究设计了一种面向乳腺肿块和钙化区域分割的特征引导注意网络。首先,该网络通过特征提取模块学习乳腺组织的语义特征;其次,利用融合自校正注意力的解码模块,增强对病灶区域边缘信息的关注度,提高边界的清晰度;最后,采用特征引导注意模块增强通道的依赖关系,进一步还原病灶区域边缘细节,提高分割精度。实验结果表明,本研究网络在扩充后的INBreast1数据库中肿块和钙化分割的平均骰子系数(mDice)分别达到了0.971和0.888,在DDSM数据库肿块分割的mDice达到了0.911,优于其他常规的分割模型,对乳腺癌的早期诊断和治疗具有重要意义。  相似文献   

4.
CT成像已成为检测新型冠状病毒肺炎(COVID-19)最重要的步骤之一。针对手动分割患者胸部CT图像中毛玻璃混浊区域繁琐的问题提出了一种自注意力循环残差U型网络模型来实现COVID-19患者肺部CT图像的自动分割,辅助医生诊断。在U-Net模型的基础上引入了循环残差模块和自注意力机制来加强对特征信息的抓取从而提升分割精度。在公开数据集上的分割实验结果显示,该算法的Dice系数、敏感度和特异度分别达到了85.36%、76.64%和76.25%,与其他算法相比具有良好的分割效果。  相似文献   

5.
针对结肠息肉图像分割时空间归纳偏差和全局上下文信息的有效表示缺失,导致边缘细节信息丢失和病变区域误分割等问题,提出一种融合Transformer和跨级相位感知的结肠息肉分割方法。该方法一是从变换的全局特征角度出发,运用分层Transformer编码器逐层提取病变区域的语义信息和空间细节;二是通过相位感知融合模块(PAFM)捕获各阶段跨层次交互信息,有效聚合多尺度上下文信息;三是设计位置导向功能模块(POF)有效整合全局与局部特征信息,填补语义空白,抑制背景噪声;四是利用残差轴反向注意力模块(RA-IA)来提升网络对边缘像素点的识别能力。在公共数据集CVC-ClinicDB、Kvasir、CVC-ColonDB和EITS上进行实验测试,其Dice相似性系数分别为94.04%、92.04%、80.78%和76.80%,平均交并比分别为89.31%、86.81%、73.55%和69.10%。仿真实验结果表明,本文提出的方法能有效地分割结肠息肉图像,为结直肠息肉的诊断提供了新窗口。  相似文献   

6.
由于儿童心脏大小随年龄变化显著,且儿童心率较快,超声心动图心脏边界相较成人更模糊,因此儿科超声心动图的准确分割是一项具有挑战性的任务。针对上述问题,本文提出了一种结合通道注意力和尺度注意力的双解码器网络模型。首先,利用结合深监督策略的注意力引导解码器,获取心室区域的注意力图;然后,将产生的心室注意力通过跳跃连接返回到网络的多个层,调整编码器生成的特征权重,突出左右心室区域;最后,通过尺度注意力模块和通道注意力模块强化左右心室边缘特征。实验结果表明,本文所提方法在所采集的双侧心室分割数据集中,平均戴斯系数(DSC)达到90.63%,优于医学图像分割领域一些常规和最新方法,尤其在心室边缘处分割更清晰。本文的研究可为儿科超声心动图双侧心室分割以及后续先天性心脏病辅助诊断提供新的解决方案。  相似文献   

7.
在新型冠状病毒肺炎(COVID-19)疫情背景下,肺炎影像快速准确诊断显得尤为重要。针对肺炎影像纹理及细粒度特征受噪声影响大、常规手段识别率低等问题,本研究构建了一种新的基于跨层连接机制的多主干网络特征融合卷积模型。依托并行特征挖掘思路,利用多尺度感受野挖掘融合来捕获医学图像的局部细节,实现对COVID-19医学影像的筛查,提高诊断准确率。实验表明,本研究模型应用于COVID-19的X光数据集及CT数据集的识别率达到95%以上,对准确、高效诊断新型冠状病毒肺炎具有重大意义。  相似文献   

8.
针对当前深度学习分割算法参数数量多和计算复杂度高的问题,提出了一种融合多种注意力机制的轻量级模型MAUNet用于皮肤病变分割。该模型在UNet网络基础上融合深度可分离卷积和门控注意力机制模块,用于提取全局和局部特征信息;融入外部注意力机制模块来增强样本间的联系;利用空间和通道注意力模块分别提取通道和空间特征。以ISIC2017皮肤病公开数据集作为数据源,改进的UNet模型实现特征提取与分类。与基线模型UNet相比,平均交并比和Dice相似性系数分别提高了2.18%和1.28%,同时参数量和计算复杂度仅为基线模型的2.1%和0.58%。实验结果表明该模型在参数数量平衡性、计算复杂度和分割检测性能上均达到了较好的水平。  相似文献   

9.
全脊柱X光图像(包含脊柱、骶骨及髂骨)分割是目前脊椎疾病智能诊断中首要关键的环节。针对U-Net语义分割算法在全脊柱X光图像多区域分割精度较差的问题,提出一种双通道语义分割算法DAU-Net,通过空间通道与语义通道分别学习空间信息特征与图像语义特征,并在解码器端对两类特征进行融合,获取脊柱X光图像中更精准的分割边界。在空间通道中,使用空洞卷积及残差模块扩大视野域并保留更多远端特征信息。此外,将自注意力机制引入语义通道,并设计不同的自注意力编码与自注意力解码模块构建全局关联信息,实现对多个目标骨骼区域语义分割。实验结果表明,DAU-Net能够有效提高脊柱X光图像上的分割精度,相比U-Net、ResU-Net、Attention U-Net、U-Net++,Dice系数分别提高4.00%、1.90%、4.60%、1.19%。  相似文献   

10.
目的:构建混合多尺度神经网络(HMnet)实现放疗临床靶区的自动勾画,提供一个高精度的CT影像自动分割模型。方法:HMnet是一种端到端的卷积神经网络,使用深度残差网络提取特征,由4个不同内核的卷积层组成的多尺度特征融合模块进行处理,以适应不同尺度大小的临床靶区;再引入注意力残差模块对多尺度特征融合模块输出的有效特征进行强化。共采用117例Graves眼病病例的CT影像数据和临床靶区轮廓训练和评估HMnet,选择骰子相似系数(DSC)、95%豪斯多夫距离(95HD)作为评估指标。结果:采用HMnet进行Graves眼病放疗临床靶区自动勾画的DSC为0.874 9,95HD为2.525 4 mm,均优于Unet、Vnet、ResAttUnet3D网络,也优于同一位医生两次勾画结果的平均DSC。结论:HMnet能准确实现Graves眼病放疗临床靶区的自动勾画,可提高放疗医生的工作效率及勾画的一致性。  相似文献   

11.
皮肤病变分割是计算机辅助诊断黑色素瘤的关键步骤。为了精确提取出皮肤病变区域,本研究基于U-Net提出一种新的皮肤病变分割方法。该方法引入通道权重更新模块和密集残差金字塔空间注意力模块,分别从通道和空间上提取有效信息,突出病变特征,抑制无关特征,从而提升网络对病变区域的分割精度;此外,构造了一种加权边界损失函数,通过对病变轮廓进行强监督,减少病变边缘特征的丢失。实验表明在ISIC 2018和PH2皮肤镜图像数据集中,该方法的Dice系数分别达到了91.3%、92.2%,相比U-Net提升了5.0%、4.3%。  相似文献   

12.
针对皮肤病变图像分割在医疗诊断中的作用,提出一种基于多尺度编码-解码网络的皮肤病变图像分割算法。该算法继承了SegNet网络结构的训练速度快、训练模型存储小等特点,采用多尺度输入的方式增强了网络对皮肤病变图像的充分学习。此外,在编码网络中的pool2层输出一个二进制双线性插值的中间预测特征图到解码层的最后一层卷积块进行级联输入提高最终的分割精度。实验结果表明,采用多尺度编码-解码网络对皮肤病变图像分割具有极好的效果,在其他医学图像分割方面也能进行广泛应用。  相似文献   

13.
Coronavirus (COVID-19) is a pandemic, which caused suddenly unexplained pneumonia cases and caused a devastating effect on global public health. Computerized tomography (CT) is one of the most effective tools for COVID-19 screening. Since some specific patterns such as bilateral, peripheral, and basal predominant ground-glass opacity, multifocal patchy consolidation, crazy-paving pattern with a peripheral distribution can be observed in CT images and these patterns have been declared as the findings of COVID-19 infection. For patient monitoring, diagnosis and segmentation of COVID-19, which spreads into the lung, expeditiously and accurately from CT, will provide vital information about the stage of the disease. In this work, we proposed a SegNet-based network using the attention gate (AG) mechanism for the automatic segmentation of COVID-19 regions in CT images. AGs can be easily integrated into standard convolutional neural network (CNN) architectures with a minimum computing load as well as increasing model precision and predictive accuracy. Besides, the success of the proposed network has been evaluated based on dice, Tversky, and focal Tversky loss functions to deal with low sensitivity arising from the small lesions. The experiments were carried out using a fivefold cross-validation technique on a COVID-19 CT segmentation database containing 473 CT images. The obtained sensitivity, specificity, and dice scores were reported as 92.73%, 99.51%, and 89.61%, respectively. The superiority of the proposed method has been highlighted by comparing with the results reported in previous studies and it is thought that it will be an auxiliary tool that accurately detects automatic COVID-19 regions from CT images.  相似文献   

14.
脑肿瘤图像分割问题是脑肿瘤临床诊断和治疗脑肿瘤疾病计算机辅助诊断的基础.针对脑肿瘤MRI图像分割网络深度过深和局部与全局特征信息联系匮乏导致图像分割精度降低等问题,提出一种基于三重注意力的脑肿瘤图像分割网络.首先,借鉴残差结构,将原始图像分割网络结构的编码层和解码层中的卷积模块替换为深度残差模块,解决网络加深带来的梯度...  相似文献   

15.
Li  Meiyu  Lian  Fenghui  Guo  Shuxu 《Journal of digital imaging》2022,35(1):47-55

Organ segmentation from existing imaging is vital to the medical image analysis and disease diagnosis. However, the boundary shapes and area sizes of the target region tend to be diverse and flexible. And the frequent applications of pooling operations in traditional segmentor result in the loss of spatial information which is advantageous to segmentation. All these issues pose challenges and difficulties for accurate organ segmentation from medical imaging, particularly for organs with small volumes and variable shapes such as the pancreas. To offset aforesaid information loss, we propose a deep convolutional neural network (DCNN) named multi-scale selection and multi-channel fusion segmentation model (MSC-DUnet) for pancreas segmentation. This proposed model contains three stages to collect detailed cues for accurate segmentation: (1) increasing the consistency between the distributions of the output probability maps from the segmentor and the original samples by involving the adversarial mechanism that can capture spatial distributions, (2) gathering global spatial features from several receptive fields via multi-scale field selection (MSFS), and (3) integrating multi-level features located in varying network positions through the multi-channel fusion module (MCFM). Experimental results on the NIH Pancreas-CT dataset show that our proposed MSC-DUnet obtains superior performance to the baseline network by achieving an improvement of 5.1% in index dice similarity coefficient (DSC), which adequately indicates that MSC-DUnet has great potential for pancreas segmentation.

  相似文献   

16.
针对深度学习的医学图像分割模型训练时间长和精度不精的问题,提出结合动态阈值可变FCMSPCNN的多尺度上下文编解码结构和注意力机制的CoA Unet(Context Attention Unet)分割方法。首先,使用动态阈值可变的FCMSPCNN预分割出目标矩形区域并使用掩码遮盖背景部分;然后,更深层卷积块加入快捷连接交叉融合不同层次的特征,并通过注意力门突出对目标特征的学习;最后,在编解码器最底层加入改进的多尺度上下文提取器可以更好地提取目标特征信息。模型分别在LiTs和DRIVE数据集上进行验证,肝脏分割指标Miou、Aver_HD、Aver_Dice分别为0.890 5、6.369 9、0.947 7,视网膜血管分割指标分别为0.589 2、9.255 9、0.740 9。实验表明,预处理能缩短4.3%~20.33%的训练时间并提升2%~6%分割精度,与其他5种分割方法相比,CoA Unet能取得更好的整体分割性能。  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号