首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 156 毫秒
1.
CT图像肺结节大小、形状和纹理的多样性,导致肺结节的良恶性诊断十分困难。在三维卷积神经网络的基础上,提出了一种基于多深度残差注意力机制的网络(MDRA-net),用于良恶性肺结节分类。MDRA-net通过在残差分支上使用特征融合及迭代分层融合的方法,提升了网络对结节位置特征及全局特征的感知能力;此外,结合注意力机制,引入projection and excitation模块,利用空间和通道信息进行校准,进一步提升了网络提取特征的能力。在LUNA16数据集上的实验结果表明,MDRA-net分类模型的肺结节检测准确率达96.52%,灵敏度和特异性分别为93.01%和97.77%,较现有的基于深度学习的肺结节良恶性分类模型有较大提升。  相似文献   

2.
肺结节精确分类是提前诊断肺癌的基础。若能在早期检测恶性肺结节并干预处理,对患者预后有很大影响。深度学习能够自动提取肺结节的特征,完成肺结节的良恶性及恶性等级分类。基于此,介绍LIDC-IDRI及LUNA16这两个常用的肺结节数据集,阐述卷积神经网络(Convolutional Neural Networks,CNN)、视觉几何组(Visual Geometry Group,VGG)、迁移学习肺结节良恶性分类中的应用及其实验对比,总结U-Net、生成对抗网络(Generative Adversarial Networks,GAN)应用于恶性肺结节等级分类及该网络的相关研究现状,最后综合分析深度学习在该领域的应用情况。  相似文献   

3.
巩萍  程玉虎  王雪松 《电子学报》2015,43(12):2476-2483
现有肺结节良恶性计算机辅助诊断的依据通常为肺部CT图像的底层特征,而临床医生的诊断依据为高级语义特征.为克服这种图像底层特征和高级语义特征之间的不一致性,提出一种基于语义属性的肺结节良恶性判别方法.首先,利用阈值概率图方法提取肺结节图像;其次,一方面提取肺结节图像的形状、灰度、纹理、大小和位置等底层特征,组成样本特征集.另一方面,根据专家对肺结节属性的标注,提取结节属性集;然后,根据特征集和属性集建立属性预测模型,实现两者之间的映射;最后,利用预测的属性进行肺结节的良恶性分类.LIDC数据库上的实验结果表明所提方法具有较高的分类精度和AUC值.  相似文献   

4.
针对CT图像中肺结节因边缘模糊、特征不明显造成的分类效果有偏差的问题,本文提出一种嵌入注意力机制的多模型融合方法(简称MSMA-Net)。该方法先将原始CT图像进行肺实质分割和裁剪操作后得到两种不同尺寸的图像,然后分别输入到空间注意力模型和通道注意力模型进行训练,其中,空间注意力模型着重于提取肺结节在CT图像中的空间位置信息,通道注意力模型着重于提取肺结节的细节特征。最后将两个模型提取的特征进行融合,用于得出良恶性分类结果。经过大量实验表明,这种多模型融合方法能很好地提取到肺结节在CT图像中的位置信息和自身的边缘特征,在LIDC数据集的基础上,该方法在准确率,敏感性,特异性分别达到了96.28%,96.72%,96.17%,相较于传统的网络模型取得了更好的分类效果。  相似文献   

5.
为了提高肺结节恶性度分级的计算精度及可解释性,该文提出一种基于CT征象量化分析的肺结节恶性度分级方法.首先,融合影像组学特征和通过卷积神经网络提取的高阶特征构造分析CT征象所需的特征集; 接着,在混合特征集的基础上利用进化搜索机制优化集成学习分类器,实现对7种肺结节征象的识别和量化打分; 最后,将7种CT征象的量化打分输入到一个利用差分进化算法优化产生的多分类器,实现肺结节恶性度的分级计算.在实验研究中使用LIDC-IDRI数据集中的2000个肺结节样本进行进化集成学习器和恶性度分级器的训练和测试.实验结果显示对7种CT征象的识别准确率可达0.9642以上,肺结节恶性度分级的准确率为0.8618,精确率为0.8678,召回率为0.8617,F1指标为0.8627.与多个典型算法的比较显示,该文方法不但具有较高的准确率,而且可对相关CT征象进行量化分析,使得对恶性度的分级结果更具可解释性.  相似文献   

6.
为了提高肺结节恶性度分级的计算精度及可解释性,该文提出一种基于CT征象量化分析的肺结节恶性度分级方法。首先,融合影像组学特征和通过卷积神经网络提取的高阶特征构造分析CT征象所需的特征集; 接着,在混合特征集的基础上利用进化搜索机制优化集成学习分类器,实现对7种肺结节征象的识别和量化打分; 最后,将7种CT征象的量化打分输入到一个利用差分进化算法优化产生的多分类器,实现肺结节恶性度的分级计算。在实验研究中使用LIDC-IDRI数据集中的2000个肺结节样本进行进化集成学习器和恶性度分级器的训练和测试。实验结果显示对7种CT征象的识别准确率可达0.9642以上,肺结节恶性度分级的准确率为0.8618,精确率为0.8678,召回率为0.8617,F1指标为0.8627。与多个典型算法的比较显示,该文方法不但具有较高的准确率,而且可对相关CT征象进行量化分析,使得对恶性度的分级结果更具可解释性。  相似文献   

7.
针对条件对抗领域适应(CDAN)方法未能充分挖掘样本的可迁移性,仍然存在部分难以迁移的源域样本扰乱目标域数据分布的问题,该文提出一种基于迁移权重的条件对抗领域适应(TW-CDAN)方法。首先利用领域判别模型的判别结果作为衡量样本迁移性能的主要度量指标,使不同的样本具有不同的迁移性能;其次将样本的可迁移性作为权重应用在分类损失和最小熵损失上,旨在消除条件对抗领域适应中难以迁移样本对模型造成的影响;最后使用Office-31数据集的6个迁移任务和Office-Home数据集的12个迁移任务进行了实验,该方法在14个迁移任务上取得了提升,在平均精度上分别提升1.4%和3.1%。  相似文献   

8.
不同于目前大多数只倾向于研究单一的分类或回归任务的航班延误预测方法,该文提出一种基于多任务NR-DenseNet网络的航班延误预测模型,旨在同时实现航班延误等级分类预测与延误时间回归预测。首先,预处理相关数据;其次,建立多任务学习特征提取共享层,使用NR-DenseNet网络提取任务之间的共享参数,深度挖掘任务之间的相关特征;然后,建立多任务学习特定任务层,通过回归器与分类器分别输出特定任务的预测结果;最后,采用损失加权方法对两个任务损失函数进行优化,平衡任务间的收敛速度,提高模型泛化性。将模型应用在宁波机场数据集中,与单任务模型相比回归任务平均MSE降低了23.4%,平均MAE降低了14.2%,分类平均准确率提升了2.7%。实验结果表明,该文方法提升了分类任务的准确率降低了回归任务的误差,可以有效提升模型性能。  相似文献   

9.
当目标领域缺少足够多的标注数据时,迁移学习利用相关源领域的标注数据,辅助提升目标域的学习性能,但是目标域与源域的数据通常不满足独立同分布,容易导致"负迁移"问题.本文在有监督主题模型(Supervised LDA,SLDA)的基础上,融合迁移学习方法提出一种共享主题知识的迁移主题模型(Transfer SLDA,Tr-SLDA),提出Tr-SLDA-Gibbs主题采样新方法,在类别标签的约束下对不同领域文档中的词采取不同的采样策略,且无需指定主题个数.辅助源域与目标域共享潜在主题空间,Tr-SLDA通过发现潜在共享主题与不同领域类别之间的语义关联从源域迁移知识,可以有效解决"负迁移"问题.基于Tr-SLDA迁移主题模型提出Tr-SLDA-TC(Tr-SLDA Text Categorization)文本分类方法.对比实验表明,该方法可有效利用源域知识来提高目标领域的分类性能.  相似文献   

10.
陈胜  李莉 《电子学报》2010,38(5):1211-1216
针对目前基于胸片肺结节计算机辅助检测系统的检出率低,且检测结果有大量假阳性的问题,提出一种全新检测方案.该方案首先引入基于活动形状模型的算法分割肺区,在肺区中选取大量可疑结节,然后为每个可疑结节提取基于分割结果的27个特征,最后引入线性分类器对可疑结节进行分类,给出最终检测结果.方案中,由于两步结节增强技术的引入,使得只有少量真实结节在可疑结节选取过程中丢失.特征提取时,引入分水岭算法分割可疑结节,基于分割结果提取能够有效区分可疑结节中真实结节和假结节的形状特征、灰度统计特征、曲面特征和梯度特征等,并利用可疑结节分割结果与感兴趣区域中Canny算子边缘检测结果的相关性来降低假阳性.本文选择日本放射技术学会提供的公共数据库测试系统的肺结节检测性能,系统在平均每幅图4.5个假阳性水平下检测出72.2%的结节.对非常不明显和极其不明显结节,系统的检测性能在4.5个假阳性水平下达到了52.7%.  相似文献   

11.
查宇飞  吴敏  库涛  陈兵  张园强 《电子学报》2019,47(10):2076-2082
视觉目标跟踪旨在寻找与跟踪目标具有相同语义信息的样本,并在视频中精确定位样本的位置.最近,深度分类模型被用来提取跟踪目标的深度嵌入式特征,然而,由于深度分类模型给予相同类别的样本一样的标签,这样容易导致跟踪模糊,甚至失败.为了解决这个问题,本文将样本的空间位置信息加入深度分类模型中,提出位置敏感损失函数.本文所提出的损失函数不仅继承了分类损失函数的特性,并根据样本的空间位置信息对相同标签的样本进行了排序.也就是说,本文的损失函数可以同时实现类间可分和类内排序.相比于分类损失函数,本文的损失函数更适合目标跟踪任务.本文在OTB100[1]和VOT2016[2]上进行了测试,结果表明本文算法可以实现较好的跟踪性能.  相似文献   

12.
针对视频分类中普遍面临的类内离散度和类间相似性较大而制约分类性能的问题,该文提出一种基于深度度量学习的视频分类方法。该方法设计了一种深度网络,网络包含特征学习、基于深度度量学习的相似性度量,以及分类3个部分。其中相似性度量的工作原理为:首先,计算特征间的欧式距离作为样本之间的语义距离;其次,设计一个间隔分配函数,根据语义距离动态分配语义间隔;最后,根据样本语义间隔计算误差并反向传播,使网络能够学习到样本间语义距离的差异,自动聚焦于难分样本,以充分学习难分样本的特征。该网络在训练过程中采用多任务学习的方法,同时学习相似性度量和分类任务,以达到整体最优。在UCF101和HMDB51上的实验结果表明,与已有方法相比,提出的方法能有效提高视频分类精度。  相似文献   

13.
The existing cross-dataset person re-identification methods were generally aimed at reducing the difference of data distribution between two datasets,which ignored the influence of background information on recognition performance.In order to solve this problem,a cross-dataset person re-ID method based on multi-pool fusion and background elimination network was proposed.To describe both global and local features and implement multiple fine-grained representations,a multi-pool fusion network was constructed.To supervise the network to extract useful foreground features,a feature-level supervised background elimination network was constructed.The final network loss function was defined as a multi-task loss,which combined both person classification loss and feature activation loss.Three person re-ID benchmarks were employed to evaluate the proposed method.Using MSMT17 as the training set,the cross-dataset mAP for Market-1501 was 35.53%,which was 9.24% higher than ResNet50.Using MSMT17 as the training set,the cross-dataset mAP for DukeMTMC-reID was 41.45%,which was 10.72% higher than ResNet50.Compared with existing methods,the proposed method shows better cross-dataset person re-ID performance.  相似文献   

14.
一种新的多尺度深度学习图像语义理解方法研究   总被引:1,自引:1,他引:0  
如何在深度学习中融合 图像的多尺度信息,是基于深度学习的视觉算法需要解决的一个关键问题。本文提出一种基 于多尺度交替 迭代训练的深度学习方法,并应用于图像的语义理解。算法采用卷积神经网络(CNN)从原始 图像中提取稠密性特征 来编码以每个像素为中心的矩形区域,将多个尺度图像交替迭代训练,能够捕获不同尺度下 的纹理、颜色和 边缘等重要信息。在深度学习提取特征分类结果的基础上,提出了一种结合超像素分割的方 法,统计超像 素块的主导类别,来校正分类错误的像素类别,同时描绘出目标区域边界轮廓,完成最终的 语义理解。在Stanford Background Dataset 8类数据集上验证了本文方法的有效性,准确 率达到77.4%。  相似文献   

15.
于晓  姜晨慧 《红外》2023,44(12):41-48
本研究旨在解决红外图像刑侦场景中目标边缘模糊和轮廓不完整等问题。提出了一种基于特征增强的模糊刑侦目标提取方法。首先,设计模糊刑侦目标边缘提取网络模型(Blurry Criminal Investigation Target Edge Extraction Network Combined with Spatial Channel Attention, BCES-Net),并利用空间通道关注模块(Spatial and Channel Attention Module, STCAM)获取具有强语义信息的特征图像。接着通过建模提取来获取包含语义类别信息的边缘特征和模糊刑侦目标特征。在训练过程中,基于特定损失函数和多种特征融合技术,通过反复监督学习和训练校正,提高了边缘和模糊刑侦目标分割性能。在手部热痕迹数据集上,与DeeplabV3+、U-Net、HRNet、PSPNet等模型相比,BCES-Net模型在均交并比(mean Intersection over Union, mIoU)、平均精度均值(mean Average Precision, mAP)、准确率等评价指标上显著优越,mIoU达到88.3%,mAP达到94.35%,准确率达到95.5%。本研究创新性地提高了模糊红外刑侦目标提取的准确度,为实际应用提供了技术支持。  相似文献   

16.
张宇  张雷 《电讯技术》2021,61(10):1205-1212
针对现有的深度学习方法在人体动作识别中易出现过拟合、易受到干扰信息影响、特征表达能力不足的问题,提出了一种融入注意力机制的深度学习动作识别方法.该方法在数据预处理中提出了视频数据增强算法,降低了模型过拟合的风险,然后在视频帧采样过程中对现有的采样算法进行了改进,有效抑制了干扰信息的影响,并在特征提取部分提出了融入注意力的残差网络,提高了模型的特征提取能力;之后,利用长短时记忆(Long Short-Term Memory,LSTM)网络解决了空间特征的时序关联问题;最后,通过Softmax完成了相应动作的分类.实验结果表明,在UCF YouTube、KTH和HMDB-51数据集上,所提方法的识别率分别为96.72%、98.06%和64.81%.  相似文献   

17.
Machine learning technology has wide application in botnet detection.However,with the changes of the forms and command and control mechanisms of botnets,selecting features manually becomes increasingly difficult.To solve this problem,a botnet detection system called BotCatcher based on deep learning was proposed.It automatically extracted features from time and space dimension,and established classifier through multiple neural network constructions.BotCatcher does not depend on any prior knowledge which about the protocol and the topology,and works without manually selecting features.The experimental results show that the proposed model has good performance in botnet detection and has ability to accurately identify botnet traffic .  相似文献   

18.
Semantic segmentation is a prominent problem in scene understanding expressed as a dense labeling task with deep learning models being one of the main methods to solve it. Traditional training algorithms for semantic segmentation models produce less than satisfactory results when not combined with post-processing techniques such as CRFs. In this paper, we propose a method to train segmentation models using an approach which utilizes classification information in the training process of the segmentation network. Our method employs the use of classification network that detects the presence of classes in the segmented output. These class scores are then used to train the segmentation model. This method is motivated by the fact that by conditioning the training of the segmentation model with these scores, higher order features can be captured. Our experiments show significantly improved performance of the segmentation model on the CamVid and CityScapes datasets with no additional post processing.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号