排序方式: 共有41条查询结果,搜索用时 15 毫秒
31.
多模态医学图像可在同一病灶处提供更多语义信息,针对跨模态语义相关性未充分考虑和模型复杂度过高的问题,该文提出基于跨模态轻量级YOLOv5(CL-YOLOv5)的肺部肿瘤检测模型。首先,提出学习正电子发射型断层显像(PET)、计算机断层扫描(CT)和PET/CT不同模态语义信息的3分支网络;然后,设计跨模态交互式增强块充分学习多模态语义相关性,余弦重加权计算Transformer高效学习全局特征关系,交互式增强网络提取病灶的能力;最后,提出双分支轻量块,激活函数簇(ACON)瓶颈结构降低参数同时增加网络深度和鲁棒性,另一分支为密集连接的递进重参卷积,特征传递达到最大化,递进空间交互高效地学习多模态特征。在肺部肿瘤PET/CT多模态数据集中,该文模型获得94.76%mAP最优性能和3 238 s最高效率,以及0.81 M参数量,较YOLOv5s和EfficientDet-d0降低7.7倍和5.3倍,多模态对比实验中总体上优于现有的先进方法,消融实验和热力图可视化进一步验证。 相似文献
33.
34.
PET/CT医学图像融合对于图像分析及临床诊断具有重要的应用价值,通过融合PET/CT图像,可以丰富图像的信息量,提高信息准确度。针对PET/CT融合问题,提出了一个基于双树复小波的PET/CT自适应融合算法。对已配准的PET和CT图像进行双树复小波变换(dual-tree complex wavelet transform,DTCWT),得到低频分量和高频分量;根据低频图像集中了大部分源图像能量及决定了图像轮廓的特点,采用了自适应高斯隶属度函数的融合规则;在高频图像部分,考虑了图像相邻像素之间的相关性和模糊性问题,在第一层的高频分量上采用了高斯隶属度函数和3×3领域窗口相结合的融合规则,在第二层高频分量上采用了区域方差的融合规则。最后,为了验证算法的有效性和可行性,做了3个方面的实验,分别是该算法和其他像素级融合算法的比较实验,利用信息熵、均值、标准方差和互信息的融合效果评价实验,双树复小波变换中不同融合规则的比较实验。实验结果表明,该算法信息熵提高了7.23%,互信息提高了17.98%,说明该算法是一种有效的多模态医学影像融合方法。 相似文献
35.
针对现有集成支持向量机存在的训练子集随机性强、规模大、算法时空复杂度高等问题,提出了基于聚类分析的集成改进支持向量机算法.该方法首先采用基于对手惩罚策略的竞争学习算法(RPCL)时训练样本进行聚类分析,然后根据其聚类分布选择少量具有代表性的样本,并采用了基于种群收敛速度的自适应扰动的粒子群方法来训练单个支持向量机,最后通过相对多数投票方法得到集成支持向量机.实验表明相对于基于Bagging,Adaboost等方法而言,该方法在序列目标分类中对分类精度有较大提高,该方法构造的集成改进支持向量机具有较高的分类精度和较低的时、空复杂性. 相似文献
36.
针对胃癌患者住院费用分类标签设定的复杂性以及传统费用建模算法的局限性, 本文提出了一种基于聚类和支持向量机的住院费用建模算法, 为胃癌患者住院费用的控制和预测提供方法基础. 搜集整理宁夏某三甲医
院2009–2011年间1583例胃癌患者为样本, 采用K-means对总住院费用逐年聚类得到分类标签, 最后通过支持向量机对住院费用进行建模预测以及影响因素分析, 用分类准确率作为预测效果的评价指标. 实验结果表明胃癌患者住院费用呈逐年增加趋势, 其中以西药费为主, 占总费用的53.74%. 通过K-Means以年份对费用聚类比单纯以费用分布特征聚类的分类准确率提高了13.13%, 当核函数选用高斯核函数, 且惩罚因子C = 10和核参数 = 1时建立的支持向量机模型最稳定, 分类准确率为92.11%. 实验结果表明根据年份聚类得到类别标签更合理, 结合聚类的SVM来预测住院费用更有效. 相似文献
37.
38.
论文提出了一种基于粗糙集和时态概念的新神经网模型—时态粗糙神经网。在神经网的输入中加入时间的因素,即神经网络的输入是时间的函数,从而把传统的神经元改造成了时态神经元;时态粗糙神经网中的神经元是时态粗糙神经元,它包括一对时态神经元,即将数据中的上边界和下边界加入时间因素以后,作为神经网络的输入和输出。当网络的输入和输出不是单值数据而是一个随时间变化的数据的集合时,经典的神经网络建立的预测模型的输出就会产生较大的误差,而基于时态粗糙理论的神经网络则可以很好地解决这个问题,更能真实刻画实际问题。从而为解决这类问题提供了一个较好的理论模型。 相似文献
39.
通过对ACOODB中的原子事件、复合事件以及各种操作符的研究,给出了复合事件操作符的面向对象的描述,并对其中的关键复合事件操作符给出了类c 实现。从而实现了ECA规则中的事件在ACOODB中的无缝嵌入。 相似文献
40.
针对人工智能辅助骨折部位治疗时由于骨折部位通常伴随着出血等症状,不同体位所拍摄的CT影像存在较大差异,骨折部位大小不一,以及受到出血部位以及周围组织的干扰,骨折部位的特征提取不充分、骨折部位检测精度不高的问题,设计了一种3M-YOLOv5网络来检测下颌骨骨折部位。在特征提取网络中采用密集模块,利用密集连接特性提高网络的特征提取能力;采用局部全局注意力模块来提取CT影像的全局信息;构造一个轻量化的多尺度密集块,以较少的参数量提取骨折部位的多尺度特征;在特征增强网络中设计跨维度双向特征融合模块,使得特征图的高度、宽度以及通道之间有所交互,同时引入可训练的权重来平衡不同尺度特征图的融合重要性。为了验证3M-YOLOv5网络的有效性,在自建数据集上进行消融实验和对比实验。实验结果表明,在置信度阈值取0.5时,3M-YOLOv5网络的mAP值、F1值、召回率、精确率分别为99.17%,99.06%,98.81%和99.32%。所提出的下颌骨骨折CT影像检测网络能够较好地检测出影像中的骨折部位,辅助医生制定治疗方案。 相似文献