首页 | 官方网站   微博 | 高级检索  
     

基于自适应融合和显微成像的乳腺肿瘤分级网络
引用本文:黄盼,何鹏,杨兴,罗家洋,肖华亮,田素坤,冯鹏.基于自适应融合和显微成像的乳腺肿瘤分级网络[J].光电工程,2023(1):71-84.
作者姓名:黄盼  何鹏  杨兴  罗家洋  肖华亮  田素坤  冯鹏
作者单位:1. 重庆大学光电技术及系统教育部重点实验室光电工程学院;2. 成都理工大学计算机与网络安全学院;3. 陆军军医大学大坪医院病理科;4. 山东大学机械工程学院
基金项目:国家重点研发计划资助项目(2019YFC0605203);;国家自然科学基金资助项目(52105265);
摘    要:基于显微成像技术的肿瘤分级对于乳腺癌诊断和预后有着重要的意义,且诊断结果需具备高精度和可解释性。目前,集成Attention的CNN模块深度网络归纳偏差能力较强,但可解释性较差;而基于ViT块的深度网络其可解释性较好,但归纳偏差能力较弱。本文通过融合ViT块和集成Attention的CNN块,提出了一种端到端的自适应模型融合的深度网络。由于现有模型融合方法存在负融合现象,无法保证ViT块和集成Attention的CNN块同时具有良好的特征表示能力;另外,两种特征表示之间相似度高且冗余信息多,导致模型融合能力较差。为此,本文提出一种包含多目标优化、自适应特征表示度量和自适应特征融合的自适应模型融合方法,有效地提高了模型的融合能力。实验表明本文模型的准确率达到95.14%,相比ViT-B/16提升了9.73%,比FABNet提升了7.6%;模型的可视化图更加关注细胞核异型的区域(例如巨型核、多形核、多核和深色核),与病理专家所关注的区域更加吻合。整体而言,本文所提出的模型在精度和可解释性上均优于当前最先进的(state of the art)模型。

关 键 词:显微镜成像  可解释性  深度学习  自适应融合  乳腺癌  肿瘤分级
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号