首页 | 官方网站   微博 | 高级检索  
     

FRKDNet:基于知识蒸馏的特征提炼语义分割网络
作者姓名:蒋诗怡  徐杨  李丹杨  范润泽
作者单位:1. 贵州大学大数据与信息工程学院;2. 贵阳铝镁设计研究院有限公司
基金项目:贵州省科技计划(黔科合支撑[2021]一般176)~~;
摘    要:传统的语义分割知识蒸馏方法仍然存在知识蒸馏不完全、特征信息传递不显著等问题,且教师网络传递的知识情况复杂,容易丢失特征的位置信息。针对以上问题,本文提出了一种基于知识蒸馏的特征提炼语义分割模型FRKDNet。首先根据前景特征与背景噪声的特点,设计了一种特征提炼方法来将蒸馏知识中的前景内容进行分离,过滤掉教师网络的伪知识后将更准确的特征内容传递给学生网络,从而提高特征的表现能力。同时,在特征空间的隐式编码中提取类间距离与类内距离从而得到相应的特征坐标掩码,学生网络通过模拟特征位置信息来最小化与教师网络特征位置的差距,并分别和学生网络进行蒸馏损失计算,从而提高学生网络的分割精度,辅助学生网络更快地收敛。最后在公开数据集Pascal VOC和Cityscapes上实现了优秀的分割性能,MIoU分别达到74.19%和76.53%,比原始学生网络分别提高了2.04%和4.48%。本文方法相比于主流方法具有更好的分割性能和鲁棒性,为语义分割知识蒸馏提供了一种新方法。

关 键 词:语义分割  神经网络  知识蒸馏  特征提炼  深度学习
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号