首页 | 官方网站   微博 | 高级检索  
     

深度学习可解释性综述
作者姓名:陈冲  陈杰  张慧  蔡磊  薛亚茹
作者单位:中国石油大学(北京)信息科学与工程学院
基金项目:国家自然科学基金(62006247);;国家重点研发计划(2019YFC1510501,2022YFC2803704)~~;
摘    要:随着数据量呈爆发式增长,深度学习理论与技术取得突破性进展,深度学习模型在众多分类与预测任务(图像、文本、语音和视频数据等)中表现出色,促进了深度学习的规模化与产业化应用。然而,深度学习模型的高度非线性导致其内部逻辑不明晰,并常常被视为“黑箱”模型,这也限制了其在关键领域(如医疗、金融和自动驾驶等)的应用。因此,研究深度学习的可解释性是非常必要的。首先对深度学习的现状进行简要概述,阐述深度学习可解释性的定义及必要性;其次对深度学习可解释性的研究现状进行分析,从内在可解释模型、基于归因的解释和基于非归因的解释3个角度对解释方法进行概述;然后介绍深度学习可解释性的定性和定量评估指标;最后讨论深度学习可解释性的应用以及未来发展方向。

关 键 词:深度学习  可解释性  归因解释  非归因解释  评估方法
设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号