首页 | 官方网站   微博 | 高级检索  
相似文献
 共查询到18条相似文献,搜索用时 250 毫秒
1.
深度学习目前在计算机视觉、自然语言处理、语音识别等领域得到了深入发展,与传统的机器学习算法相比,深度模型在许多任务上具有较高的准确率.然而,作为端到端的具有高度非线性的复杂模型,深度模型的可解释性没有传统机器学习算法好,这为深度学习在现实生活中的应用带来了一定的阻碍.深度模型的可解释性研究具有重大意义而且是非常必要的,近年来许多学者围绕这一问题提出了不同的算法.针对图像分类任务,将可解释性算法分为全局可解释性和局部可解释性算法.在解释的粒度上,进一步将全局解释性算法分为模型级和神经元级的可解释性算法,将局部可解释性算法划分为像素级特征、概念级特征以及图像级特征可解释性算法.基于上述分类框架,总结了常见的深度模型可解释性算法以及相关的评价指标,同时讨论了可解释性研究面临的挑战和未来的研究方向.认为深度模型的可解释性研究和理论基础研究是打开深度模型黑箱的必要途径,同时可解释性算法存在巨大潜力可以为解决深度模型的公平性、泛化性等其他问题提供帮助.  相似文献   

2.
卷积神经网络表征可视化研究综述   总被引:2,自引:0,他引:2  
近年来, 深度学习在图像分类、目标检测及场景识别等任务上取得了突破性进展, 这些任务多以卷积神经网络为基础搭建识别模型, 训练后的模型拥有优异的自动特征提取和预测性能, 能够为用户提供“输入–输出”形式的端到端解决方案. 然而, 由于分布式的特征编码和越来越复杂的模型结构, 人们始终无法准确理解卷积神经网络模型内部知识表示, 以及促使其做出特定决策的潜在原因. 另一方面, 卷积神经网络模型在一些高风险领域的应用, 也要求对其决策原因进行充分了解, 方能获取用户信任. 因此, 卷积神经网络的可解释性问题逐渐受到关注. 研究人员针对性地提出了一系列用于理解和解释卷积神经网络的方法, 包括事后解释方法和构建自解释的模型等, 这些方法各有侧重和优势, 从多方面对卷积神经网络进行特征分析和决策解释. 表征可视化是其中一种重要的卷积神经网络可解释性方法, 能够对卷积神经网络所学特征及输入–输出之间的相关关系以视觉的方式呈现, 从而快速获取对卷积神经网络内部特征和决策的理解, 具有过程简单和效果直观的特点. 对近年来卷积神经网络表征可视化领域的相关文献进行了综合性回顾, 按照以下几个方面组织内容: 表征可视化研究的提起、相关概念及内容、可视化方法、可视化的效果评估及可视化的应用, 重点关注了表征可视化方法的分类及算法的具体过程. 最后是总结和对该领域仍存在的难点及未来研究趋势进行了展望.  相似文献   

3.
雷霞  罗雄麟 《计算机应用》2022,42(11):3588-3602
随着深度学习的广泛应用,人类越来越依赖于大量采用深度学习技术的复杂系统,然而,深度学习模型的黑盒特性对其在关键任务应用中的使用提出了挑战,引发了道德和法律方面的担忧,因此,使深度学习模型具有可解释性是使它们令人信服首先要解决的问题。于是,关于可解释的人工智能领域的研究应运而生,主要集中于向人类观察者明确解释模型的决策或行为。对深度学习可解释性的研究现状进行综述,为进一步深入研究建立更高效且具有可解释性的深度学习模型确立良好的基础。首先,对深度学习可解释性进行了概述,阐明可解释性研究的需求和定义;然后,从解释深度学习模型的逻辑规则、决策归因和内部结构表示这三个方面出发介绍了几种可解释性研究的典型模型和算法,另外还指出了三种常见的内置可解释模型的构建方法;最后,简单介绍了忠实度、准确性、鲁棒性和可理解性这四种评价指标,并讨论了深度学习可解释性未来可能的发展方向。  相似文献   

4.
<正>人工智能作为计算机科学最活跃的研究领域,在为人类持续创造新的惊喜的同时,也带来了关于可信性与可解释性的问题与挑战。2022年11月27日,中国软件大会“面向可解释人工智能的软件工程方法与技术”论坛在线上召开。论坛联合主席石川教授应邀作了题为“异质图神经网络及其在软件工程领域的应用思考”的特邀报告,分享了他在异质图神经网络模型领域的最新研究进展,着重介绍了将现实复杂交互系统建模为图结构,并通过异质图神经网络进行预测分析的模型、系统和应用的新研究成果。论坛联合主席邢颖副教授应邀为本专题撰写《基于可解释性人工智能的软件工程技术方法综述》,分享了她对可解释性人工智能基本概念以及模型可解释性评估的理解,从软件工程研究者的角度分析了恶意软件检测、高风险组件检测、软件负载分配、二进制代码相似性分析等通过可解释AI提升智能软件系统可信度的方法,展望了软件工程与可解释人工智能相结合的重要研究方向。  相似文献   

5.
可解释人工智能(explainable artificial intelligence, XAI)近年来发展迅速,已出现多种人工智能模型的解释技术,但是目前缺乏XAI可解释性的定量评估方法.已有评估方法大多需借助用户实验进行评估,这种方法耗时长且成本高昂.针对基于代理模型的XAI,提出一种可解释性量化评估方法.首先,针对这类XAI设计一些指标并给出计算方法,构建包含10个指标的评估指标体系,从一致性、用户理解性、因果性、有效性、稳定性5个维度来评估XAI的可解释性;然后,对于包含多个指标的维度,将熵权法与TOPSIS相结合,建立综合评估模型来评估该维度上的可解释性;最后,将该评估方法用于评估6个基于规则代理模型的XAI的可解释性.实验结果表明,所提出方法能够展现XAI在不同维度上的可解释性水平,用户可根据需求选取合适的XAI.  相似文献   

6.
近年来,以卷积神经网络(CNN)等为代表的深度学习模型,以其深度分层学习,无标签化学习等优势,已在图像识别为代表的各个领域得到日益广泛的应用.然而,深度神经网络模型由于其内在的黑盒原理,对其内部工作机制的解释仍然面临巨大挑战,其可解释性问题已成为了研究界和工业界的前沿性热点研究课题.针对现有研究存在的缺乏基于图谱的可解释性方法的问题,以及可解释基模型的图谱构建优势,本文提出了一种基于可解释基拆解和知识图谱的深度神经网络可视化方法.首先采用一种面向可解释基模型特征拆解结构的知识图谱构建方法,构建了场景和解释特征之间的解释关系和并列关系等图谱信息;利用场景-特征的解释关系网络,提出了一种基于Jaccard系数的场景间相似度聚类方法;针对现有可解释基模型对相似的场景,其解释特征重合率可能很高的问题,提出了一种基于场景的判别性特征提取方法,在特征拆解结果中能对每一类样本分别提取出能够区别此类和其他类并且拥有同等重要性的拆解特征(即判别性特征);针对现有可解释基的深度网络可视化测试缺乏保真度测试的问题,提出了一种适于深度神经网络的保真度测试方法.保真度测试和人类置信度测试,均表明本文所提方法可取得优异效果.  相似文献   

7.
阿尔茨海默病是一种常见的神经退行性疾病,可依据神经影像学进行临床诊断。深度学习能够挖掘患者影像资料中隐含的丰富信息并完成不同阶段的病程分类,是目前计算机辅助诊断领域的研究热点。介绍阿尔茨海默病神经影像学数据集,总结经典深度学习网络模型在阿尔茨海默病分类诊断中的应用以及深度学习模型可解释性,重点对卷积神经网络与融合多网络的分类诊断方法进行梳理分析,对不同的思路和方法综合对比,讨论深度学习在阿尔茨海默病辅助诊断领域面临的挑战与未来研究方向,对提高阿尔茨海默病的临床诊断效率与早期预测准确性具有重要意义。  相似文献   

8.
刘潇  刘书洋  庄韫恺  高阳 《软件学报》2023,34(5):2300-2316
强化学习是一种从试错过程中发现最优行为策略的技术,已经成为解决环境交互问题的通用方法.然而,作为一类机器学习算法,强化学习也面临着机器学习领域的公共难题,即难以被人理解.缺乏可解释性限制了强化学习在安全敏感领域中的应用,如医疗、驾驶等,并导致强化学习在环境仿真、任务泛化等问题中缺乏普遍适用的解决方案.为了克服强化学习的这一弱点,涌现了大量强化学习可解释性(explainable reinforcement learning,XRL)的研究.然而,学术界对XRL尚缺乏一致认识.因此,探索XRL的基础性问题,并对现有工作进行综述.具体而言,首先探讨父问题——人工智能可解释性,对人工智能可解释性的已有定义进行了汇总;其次,构建一套可解释性领域的理论体系,从而描述XRL与人工智能可解释性的共同问题,包括界定智能算法和机械算法、定义解释的含义、讨论影响可解释性的因素、划分解释的直观性;然后,根据强化学习本身的特征,定义XRL的3个独有问题,即环境解释、任务解释、策略解释;之后,对现有方法进行系统地归类,并对XRL的最新进展进行综述;最后,展望XRL领域的潜在研究方向.  相似文献   

9.
随着数据量呈爆发式增长,深度学习理论与技术取得突破性进展,深度学习模型在众多分类与预测任务(图像、文本、语音和视频数据等)中表现出色,促进了深度学习的规模化与产业化应用。然而,深度学习模型的高度非线性导致其内部逻辑不明晰,并常常被视为“黑箱”模型,这也限制了其在关键领域(如医疗、金融和自动驾驶等)的应用。因此,研究深度学习的可解释性是非常必要的。首先对深度学习的现状进行简要概述,阐述深度学习可解释性的定义及必要性;其次对深度学习可解释性的研究现状进行分析,从内在可解释模型、基于归因的解释和基于非归因的解释3个角度对解释方法进行概述;然后介绍深度学习可解释性的定性和定量评估指标;最后讨论深度学习可解释性的应用以及未来发展方向。  相似文献   

10.
计算机视觉旨在通过计算机模拟人的视觉系统,让计算机学会"看",是人工智能、神经科学研究的一个热点。作为计算机视觉的经典任务,图像分类吸引了越来越多的研究,尤其是基于神经网络的算法在各种分类任务上表现优异。然而,传统浅层人工神经网络特征学习能力不强、生物可解释性不足,而深层神经网络存在过拟合、高功耗的缺点,因此在低功耗环境下具有生物可解释性的图像分类算法研究仍然是一个具有挑战性的任务。为了解决上述问题,结合脉冲神经网络,设计并实现了一种基于Jetson TK1和脉冲神经网络的图像分类算法。研究的主要创新点有:(1)设计了深度脉冲卷积神经网络算法,用于图像分类;(2)实现了基于CUDA改进的脉冲神经网络模型,并部署在Jetson TK1开发环境上。  相似文献   

11.
面向对抗样本的深度神经网络可解释性分析   总被引:1,自引:0,他引:1  
虽然深度神经网络(Deep neural networks,DNNs)在许多任务上取得了显著的效果,但是由于其可解释性(In-terpretability)较差,通常被当做"黑盒"模型.本文针对图像分类任务,利用对抗样本(Adversarial examples)从模型失败的角度检验深度神经网络内部的特征表示.通过分析...  相似文献   

12.
Extracting Interpretable Fuzzy Rules from RBF Networks   总被引:4,自引:0,他引:4  
Radial basis function networks and fuzzy rule systems are functionally equivalent under some mild conditions. Therefore, the learning algorithms developed in the field of artificial neural networks can be used to adapt the parameters of fuzzy systems. Unfortunately, after the neural network learning, the structure of the original fuzzy system is changed and interpretability, which is considered to be one of the most important features of fuzzy systems, is usually impaired. This Letter discusses the differences between RBF networks and interpretable fuzzy systems. Based on these discussions, a method for extracting interpretable fuzzy rules from RBF networks is suggested. Simulation examples are given to embody the idea of this paper.  相似文献   

13.
李凌敏  侯梦然  陈琨  刘军民 《计算机应用》2022,42(12):3639-3650
近年来,深度学习在很多领域得到广泛应用;然而,由于深度神经网络模型的高度非线性操作,导致其可解释性较差,并常常被称为“黑箱”模型,无法应用于一些对性能要求较高的关键领域;因此,对深度学习的可解释性开展研究是很有必要的。首先,简单介绍了深度学习;然后,围绕深度学习的可解释性,从隐层可视化、类激活映射(CAM)、敏感性分析、频率原理、鲁棒性扰动测试、信息论、可解释模块和优化方法这8个方面对现有研究工作进行分析;同时,展示了深度学习在网络安全、推荐系统、医疗和社交网络领域的应用;最后,讨论了深度学习可解释性研究存在的问题及未来的发展方向。  相似文献   

14.
深度学习在很多人工智能应用领域中取得成功的关键原因在于,通过复杂的深层网络模型从海量数据中学习丰富的知识。然而,深度学习模型内部高度的复杂性常导致人们难以理解模型的决策结果,造成深度学习模型的不可解释性,从而限制了模型的实际部署。因此,亟需提高深度学习模型的可解释性,使模型透明化,以推动人工智能领域研究的发展。本文旨在对深度学习模型可解释性的研究进展进行系统性的调研,从可解释性原理的角度对现有方法进行分类,并且结合可解释性方法在人工智能领域的实际应用,分析目前可解释性研究存在的问题,以及深度学习模型可解释性的发展趋势。为全面掌握模型可解释性的研究进展以及未来的研究方向提供新的思路。  相似文献   

15.
Developing Takagi-Sugeno fuzzy models by evolutionary algorithms mainly requires three factors: an encoding scheme, an evaluation method, and appropriate evolutionary operations. At the same time, these three factors should be designed so that they can consider three important aspects of fuzzy modeling: modeling accuracy, compactness, and interpretability. This paper proposes a new evolutionary algorithm that fulfills such requirements and solves fuzzy modeling problems. Two major ideas proposed in this paper lie in a new encoding scheme and a new fitness function, respectively. The proposed encoding scheme consists of three chromosomes, one of which uses unique chained possibilistic representation of rule structure. The proposed encoding scheme can achieve simultaneous optimization of parameters of antecedent membership functions and rule structures with the new fitness function developed in this paper. The proposed fitness function consists of five functions that consider three evaluation criteria in fuzzy modeling problems. The proposed fitness function guides evolutionary search direction so that the proposed algorithm can find more accurate compact fuzzy models with interpretable antecedent membership functions. Several evolutionary operators that are appropriate for the proposed encoding scheme are carefully designed. Simulation results on three modeling problems show that the proposed encoding scheme and the proposed fitness functions are effective in finding accurate, compact, and interpretable Takagi-Sugeno fuzzy models. From the simulation results, it is shown that the proposed algorithm can successfully find fuzzy models that approximate the given unknown function accurately with a compact number of fuzzy rules and membership functions. At the same time, the fuzzy models use interpretable antecedent membership functions, which are helpful in understanding the underlying behavior of the obtained fuzzy models.  相似文献   

16.
Developing Takagi–Sugeno fuzzy models by evolutionary algorithms mainly requires three factors: an encoding scheme, an evaluation method, and appropriate evolutionary operations. At the same time, these three factors should be designed so that they can consider three important aspects of fuzzy modeling: modeling accuracy, compactness, and interpretability. This paper proposes a new evolutionary algorithm that fulfills such requirements and solves fuzzy modeling problems. Two major ideas proposed in this paper lie in a new encoding scheme and a new fitness function, respectively. The proposed encoding scheme consists of three chromosomes, one of which uses unique chained possibilistic representation of rule structure. The proposed encoding scheme can achieve simultaneous optimization of parameters of antecedent membership functions and rule structures with the new fitness function developed in this paper. The proposed fitness function consists of five functions that consider three evaluation criteria in fuzzy modeling problems. The proposed fitness function guides evolutionary search direction so that the proposed algorithm can find more accurate compact fuzzy models with interpretable antecedent membership functions. Several evolutionary operators that are appropriate for the proposed encoding scheme are carefully designed. Simulation results on three modeling problems show that the proposed encoding scheme and the proposed fitness functions are effective in finding accurate, compact, and interpretable Takagi–Sugeno fuzzy models. From the simulation results, it is shown that the proposed algorithm can successfully find fuzzy models that approximate the given unknown function accurately with a compact number of fuzzy rules and membership functions. At the same time, the fuzzy models use interpretable antecedent membership functions, which are helpful in understanding the underlying behavior of the obtained fuzzy models.  相似文献   

17.
Guided image denoising recovers clean target images by fusing guidance images and noisy target images. Several deep neural networks have been designed for this task, but they are black-box methods lacking interpretability. To overcome the issue, this paper builds a more interpretable network. To start with, an observation model is proposed to account for modality gap between target and guidance images. Then, this paper formulates a deep prior regularized optimization problem, and solves it by alternating direction method of multipliers (ADMM) algorithm. The update rules are generalized to design the network architecture. Extensive experiments conducted on FAIP and RNS datasets manifest that the novel network outperforms several state-of-the-art and benchmark methods regarding both evaluation metrics and visual inspection.  相似文献   

18.
This paper reviews recent studies in understanding neural-network representations and learning neural networks with interpretable/disentangled middle-layer representations. Although deep neural networks have exhibited superior performance in various tasks, interpretability is always Achilles’ heel of deep neural networks. At present, deep neural networks obtain high discrimination power at the cost of a low interpretability of their black-box representations. We believe that high model interpretability may help people break several bottlenecks of deep learning, e.g., learning from a few annotations, learning via human–computer communications at the semantic level, and semantically debugging network representations. We focus on convolutional neural networks (CNNs), and revisit the visualization of CNN representations, methods of diagnosing representations of pre-trained CNNs, approaches for disentangling pre-trained CNN representations, learning of CNNs with disentangled representations, and middle-to-end learning based on model interpretability. Finally, we discuss prospective trends in explainable artificial intelligence.  相似文献   

设为首页 | 免责声明 | 关于勤云 | 加入收藏

Copyright©北京勤云科技发展有限公司    京ICP备09084417号-23

京公网安备 11010802026262号