可解释人工智能导论
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.3 可解释AI的历史及发展现状

1.3.1 可解释AI历史回顾

与可解释AI相关的研究工作早在20世纪70年代就被提出了,但由于当时人工智能大规模应用尚不成熟,所以,可解释AI的重要性一直没有引起社会各界足够的关注。在经历了很长一段时间的寒冬后,近年来随着深度学习的再度兴起,人们对可解释AI的研究愈加重视。可解释AI相关文献发表数量逐年上升,如图1-7所示。

在前期的可解释AI相关研究中,比较有影响力的工作包括以下几类。

1.基于专家知识规则的符号推理解释

从20世纪70年代发展起来的人工智能专家系统,利用基于符号的推理规则进行决策,并回答“接下来会发生什么(结果)”和“该结果发生的原因是什么”这两类正向推理和反向推理问题。在生物医疗领域,斯坦福大学在20世纪70年代初研发的MYCIN专家系统能够诊断病例血液中的细菌感染及血液凝结疾病,并给出基于600条专家规则的诊断解释和药物治疗方案[33][2]。MYCIN被认为是最早期的可解释专家系统之一,而且其首创的certainty-factor模型被用于处理专家系统中规则的不确定性问题,并对其后发展起来的贝叶斯网络有启迪作用[34]。其他可解释专家系统,如SOPHIE[35]和GUIDON[36],所生成的解释还被应用于对学生的专业培训。

图1-7 可解释AI相关文献的发表数量

基于专家知识规则的解释具有逻辑性强、易于被人类使用者理解的优点。但是,该方法有两个显著缺点:首先,基于规则的决策往往过于简单,不能灵活处理大千世界的多样性和不确定性,在决策性能上比数据驱动的机器学习方法有所欠缺;其次,专家知识规则的制定会耗费大量的人力及时间,因而更新困难。这就使得专家系统在建立后很难适应不断变化的场景需求,很快变得僵化、落伍。

2.基于自动生成规则的推理机制解释

20世纪90年代以来,研究人员就试图将神经网络和规则推理两种方法的优点结合起来,取长补短。这些研究集中在解决以下三个问题[37,38]上:第一,如何从训练好的神经网络中自动提取规则,以补充到先验知识规则库中;第二,如何根据神经网络训练结果来修订知识库中的已有规则;第三,如何在神经网络的训练中引入先验的知识库及规则来约束神经网络的表现。

虽然按照现今深度学习的标准,这些早期方法所处理的神经网络架构是非常简单的,但其基本思想与深度神经网络的可解释性研究是一脉相承的,即利用逻辑推理规则对神经网络进行一定程度的简化和约束来提升其可解释性(见本书第5章)。另外,值得一提的是,为了从数值化的神经网络模型中提取对应的逻辑推理规则,早期的研究还提出了利用模糊逻辑单元来模拟神经元节点的输入和输出,这样的模糊处理方式能够让基于规则的决策更加灵活地适应各种输入和输出信息的不确定性[39-41]。同时,自动化的规则提取又使得整个知识规则库的更新变得灵活、高效。

3.机器学习模型的可解释性

在机器学习的各种方法中,有几类模型本身被认为是具有较强可解释性的[42]。其中,线性回归(LinearRegression)模型将输出值表示为各输入特征(Feature)的线性加权和,学习得到的特征权值(Weights)除以特征权值的标准差,可以直接解释为该特征对输出影响的重要性(Feature Importance)。逻辑回归(LogisticRegression)模型则是在线性回归的基础上,通过logit函数将模型输出映射为分类预测结果的概率。另一类常用的决策树模型,是通过将输入特征的高维空间进行连续切分来自动拟合样本数据的。这样通过学习得到的特征及其切分值(CutoffValue)解释了相应的决策规则,比如“个人月收入大于1万元”对应“贷款风险低”的判断。而通过进一步增加决策树的深度,能够得到更加复杂的组合决策规则。

综合各种机器学习模型的情况[3],随着模型复杂度的增加,在准确率得到提升的同时,模型的可解释性却逐步下降,所以,需要用可解释的方法来提升复杂机器学习模型的可解释性,如图1-8所示。

1.3.2 可解释AI发展现状

随着深度学习在现实生活中的应用越来越广泛,人们对可解释AI的研究愈加重视。如图1-7所示,2015年后,可解释AI相关文献的发表数量呈现指数级增长趋势。表1-3总结整理了发表于2018年以后,受到较多关注的可解释AI综述和书籍,比较了这些文献的目标读者对象、应用案例数量、对可解释AI的分析角度(理论层面、应用层面和监管层面)、内容总结、特点和优势等。读者可以参考表中的信息(尤其是“目标读者对象”一栏),按照自己的知识水平或实际工作需求,有针对性地选择适合自己的文献来阅读。

图1-8 不同机器学习模型的准确率与可解释性比较

需要指出的是,与表1-3中其他可解释AI相关综述和书籍相比,本书具有以下三个独树一帜的特点。

1.本书是由浅入深的导论性介绍

多数可解释AI综述和书籍面向的读者群体是科研人员,要求读者有一定的机器学习、深度学习基础,甚至有部分图书[43]和综述[44]要求读者掌握可解释AI相关的基础知识才能顺利阅读。

不同于这些文献,本书面向的读者群体包括大学本科高年级学生、研究生和博士生。作为一本导论性质的介绍图书,本书内容深入浅出,从基础的人工智能的可解释性概念层面展开讨论,先帮助读者建立对可解释AI的直观、形象的理解,再介绍可解释AI的前沿方法,最后通过一系列丰富的行业应用案例,巩固读者对书中所介绍的可解释AI技术的理解,从而完成对可解释AI领域循序渐进的介绍。

2.本书多角度论述了可解释AI的不足,并提出了基于人机交互沟通的可解释AI范式

目前,可解释AI的研究亟待解决三个方面的问题,即理论层面的不足、应用层面的不足和监管合规层面的不足。表1-3中的文献,分别讨论了理论层面和应用层面对可解释AI的急迫需求,但没有充分论述在金融、法律等重点行业,在监管合规方面对可解释AI的强制性需求。

表1-3 可解释性AI综述及书籍介绍

(续)

1 本书共15 个应用案例,分别包括:基因编辑和医学影像处理(第6 章),金融量化投资和信用违约预测(第7 章),模型安全、视觉问答和知识发现(第8 章),对话系统、智能问答、情感分析和自动文摘(第9 章),电子商务、社交网站、基于位置的服务和多媒体系统(第10 章)。

相比之下,本书相关章节系统性地讨论了“可解释AI如何满足监管合规”这一刚性需求(见第7章)。本书的另一大特点是通过本章介绍的基于人机交互沟通的可解释AI范式(图1-4),结合其在生物医疗和法律等领域的应用实例,着重说明可解释AI的终极目的是获取人类的信任。

3.本书提供了丰富的、多领域的应用案例

本书用大部分篇幅介绍了可解释AI在各行各业的应用案例,涵盖了医疗、金融、视觉、自然语言处理、推荐系统等方面的应用。本书翔实的应用案例可以帮助相关从业人员将可解释AI方法引入实际工作,解决实际的应用问题和痛点。