上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人
2.3.2 全局、整体的模型可解释性
训练好的模型如何进行预测?
一旦能理解整个模型,就可以将模型描述为可解释的[6]。要解释全局模型输出,需要训练好的模型、算法知识和数据。这种级别的可解释性是基于对模型特征和每个学习部分(例如权重、其他参数和结构)的整体认知来理解模型是如何做出决策的。哪些特征很重要,以及它们之间有什么样的交互作用?全局的模型可解释性有助于基于特征理解目标结果的分布。但在实践中很难实现全局模型可解释性,任何具有几个参数或权重的模型都不可能适合人的短期记忆。例如,你很难想象一个具有五个特征的线性模型,因为这意味着要想象在五维空间中绘制估计的超平面。甚至任何超过三维的特征空间都是人类无法想象的。通常,当人试图理解一个模型时,他只考虑其中的一部分,例如线性模型中的权重。