【译】Interpretable Machine Learning(4 可解释模型)

4 可解释模型

实现可解释性的最简单方法是仅使用可解释模型。线性回归,逻辑回归和决策树是常用的可解释模型。

在接下来的章节中,我们将讨论这些模型。这里不做详细讲解,因为已经有大量的书籍,视频,教程,论文和更多的材料可用。我们将专注于如何解释模型。本书更详细地讨论了线性回归,逻辑回归,其他线性回归扩展,决策树,决策规则和RuleFit算法。它还列出了其他可解释的模型。

本书中解释的所有可解释模型都可以在模块级别上解释,除了k近邻方法。下表概述了可解释的模型类型及其属性。如果特征和目标之间的关联是线性建模的,则模型是线性的。具有单调性约束的模型确保特征与目标结果之间的关系在整个特征范围内始终朝向相同的方向:特征值的增加总是导致目标值的增加或减少。单调性对于模型的解释很有用,因为它使得人们更容易理解这个关系。某些模型可以自动包含特征之间的交互以预测目标结果。您可以在任何类型的模型中通过手动创建交互特征的方式,使得模型包含特征交互。特征交互可以提高预测性能,但过多或过于复杂的交互可能会损害可解释性。有些模型只能处理回归,有些只能处理分类,还有两种都可以处理的。

如下表所示,你可以挑选一个合适的模型去处理你的任务,无论是回归还是分类:


  • 4.1 线性回归
  • 4.2 逻辑回归
  • 4.3 GLM, GAM and more
  • 4.4 决策树
  • 4.5 决策规则
  • 4.6 基于规则的集成模型(RuleFit)
  • 4.7 其他可解释模型
发布于 2019-05-10

文章被以下专栏收录