【译】Interpretable Machine Learning(可解释机器学习)(总)

机器学习是计算机基于数据做出的改善预测或行为的一系列模型方法。现在的基于机器学习的决策支持系统,相比于传统的基于规则的方法有了很大的改进。尽管机器学习模型具有较大的优势,但由于缺乏可解释性,用户也经常质疑其做出的决策。要提高机器学习模型的透明性,建立用户与机器学习模型之间的信任,降低应用中存在的潜在风险,比如模型中的偏见,给出模型的解释是非常必要的。目前机器学习在模型的可解释性方面往往得不到足够的重视,或者不够完善。关于系统学习模型可解释性方面的书籍也很少,这为机器学习相关从业人员的入门带来了一定的困难。

Christoph Molnar在新书《Interpretable Machine Learning》中对可解释机器学习进行了系统的阐述。介绍了研究机器学习可解释性的必要性,如何在学会运用模型的同时分析模型做出决策的原因。

本书原文地址christophm.github.io/in

本书建议阅读对象:有一定的机器学习理论基础及应用经验(机器学习初学者可搭配相关资料进行阅读)

各部分译文请点击查看,本书主要内容安排如下:

编辑于 2019-05-12

文章被以下专栏收录