序言 机器学习对于改进产品、过程和研究有着很大的潜力.
但是计算机通常无法解释他们的预测,这是 采用机器学习的障碍.
这本书是关于使机器学习模型及其决策可解释的.
在探索了可解释性的概念之后,你将学习简单的、可解释的模型,例如决策树、决策规则和线性回 归.
后面几章重点介绍了解释黑盒模型的模型无关的一般方法,如特征重要性和累积局部效应,以 及用Shapley值和LIME解释单个实例预测.
这本书的重点是表格式数据(也称为关系数据或结构化数据)的机器学习模型,较少涉及到计算机 视党和自然语言处理任务.
建议机器学习从业者、数据科学家、统计学家和任何对使机器学习模型 可解释的人阅读本书.
你可以在leanpub.上购买PDF和电子书版本(epub,mobi).
你可以在lulu.上购买印刷版.
关于我:我叫克里斯托夫莫纳(ChristophMolnar),我是统计学家和机器学习热爱者.
我的目标 是使机器学习可解释.
邮:christoph.molnar.ai@igmail. 网站:christophm.github.io/ 在Twitter上关注我!
@ChristophMolnar @YvonneDoinel 的封面 本书采用 Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International License 协 议授权.
关于译者:我叫朱明超(MingchaoZhu),我是机器学习热爱者.
1
序言 邮件:deityrayleigh@igmail. 你可以在Github 网站上关注这本书的更新:github./MingchaoZhu/InterpretableMLBook
目录 序言 第一章前言 1 1.1故事时间 2 1.1.1闪电永不两次 2 1.1.2 信任倒下 4 1.1.3费米的回形针 5 1.2什么是机器学习?
1.3术语 8 第二章 可解释性 11 2.1 可解释性的重要性 11 2.2 可解释性方法的分类 15 2.3 可解释性范围. 17 2.3.1 算法透明度 17 2.3.2 全局、整体的模型可解释性 17 2.3.3 模块层面上的全局模型可解释性, 17 2.3.4 单个预测的局部可解释性 18 2.3.5 一组预测的局部可解释性 18 2.4 可解释性评估 18 2.5 解释的性质 19 2.6 人性化的解释 21 2.6.1 什么是解释 21 2.6.2 什么是好的解释?
22 第三章数据集 25 3.1 自行车租赁 (回归) 25 3.2 YouTube垃圾评论(文本分类) 26 3.3 宫颈癌的危险因素(分类) 27
目录 2 第四章可解释的模型 28 线性回归 29 4.1.1解释 30 4.1.2 示例 32 4.1.3 可视化解释 33 4.1.4 解释单个实例预测 35 4.1.5 分类特征的编码.
98 4.1.6 线性模型是否有很好的解释?
88 4.1.7 稀疏线性模型 88 4.1.8 优点 41 4.1.9 缺点 42 4.2 逻辑回归 42 4.2.1 线性回归用于分类有什么问题?
42 4.2.2 理论 43 4.2.3 解释 45 4.2.4 示例 46 4.2.5 优缺点. 47 4.2.6 软件 48 GLM GAM和其他模型 48 4.3.1 非高斯结果输出-GLM 50 4.3.2 交互 55 4.3.3 非线性效应-GAM 58 4.3.4 优点 62 4.3.5 缺点 63 4.3.6 软件 63 4.3.7 进一步扩展 63 4.4 决策树 65 4.4.1 解释 67 4.4.2 示例 67 4.4.3优点 69 4.4.4缺点 70 4.4.5软件 0 4.5 决策规则 70 4.5.1 从单个特征学习规则(OneR) 72 4.5.2 顺序覆盖 9 4.5.3 贝叶斯规则列表, 4.5.4 优点 84
目录 3 4.5.5缺点 84 4.5.6软件和替代方法.
98 4.6 RuleFit 8 4.6.1 解释和示例 98 4.6.2 理论 88 4.6.3 优点 90 4.6.4 缺点 91 4.6.5 软件和替代方法, 91 4.7 其他可解释模型, 92 4.7.1 朴素贝叶斯分类器 92 4.7.2 k-最近邻. 92 第五章模型无关方法 93 5.1 部分依赖图 95 5.1.1示例 96 5.1.2优点 100 5.13缺点 101 5.1.4软件和替代方法, 101 5.2 个体条件期望 101 5.2.1示例 102 5.2.2优点 105 5.2.3缺点 .106 5.2.4软件和替代方法 106 5.3累积局部效应图, 106 5.3.1 动机和直觉 106 理论 109 899 估计 111 5.3.4 示例 113 5.3.5 优点 123 989 缺点 124 5.3.7 实现和替代方法, 124 5.4 特征交互 125 5.4.1 特征交互 125 5.4.2 理论:弗里德曼的H统计量 126 5.4.3 示例 127 5.4.4 优点 130 5.4.5 缺点 130