作品简介

机器学习虽然对改进产品性能和推进研究有很大的潜力,但无法对它们的预测做出解释,这是当前面临的一大障碍。本书是一本关于使机器学习模型及其决策具有可解释性的书。本书探索了可解释性的概念,介绍了简单的、可解释的模型,例如决策树、决策规则和线性回归,重点介绍了解释黑盒模型的、与模型无关的方法,如特征重要性和累积局部效应,以及用Shapley值和LIME解释单个实例预测。本书对所有的解释方法进行了深入说明和批判性讨论,例如它们如何在黑盒下工作、它们的优缺点是什么、如何解释它们的输出。本书将解答如何选择并正确应用解释方法。本书的重点是介绍表格式数据的机器学习模型,较少涉及计算机视觉和自然语言处理任务。本书适合机器学习从业者、数据科学家、统计学家和所有对使机器学习模型具有可解释性感兴趣的人阅读。

Christoph Molnar:可解释机器学习研究员,目前在德国慕尼黑大学统计研究所攻读博士学位,目标是让机器学习模型的决策更容易被人类理解。著作Interpretable Machine Learning受到业界高度关注。

朱明超:就读于复旦大学计算机科学技术专业,热衷于知识推广,主要研究机器学习和模型可解释性

作品目录

  • 推荐序一
  • 推荐序二
  • 作者序
  • 译者序
  • 第1章 引言
  • 1.1 故事时间
  • 1.2 什么是机器学习
  • 1.3 术语
  • 第2章 可解释性
  • 2.1 可解释性的重要性
  • 2.2 可解释性方法的分类
  • 2.3 可解释性的范围
  • 2.4 可解释性评估
  • 2.5 解释的性质
  • 2.6 人性化的解释
  • 第3章 数据集
  • 3.1 自行车租赁(回归)
  • 3.2 YouTube 垃圾评论(文本分类)
  • 3.3 宫颈癌的危险因素(分类)
  • 第4章 可解释的模型
  • 4.1 线性回归
  • 4.2 逻辑回归
  • 4.3 GLM、GAM 和其他模型
  • 4.4 决策树
  • 4.5 决策规则
  • 4.6 RuleFit
  • 4.7 其他可解释模型
  • 第5章 与模型无关的方法
  • 5.1 部分依赖图
  • 5.2 个体条件期望
  • 5.3 累积局部效应图
  • 5.4 特征交互
  • 5.5 置换特征重要性
  • 5.6 全局代理模型
  • 5.7 局部代理模型(LIME)
  • 5.8 Shapley 值
  • 5.9 SHAP
  • 第6章 基于样本的解释
  • 6.1 反事实解释
  • 6.2 对抗样本
  • 6.3 原型与批评
  • 6.4 有影响力的实例
  • 第7章 水晶球
  • 7.1 机器学习的未来
  • 7.2 可解释性的未来
  • 参考文献
展开全部