注册 登录 进入教材巡展
#

出版时间:2022-11

出版社:电子工业出版社

以下为《可解释机器学习:黑盒模型可解释性理解指南》的配套数字资源,这些资源在您购买图书后将免费附送给您:
  • 电子工业出版社
  • 9787121406065
  • 1-5
  • 454668
  • 48253403-9
  • 平塑勒
  • 16开
  • 2022-11
  • 298
  • 244
  • 计算机科学与技术
  • 本科 研究生及以上
目录
目录__eol__推荐序一/III__eol__推荐序二/V__eol__作者序/Ⅶ__eol__译者序/Ⅸ__eol____eol__第1章引言/1__eol__1.1故事时间/2__eol__1.1.1闪电不会击中两次/2__eol__1.1.2信任倒下/4__eol__1.1.3费米的回形针/6__eol__1.2什么是机器学习/7__eol__1.3术语/8__eol____eol__第2章可解释性/13__eol__2.1可解释性的重要性/14__eol__2.2可解释性方法的分类/18__eol__2.3可解释性的范围/20__eol__2.3.1算法透明度/20__eol__2.3.2全局、整体的模型可解释性/21__eol__2.3.3模块层面上的全局模型可解释性/21__eol__2.3.4单个预测的局部可解释性/22__eol__2.3.5一组预测的局部可解释性/22__eol__2.4可解释性评估/22__eol__2.5解释的性质/23__eol__2.6 人性化的解释/25__eol__2.6.1 什么是解释/26__eol__2.6.2 什么是好的解释/26__eol__第3 章数据集/31__eol__3.1 自行车租赁(回归) /32__eol__3.2 YouTube 垃圾评论(文本分类) /32__eol__3.3 宫颈癌的危险因素(分类) /33__eol____eol__第4 章可解释的模型/35__eol__4.1 线性回归/36__eol__4.1.1 解释/38__eol__4.1.2 示例/40__eol__4.1.3 可视化解释/41__eol__4.1.4 解释单个实例预测/44__eol__4.1.5 分类特征的编码/45__eol__4.1.6 线性模型是否有很好的解释/46__eol__4.1.7 稀疏线性模型/47__eol__4.1.8 优点/50__eol__4.1.9 缺点/50__eol__4.2 逻辑回归/51__eol__4.2.1 线性回归用于分类有什么问题/51__eol__4.2.2 理论/52__eol__4.2.3 解释/53__eol__4.2.4 示例/55__eol__4.2.5 优缺点/56__eol__4.2.6 软件/57__eol__4.3 GLM、GAM 和其他模型/57__eol__4.3.1 非高斯结果输出——GLM /59__eol__4.3.2 交互/63__eol__4.3.3 非线性效应——GAM /66__eol__4.3.4 优点/71__eol__4.3.5 缺点/71__eol__4.3.6 软件/72__eol__4.3.7 进一步扩展/72__eol__4.4 决策树/73__eol__4.4.1 解释/75__eol__4.4.2 示例/76__eol__4.4.3 优点/77__eol__4.4.4 缺点/78__eol__4.4.5 软件/78__eol__4.5 决策规则/79__eol__4.5.1 OneR /81__eol__4.5.2 顺序覆盖/85__eol__4.5.3 贝叶斯规则列表/88__eol__4.5.4 优点/93__eol__4.5.5 缺点/94__eol__4.5.6 软件和替代方法/94__eol__4.6 RuleFit /95__eol__4.6.1 解释和示例/96__eol__4.6.2 理论/97__eol__4.6.3 优点/100__eol__4.6.4 缺点/101__eol__4.6.5 软件和替代方法/101__eol__4.7 其他可解释模型/101__eol__4.7.1 朴素贝叶斯分类器/102__eol__4.7.2 k-近邻/102__eol____eol__第5 章与模型无关的方法/103__eol__5.1 部分依赖图/105__eol__5.1.1 示例/106__eol__5.1.2 优点/108__eol__5.1.3 缺点/110__eol__5.1.4 软件和替代方法/110__eol__5.2 个体条件期望/111__eol__5.2.1 示例/111__eol__5.2.2 优点/115__eol__5.2.3 缺点/115__eol__5.2.4 软件和替代方法/115__eol__5.3 累积局部效应图/115__eol__5.3.1 动机和直觉/115__eol__5.3.2 理论/119__eol__5.3.3 ALE 图的估计/120__eol__5.3.4 示例/123__eol__5.3.5 优点/130__eol__5.3.6 缺点/131__eol__5.3.7 软件和替代方法/132__eol__5.4 特征交互/132__eol__5.4.1 特征交互的概念/133__eol__5.4.2 理论:弗里德曼的H 统计量/134__eol__5.4.3 示例/135__eol__5.4.4 优点/137__eol__5.4.5 缺点/138__eol__5.4.6 实现/138__eol__5.4.7 替代方法/138__eol__5.5 置换特征重要性/139__eol__5.5.1 理论/139__eol__5.5.2 应该计算训练数据的重要性还是测试数据的重要性/140__eol__5.5.3 示例和解释/142__eol__5.5.4 优点/143__eol__5.5.5 缺点/145__eol__5.5.6 软件和替代方法/146__eol__5.6 全局代理模型/146__eol__5.6.1 理论/146__eol__5.6.2 示例/148__eol__5.6.3 优点/150__eol__5.6.4 缺点/150__eol__5.6.5 软件/150__eol__5.7 局部代理模型(LIME) /150__eol__5.7.1 表格数据的LIME /152__eol__5.7.2 文本的LIME /155__eol__5.7.3 图像的LIME /156__eol__5.7.4 优点/156__eol__5.7.5 缺点/158__eol__5.8 Shapley 值/158__eol__5.8.1 总体思路/158__eol__5.8.2 示例与解释/162__eol__5.8.3 详细的Shapley 值/163__eol__5.8.4 优点/167__eol__5.8.5 缺点/168__eol__5.8.6 软件和替代方法/169__eol__5.9 SHAP /169__eol__5.9.1 SHAP 的定义/169__eol__5.9.2 KernelSHAP /171__eol__5.9.3 TreeSHAP /174__eol__5.9.4 示例/175__eol__5.9.5 SHAP 特征重要性/176__eol__5.9.6 SHAP 概要图/177__eol__5.9.7 SHAP 依赖图/178__eol__5.9.8 SHAP 交互值/179__eol__5.9.9 聚类SHAP 值/180__eol__5.9.10 优点/180__eol__5.9.11 缺点/181__eol__5.9.12 软件/182__eol____eol__第6 章基于样本的解释/183__eol__6.1 反事实解释/185__eol__6.1.1 生成反事实解释/187__eol__6.1.2 示例/189__eol__6.1.3 优点/190__eol__6.1.4 缺点/190__eol__6.1.5 软件和替代方法/191__eol__6.2 对抗样本/191__eol__6.2.1 方法与示例/192__eol__6.2.2 网络安全视角/198__eol__6.3 原型与批评/199__eol__6.3.1 理论/200__eol__6.3.2 示例/205__eol__6.3.3 优点/205__eol__6.3.4 缺点/206__eol__6.3.5 软件和替代方法/206__eol__6.4 有影响力的实例/206__eol__6.4.1 删除诊断/209__eol__6.4.2 影响函数/213__eol__6.4.3 识别有影响力的实例的优点/218__eol__6.4.4 识别有影响力的实例的缺点/218__eol__6.4.5 软件和替代方法/219__eol____eol__第7 章水晶球/221__eol__7.1 机器学习的未来/223__eol__7.2 可解释性的未来/224__eol____eol__参考文献/227__eol__