登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入 新註冊 | 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / EMS,時效:出貨後2-3日

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

2023年09月出版新書

『簡體書』可解释机器学习:黑盒模型可解释性理解指南

書城自編碼: 3610574
分類: 簡體書→大陸圖書→計算機/網絡人工智能
作者: [德]Christoph,Molnar [克里斯托夫·莫尔纳
國際書號(ISBN): 9787121406065
出版社: 电子工业出版社
出版日期: 2021-03-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:NT$ 782

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
甲骨拼合六集
《 甲骨拼合六集 》

售價:NT$ 1520.0
视觉美食家:商业摄影实战与创意解析
《 视觉美食家:商业摄影实战与创意解析 》

售價:NT$ 602.0
中国经济发展的新阶段:机会与选择
《 中国经济发展的新阶段:机会与选择 》

售價:NT$ 454.0
DK月季玫瑰百科
《 DK月季玫瑰百科 》

售價:NT$ 959.0
为你想要的生活
《 为你想要的生活 》

售價:NT$ 301.0
关键改变:如何实现自我蜕变
《 关键改变:如何实现自我蜕变 》

售價:NT$ 352.0
超加工人群:为什么有些食物让人一吃就停不下来
《 超加工人群:为什么有些食物让人一吃就停不下来 》

售價:NT$ 454.0
历史的教训(浓缩《文明的故事》精华,总结历史教训的独特见解)
《 历史的教训(浓缩《文明的故事》精华,总结历史教训的独特见解) 》

售價:NT$ 286.0

編輯推薦:
*部系统总结可解释机器学习的著作
全面介绍了可解释模型、黑盒模型的可解释性、与模型无关的方法
包含各种解释方法优缺点,以及每种方法的软件实现
《可解释机器学习:黑盒模型可解释性理解指南》没有晦涩的语言与公式推导,通过平实的语言、现实生活中的例子讲解相关概念,通俗易懂
适合机器学习从业者、数据科学家、统计学家和任何对使机器学习模型可解释的人阅读
各种解释方法是如何工作的?优点和缺点分别是什么?如何解释它们的输出?
翻开本书都将一一找到答案!
阿里巴巴达摩院资深算法专家杨红霞博士、复旦大学计算机学院谢志鹏教授,倾情作序!
浙江大学计算机科学与技术学院陈华钧教授;同济大学百人计划特聘研究员、OpenKG创始人之一王昊奋教授;中国科学院人工智能联盟标准组成员、大海无量首席科学家吴焦苏教授,联袂推荐!
內容簡介:
机器学习虽然对改进产品性能和推进研究有很大的潜力,但无法对它们的预测做出解释,这是当前面临的一大障碍。本书是一本关于使机器学习模型及其决策具有可解释性的书。本书探索了可解释性的概念,介绍了简单的、可解释的模型,例如决策树、决策规则和线性回归,重点介绍了解释黑盒模型的、与模型无关的方法,如特征重要性和累积局部效应,以及用Shapley值和LIME解释单个实例预测。本书对所有的解释方法进行了深入说明和批判性讨论,例如它们如何在黑盒下工作、它们的优缺点是什么、如何解释它们的输出。本书将解答如何选择并正确应用解释方法。本书的重点是介绍表格式数据的机器学习模型,较少涉及计算机视觉和自然语言处理任务。本书适合机器学习从业者、数据科学家、统计学家和所有对使机器学习模型具有可解释性感兴趣的人阅读。
關於作者:
Christoph Molnar,可解释机器学习研究员,目前在德国慕尼黑大学统计研究所攻读博士学位,目标是让机器学习模型的决策更容易被人类理解。著作Interpretable Machine Learning受到业界高度关注。
朱明超,就读于复旦大学计算机科学技术专业,热衷于知识推广,主要研究机器学习和模型可解释性。
目錄
目录
推荐序一III
推荐序二V
作者序Ⅶ
译者序Ⅸ
第1章引言1
1.1故事时间2
1.1.1闪电不会击中两次2
1.1.2信任倒下4
1.1.3费米的回形针6
1.2什么是机器学习7
1.3术语8
第2章可解释性13
2.1可解释性的重要性14
2.2可解释性方法的分类18
2.3可解释性的范围20
2.3.1算法透明度20
2.3.2全局、整体的模型可解释性21
2.3.3模块层面上的全局模型可解释性21
2.3.4单个预测的局部可解释性22
2.3.5一组预测的局部可解释性22
2.4可解释性评估22
2.5解释的性质23
2.6 人性化的解释25
2.6.1 什么是解释26
2.6.2 什么是好的解释26
第3 章数据集31
3.1 自行车租赁(回归) 32
3.2 YouTube 垃圾评论(文本分类) 32
3.3 宫颈癌的危险因素(分类) 33
第4 章可解释的模型35
4.1 线性回归36
4.1.1 解释38
4.1.2 示例40
4.1.3 可视化解释41
4.1.4 解释单个实例预测44
4.1.5 分类特征的编码45
4.1.6 线性模型是否有很好的解释46
4.1.7 稀疏线性模型47
4.1.8 优点50
4.1.9 缺点50
4.2 逻辑回归51
4.2.1 线性回归用于分类有什么问题51
4.2.2 理论52
4.2.3 解释53
4.2.4 示例55
4.2.5 优缺点56
4.2.6 软件57
4.3 GLM、GAM 和其他模型57
4.3.1 非高斯结果输出GLM 59
4.3.2 交互63
4.3.3 非线性效应GAM 66
4.3.4 优点71
4.3.5 缺点71
4.3.6 软件72
4.3.7 进一步扩展72
4.4 决策树73
4.4.1 解释75
4.4.2 示例76
4.4.3 优点77
4.4.4 缺点78
4.4.5 软件78
4.5 决策规则79
4.5.1 OneR 81
4.5.2 顺序覆盖85
4.5.3 贝叶斯规则列表88
4.5.4 优点93
4.5.5 缺点94
4.5.6 软件和替代方法94
4.6 RuleFit 95
4.6.1 解释和示例96
4.6.2 理论97
4.6.3 优点100
4.6.4 缺点101
4.6.5 软件和替代方法101
4.7 其他可解释模型101
4.7.1 朴素贝叶斯分类器102
4.7.2 k-近邻102
第5 章与模型无关的方法103
5.1 部分依赖图105
5.1.1 示例106
5.1.2 优点108
5.1.3 缺点110
5.1.4 软件和替代方法110
5.2 个体条件期望111
5.2.1 示例111
5.2.2 优点115
5.2.3 缺点115
5.2.4 软件和替代方法115
5.3 累积局部效应图115
5.3.1 动机和直觉115
5.3.2 理论119
5.3.3 ALE 图的估计120
5.3.4 示例123
5.3.5 优点130
5.3.6 缺点131
5.3.7 软件和替代方法132
5.4 特征交互132
5.4.1 特征交互的概念133
5.4.2 理论:弗里德曼的H 统计量134
5.4.3 示例135
5.4.4 优点137
5.4.5 缺点138
5.4.6 实现138
5.4.7 替代方法138
5.5 置换特征重要性139
5.5.1 理论139
5.5.2 应该计算训练数据的重要性还是测试数据的重要性140
5.5.3 示例和解释142
5.5.4 优点143
5.5.5 缺点145
5.5.6 软件和替代方法146
5.6 全局代理模型146
5.6.1 理论146
5.6.2 示例148
5.6.3 优点150
5.6.4 缺点150
5.6.5 软件150
5.7 局部代理模型(LIME) 150
5.7.1 表格数据的LIME 152
5.7.2 文本的LIME 155
5.7.3 图像的LIME 156
5.7.4 优点156
5.7.5 缺点158
5.8 Shapley 值158
5.8.1 总体思路158
5.8.2 示例与解释162
5.8.3 详细的Shapley 值163
5.8.4 优点167
5.8.5 缺点168
5.8.6 软件和替代方法169
5.9 SHAP 169
5.9.1 SHAP 的定义169
5.9.2 KernelSHAP 171
5.9.3 TreeSHAP 174
5.9.4 示例175
5.9.5 SHAP 特征重要性176
5.9.6 SHAP 概要图177
5.9.7 SHAP 依赖图178
5.9.8 SHAP 交互值179
5.9.9 聚类SHAP 值180
5.9.10 优点180
5.9.11 缺点181
5.9.12 软件182
第6 章基于样本的解释183
6.1 反事实解释185
6.1.1 生成反事实解释187
6.1.2 示例189
6.1.3 优点190
6.1.4 缺点190
6.1.5 软件和替代方法191
6.2 对抗样本191
6.2.1 方法与示例192
6.2.2 网络安全视角198
6.3 原型与批评199
6.3.1 理论200
6.3.2 示例205
6.3.3 优点205
6.3.4 缺点206
6.3.5 软件和替代方法206
6.4 有影响力的实例206
6.4.1 删除诊断209
6.4.2 影响函数213
6.4.3 识别有影响力的实例的优点218
6.4.4 识别有影响力的实例的缺点218
6.4.5 软件和替代方法219
第7 章水晶球221
7.1 机器学习的未来223
7.2 可解释性的未来224
参考文献227
內容試閱
推荐序一
机器学习可解释性(Interpretability)或XAI(Explainable Artificial Intelligence)是机器学习的研究者们始终存在的一个担忧:目前主流的深度神经网络没有办法以一种从人类角度完全理解的模型和决策。对于可解释性能要求较高的关键领域,例如交通、医疗、法律和财经等,我们会发现仍然无法完全相信模型的预测能力。因此,广大的机器学习研究者们希望探求出的是,我们有没有办法去解释这些模型,从而真正建立人与模型之间的信任。
机器学习的一般流程包括:收集数据、清洗数据、训练模型、基于验证或测试错误或其他评价指标选择最好的模型。第一步,选择具有比较低的错误率和比较高的准确率的高精度模型。第二步,面临准确率和模型复杂度之间的权衡,一个模型越复杂就越难以解释。一个简单的线性回归非常好解释,因为它只考虑了自变量与因变量之间的线性相关关系,但是也正因为如此,它无法处理更复杂的关系,模型在测试集上的预测精度也更可能比较低。而深度神经网络处于另一个极端,因为它们能够在多个层次进行抽象推断,所以它们可以处理因变量与自变量之间非常复杂的关系,并且达到非常高的精度。但是这种复杂性也使模型成为黑箱,我们无法获知所有产生模型预测结果的特征之间的关系,所以我们只能用准确率、错误率等评价标准来代替,进而评估模型的可信性。
然而事实上,每个分类问题的机器学习流程中都应该包括模型理解和模型解释。比如,在模型改进方面,通过理解指标特征、分类、预测,进而理解为什么一个机器学习模型会做出这样的决定、什么特征在决定中起最重要的作用,能让我们判断模型是否符合常理。再比如,在模型可信性与透明度,理解机器学习模型在提高模型可信度和提供审视预测结果透明度方面是非常有必要的。让黑金模型来决定人们的生活是不现实的,比如贷款和监狱刑法。机器学习的可解释性也可以很好地帮助我们识别和防止偏差,比如用于招聘的机器学习模型,揭示了在特定职位上的性别偏差,比如男性软件工程师和女性护士。
要做好可解释性,需要将数据科学与机器学习有机地结合起来。机器学习模型本身由算法组成,该算法试图从数据中学习潜在的模式和关系,而无须硬编码固定规则;数据科学家通常致力于构建模型并为业务提供解决方案。模型解释作为一个概念,仍然主要是理论和主观的。任何机器学习模型的核心都有一个响应函数,它试图映射和解释独立(输入)自变量和(目标或响应)因变量之间的关系和模式。我们在建立模型时,需要考虑What、Why 及How,输出的结果可以包括自变量的重要性、分类,模型的可解释范围、评估及其特性,包括准确性、保真性、可用性、可靠性、健壮性和通用性等。最后,输出的结果可否有人性化解释,这通常可以与自然语言生成相结合。
目前,关于可解释性的图书还比较有限,Christoph Molnar 在2018 年撰写的Interpretable Machine Learning 给大家提供了很好的指导。你可以从这本书中学习简单的、可解释的模型,如线性回归、决策树和决策规则等。该书后面几章重点介绍了解释黑盒模型的与模型无关的一般方法,如特征重要性和累积局部效应,以及用Shapley 值和LIME 解释单个实例预测。对各种解释方法进行了深入的解释和批判性的讨论。它们是如何工作的?优点和缺点是什么?如何解释它们的输出?本书使你能够选择并正确应用最适合你的机器学习项目的解释方法。这本书结合了各类现实生活中的例子来介绍相关的概念,同时搭配参考资料帮助读者进一步学习了解。
随着更多的深度学习模型框架的出现,比如最近流行的语言模型Transformer,打开这些黑盒子的正确方式将变得越来重要。这也是一个多学科交叉的综合性学科,需要机器学习从业者、数据科学家和统计学家一起努力!
杨红霞博士
阿里巴巴达摩院资深算法专家
推荐序二
朱明超同学是2018 年作为推免研究生进入复旦大学计算机学院学习的。我作为他的导师,在两年多工作和生活的接触中,发现他是一位对生活积极乐观、对学习认真专注的同学。
我们实验室从事机器学习、深度学习和自然语言处理等方面的研究。在此次人工智能热潮中,以深度学习为代表的大型复杂黑盒模型在不断地大幅刷新各类学习任务SOTA 性能,同时也因缺乏解释性而限制了其应用范围。研究和建立事前、事中和事后的全过程可解释性机制具有重要的理论研究意义和应用价值。结合实验室的研究方向和朱明超同学的个人兴趣,从入学开始,便选择了可解释机器学习作为他的研究课题,进行系统的学习和研究。
目前在可解释机器学习方面的中文资料相当稀缺,缺少相关的系统性教学及科研资料。朱明超所翻译的Christoph Molnar 博士撰写的《可解释机器学习》一书恰好填补了这一空白。他在翻译本书过程中极其认真,倾注了大量的时间和心血。这种认真的态度,保障了本书内容的质量。
本书覆盖了可解释机器学习最基本的概念和算法,条分缕析,通俗易懂。更可贵的是,本书将可解释性算法的理论、优缺点和实际使用过程结合起来,具有很强的实用性。在可解释机器学习受到研究界高度关注、实践需求快速增长的背景下,本书是一本很好的读物,相信不同的读者都会从中获益。
谢志鹏
复旦大学计算机学院副教授
作者序
机器学习受到了很多研究人员和业内人士的关注,有很多可落地且有影响的应用。机器学习对于产品开发、科学研究和自动化来说是一种强大的技术。例如,机器学习可被用于金融交易欺诈检测、电影推荐和图像分类。机器学习模型是否具有可解释性通常是至关重要的,因为可解释性可以帮助开发人员调试和改进模型,建立对模型的信任,验证模型预测并获得洞察力。机器学习可解释性需求的增加是机器学习使用量增加的自然结果。
撰写本书一开始是我作为统计学家工作之余的副业。起初,我没有写书的打算,相反,我只是对寻找更多关于可解释机器学习的信息感兴趣,寻找好的资源来学习。鉴于机器学习的成功和可解释性的重要性,我以为市面上会有大量关于这个主题的图书和教程。但是,我只在网上找到了一些相关的研究论文和博客文章,没有找到很好的综述论文。甚至可以说,没有图书,没有教程,没有综述论文。这种现状启发我开始写这本书。当我开始学习可解释机器学习时,我希望这本书能够出版。我写这本书的意义是双重的:既为了自己学习,也为了与他人分享新知识。
我在德国慕尼黑大学获得了统计学学士和硕士学位。我的机器学习知识大部分是通过网络课程、竞赛、项目和专业活动自学的。我的统计学背景是学习机器学习的极好基础,尤其是在可解释性方面。在统计学中,一个主要的关注点是建立可解释的回归模型。在我取得统计学硕士学位后,我决定不去读博士,因为我不喜欢写论文,写作给我的压力太大了。因此,我在一家金融科技初创企业担任数据科学家,并在临床研究中担任统计学家。在工业界工作三年之后,我开始写这本书。几个月后,我开始攻读可解释机器学习的博士学位。这本书让我重新找到了写作的乐趣,重新激发了我对研究的热情。
本书主要内容
这本书涵盖了可解释机器学习的许多技术。第1 章介绍了可解释性的概念,并阐述了可解释性的必要性,以及一些短篇故事。第2 章讨论了解释的不同性质,以及人类认为什么是好的解释。第3 章介绍了本书中实验用到的真实数据集。第4 章讨论了内在可解释的机器学习模型,例如回归模型和决策树。第5 章讨论了本书的主要焦点,即与模型无关的可解释性方法。与模型无关意味着这些方法可以应用于任何机器学习模型,并且是在模型训练完成后才应用的。模型的独立性使得这些与模型无关的方法非常灵活和强大。有些技术可以解释单个实例预测是如何做出的,如局部代理和Shapley 值。还有一些技术描述模型在数据集的全局行为。我们将学习部分依赖图、累积局部效应图、置换特征重要性和其他方法。第6 章讨论了基于样本的解释方法,它生成数据点作为解释,反事实解释、原型、有影响力的实例和对抗样本都是在本书中讨论的基于样本的解释方法。第7 章提出了一些思考,即可解释机器学习的未来可能会是什么样子的。
如何阅读本书
读者不需要从头到尾阅读本书,可以集中精力在自己最感兴趣的方法上。建议从引言和可解释性开始阅读。后面每一节着重于一种解释方法:首先总结这种方法;然后试着不依赖数学公式直观地描述它;最后详细描述该方法的理论,得到一个深刻的理解。我认为,最好通过示例来理解一个新方法。因此,每种方法都运用在真实数据上。每一节还包含了对各自解释方法优缺点的讨论,最后给出了每种方法的软件实现。这本书可以帮助读者选择适合自己的应用程序的解释方法。
这本书已经成为许多人的宝贵资源。教师使用这本书向学生介绍可解释机器学习的概念。我收到了很多硕士研究生和博士生的邮件,告诉我这本书是他们论文的起点和重要的参考。这本书帮助生物、金融、心理等领域的应用研究人员使用机器学习来理解他们的数据。工业界的数据科学家告诉我,他们在工作中使用并向同事推荐这本书。我很高兴许多人能从本书中受益,成为模型解释方面的专家。
我希望把这本书推荐给那些想要了解一些技术的从业者,以使他们的机器学习模型更具可解释性。同时,也推荐给对这个主题感兴趣的学生和研究人员。若要从这本书中受益,应该对机器学习和数学公式有基本的了解,即使在没有足够数学知识的情况下,也应该能够理解每一节开头对方法的直观描述。
希望你能喜欢这本书!
Christoph Molnar
译者序
机器学习的研究者们始终存在一种担忧人类无法理解现在的复杂模型的决策。即便机器学习在图像、自然语言和语音等领域有了极高的性能,但我们仍然对这些预测心存戒备。这正是因为我们不了解这些模型的预测依据是什么,也不知道它们会在什么时候出现错误。正因如此,这些复杂模型难以部署到高风险决策的领域中,例如医疗、法律、军事、金融,等等。因此,我们亟须找到方法去解释这些模型,建立人与模型之间的信任。这便是可解释机器学习如此重要的原因。
为什么翻译本书

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.