新書推薦:
《
资治通鉴臣光曰辑存 资治通鉴目录(司马光全集)(全二册)
》
售價:NT$
1316.0
《
明代社会变迁时期生活质量研究
》
售價:NT$
1367.0
《
律令国家与隋唐文明
》
售價:NT$
332.0
《
紫云村(史杰鹏笔下大唐小吏的生死逃亡,新历史主义小说见微之作,附赠5张与小说内容高度契合的宣纸彩插)
》
售價:NT$
449.0
《
现代吴语的研究(中华现代学术名著3)
》
售價:NT$
296.0
《
天下的当代性:世界秩序的实践与想象(新版)
》
售價:NT$
352.0
《
德国天才4:断裂与承续
》
售價:NT$
500.0
《
妈妈的情绪,决定孩子的未来
》
售價:NT$
194.0
|
內容簡介: |
本书全面介绍可解释人工智能的基础知识、理论方法和行业应用。全书分为三部分,共11 章。部分为第1 章,揭示基于数据驱动的人工智能系统决策机制,提出一种基于人机沟通交互场景的可解释人工智能范式。第二部分为第2~5 章,介绍各种可解释人工智能技术方法,包括贝叶斯方法、基于因果启发的稳定学习和反事实推理、基于与或图模型的人机协作解释、对深度神经网络的解释。第三部分为第6~10 章,分别介绍可解释人工智能在生物医疗、金融、计算机视觉、自然语言处理、推荐系统等领域的应用案例,详细说明可解释性在司法、城市管理、安防和制造等实际应用中发挥的积极作用。第11 章对全书进行总结,并论述可解释人工智能研究面临的挑战和未来发展趋势。此外,本书的附录给出可解释人工智能相关的开源资源、中英文术语对照及索引,方便读者进一步查阅。本书既适合高等院校计算机和信息处理相关专业的高年级本科生和研究生,以及人工智能领域的研究员和学者阅读;也适合关注人工智能应用及其社会影响力的政策制定者、法律工作者、社会科学研究人士等阅读。
|
關於作者: |
杨强加拿大工程院及加拿大皇家科学院两院院士,国际人工智能联合会IJCAI前理事会主席,香港科技大学讲席教授。领衔全球迁移学习和联邦学习研究及应用,近的著作有《迁移学习》《联邦学习》《联邦学习实战》等。范力欣微众银行人工智能首席科学家,研究领域包括机器学习和深度学习、计算机视觉和模式识别、图像和视频处理等。朱军清华大学计算机系教授、人智所所长、北京智源人工智能研究院和瑞莱智慧首席科学家,主要从事机器学习研究。陈一昕华夏基金董事总经理,首席数据官兼首席技术官。美国华盛顿大学计算机教授、大数据科学中心创始主任。研究领域为金融科技、金融数据挖掘、智能投资研究、机器学习、优化算法等。张拳石上海交通大学副教授,博士生导师。研究方向为机器学习和计算机视觉,尤其是神经网络可解释性。朱松纯北京通用人工智能研究院院长,北京大学人工智能研究院院长,清华大学通用人工智能研究院院长。他长期致力于构建计算机视觉、认知科学、乃至人工智能科学的统一数理框架。陶大程澳大利亚科学院院士,探索研究院首任院长,兼任悉尼大学数字科学研究所顾问及首席科学家。主要关注可信人工智能研究,尤其是深度学习的基础理论、大规模模型分布式训练以及相关的机器视觉应用。崔鹏清华大学计算机系长聘副教授,博士生导师。研究兴趣聚焦于大数据驱动的因果推理和稳定预测、大规模网络表征学习等。周少华中国科学技术大学讲席教授、生物医学工程学院执行院长、影像智能与机器人研究中心(筹)主任、中科院计算所客座研究员、香港中文大学(深圳)客座教授。长期致力于医学影像的研究创新及其应用落地。刘琦同济大学生命科学与技术学院生物信息系长聘教授,博士生导师。发展人工智能和生物组学交叉融合的研究范式,进行精准医学研究。黄萱菁复旦大学计算机科学技术学院教授,博士生导师。研究领域为人工智能、自然语言处理、信息检索和社会媒体分析。张永锋罗格斯大学计算机系助理教授,博士生导师,互联网智能与经济实验室主任。研究兴趣为机器学习、数据挖掘、信息检索和推荐系统等。
|
目錄:
|
目录推荐序前言作者介绍第1章可解释人工智能概述1.1为什么人工智能需要可解释性1.2可解释人工智能1.2.1目的、定义及范式1.2.2层次、分类及应用场景1.2.3解释的范畴1.2.4解释的评价与度量1.3可解释AI的历史及发展现状1.3.1可解释AI历史回顾1.3.2可解释AI发展现状1.4本书结构及阅读建议第2章贝叶斯方法2.1贝叶斯网络2.1.1贝叶斯网络的表示2.1.2贝叶斯网络的推断2.1.3贝叶斯网络的学习2.1.4贝叶斯规划学习2.2贝叶斯深度学习2.2.1深度生成模型2.2.2贝叶斯神经网络2.3从贝叶斯网络到可解释的因果模型2.4延伸阅读2.5小结第3章基于因果启发的稳定学习和反事实推理3.1将因果引入机器学习的增益3.1.1制约人工智能技术的可解释性和稳定性问题3.1.2关联性和因果性3.2挖掘数据中的因果关联3.2.1因果推理框架和因果效应定义3.2.2潜在结果框架下的因果效应评估3.3稳定学习3.3.1二值特征下的稳定学习3.3.2连续特征下的稳定学习3.3.3从统计学习角度的解释3.3.4区分性变量去关联的稳定学习3.3.5与深度神经网络相结合的稳定学习3.4反事实推理3.4.1二值类型干预的反事实推理3.4.2多维类型干预下的反事实推理3.4.3存在未观测混淆变量的反事实推理3.5小结第4章基于与或图模型的人机协作解释4.1与或图模型4.2基于与或图的多路径认知过程4.3人机协作对齐人类认知结构和与或图模型4.3.1通过交互式问答构建与人类认知系统对齐的与或图模型4.3.2评价模型的可解读性:“气泡游戏”实验4.3.3模型通过主动建模用户认知提升可解读性4.4小结第5章对深度神经网络的解释5.1神经网络特征可视化5.1.1激活响应可视化5.1.2网络解剖与特征语义分析5.1.3基于反向传播的输入重建可视化5.1.4CAM/Grad-CAM5.2输入单元重要性归因5.2.1SHAP算法5.2.2导向反向传播算法5.2.3逐层相关性传播算法5.2.4积分梯度算法5.2.5LIME5.3博弈交互解释性理论5.3.1理论基础:沙普利值5.3.2博弈交互的定义5.3.3博弈交互的性质5.3.4博弈交互与语义表达5.3.5解释随机失活操作5.3.6解释批规范化操作5.3.7解释对抗迁移性和对抗鲁棒性5.4对神经网络特征质量解构、解释和可视化5.4.1解释表征一致性5.4.2解释复杂度5.5对表达结构的解释5.5.1代理模型解释5.5.2对自然语言网络中语言结构的提取和解释5.6可解释的神经网络5.6.1胶囊网络5.6.2β-变分自编码器5.6.3可解释的卷积神经网络5.6.4可解释的组成卷积神经网络5.7小结第6章生物医疗应用中的可解释人工智能6.1基因编辑系统优化设计中的可解释人工智能6.1.1基因编辑系统背景介绍6.1.2基因编辑系统优化设计可解释AI模型构建6.2医学影像中的可解释性6.2.1概述6.2.2可解释性胸片诊断6.2.3具有自适应性的通用模型学习6.3小结第7章金融应用中的可解释人工智能7.1简介7.1.1金融行业背景介绍7.1.2金融市场介绍7.1.3可解释AI面向各金融行业对象的必要性7.1.4金融监管对于可解释性的要求7.2金融可解释AI的案例7.2.1事后可解释模型解释人工智能量化模型7.2.2高风险客户信用违约预测7.2.3对金融人工智能模型可解释性的监管7.3金融可解释AI的发展方向7.3.1安全性7.3.2平衡性7.3.3完整性7.3.4交互性7.3.5时效性7.3.6深化推广应用7.4延伸阅读7.5小结第8章计算机视觉应用中的可解释人工智能8.1背景8.1.1机器视觉与可解释性8.1.2可解释性与机器视觉发展8.2视觉关系抽取8.2.1基本概念8.2.2视觉关系检测中可解释性的重要性8.2.3可解释视觉关系抽取8.3视觉推理8.3.1基本概念8.3.2可解释视觉推理示例8.4视觉鲁棒性8.4.1动态与静态可解释性分析8.4.2数字世界与物理世界模型安全可解释性8.5视觉问答8.5.1基本概念8.5.2视觉问答中可解释性的重要性8.5.3可解释性视觉问答示例8.6知识发现8.6.1基本概念8.6.2视觉可解释性与知识发现的关系8.6.3可解释性知识发现案例8.7小结第9章自然语言处理中的可解释人工智能9.1简介.2439.2可解释自然语言处理中的模型结构分析9.2.1为什么模型结构分析很重要9.2.2设置探针任务窥探模型结构的功能9.2.3错误类型分析9.2.4可解释评估9.3可解释自然语言处理中的模型行为分析9.3.1为什么模型行为分析很重要9.3.2预测行为分析9.4自然语言处理任务中的可解释性9.4.1对话系统9.4.2智能问答系统9.4.3情感分析系统9.4.4自动文摘系统9.5延伸阅读9.5.1鲁棒性分析9.5.2泛化性分析9.6小结第10章推荐系统中的可解释人工智能10.1简介10.2初探可解释推荐10.3可解释推荐的历史与背景10.4推荐系统基础10.4.1推荐系统的输入10.4.2推荐系统的输出10.4.3推荐系统的三大核心问题10.5基本的推荐模型10.5.1协同过滤10.5.2协同推理10.6可解释的推荐模型10.7可解释推荐的应用10.7.1电子商务10.7.2社交网站10.7.3基于位置的服务10.7.4多媒体系统10.7.5其他应用10.8延伸阅读:其他可解释推荐模型10.8.1基于图和知识图谱的可解释推荐模型10.8.2深度学习推荐系统的可解释性10.8.3基于自然语言生成的解释10.8.4基于因果和反事实推理的解释10.9小结第11章结论附录A传统机器学习中的可解释模型A.1线性回归A.2逻辑回归A.3决策树附录B可解释人工智能相关研究资源B.1图书B.2综述论文B.3Workshop及论文集B.4TutorialB.5代码参考文献索引
|
|