登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

2023年09月出版新書

『簡體書』深度学习(下)

書城自編碼: 3410380
分類: 簡體書→大陸圖書→計算機/網絡人工智能
作者: 张宪超
國際書號(ISBN): 9787030599568
出版社: 科学出版社
出版日期: 2019-08-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装胶订

售價:NT$ 1058

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
便宜货:廉价商品与美国消费社会的形成
《 便宜货:廉价商品与美国消费社会的形成 》

售價:NT$ 352.0
读书是一辈子的事(2024年新版)
《 读书是一辈子的事(2024年新版) 》

售價:NT$ 352.0
乐道文库·什么是秦汉史
《 乐道文库·什么是秦汉史 》

售價:NT$ 367.0
汉娜·阿伦特与以赛亚·伯林 : 自由、政治与人性
《 汉娜·阿伦特与以赛亚·伯林 : 自由、政治与人性 》

售價:NT$ 500.0
女性与疯狂(女性主义里程碑式著作,全球售出300万册)
《 女性与疯狂(女性主义里程碑式著作,全球售出300万册) 》

售價:NT$ 500.0
药食同源中药鉴别图典
《 药食同源中药鉴别图典 》

售價:NT$ 305.0
设计中的比例密码:建筑与室内设计
《 设计中的比例密码:建筑与室内设计 》

售價:NT$ 398.0
冯友兰和青年谈心系列:看似平淡的坚持
《 冯友兰和青年谈心系列:看似平淡的坚持 》

售價:NT$ 254.0

建議一齊購買:

+

NT$ 1058
《 深度学习(上) 》
+

NT$ 624
《 人工智能与医疗 》
+

NT$ 435
《 自然语言处理实践:聊天机器人技术原理与应用 》
+

NT$ 414
《 生成对抗网络项目实战 》
+

NT$ 617
《 粒计算与数据推理 》
+

NT$ 1099
《 图像处理、分析与机器视觉(基于LabVIEW) 》
內容簡介:
深度学习是当前人工智能的引领技术,是引发新一轮人工智能热潮的原动力。本书从模型、算法、原理等角度全面介绍深度学习技术,包括近两年*成果。全书由三大部分组成。*部分是机器学习和神经网络基础,包括机器学习问题、浅层机器学习、早期神经网络等;第二部分是深度学习模型及算法,包括深度生成模型、卷积网络、循环和递归网络、表示学习等。第三部分是深度学习理论基础和前沿课题,包括深度学习表达能力分析、深度学习泛化能力分析、深度学习可视化、深度学习的数学、物理、神经科学基础等。
目錄
前言
9 深度置信网络和深度玻尔兹曼机 1
9.1 深度置信网络和深度玻尔兹曼机的起源 1
9.1.1 玻尔兹曼机 1
9.1.2 受限玻尔兹曼机 2
9.2 模型参数学习 7
9.2.1 吉布斯采样 7
9.2.2 对比散列算法 7
9.3 深度置信网络 9
9.3.1 深度置信网络模型 9
9.3.2 深度置信网络训练 10
9.4 深度玻尔兹曼机 11
9.4.1 深度玻尔兹曼机模型 11
9.4.2 深度玻尔兹曼机参数学习 13
9.5 深度置信网络和深度玻尔兹曼机的应用 15
9.5.1 深度置信网络的应用 15
9.5.2 深度玻尔兹曼机的应用 17
9.6 阅读材料 28
参考文献 29
10 自编码器 31
10.1 自编码器介绍 31
10.1.1 自编码器的结构 31
10.1.2 自编码器的训练 33
10.2 深度自编码器 34
10.3 自编码器的变形 36
10.3.1 稀疏自编码器 36
10.3.2 降噪自编码器 37
10.3.3 收缩自编码器 38
10.3.4 掩码自编码器 39
10.3.5 其他自编码器 42
10.4 变分自编码器 42
10.4.1 变分推断 42
10.4.2 详解变分自编码器 45
10.5 变分自编码器的变形 50
10.5.1 半监督变分自编码器 50
10.5.2 反向自回归流变分自编码器 54
10.5.3 信息最大化变分自编码器 56
10.5.4 最大均值差异变分自编码器 58
10.5.5 向量量化变分自编码器 59
10.5.6 降噪变分自编码器 62
10.5.7 梯形变分自编码器 64
10.6 变分自编码器的应用 68
10.6.1 机器翻译 68
10.6.2 文本分类 72
10.7 阅读材料 76
参考文献 76
11 生成对抗网络 79
11.1 原始生成对抗网络 79
11.1.1 生成对抗网络的基本结构 79
11.1.2 深入理解生成对抗网络 82
11.1.3 原始生成对抗网络中的问题 95
11.2 生成对抗网络的发展 96
11.2.1 深度卷积生成对抗网络 96
11.2.2 基于Wasserstein距离的生成对抗网络 97
11.2.3 加罚项的基于Wasserstein距离的生成对抗网络 102
11.2.4 带有一致化项的生成对抗网络 104
11.2.5 损失敏感的生成对抗网络 106
11.2.6 信息最大化生成对抗网络 110
11.3 生成对抗网络的训练 112
11.3.1 训练生成对抗网络的问题与发展 113
11.3.2 训练生成对抗网络的一些技巧 115
11.3.3 渐进增大方式训练生成对抗网络 116
11.3.4 生成对抗网络的谱归一化 118
11.3.5 通过原始-对偶次梯度方法训练生成对抗网络 121
11.3.6 用优化镜像下降的方法训练生成对抗网络 123
11.3.7 一阶惩罚生成对抗网络 125
11.4 深度生成模型的联合模型 126
11.4.1 对抗变分贝叶斯方法 127
11.4.2 建立深度生成模型之间的原则性联系 133
11.4.3 对抗自编码器 140
11.4.4 Wasserstein自编码器 144
11.5 最优传输理论与生成对抗网络 147
11.5.1 从最优传输理论到生成模型 147
11.5.2 利用最优传输理论改善生成对抗网络 150
11.6 生成对抗网络的评估 152
11.6.1 几何评分:一种比较样本的方法 153
11.6.2 调节生成器对生成对抗网络性能的影响 156
11.7 生成对抗网络的其他模型 157
11.8 生成对抗网络的应用 160
11.8.1 图像的生成与操作 160
11.8.2 文本 172
11.9 早期的对抗模型 175
11.10 生成对抗网络的总结 177
11.11 阅读材料 179
参考文献 180
12 像素级生成模型 184
12.1 PixelCNN 184
12.1.1 PixelCNN介绍 184
12.1.2 mask卷积 185
12.1.3 盲点问题 186
12.2 PixelRNN 188
12.2.1 行 LSTM PixelRNN 188
12.2.2 对角线BiLSTM PixelRNN 189
12.3 门PixelCNN 192
12.4 条件 PixelCNN 193
12.5 PixelVAE 194
12.6 PixelGAN 195
12.7 阅读材料 197
参考文献 197
13 深度聚类 198
13.1 聚类概述 198
13.1.1 传统聚类与深度聚类之间的关系 198
13.1.2 深度聚类模型结构 199
13.1.3 深度聚类损失函数 199
13.1.4 簇的更新策略 201
13.2 深度嵌入聚类算法 202
13.2.1 自编码器与聚类结合 202
13.2.2 变分自编码器与聚类的结合 207
13.2.3 梯子网络与聚类的结合 210
13.2.4 卷积神经网络与聚类的结合 213
13.3 深度谱聚类 217
13.4 深度子空间聚类 220
13.5 阅读材料 224
参考文献 225
14 深度强化学习 230
14.1 基于值函数的深度强化学习 230
14.1.1 深度Q网络 231
14.1.2 双重深度Q网络 238
14.1.3 优先化经验回放的深度Q网络 241
14.1.4 基于竞争网络架构的深度Q网络 243
14.2 基于策略搜索的深度强化学习 246
14.2.1 深度确定性策略梯度算法 246
14.2.2 异步的优势行动者-评论家算法 250
14.3 基于模型的深度强化学习 252
14.3.1 AlphaGo发展史 253
14.3.2 AlphaGo原理介绍 255
14.4 深度强化学习的应用 264
14.5 深度强化学习的未来 266
14.6 阅读材料 269
参考文献 269
15 深度学习的可解释性 272
15.1 可解释性概述 272
15.1.1 什么是可解释性 273
15.1.2 可解释的必要性 273
15.1.3 可解释性研究进展 274
15.2 可视化 277
15.2.1 可视化方法分类 277
15.2.2 特征可视化 278
15.2.3 关系可视化 289
15.2.4 过程可视化 297
15.3 深度学习内部工作机制探查 300
15.3.1 局部可解释模型 300
15.3.2 关系反向传播 304
15.3.3 决策树量化解释 311
15.3.4 信息论的角度解释模型 317
15.4 深度学习工作机制理论分析 321
15.4.1 基于统计的分析 321
15.4.2 基于信息论的分析 327
15.4.3 基于认知科学的分析 342
15.5 阅读材料 347
参考文献 348
16 对抗样本攻防和深度学习的鲁棒性 355
16.1 深度神经网络的脆弱性 355
16.2 对抗样本攻击 357
16.2.1 攻击策略 357
16.2.2 对抗样本的产生 373
16.2.3 对抗样本的迁移 380
16.3 对抗攻击的检测与防御 383
16.3.1 对抗样本的检测 383
16.3.2 对抗攻击的防御 385
16.4 深度神经网络的鲁棒性 391
16.4.1 分类器的鲁棒性 391
16.4.2 Parseval网络 399
16.4.3 评估神经网络的鲁棒性 400
16.4.4 为深度神经网络提供可保证的鲁棒性 403
16.5 深度学习测试 405
16.5.1 白盒测试 405
16.5.2 黑盒测试 414
16.6 深度学习验证 422
16.6.1 可满足性模理论 423
16.6.2 线性实数算法和单纯形 424
16.6.3 从Simplex到Reluplex 425
16.6.4 有效实施Reluplex 428
16.6.5 案例研究:ACAS Xu系统 429
16.7 阅读材料 431
参考文献 432
內容試閱
山重水复疑无路,柳暗花明又一村。神经网络经过几起几落,在沉寂了近20年之后,2012年以来又得到世人的广泛关注,自2016年开始全方位再度爆发。神经网络再次振兴的根本原因在于人们找到训练深度网络的有效方法,并且开发了很多新的深度模型,这些模型及训练方法被统称为深度学习。近年来,深度学习在几乎所有分类和预测任务上超过以往模型,在图像、语音等的识别精度方面甚至超过人类,引发了人工智能的新一轮热潮。尽管近60年来人工智能已经出现几次热潮,但这次热潮明显不同于以往,它得到了世界各国学术界、产业界、政府和军队的高度关注。人们普遍认为,人类已经开启通向智能时代的列车,若干年后,人类将和人工智能共存。2016年以来,美国、英国、法国、德国、日本等国家纷纷制定人工智能发展战略。我国于2017年7月印发《新一代人工智能发展规划》。这一切的关注和行动都归功于深度学习的出现和极速发展。如果说深度学习、大数据和高性能计算是带领人类进入智能时代的三驾马车,那么深度学习无疑是其中的领跑者。2019年3月27日,ACM宣布将2018年度图灵奖授予深度学习之父Yoshua Bengio、Yann LeCun和Geoffrey Hinton,他们使深度神经网络成为计算的关键元素。
神经网络的发展可追溯到一个多世纪前。1890年,James出版了Physiology,首次阐明了有关人脑结构功能及相关学习联想记忆的规则。1943年,Mccullocb和Pirts提出了神经元突触模型中最原始最基本的模型MP模型,可完成任意有限的逻辑运算。1949年,Hebb通过对大脑神经细胞的人类学习行为和条件反射的观察和研究,提出了神经元学习的一般规则Hebbian学习规则。1958 年,Rosenblatt模拟实现了感知机(perceptron),给出了两层感知机的收敛定理,建立了第一个真正的神经网络模型。这个模型可以完成一些简单的视觉处理任务,这引起了轰动。整个20世纪60年代,这一方向的研究工作都很活跃,是神经网络的第一次热潮。但是,感知机只能做简单的线性分类任务。1969年,Minsky等出版了Perceptron,用数学证明了感知机的弱点,指出它对XOR(异或)这样简单的非线性分类任务都无法解决。Minsky等认为,如果将计算层增加到大于两层,则计算量过大,因此研究更深层的网络是没有价值的。Minsky等的影响力使很多学者放弃了神经网络的研究,神经网络的发展陷入第一次低谷。1982年,Hopfield提出了Hopfield网络,它引入能量函数的概念,使神经网络的平衡稳定状态有了明确的判据方法,保证了向局部极小值收敛。1986年,Rumelhart和Hinton等提出了反向传播(BP)算法(反向传播更早由Linnainmaa于1970年和Werbos 于1974年分别提出,但未得到广泛关注),解决了两层神经网络所需要的复杂计算量问题,从而带动了神经网络研究的第二次热潮。但是神经网络仍然存在若干问题:训练耗时太久,收敛于局部最优解。神经网络的优化仍然比较困难。1992年,Vapnik等提出了支持向量机(SVM),利用核技巧把非线性问题转换成线性问题。支持向量机在若干方面比神经网络有优势:无须调参、高效、有全局最优解。以支持向量机为代表的统计学习方法成为机器学习的主流,神经网络陷入第二次低谷。
2006年,Hinton等在Science上提出了深度置信网络(DBN),它有一个预训练和一个微调的训练过程,大幅度减少了训练多层神经网络的时间。他给多层神经网络相关的学习方法赋予了一个新名词深度学习。2011年,微软研究院和谷歌的研究人员先后采用深度神经网络技术降低语音识别错误率20%~30%,是该领域10年来的最大突破。2012年,Alex等将ImageNet图片分类问题的top-5错误率由26%降低至15%,自此深度学习引起广泛关注。2013年,深度学习被《麻省理工学院技术评论》评为当年十大突破性技术之首。2014年,谷歌将语音识别的精准度从2012年的84%提升到98%,谷歌的人脸识别系统FaceNet在LFW数据集上达到99.63%的准确率。2015年,微软采用深度神经网络的残差学习方法将ImageNet的分类错误率降低至3.57%,已低于同类实验中人眼识别的错误率5.1%。2016年,DeepMind的深度学习围棋软件AlphaGo战胜人类围棋冠军李世石。2016年和2017年是深度学习爆发的两年,这期间深度学习的模型、算法、软硬件实现等各个方面都得到极大的发展。2017年,从零开始的AlphaGo-Zero战胜了AlphaGo。2017~2018年的明星技术是生成对抗网络(GAN),它被《麻省理工学院技术评论》评为2018年十大年度技术进展。这两年深度学习的可解释性和对抗样本的攻击与防御也是热点话题。2016年以来,深度学习的应用领域迅速扩张,各大公司也纷纷推出开发平台(著名的有谷歌的TensorFlow、伯克利的Caffe、亚马逊的MXNet、微软的CNTK等),极大地推进了人工智能的发展。由于2016年以来深度学习在很多领域产生了巨大的影响,因此2016年通常被称为深度学习元年。
深度学习还在快速发展中,人们仍在努力改进模型、训练方法和实现方法。深度学习专用芯片也是研究的热点。深度学习还有很多弱点,它依赖大规模数据训练,在小样本学习方面尚乏善可陈。同时,深度学习很大程度上是凭经验发展起来的,没有系统的理论基础。因此深度学习是个黑盒系统,人们对其工作机制缺乏足够的理解。人们还发现深度学习系统很容易被对抗样本欺骗,在安全性和可靠性要求较高的领域尚无法得到实质性应用。对于深度学习,学术界也一直有反对的声音,最主流的意见是它不像人脑。很遗憾,汽车轮子更不像人腿。如果非要让飞行器像鸟一样飞行,人们永远也发明不了飞机。计算机在自然界找不到可对比的东西,而早期的计算机设计者也试图模仿人脑。深度学习作为一个从数据中发现模式和规律的技术,为什么必须要像人脑(当然类脑研究是非常有意义的,它另成体系)?人类很多科技进步都是受自然界的启发,但从来没有生搬硬套。事实上,深度学习已经创造了科技史上的奇迹,它在以往神经网络和浅层学习技术的基础上,短短几年迅速发展为一个全新的领域,涵盖内容非常广阔,包括建模、训练、优化、验证、软硬件实现和应用等。作为新一代人工智能的心脏,它可望在很长一段时间内在人工智能各类应用中占主导地位。因此深度学习已成为现代人工智能从业者的必修课。然而,深度学习本身发展非常迅速,及时地整理和系统地论述有相当大的难度,而且需要大量的时间,因此可供参考的书籍相对较少,这也是作者撰写本书的动机。
本书分为上下两卷,五个部分。上卷包括两个部分:第一部分讲述机器学习基础、早期神经网络、深度学习的正则化方法和深度学习的优化方法,这些是理解深度学习必备的基础知识;第二部分是判别式模型,包括卷积神经网络(CNN)、循环神经网络(RNN)和注意力机制(Attention)、记忆网络,尤其重点阐述深度残差网络(ResNet)、长短期记忆模型(LSTM)等;下卷包括三个部分:第三部分是生成式模型,包括深度置信网络深度玻尔兹曼机、自编码器、生成对抗网络,尤其重点阐述Wasserstein生成对抗网络(WGAN)、变分自编码器(VAE)、深度聚类等;第四部分是前沿技术,讨论深度强化学习;第五部分是深度学习的安全可靠性,包括深度学习的可解释性和对抗攻击与防御。本书写作的目的是探索深度学习的模型、算法、理论和前沿课题,帮助读者深入理解深度学习领域当前最好的成果。以实践为目的的读者可以与TensorFlow或Caffe等开发平台的指导手册配合使用。本书的内容虽然很多很全,但各章的内容相对独立,这方便读者有选择地阅读。深度学习是一个非常综合的领域,要求读者掌握计算机的基础知识,熟悉一门开发语言,具备一定的线性代数、概率统计、数值优化等数学基础。若读者对信息论、控制论、博弈论等有一定了解则更有帮助。
谈到深度学习,最经典的著作无疑是Goodfellow、Bengio和Courville被称作花书的Deep Learning(MIT Press,2016)。该书作者是深度学习领域的领军人物,他们对深度学习的理解是非常深刻的。该书的写作也是高屋建瓴,非常有参考价值。但是,该书毕竟是2016年出版的(中译本《深度学习》于2017年由人民邮电出版社出版),其参考文献都是2015年以前的。而2016年和2017年是深度学习爆发的两年,很多革命性的模型和技术被发现或深入发展,例如著名的深度残差网络、生成对抗网络(Goodfellow是生成对抗网络的发现者,但他的书并没有详细介绍生成对抗网络,可能他在写书时还没有意识到生成对抗网络后来会产生如此大的影响)等。本书则在完整论述深度学习主流技术的同时,尽可能涵盖更多最新的内容,从而帮助读者更好地了解深度学习的前沿进展。这些内容取材于ICML、NIPS、ICLR、CVPR、IJCAI、AAAI等顶级会议以及JMLR、TPAMI等顶级期刊,尤其重点关注会议最佳论文等。也就是说,本书将选取截止到今日具有代表性的最前沿工作(包括被AAAI 2018、ICLR 2018、CVPR 2018和ICML 2018录用的最新论文)。本书是目前唯一一本系统讨论打开黑盒深度学习的可解释性和对抗样本攻击和防御深度学习的鲁棒性的著作,这两方面是深度学习目前面临的最大挑战。另外,本书还专门讨论深度聚类,这也是其他著作没有涉及的内容。
除了书上讲述的内容,作者也将在线提供大量论文、代码、数据集和彩图等学习资源。同时,由于深度学习发展迅速,作者将每年增加一些最新成果作为补充材料以飨读者。读者可以访问http:deeplearningresource.com以获取上述资源和补充材料,本书图片对应的彩图也可以在此下载。总之,作者尽最大努力帮助读者梳理和学习深度学习这一前沿技术。作者才疏学浅,水平和能力有限,书中可能有不足之处,还望广大读者不吝指教。

张宪超
2018年6月于大连燕南园

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.