新書推薦:
《
《日本文学史序说》讲演录
》
售價:NT$
332.0
《
无尽的海洋:美国海事探险与大众文化(1815—1860)
》
售價:NT$
454.0
《
治盗之道:清代盗律的古今之辨
》
售價:NT$
556.0
《
甲骨文丛书·剑桥世界暴力史(第一卷):史前和古代世界(套装全2册)
》
售價:NT$
959.0
《
甲骨文丛书·中华早期帝国:秦汉史的重估
》
售價:NT$
1367.0
《
欲望与家庭小说
》
售價:NT$
449.0
《
惜华年(全两册)
》
售價:NT$
320.0
《
甲骨文丛书·古代中国的军事文化
》
售價:NT$
454.0
|
編輯推薦: |
本书将通过高级示例帮助读者应用R语言实现深度学习算法。
|
內容簡介: |
本书将通过高级示例帮助读者应用R语言实现深度学习算法。它涵盖了各种神经网络模型,如人工神经网络、卷积神经网络、循环神经网络、长短期记忆网络和其他采用专家技术的模型。在阅读本书的过程中,读者将利用Keras-R、TensorFlow-R等流行的深度学习库来实现人工智能模型。
|
關於作者: |
Bharatendra Rai是麻省大学达特茅斯分校(UMass Dartmouth)查尔顿商学院商业分析专业的首席教授和技术管理硕士课程的主任。他在底特律韦恩州立大学(Wayne State University)获得工业工程博士学位。他获得了印度统计研究所(Indian Statistical Institute)的质量、可靠性和OR硕士学位。他目前的研究兴趣包括机器学习和深度学习应用。他在YouTube上的深度学习讲座视频浏览者遍布198个国家。他在软件、汽车、电子、食品、化工等行业拥有20多年的咨询和培训经验,涉及数据科学、机器学习和供应链管理等领域。
|
目錄:
|
目录 前言第一部分 深 度 学 习 基 础第1章 深度学习架构与技术 21.1 R语言实现的深度学习 31.1.1 深度学习发展趋势 31.1.2 R软件包的版本 31.2 深度学习网络模型的开发过程 51.2.1 为深度学习网络模型准备数据 51.2.2 开发模型架构 71.2.3 编译模型 91.2.4 拟合模型 111.2.5 评估模型性能 121.3 R语言和RStudio实现的深度学习技术 131.3.1 多类分类问题 141.3.2 回归问题 141.3.3 图像分类 151.3.4 卷积神经网络 151.3.5 自编码器 151.3.6 迁移学习 161.3.7 生成对抗网络 161.3.8 文本分类的深度学习网络 161.3.9 循环神经网络 171.3.10 长短期记忆网络 171.3.11 卷积循环网络 171.3.12 提示、技巧和最佳实践 181.4 本章小结 18第二部分 预测与分类问题的深度学习第2章 多类分类问题的深度神经网络 202.1 胎儿心电图数据集 202.1.1 医学数据集 202.1.2 数据集分类 212.2 建模数据准备 222.2.1 数值型变量的归一化 222.2.2 数据分割 222.2.3 独热编码 232.3 深度神经网络模型的创建与拟合 242.3.1 模型架构开发 242.3.2 模型编译 262.3.3 模型拟合 262.4 模型评价和预测 282.4.1 损失函数与准确率计算 292.4.2 混淆矩阵 292.5 性能优化提示与最佳实践 312.5.1 增加隐藏层的实验 312.5.2 隐藏层增加单元数量的实验 342.5.3 多单元多层网络的实验 362.5.4 分类不平衡问题的实验 392.5.5 模型的保存与重新上载 422.6 本章小结 43第3章 回归问题的深度神经网络 443.1 波士顿房价数据集 443.2 建模数据准备 463.2.1 神经网络的可视化 463.2.2 数据分割 483.2.3 归一化 483.3 回归问题深度神经网络模型的创建与拟合 493.3.1 参数总数计算 503.3.2 模型编译 503.3.3 模型拟合 503.4 模型评价和预测 523.4.1 评价 523.4.2 预测 533.4.3 改进 543.5 性能优化提示与最佳实践 583.5.1 输出变量的对数变换 583.5.2 模型性能 613.6 本章小结 62第三部分 面向计算机视觉的深度学习第4章 图像分类与识别 644.1 处理图像数据 644.2 数据准备 684.2.1 尺寸与形状调整 694.2.2 创建训练、验证和测试数据 704.2.3 独热编码 724.3 模型创建与拟合 734.3.1 模型架构开发 734.3.2 模型编译 744.3.3 模型拟合 744.4 模型评价和预测 764.4.1 训练数据的损失、准确率和混淆矩阵 764.4.2 训练数据的预测概率 774.4.3 测试数据的损失、准确率和混淆矩阵 784.4.4 测试数据的预测概率 794.5 性能优化提示与最佳实践 804.5.1 更深层次的神经网络 804.5.2 结果 814.6 本章小结 85第5章 基于卷积神经网络的图像分类 865.1 数据准备 865.1.1 fashion-MNIST图像数据集 875.1.2 训练与测试数据 885.1.3 尺寸与形状调整 915.1.4 独热编码 925.2 卷积神经网络的层 925.2.1 模型架构与相关计算 925.2.2 模型编译 945.3 模型拟合 955.3.1 模型拟合代码 955.3.2 准确率和损失 955.4 模型评价和预测 965.4.1 训练数据 965.4.2 测试数据 985.4.3 互联网上的时尚物品图像 1005.5 性能优化提示与最佳实践 1035.5.1 图像修正 1045.5.2 架构变更 1055.6 本章小结 110第6章 基于Keras的自编码器神经网络应用 1116.1 自编码器的类型 1116.2 降维自编码器 1126.2.1 Fashion-MNIST数据 1126.2.2 编码器模型 1146.2.3 解码器模型 1146.2.4 自编码器模型 1156.2.5 模型的编译与拟合 1166.2.6 图像重建 1176.3 去噪自编码器 1196.3.1 MNIST数据 1196.3.2 数据准备 1206.3.3 添加噪声 1216.3.4 编码器模型 1226.3.5 解码器模型 1236.3.6 自编码器模型 1246.3.7 模型拟合 1256.3.8 图像重建 1266.4 图像修正自编码器 1286.4.1 需要修正的图像 1286.4.2 图像清洗 1296.4.3 编码器模型 1306.4.4 解码器模型 1316.4.5 模型编译与拟合 1326.4.6 基于训练数据的图像重建 1326.4.7 基于新数据的图像重建 1336.5 本章小结 136第7章 基于迁移学习的小数据图像分类 1377.1 使用预训练模型识别图像 1377.1.1 图像读取 1387.1.2 输入数据预处理 1417.1.3 前五类别 1427.2 处理CIFAR10数据集 1427.2.1 样本图像 1447.2.2 预处理和预测 1457.3 基于卷积神经网络的图像分类 1467.3.1 数据准备 1467.3.2 卷积神经网络模型 1487.3.3 模型性能 1507.4 基于预训练RESNET50模型的图像分类 1527.4.1 模型架构 1527.4.2 预训练网络权重冻结 1547.4.3 模型拟合 1557.5 模型评价和预测 1567.5.1 训练数据的损失、准确率和混淆矩阵 1567.5.2 测试数据的损失、准确率和混淆矩阵 1577.6 性能优化提示与最佳实践 1597.6.1 adam优化器的实验 1597.6.2 超参调整 1617.6.3 VGG16作为预训练网络的实验 1657.7 本章小结 168第8章 基于生成对抗网络的图像生成 1698.1 生成对抗网络概述 1698.2 处理MNIST图像数据 1708.2.1 训练数据的数字5 1708.2.2 数据处理 1728.3 生成器网络构建 1728.3.1 网络架构 1728.3.2 生成器网络信息汇总 1738.4 判别器网络构建 1748.4.1 网络架构 1748.4.2 判别器网络信息汇总 1758.5 网络训练 1768.5.1 存储伪造图像和损失的初始设置 1768.5.2 训练过程 1778.6 结果检查 1788.6.1 判别器与生成对抗网络的损失 1798.6.2 伪造图像 1808.7 性能优化提示与最佳实践 1818.7.1 生成器网络与判别器网络的更改 1818.7.2 更改的影响 1828.7.3 生成手写数字8的图像 1848.8 本章小结 186第四部分 自然语言处理问题的深度学习第9章 文本分类的深度学习网络 1889.1 文本数据集 1889.1.1 UCI机器学习资源库 1889.1.2 Keras中的文本数据 1899.2 为模型构建准备数据 1919.2.1 词性标注 1919.2.2 文本转换为整数序列 1929.2.3 填充与截断 1939.2.4 推文情感分类模型的开发 1949.3 深度学习网络开发 1969.3.1 获取IMDb电影评论数据 1979.3.2 构建分类模型 1999.3.3 模型编译 2009.3.4 模型拟合 2009.4 模型评价和预测 2039.4.1 利用训练数据的评价 2039.4.2 利用测试数据的评价 2049.5 性能优化提示与最佳实践 2049.5.1 最大序列长度和优化器的实验 2059.5.2 测试数据的损失、准确率及混淆矩阵 2079.6 本章小结 207第10章 基于循环神经网络的文本分类 20910.1 为模型构建准备数据 20910.1.1 获取数据 20910.1.2 序列填充 21110.2 循环神经网络模型的开发 21310.2.1 参数的计算 21310.2.2 模型编译 21410.3 模型拟合 21510.3.1 拟合代码 21510.3.2 准确率和损失 21510.4 模型评价和预测 21610.4.1 训练数据 21710.4.2 测试数据 21710.5 性能优化提示与最佳实践 21810.5.1 简单循环神经网络层的单元数 21910.5.2 简单循环神经网络层使用的不同激活函数 22010.5.3 增加循环层 22210.5.4 填充序列的最大长度 22310.6 本章小结 227第11章 基于长短期记忆网络的文本分类 22811.1 采用LSTM网络的原因 22811.2 为模型构建准备数据 22911.3 构建LSTM网络模型 22911.3.1 LSTM网络架构 23011.3.2 LSTM网络模型的编译 23111.4 LSTM网络模型的拟合 23111.4.1 拟合代码 23111.4.2 损失与准确率 23111.5 模型性能评价 23211.5.1 基于训练数据的模型评价 23211.5.2 基于测试数据的模型评价 23411.6 性能优化提示与最佳实践 23411.6.1 利用adam优化器的实验 23511.6.2 带附加层的LSTM网络的实验 23811.6.3 双向LSTM层的实验 24211.7 本章小结 247第12章 基于卷积循环神经网络的文本分类 24812.1 处理reuter_50_50数据集 24812.1.1 读取训练数据 24912.1.2 读取测试数据 25012.2 为模型构建准备数据 25112.2.1 词性标注与文本-整数序列转换 25112.2.2 标签改为整数 25412.2.3 序列的填充与截断 25412.2.4 标签的独热编码 25712.3 模型架构开发 25712.4 模型的编译与拟合 26012.4.1 模型编译 26012.4.2 模型拟合 26012.5 模型评价和预测 26212.5.1 基于训练数据的模型评价 26212.5.2 基于测试数据的模型评价 26412.6 性能优化提示与最佳实践 26512.6.1 减小批量的实验 26612.6.2 CNN批量规模、核规模以及过滤器的实验 26912.7 本章小结 272第五部分 未 来 展 望第13章 提示、技巧和展望 27513.1 基于TensorBoard的训练性能可视化 27513.2 基于LIME的深度学习网络模型可视化 27813.3 基于tfruns的模型训练可视化 28013.4 网络训练的早停 28213.5 本章小结 284
|
|