新書推薦:
《
粤港澳大湾区舆论引导与舆情应对精品案例:基于媒介化治理的思考
》
售價:NT$
445.0
《
大地的勇士
》
售價:NT$
340.0
《
中华老学·第十一辑
》
售價:NT$
380.0
《
债务之网:瑞士民商法的发展历史(1800-1900)
》
售價:NT$
345.0
《
ARM嵌入式Linux系统开发详解(第3版)
》
售價:NT$
595.0
《
长寿时代:做自己人生的CFO
》
售價:NT$
310.0
《
早点知道会幸福的那些事
》
售價:NT$
295.0
《
知宋·宋代之货币
》
售價:NT$
340.0
|
內容簡介: |
本书内容涵盖机器学习基础知识的各个方面。全书分为10章。第1~3章介绍机器学基础知识和数学基础;第4~8章介绍常用的有监督学习算法;第9章介绍常见的无监督学习算法,讨论聚类算法和PCA降维算法的相关知识;第10章介绍关联算法,并对Apriori算法、FP-growth算法的原行详细阐述。 本书适合普通高等院校非计算机专业开设人工智能基础应用相关课程的教师和学生使用,也适合准备成为数据挖掘工程师的相关人员参考。
|
目錄:
|
第1章 绪论 1
1.1 机器学习与人工智能概述 1
1.1.1 人工智能的发展历程 1
1.1.2 人工智能的四个要素 3
1.1.3 人工智能与机器学习 3
1.2 我国人工智能行业发展现状 4
1.3 机器学发展历程 5
1.4 机器学应用 8
第2章 机器学习基本概念 10
2.1 机器学定义 10
2.2 机器学任务 11
2.2.1 有监督学习 11
2.2.2 无监督学习 13
2.2.3 半监督学习 13
2.2.4 强化学习 13
2.3 机器学常用术语 14
2.4 偏差与方差 16
2.5 机器学工作流程 18
2.6 Scikit-Learn 19
2.6.1 Scikit-Learn简介 19
2.6.2 Scikit-Learn的安装 21
2.6.3 Scikit-Learn的使用 22
第3章 机器学数学基础 24
3.1 线性代数 24
3.1.1 标量、向量、矩阵和张量 24
3.1.2 矩阵和向量相乘 25
3.1.3 向量内积 27
3.1.4 向量外积 27
3.1.5 行列式和迹 28
3.2 概率论 28
3.2.1 离散随机变量 28
3.2.2 数学期望 28
3.2.3 二维离散随机变量和统计独立性 29
3.2.4 二维随机变量函数的数学期望 30
3.2.5 条件概率 31
3.2.6 全概率公式和贝叶斯公式 31
3.2.7 随机向量 31
3.2.8 期望值、均值向量和协方差矩阵 32
3.2.9 连续型随机变量 33
3.3 基尼指数和熵 34
3.3.1 基尼指数 34
3.3.2 熵 35
第4章 线性回归 36
4.1 线性回归模型 36
4.1.1 回归问题 36
4.1.2 线性回归模型实例 37
4.2 二乘法 38
4.2.1 二乘法的求解过程 38
4.2.2 线性回归算法的实现 40
4.2.3 用Scikit-Learn实现线性回归 42
4.2.4 二乘法的局限性 46
4.3 梯度下降法 47
4.3.1 梯度下降的基本概念 47
4.3.2 梯度下降 48
4.4 正则化 54
4.5 其他回归模型 55
4.6 回归模型评价指标 59
第5章 分类算法 65
5.1 逻辑回归 65
5.1.1 分类问题 65
5.1.2 逻辑回归模型 67
5.1.3 决策边界 68
5.1.4 逻辑回归的代价函数 69
5.1.5 分类模型性能指标 70
5.1.6 逻辑回归实例 74
5.1.7 逻辑回归的优缺点 80
5.2 朴素贝叶斯分类 80
5.2.1 贝叶斯定理 81
5.2.2 朴素贝叶斯分类算法 83
5.2.3 朴素贝叶斯实例 86
5.2.4 朴素贝叶斯分类算法的优缺点 91
5.3 生成模型与判别模型 92
5.4 KNN模型 93
5.4.1 KNN算法原理 93
5.4.2 KNN算法的基本过程 93
5.4.3 KNN算法的实现 95
5.4.4 使用Scikit-Learn实现KNN分类 98
5.4.5 KNN算法的优缺点 100
5.5 惰性学习模型和非参数模型 100
第6章 决策树 102
6.1 决策树的概念 102
6.2 特征选择 103
6.2.1 特征选择问题 103
6.2.2 信息增益 105
6.2.3 信息增益比 108
6.2.4 基尼指数的选择 109
6.3 剪枝处理 110
6.4 常见决策树算法 110
6.4.1 ID3决策树算法 110
6.4.2 C4.5决策树算法 111
6.4.3 CART决策树算法 111
6.5 使用Scikit-Learn类库创建决策树 112
6.5.1 创建决策树 112
6.5.2 决策树分类算法的优缺点 117
第7章 从感知机到支持向量机与人工神经网络 118
7.1 感知机 118
7.1.1 感知机模型 118
7.1.2 感知机模型的损失函数 119
7.1.3 感知机模型的优化方法 121
7.1.4 感知机学习算法 121
7.1.5 感知机的局限性 123
7.2 支持向量机 124
7.2.1 线性可分的支持向量机 124
7.2.2 线性支持向量机以及软间隔化 127
7.2.3 非线性支持向量机 128
7.2.4 使用Scikit-Learn实现支持向量机分类算法 131
7.2.5 支持向量机分类算法的优缺点 135
7.3 人工神经网络 136
7.3.1 神经网络结构 136
7.3.2 人工神经网络的训练 138
第8章 集成学习 142
8.1 Bagging 143
8.1.1 Bagging算法的过程和优点 143
8.1.2 Bagging的偏差和方差 144
8.2 Bagging框架的代表算法——随机森林 145
8.2.1 随机森林随机性的体现 145
8.2.2 随机森林的构建过程 146
8.3 Boosting 151
8.3.1 Boosting模型的工作机制 151
8.3.2 Boosting模型的两个核心问题 152
8.3.3 Boosting的偏差和方差 152
8.4 Boosting框架的代表算法——AdaBoost算法 153
8.4.1 算法原理 153
8.4.2 算法步骤 154
8.4.3 AdaBoost算法的Python实现 155
8.5 GBDT 157
8.6 XGBoost 160
8.6.1 XGBoost简介 160
8.6.2 XGBoost的优点 160
第9章 聚类算法 162
9.1 k-means聚类算法 162
9.1.1 经典k-means聚类算法 162
9.1.2 x-means聚类算法 166
9.2 分层聚类算法 167
9.2.1 簇之间的距离定义 167
9.2.2 层次聚类算法的原理及过程举例 167
9.2.3 分层聚类算法的Python实现 169
9.3 降维算法 172
9.3.1 主成分分析 173
9.3.2 因子分析 173
9.3.3 线性判别分析 175
9.4 PCA降维算法的实现 177
9.4.1 基于特征值分解协方差矩阵实现PCA算法 177
9.4.2 基于SVD协方差矩阵实现PCA算法 179
第10章 关联算法 181
10.1 基本概念 181
10.2 Apriori算法 182
10.2.1 Apriori算法思想 182
10.2.2 Apriori算法流程 183
10.3 FP-growth算法 185
10.3.1 FP-growth数据结构 185
10.3.2 FP-growth算法的建立过程 186
10.3.3 FP Tree的挖掘 188
10.3.4 FP-growth算法归纳 190
参考文献 196
|
|