登入帳戶  | 訂單查詢  | 購物車/收銀台( 0 ) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入 新註冊 | 新用戶登記
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / EMS,時效:出貨後2-3日

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

2023年09月出版新書

2023年08月出版新書

2023年07月出版新書

『簡體書』Spark 3.x大数据分析实战(视频教学版)

書城自編碼: 3792360
分類: 簡體書→大陸圖書→計算機/網絡计算机理论
作者: 张伟洋
國際書號(ISBN): 9787302614500
出版社: 清华大学出版社
出版日期: 2022-09-01

頁數/字數: /
書度/開本: 16开 釘裝: 平装

售價:NT$ 516

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
简读中国史(全四册)
《 简读中国史(全四册) 》

售價:NT$ 1277.0
全球基础研究人才指数报告(2023)
《 全球基础研究人才指数报告(2023) 》

售價:NT$ 1550.0
20世纪40年代以来中国大陆海岸线演变特征
《 20世纪40年代以来中国大陆海岸线演变特征 》

售價:NT$ 1914.0
更好的行为:给教师的指南(教师成长系列)
《 更好的行为:给教师的指南(教师成长系列) 》

售價:NT$ 354.0
闽南佛教寺庙建筑艺术与景观研究
《 闽南佛教寺庙建筑艺术与景观研究 》

售價:NT$ 822.0
烧掉你的船:将焦虑转化为积极行动的9个策略
《 烧掉你的船:将焦虑转化为积极行动的9个策略 》

售價:NT$ 311.0
虚无主义与崇高的后现代:从浪漫主义到后现代主义一段艰难关系的历史(故事)
《 虚无主义与崇高的后现代:从浪漫主义到后现代主义一段艰难关系的历史(故事) 》

售價:NT$ 411.0
图解昆虫学
《 图解昆虫学 》

售價:NT$ 2590.0

建議一齊購買:

+

NT$ 384
《 区块链基础知识25讲 》
+

NT$ 516
《 Power BI数据可视化从入门到实战 》
+

NT$ 490
《 计算思维入门:像计算机科学家一样去思考 》
+

NT$ 594
《 前端架构师:基础建设与架构设计思想 》
+

NT$ 381
《 NFT:从虚拟头像到元宇宙内核 》
+

NT$ 853
《 程序员必读算法经典之作:编程珠玑第2版+编程珠玑续(套装2册) 》
編輯推薦:
本书使用Spark 3.2.x撰写,使用通俗易懂的语言描述,对于小白来说非常友好。
知识全面,全书围绕Spark大数据生态构建知识体系,涵盖Spark 3架构原理、集群搭建、计算框架、Shell 命令、API操作、内核源码剖析、与Hive和Kafaka与HBase的整合操作等内容
由行业大数据专家倾力打造,专业性毋庸置疑,全书运用十分通俗的语言和详尽的代码分析,帮助从未接触过Spark的读者无痛上手,如果你想学习Spark,本书是一个值得入手的选择。
拒绝纸上谈兵,全书提供20个大小案例和项目,并使用手把手的教学方法,各章还提供动手练习题,让读者快速掌握实用大数据项目技能。
配套丰富的资源,包括上机练习源码、教学视频、PPT课件,读者还可以关注作者公众号“奋斗在IT”获取更多大数据学习资源。
內容簡介:
本书基于Spark 3.2.x版本,从Spark核心编程语言Scala讲起,涵盖了当前整个Spark生态系统主流的大数据开发技术。全书共9章,第1章讲解了Scala语言的基础知识,包括IDEA工具的使用等;第2章讲解了Spark的主要组件、集群架构原理、集群环境搭建以及Spark应用程序的提交和运行;第3~9章讲解了离线计算框架Spark RDD、Spark SQL和实时计算框架Kafka、Spark Streaming、Structured Streaming以及图计算框架GraphX等的基础知识、架构原理,同时包括常用Shell命令、API操作、内核源码剖析,并通过多个实际案例讲解各个框架的具体应用以及与Hadoop生态系统框架Hive、HBase、Kafka的整合操作。 本书通俗易懂,案例丰富,注重实操,适合Spark新手和大数据开发人员阅读,也可作为培训机构和高校大数据及相关专业的教学用书。
關於作者:
张伟洋,大数据领域资深专家,拥有多年互联网公司软件研发经验,曾在互联网旅游公司担任软件研发事业部经理。先后多次为中国海洋大学、曲阜师范大学、青岛理工大学等高校举行大数据专题讲座,对Hadoop及周边大数据框架ZooKeeper、Hive、HBase、Storm、Spark、Flink等有深入的研究,公众号“奋斗在IT” 的创办人。已出版《Hadoop大数据技术开发实战》《Flink大数据分析实战》等图书。
目錄
第1章 Spark开发准备——Scala基础 1
1.1 什么是Scala 1
1.2 安装Scala 1
1.2.1 在Windows中安装Scala 2
1.2.2 在CentOS 7中安装Scala 3
1.3 Scala基础 3
1.3.1 变量声明 4
1.3.2 数据类型 5
1.3.3 表达式 6
1.3.4 循环 7
1.3.5 方法与函数 9
1.4 集合 12
1.4.1 数组 12
1.4.2 List 14
1.4.3 Map映射 15
1.4.4 元组 17
1.4.5 Set 18
1.5 类和对象 19
1.5.1 类的定义 19
1.5.2 单例对象 20
1.5.3 伴生对象 20
1.5.4 get和set方法 20
1.5.5 构造器 23
1.6 抽象类和特质 25
1.6.1 抽象类 25
1.6.2 特质 26
1.7 使用Eclipse创建Scala项目 28
1.7.1 安装Scala for Eclipse IDE 28
1.7.2 创建Scala项目 29
1.8 使用IntelliJ IDEA创建Scala项目 29
1.8.1 在IDEA中安装Scala插件 30
1.8.2 创建Scala项目 31
1.9 动手练习 32
第2章 初识Spark 33
2.1 大数据开发的总体架构 33
2.2 什么是Spark 34
2.3 Spark的主要组件 35
2.4 Spark运行架构 37
2.4.1 YARN集群架构 37
2.4.2 Spark Standalone架构 40
2.4.3 Spark On YARN架构 42
2.5 Spark集群搭建与测试 44
2.5.1 Spark Standalone模式的集群搭建 44
2.5.2 Spark On YARN模式的集群搭建 46
2.5.3 Spark HA的搭建 47
2.6 Spark应用程序的提交 51
2.7 Spark Shell的使用 53
2.8 动手练习 55
第3章 Spark RDD弹性分布式数据集 56
3.1 什么是RDD 56
3.2 创建RDD 57
3.2.1 从对象集合创建RDD 57
3.2.2 从外部存储创建RDD 57
3.3 RDD的算子 58
3.3.1 转化算子 58
3.3.2 行动算子 65
3.4 RDD的分区 66
3.4.1 分区数量 66
3.4.2 自定义分区器 74
3.5 RDD的依赖 79
3.5.1 窄依赖 79
3.5.2 宽依赖 79
3.5.3 Stage划分 80
3.6 RDD的持久化 81
3.6.1 存储级别 82
3.6.2 查看缓存 84
3.7 RDD的检查点 86
3.8 共享变量 87
3.8.1 广播变量 87
3.8.2 累加器 89
3.9 案例分析:Spark RDD实现单词计数 90
3.9.1 新建Maven管理的Spark项目 90
3.9.2 编写WordCount程序 92
3.9.3 提交程序到集群 94
3.10 案例分析:Spark RDD实现分组求TopN 96
3.11 案例分析:Spark RDD实现二次排序 100
3.12 案例分析:Spark RDD计算成绩平均分 103
3.13 案例分析:Spark RDD倒排索引统计 每日新增用户 105
3.14 案例分析:Spark RDD读写HBase 109
3.14.1 读取HBase表数据 109
3.14.2 写入HBase表数据 111
3.15 案例分析:Spark RDD数据倾斜问题的解决 119
3.15.1 数据倾斜的常用解决方法 120
3.15.2 使用随机key进行双重聚合 121
3.15.3 WebUI查看Spark历史作业 124
3.16 动手练习 125
第4章 Spark内核源码分析 127
4.1 Spark集群启动原理分析 127
4.2 Spark应用程序提交原理分析 136
4.3 Spark作业工作原理分析 146
4.3.1 MapReduce的工作原理 147
4.3.2 Spark作业的工作原理 149
4.4 Spark检查点原理分析 160
第5章 Spark SQL结构化数据处理引擎 164
5.1 什么是Spark SQL 164
5.2 DataFrame和Dataset 165
5.3 Spark SQL的基本使用 166
5.4 Spark SQL数据源 168
5.4.1 基本操作 168
5.4.2 Parquet文件 172
5.4.3 JSON数据集 175
5.4.4 Hive表 176
5.4.5 JDBC 178
5.5 Spark SQL内置函数 179
5.5.1 自定义函数 181
5.5.2 自定义聚合函数 182
5.5.3 开窗函数 184
5.6 案例分析:使用Spark SQL实现单词计数 186
5.7 案例分析:Spark SQL与Hive的整合 191
5.7.1 整合Hive的步骤 191
5.7.2 操作Hive的几种方式 193
5.8 案例分析:Spark SQL读写MySQL 195
5.9 案例分析:Spark SQL每日UV统计 199
5.10 案例分析:Spark SQL热点搜索词统计 201
5.11 综合案例:Spark SQL智慧交通数据分析 204
5.11.1 项目介绍 204
5.11.2 数据准备 205
5.11.3 统计正常卡口数量 208
5.11.4 统计车流量排名前3的卡口号 208
5.11.5 统计车辆高速通过的卡口Top5 209
5.11.6 统计每个卡口通过速度最快的前3辆车 212
5.11.7 车辆轨迹分析 213
5.12 动手练习 214
第6章 Kafka分布式消息系统 215
6.1 什么是Kafka 215
6.2 Kafka架构 216
6.3 主题与分区 217
6.4 分区副本 218
6.5 消费者组 220
6.6 数据存储机制 221
6.7 集群环境搭建 223
6.8 命令行操作 225
6.8.1 创建主题 225
6.8.2 查询主题 225
6.8.3 创建生产者 226
6.8.4 创建消费者 227
6.9 Java API操作 227
6.9.1 创建Java工程 227
6.9.2 创建生产者 228
6.9.3 创建消费者 230
6.9.4 运行程序 231
6.10 案例分析:Kafka生产者拦截器 233
6.11 动手练习 239
第7章 Spark Streaming实时流处理引擎 240
7.1 什么是Spark Streaming 240
7.2 Spark Streaming工作原理 241
7.3 输入DStream和Receiver 242
7.4 第一个Spark Streaming程序 243
7.5 Spark Streaming数据源 244
7.5.1 基本数据源 244
7.5.2 高级数据源 246
7.5.3 自定义数据源 247
7.6 DStream操作 250
7.6.1 无状态操作 251
7.6.2 状态操作 252
7.6.3 窗口操作 253
7.6.4 输出操作 255
7.6.5 缓存及持久化 256
7.6.6 检查点 257
7.7 案例分析:Spark Streaming按批次累加单词数量 259
7.8 案例分析:Spark Streaming整合Kafka计算实时单词数量 262
7.9 案例分析:Spark Streaming实时用户日志黑名单过滤 268
7.10 综合案例:微博用户行为分析 271
7.11 动手练习 273
第8章 Structured Streaming结构化流处理引擎 274
8.1 什么是Structured Streaming 274
8.2 Structured Streaming单词计数 275
8.3 Structured Streaming编程模型 277
8.4 Structured Streaming查询输出 279
8.5 Structured Streaming窗口操作 282
8.5.1 事件时间 282
8.5.2 窗口聚合单词计数 283
8.5.3 延迟数据和水印 286
8.6 案例分析:Structured Streaming整合Kafka实现单词计数 290
8.7 动手练习 293
第9章 GraphX图计算引擎 294
9.1 什么是GraphX 294
9.2 第一个GraphX程序 295
9.3 GraphX数据结构 298
9.4 GraphX图操作 298
9.4.1 基本操作 298
9.4.2 属性操作 301
9.4.3 结构操作 302
9.4.4 连接操作 304
9.4.5 聚合操作 307
9.5 案例分析:使用GraphX计算社交网络中粉丝的平均年龄 308
9.6 动手练习 310
內容試閱
当今互联网已进入大数据时代,大数据技术已广泛应用于金融、医疗、教育、电信、政府等领域。各行各业每天都在产生大量的数据,数据计量单位已从Byte、KB、MB、GB、TB发展到PB、EB、ZB、YB甚至BB、NB、DB级。预计未来几年,全球数据将呈爆炸式增长。谷歌、阿里巴巴、百度、京东等互联网公司都急需掌握大数据技术的人才,大数据相关人才出现了供不应求的局面。
Spark作为下一代大数据处理引擎,现已成为当今大数据领域极为活跃和高效的大数据计算平台,是大数据产业中的一股不可或缺的力量。Spark提供了Java、Scala、Python和R的高级API,支持一组丰富的高级工具,包括使用SQL进行结构化数据处理的Spark SQL、用于机器学习的MLlib、用于图处理的GraphX,以及用于实时流处理的Spark Streaming。这些高级工具可以在同一个应用程序中无缝地组合,大大提高了开发效率,降低了开发难度。
很多互联网公司都使用Spark来实现公司的核心业务,例如阿里的云计算平台、京东的推荐系统等。只要和海量数据相关的领域,都有Spark的身影。
本书主要内容
本书基于Spark 3.2.x版本,涵盖了当前整个Spark生态系统主流的大数据开发技术。全书共9章,第1章讲解了Scala语言的基础知识,包括IDEA工具的使用等;第2章讲解了Spark的主要组件、集群架构原理、集群环境搭建以及Spark应用程序的提交和运行;第3~9章讲解了离线计算框架Spark RDD、Spark SQL和实时计算框架Kafka、Spark Streaming、Structured Streaming以及图计算框架GraphX等的基础知识、架构原理,同时包括常用Shell命令、API操作、内核源码剖析,并通过多个实际案例讲解各个框架的具体应用以及与Hadoop生态系统框架Hive、HBase、Kafka的整合操作。
本书以实操为主,理论为辅,大量案例均采用一步一步手把手的讲解方式,易于理解,很适合读者快速上手。通过对本书的学习,读者能够对Spark相关框架迅速理解并掌握,可以熟练使用Spark集成环境进行大数据项目的开发。
如何学习本书
本书推荐的阅读方式是按照章节顺序从头到尾完成阅读,因为后面的很多章节是以前面的章节为基础,而且这种一步一个脚印、由浅入深的方式将使你更加顺利地掌握Spark的开发技能。
学习本书时,首先学习第1章的Scala语言基础,在IDEA中编写Scala程序;然后学习第2章,掌握Spark的集群架构并搭建好Spark集群环境;最后依次学习第3~9章,学习每一章时先了解该章的基础知识和框架的架构原理,然后再进行Shell命令、API操作等实操练习,这样学习效果会更好。当书中的理论和实操知识都掌握后,可以进行举一反三,自己开发一个Spark应用程序,
或者将所学知识运用到自己的编程项目上,也可以到各种在线论坛与其他Spark爱好者进行交流,互帮互助。
本书适合的读者
本书主要适合下述人员学习:
Spark新手
大数据开发和运维人员
培训机构和各类院校的学生
配书资源
为方便读者掌握本书内容,本书提供了下述资源:
教学视频:本书提供了60多个教学视频,读者可以扫描本书提供的二维码即时观看。
源代码:免费提供本书所有案例的代码,读者可扫描下述二维码下载。
PPT课件:读者可以扫描本书的二维码下载PPT课件。
如果下载有问题,请发送邮件到booksaga@126.com,邮件主题为“Spark 3.x大数据分析实战(视频教学版)”。

虽然笔者已尽心竭力,但限于水平和时间原因,仍然难免存在谬误,恳请广大读者和业界专家不吝指正。读者若对书中讲解的知识有任何疑问,可关注微信公众号“奋斗在IT”获得解答。


张伟洋
2022年6月2日

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 香港用户  | 台灣用户 | 海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.