登入帳戶  | 訂單查詢  | 購物車/收銀台(0) | 在線留言板  | 付款方式  | 聯絡我們  | 運費計算  | 幫助中心 |  加入書簽
會員登入   新用戶註冊
HOME新書上架暢銷書架好書推介特價區會員書架精選月讀2023年度TOP分類閱讀雜誌 香港/國際用戶
最新/最熱/最齊全的簡體書網 品種:超過100萬種書,正品正价,放心網購,悭钱省心 送貨:速遞 / 物流,時效:出貨後2-4日

2024年10月出版新書

2024年09月出版新書

2024年08月出版新書

2024年07月出版新書

2024年06月出版新書

2024年05月出版新書

2024年04月出版新書

2024年03月出版新書

2024年02月出版新書

2024年01月出版新書

2023年12月出版新書

2023年11月出版新書

2023年10月出版新書

2023年09月出版新書

『簡體書』Spark Streaming技术内幕及源码剖析

書城自編碼: 2988517
分類: 簡體書→大陸圖書→計算機/網絡程序設計
作者: 王家林 夏阳
國際書號(ISBN): 9787302464914
出版社: 清华大学出版社
出版日期: 2017-04-01
版次: 1 印次: 1
頁數/字數: 251/264000
書度/開本: 16开 釘裝: 平装

售價:NT$ 353

我要買

share:

** 我創建的書架 **
未登入.



新書推薦:
女人的胜利
《 女人的胜利 》

售價:NT$ 254.0
数据有道:数据分析+图论与网络+微课+Python编程(鸢尾花数学大系:从加减乘除到机器学习)
《 数据有道:数据分析+图论与网络+微课+Python编程(鸢尾花数学大系:从加减乘除到机器学习) 》

售價:NT$ 1214.0
500万次倾听:陪伤心的人聊聊
《 500万次倾听:陪伤心的人聊聊 》

售價:NT$ 245.0
英国商业500年(见证大国崛起与企业兴衰,启迪未来商业智慧。)
《 英国商业500年(见证大国崛起与企业兴衰,启迪未来商业智慧。) 》

售價:NT$ 367.0
万千心理·儿童心理治疗中的心智化:临床实践指导
《 万千心理·儿童心理治疗中的心智化:临床实践指导 》

售價:NT$ 398.0
自我囚禁的人:完美主义的心理成因与自我松绑(破除你对完美主义的迷思,尝试打破自我评价过低与焦虑的恶性循环)
《 自我囚禁的人:完美主义的心理成因与自我松绑(破除你对完美主义的迷思,尝试打破自我评价过低与焦虑的恶性循环) 》

售價:NT$ 301.0
周易
《 周易 》

售價:NT$ 203.0
东南亚的传统与发展
《 东南亚的传统与发展 》

售價:NT$ 306.0

建議一齊購買:

+

NT$ 468
《 Spark:大数据集群计算的生产实践 》
+

NT$ 703
《 Apache Kafka源码剖析 》
+

NT$ 281
《 Spark Streaming:实时流处理入门与精通 》
+

NT$ 569
《 Spark GraphX实战 》
+

NT$ 713
《 图解Spark:核心技术与案例实战 》
+

NT$ 518
《 Kubernetes实战 》
編輯推薦:
全面透彻剖析Spark Streaming技术内幕和源码,并结合Spark Streaming调优实践的经验总结,适合所有大数据应用的技术管理和开发人员阅读。本书涵盖Spark Streaming的内部技术原理、源码分析、性能调优方法以及对未来Spark Streaming新版本的新功能分析。
內容簡介:
本书以大数据处理引擎Spark的稳定版本1.6.x为基础,从应用案例、原理、源码、流程、调
优等多个角度剖析Spark上的实时计算框架Spark Streaming。在勾勒出Spark Streaming架构轮廓的
基础上,从基本源码开始进行剖析,由浅入深地引导已具有Spark和Spark Streaming基础技术知识
的读者进行Spark Streaming的进阶学习,理解Spark Streaming的原理和运行机制,为流数据处理
的决策和应用提供了技术参考;结合Spark Streaming的深入应用的需要,对Spark Streaming的性
能调优进行了分析,也对Spark Streaming功能的改造和扩展提供了指导。
本书适合大数据领域CTO、架构师、高级软件工程师,尤其是Spark领域已有Spark Streaming
基础知识的从业人员阅读,也可供需要深入学习Spark、Spark Streaming的高校研究生和高年级本
科生参考。
關於作者:
王家林:中国著名的Spark培训专家,Apache Spark、Android 技术中国区布道师,DT大数据梦工厂创始人和首席专家,Android软硬整合专家。彻底研究了 Spark 从 0.5.0 到 2.1.0 中共 28个版本的 Spark 源码,目前致力于开发优化的 Spark 中国版本。尤其擅长 Spark 在生产环境下各种类型和场景故障的排除和解决,痴迷于 Spark 生产环境下任意类型例如 Shuffle 和各种内存问题及数据倾斜问题等的 Spark 程序的深度性能优化。从 2014 年 6 月 24 日起,已开启免费的 Spark 公开课《决胜大数据时代 Spark100 期公益大讲堂》。在 2015 年 6月 27 日成立 DT 大数据梦工厂,开启 IMFImpossible Mission Force行动,率先在全球开展以 Spark 为核心的,免费为社会培养 100 万企业级实战高级大数据人才行动计划,截止目前已有数千人参与到这个行动之中。
夏阳,系统架构师,从事平台和应用软件研发工作多年,行业阅历丰富,对行业技术发展有独到见解和精准判断,近几年先后就职于中创中间件公司、蚁坊软件公司、任子行网络技术股份有限公司,从事大数据相关的技术研发工作。对大数据处理、机器学习、图计算、文本处理等技术领域有丰富工作经验和浓厚兴趣。
目錄
第1章 Spark Streaming应用概述
1

1.1 Spark Streaming应用案例 2

1.2 Spark Streaming应用剖析 13

第2章 Spark Streaming基本原理
15

2.1 Spark Core简介 16

2.2 Spark Streaming设计思想 26

2.3 Spark Streaming整体架构 30

2.4 编程接口 33

第3章 Spark Streaming运行流程详解39

3.1 从StreamingContext的初始化到启动 40

3.2 数据接收 54

3.3 数据处理 91

3.4 数据清理 115

3.5 容错机制 127

3.5.1 容错原理 128

3.5.2 Driver容错机制 152

3.5.3 Executor容错机制 161

3.6 No Receiver方式 167

3.7 输出不重复 175

3.8 消费速率的动态控制 176

3.9 状态操作 189
3.10 窗口操作 212
3.11 页面展示 216
3.12 Spark Streaming应用程序的停止227
第4章Spark Streaming 性能调优机制237

4.1 并行度解析 238

4.1.1 数据接收的并行度 238
4.1.2 数据处理的并行度 240
4.2 内存240
4.3 序列化 240
4.4 Batch Interval 241
4.5 Task 242

4.6 JVM GC 242
第5章Spark 2.0中的流计算
245

5.1 连续应用程序 246

5.2 无边界表unbounded table 248
5.3 增量输出模式 249

5.4 API简化 250
5.5 其他改进 250
內容試閱
前 言
大数据浪潮汹涌来袭,这绝不仅仅是信息技术领域的革命,更是在全球范围引领社会变革的机遇。大数据的集群计算开源软件Spark在大数据计算平台应用领域日益凸显其重要地位。如果大数据技术领域从业人员的技术水平仍停留在只知使用开源软件,而不从开源软件的原理、架构上去理解,不到源码中去体会细节,则难以从根本上彻底解决现实工作中遇到的技术问题,更难以胜任大数据领域的技术创新工作。
可以预见,大数据的处理将越来越强调实时处理。Spark Streaming是建立在Spark上的实时计算框架,在Spark的各子框架中处于举足轻重的地位。彻底掌握 Spark Streaming的同时,也能加深对Spark Core技术的理解和掌握,还能具备开发同样高端的Spark应用程序的实力。对于有志向的Spark学习进阶者来说,深入了解Spark Streaming的源码是提高核心竞争力的捷径。
本书不仅对Spark Streaming的API做总结性介绍,而且重点针对Spark 1.6.x的SparkStreaming进行源码剖析。该书的开始部分对Spark的基本原理有一些阐述,但主要是彻底深入剖析Spark Streaming的内部原理。
读源码的人都怕自己走进大量源码的迷宫。为了提高源码学习效率,本书在剖析源码前,会对源码实现的功能的大致原理和流程轮廓进行介绍。书中有方便源码剖析的流程图,这对于理解和掌握Spark Streaming的各个功能非常重要。读者看到复杂的流程图时不一定要立刻全部理解掌握,但可以在源码学习过程中经常回过头来对照流程图以加深印象。
为了在书的页面内清晰展示复杂的流程图,书中绝大多数流程图采取了从上至下的树状结构来体现调用关系。每个方框中注明了类和方法,被其调用的类的方法会在下一行从左至右依次显示,调用和被调用的类方法间用有向线连接。有些方框上部会给出类的成员变量,其类型就是方框中指明的类。粗箭头不是表示调用关系,而是表示传递消息。
源码剖析过程中,源码中关键的类名、方法名、注释会以粗体显示,使读者清楚重点。读者应以粗体部分为重点进行阅读,其他部分可以粗略浏览。有些源码篇幅过大,可能会省略其中的部分代码,以突出当前读者需要阅读的源码主体。
王家林夏阳2017年2月27日于北京


第1章
Spark Streaming应用概述
2 Spark Streaming技术内幕及源码剖析Spark是一个类似于Hadoop的MapReduce的分布式计算框架,其核心是弹性分布式数据集(Resilient Distributed Dataset,RDD),提供了比MapReduce更丰富的模型,可以在内存中快速对数据集进行多次迭代,以支持复杂的数据挖掘算法和图形计算算法。Spark包含Spark Core、Spark SQL、Spark Streaming、MLlib、GraphX等主要部件,如图1-1所示。Spark SQLDataFramesSparkStreaming MLlibSpark CoreGraphX图1-1 Spark的主要部件其中的Spark Core包含Spark的基本功能,是核心的计算引擎,并定义了RDD的API。其他的Spark部件都是构建在Spark Core之上的。Spark Streaming 是建立在Spark 上的实时计算框架,提供了丰富的API,以支持Spark 处理大规模流式数据。这是一个流处理的时代。Spark十分强大的一个重要原因在于,它的流式处理可以在线使用图计算、机器学习或者SparkR的成果,这得益于Spark一体化、多元化的基础架构设计。在Spark Streaming 中可以调用Spark SQL 、MLlib 、GraphX 等其他子框架,无须任何设置。这是Spark无可匹敌之处。但Spark的应用中,Spark Streaming也是很容易出问题的。Spark Streaming与其他子框架不同之处在于,它更像是Spark Core之上的一个复杂应用程序。如果要做Spark的定制开发,Spark Streaming的剖析也会提供最好的参考。1.1 SparkStreaming应用案例Spark Streaming应用程序运行的时候,往往在短时间内会产生大量日志信息,不利于研究分析。可以通过加大批处理时间间隔(batch interval)来降低批处理频率,减少日志3
第1章 Spark Streaming应用概述
信息量,以便看清楚各个环节。
下面从一个Spark Streaming应用程序的开发入手,观察运行过程,以增强感性认识。以下是一个广告点击的在线黑名单过滤的Spark Streaming应用程序,程序中有详细注释,以方便初次接触Spark Streaming的读者理解。
源码1-1 OnlineBlackListFilter
package com.dt.spark.streaming
import org.apache.spark.SparkConf
import org.apache.spark.streaming.StreamingContext
import org.apache.spark.streaming.Seconds
object OnlineBlackListFilter {
def mainargs: Array[String]{
**
* 第1步:创建Spark的配置对象SparkConf,设置Spark程序的运行时的配置信息,
* 例如,通过setMaster来设置程序要链接的Spark集群的Master的URL,如果设置
* 为local,则代表Spark程序在本地运行,特别适合于机器配置条件非常差(例如
* 只有1GB内存)的初学者
*
创建SparkConf对象
val conf = new SparkConf
设置应用程序的名称,在程序运行的监控界面可以看到名称
conf.setAppName"OnlineBlackListFilter"
此时,程序在Spark集群
conf.setMaster"spark:Master:7077"
val ssc = new StreamingContextconf, Seconds30
**
* 黑名单数据准备。实际上黑名单一般都是动态的,例如在Redis或者数据库中
* 黑名单的生成往往有复杂的业务逻辑,具体情况算法不同
* 但是在Spark Streaming进行处理的时候每次都能够访问完整的信息
*
val blackList = Array"Spy", true,"Cheater", true
val blackListRDD = ssc.sparkContext.parallelizeblackList, 8
val adsClickStream = ssc.socketTextStream"Master", 9999
**
* 此处模拟的广告点击的每条数据的格式为:time、name
* 此处map操作的结果是name、(time,name)的格式
*
val adsClickStreamFormatted = adsClickStream.map { ads = ads.split""1, ads }
adsClickStreamFormatted.transformuserClickRDD = {
通过leftOuterJoin操作既保留了左侧用户广告点击内容的RDD的所有内容,
又获得了相应点击内容是否在黑名单中
val joinedBlackListRDD = userClickRDD.leftOuterJoinblackListRDD
**
* 进行filter过滤的时候,其输入元素是一个元组:(name,time,name, boolean)
* 其中,第一个元素是黑名单的名称
* 第二元素的第二个元素boolean是进行leftOuterJoin的时候是否存在的值。
* 如果存在,表明当前广告点击是黑名单,需要过滤掉,否则是有效点击内容
*
val validClicked = joinedBlackListRDD.filterjoinedItem = {
ifjoinedItem._2._2.getOrElsefalse
{
false
} else {
true
}
}
validClicked.mapvalidClick = {validClick._2._1}
}.print
ssc.start
ssc.awaitTermination
}
}
此程序接收Socket信息,过滤掉其中名称为Spy、Cheater的信息,并打印输出。
把程序的批处理时间间隔设置从30s改成300s:
val ssc = new StreamingContextconf, Seconds300
然后重新生成一下jar包。
Spark集群有5台机器:Master、Worker1、Worker2、Worker3、Worker4。
启动Spark的History Server。
打开数据发送的端口:
nc -lk 9999
用spark-submit运行前面生成的jar包。
在数据发送端口输入若干数据,例如:
1375864674543 Tom
1375864674553 Spy
1375864674571 Andy
1375864688436 Cheater
1375864784240 Kelvin
1375864853892 Steven
1375864979347 John
每行第一项为时刻的毫秒数,第二项是程序中要过滤的名称。
打开浏览器,看History Server的日志信息,如图1-2所示。
图中按时间顺序显示了曾经运行过的应用程序,第一列是App ID,有各应用程序执行信息的链接。
单击最新的应用,看目前运行的应用程序中有些什么Job,如图1-3所示。
这样一个Spark Streaming应用程序运行时总共有5个Job。
观察这些Job的内容,可以揭示一些现象。
Job 0不体现应用程序的业务逻辑代码,如图1-4所示。其实此Job是Spark Streaming出于对后面计算的负载均衡的考虑而产生的。
图1-2 History Server日志信息示例
图1-3 Spark Jobs页面示例
图1-4 Details for Job 0示例
Job 0包含Stage 0、Stage 1。随便看一个Stage,比如Stage 0,看看其中的AggregatedMetrics by Executor部分,如图1-5所示。
图1-5 Aggregated Metrics by Executor页面示例
因为是分布式环境做负载均衡,所以Job 0 的Stage 1是在4个Worker的Executor上运行。
Job 1的运行时间比较长,耗时1.5min,如图1-6所示。
图1-6 页面示例:Details for Job 1
单击Stage 2的链接,看看Aggregated Metrics By Executor部分,如图1-7所示。
图1-7 页面示例:Aggregated Metrics by Executor
可以知道,Stage 2只在Worker4上的一个Executor执行,而且执行了1.5min。
从业务处理的角度看,此前发送了很少的数据,这里却显示有一个运行1.5min的任务。这个任务是做什么呢?
从DAG Visualization部分可以知道此Job实际就是启动了一个接收数据的接收器(Receiver),如图1-8所示。
原来Receiver是通过一个Job来启动的。
Tasks部分如图1-9所示。

 

 

書城介紹  | 合作申請 | 索要書目  | 新手入門 | 聯絡方式  | 幫助中心 | 找書說明  | 送貨方式 | 付款方式 台灣用户 | 香港/海外用户
megBook.com.tw
Copyright (C) 2013 - 2024 (香港)大書城有限公司 All Rights Reserved.