-- 會員 / 註冊 --  
 帳號:
 密碼:
  | 註冊 | 忘記密碼
3/26 新書到! 3/19 新書到! 3/14 新書到! 12/12 新書到!
購書流程Q & A站務留言版客服信箱
3ds MaxMayaRhinoAfter EffectsSketchUpZBrushPainterUnity
PhotoShopAutoCadMasterCamSolidWorksCreoUGRevitNuke
C#CC++Java遊戲程式Linux嵌入式PLCFPGAMatlab
駭客資料庫搜索引擎影像處理FluentVR+ARANSYS深度學習
單晶片AVROpenGLArduinoRaspberry Pi電路設計CadenceProtel
HadoopPythonStm32CortexLabview手機程式AndroidiPhone
可查書名,作者,ISBN,3dwoo書號
詳細書籍分類

大數據處理框架Apache Spark設計與實現

( 簡體 字)
作者:許利杰,方亞芬類別:1. -> 程式設計 -> 綜合
譯者:
出版社:電子工業出版社大數據處理框架Apache Spark設計與實現 3dWoo書號: 53100
詢問書籍請說出此書號!

有庫存
NT售價: 530

出版日:7/1/2020
頁數:276
光碟數:0
站長推薦:
印刷:黑白印刷語系: ( 簡體 版 )
加入購物車 加到我的最愛
(請先登入會員)
ISBN:9787121391712
作者序 | 譯者序 | 前言 | 內容簡介 | 目錄 | 
(簡體書上所述之下載連結耗時費功, 恕不適用在台灣, 若讀者需要請自行嘗試, 恕不保證)
作者序:

譯者序:

前言:

近年來,大數據憑借其數據量大、數據類型多樣、產生與處理速度快、價值高的“4V”特性成為學術界和工業界的研究熱點。由于傳統軟件難以在可接受的時間范圍內處理大數據,所以學術界和工業界研發了許多分布式的大數據系統來解決大規模數據的存儲、處理、分析和挖掘等問題。
關于 Apach Spark
2003—2006 年,Google 在計算機系統領域會議 SOSP/OSDI 上發表了 Google File System、MapReduce、BigTable 3 篇重量級的系統論文,分別討論了大規模數據如何存儲、處理及結構化組織。之后,Apache Hadoop 社區對這些論文進行了開源實現,開發了HDFS 分布式文件系統、Hadoop MapReduce 大數據處理框架和 HBase 分布式 Key-Value數據庫,大大降低了大數據應用開發、運行及數據存儲管理的難度。這些系統被廣泛應用于互聯網、電信、金融、科研等領域,以進行大規模數據存儲與處理。對于大數據處理框架來說,MapReduce 成功地將函數式編程思想引入分布式數據處理中,僅僅用兩個函數(map() 和 reduce())就解決了一大類的大數據處理問題,而且不要求用戶熟悉分布式文件系統。然而,隨著大數據應用越來越多,處理性能的要求越來越高,MapReduce 的一些缺點也顯現出來。例如,MapReduce 編程模型的表達能力較弱,僅使用map() 和 reduce() 兩個函數難以實現復雜的數據操作;處理流程固定,不容易實現迭代計算;基于磁盤進行數據傳遞,效率較低。這些缺點導致使用 MapReduce 開發效率較低、執行復雜的數據處理任務的性能也不高。
為了解決這些問題,微軟在 2008—2009 年研發了 Dryad/DryadLINQ,其中 Dryad 類 似 MapReduce,但以有向無環圖(Directed Acycline Graph,DAG)形式的數據流取代了MapReduce 固定的 map-reduce 兩階段數據流,處理流程更通用,支持復雜的數據處理任務。DryadLINQ 為 Dryad 提供了高層編程語言,將更多的函數式編程思想(來源于 C# 的LINQ)引入編程模型中,表達能力更強,如容易實現 join() 等操作。然而,由于 Dryad/DryadLINQ 在當時沒有開源,所以沒有得到大規模使用。鑒于 MapReduce、Dryad 等框架存在一些問題,2012 年,UC Berkeley 的 AMPLab 研發并開源了新的大數據處理框架 Spark。其核心思想包括兩方面:一方面對大數據處理框架的輸入 / 輸出、中間數據進行建模,將這些數據抽象為統一的數據結構,命名為彈性分布式數據集(Resilient Distributed Dataset,RDD),并在此數據結構上構建了一系列通用
的數據操作,使得用戶可以簡單地實現復雜的數據處理流程;另一方面采用基于內存的數據聚合、數據緩存等機制來加速應用執行,尤其適用于迭代和交互式應用。Spark 采用EPFL 大學研發的函數式編程語言 Scala 實現,并且提供了 Scala、Java、Python、R 四種語言的接口,以方便開發者使用熟悉的語言進行大數據應用開發。
經過多年的發展,Spark 也與 Hadoop 一樣構建了完整的生態系統。Apache Spark 生態系統以 Spark 處理框架為核心,在上層構建了面向 SQL 語言的 Spark SQL 框架、面向大規模圖計算的 GraphX 框架、面向大規模機器學習的 MLlib 框架及算法庫,以及面向流處理的 Spark Streaming 框架;在下層,Spark 及其關聯社區也推出了相關存儲系統,如基于內存的分布式文件系統 Alluxio、支持 ACID 事務的數據湖系統 Delta Lake 等。由于整個Spark 生態系統中包含的系統和框架眾多,本書主要關注生態系統中核心的 Spark 處理框架本身。下面介紹本書的一些基本信息。
本書的寫作目的及面向的讀者
本書的寫作目的是以 Spark 框架為核心,總結大數據處理框架的設計和實現原理,包括框架設計中面臨的基本問題、可能的解決方案、Spark 采用的方案、具體實現方法,以及優缺點等。與機器學習等領域有成熟的理論模型不同,大數據處理框架并沒有一個完整的理論模型,但是具有一些系統設計模型及設計方案,如編程模型、邏輯處理流程、物理執行計劃及并行化方案等。這些模型及方案是研究人員和工程師在實踐中經過不斷探索和改進得到的實踐經驗。本書的目的是將這些寶貴經驗抽象總結為系統設計模型和方案,幫助讀者從理論層和實現層深入理解大數據處理框架,具體體現如下。
(1)幫助讀者理解 Spark 應用,以及與 Spark 關聯的上下層框架。Spark 等大數據處理框架只將數據接口和操作接口暴露給用戶,用戶一般不了解應用程序是如何被轉化為可分布執行任務的,以及任務是如何執行的。本書詳細總結了 Spark 框架將應用程序轉化為邏輯處理流程,并進一步轉化為物理執行計劃的一般過程。理解這個過程將幫助讀者理解更復雜的 Spark 應用,如在第 5 章中介紹的迭代型機器學習應用和圖計算應用。同時,理解 Spark 的設計與實現原理也有助于理解 Spark 生態圈中的上下層框架之間的關系,如Spark SQL、MLlib、GraphX 是如何利用 Spark 框架來執行 SQL、機器學習和圖計算任務的。
(2)幫助讀者開發性能更好、可靠性更高的大數據應用。用戶在運行大數據應用時,經常面臨應用執行效率低下、無響應、I/O 異常、內存溢出等性能和可靠性問題。本書講述了與 Spark 框架性能和可靠性相關的 Shuffle 機制、數據緩存機制、錯誤容忍機制、內存管理機制等。理解 Spark 應用性能和可靠性的影響因素,幫助讀者在運行 Spark 應用時進行參數調優,有助于更好地利用數據緩存來提升應用性能,同時合理利用數據持久化機制來減少執行錯誤、內存溢出等可靠性問題。
(3)幫助讀者對 Spark 等大數據框架進行進一步優化和改進。在實際使用大數據處理框架的過程中,開發者經常會因為軟硬件環境、數據特征、應用邏輯、執行性能的特殊需求,需要對 Spark 框架的部分功能進行優化改進。例如,在內存較小的集群上運行需要對內存管理進行改進,經常出現網絡阻塞時需要對 Shuffle 機制進行改進,針對一些特殊應用需要開發新的數據操作等。要對 Spark 框架進行改進,不僅需要非常了解 Spark 框架的設計和實現原理,還需要清楚改進后可能出現的正確性和可靠性問題。本書對 Spark 設計和實現過程中的問題挑戰、解決方案、優缺點的闡述將幫助開發者和研究人員對框架進行優化改進。
因此,我們相信,本書對于大數據處理框架的用戶、開發者和研究人員都會有一定的幫助。
本書的主要內容
本書主要介紹 Apache Spark 大數據處理框架的設計和實現原理,附帶討論與 Hadoop MapReduce 等框架的優缺點對比。全書分 9 章,主要包含以下四部分內容。第一部分 大數據處理框架的基礎知識。第 1 章介紹大數據處理框架的基本概念、系統架構,以及與其相關的研究工作。第 2 章概覽 Spark 的系統架構、編程模型,并以一個典型的 Spark 應用為例概述 Spark 應用的執行流程。Spark 初學者可以直接從第 2 章開始閱讀。
第二部分 Spark 大數據處理框架的核心理論。該部分包括兩章,主要介紹 Spark 如何將應用程序轉化為可以分布執行的計算任務。其中,第 3 章介紹 Spark 將應用程序轉化為邏輯處理流程的一般過程及方法,并對常用的數據操作進行詳細分析。第 4 章討論 Spark將邏輯處理流程轉化為物理執行計劃的一般過程及方法,以及常用的數據操作形成的計算任務。
第三部分 典型的 Spark 應用。第 5 章介紹復雜的迭代型 Spark 應用,包括迭代型機器學習應用和圖計算應用,以及這些應用的并行化方法。這些應用也進一步驗證了 Spark框架的通用性。
第四部分 大數據處理框架性能和可靠性保障機制。該部分主要探究 Spark 框架性能和可靠性相關的技術,其中包括第 6 章的 Shuffle 機制、第 7 章的數據緩存機制、第 8 章的錯誤容忍機制及第 9 章的內存管理機制。
本書特點
本書注重設計原理和實現方案的闡述,寫作方式考慮了技術深度、研究價值、易讀性等因素,具體特點如下。
(1)采用問題驅動的闡述方式。本書在章節開頭或者中間引入 Spark 設計和實現過程中面臨的挑戰性問題(Problems),然后將這些問題拆分為子問題逐步深入討論可能的解決方案(Potential Solutions),最后介紹為什么 Spark 會使用當前的解決方案(Why)及具體是如何實現的(How)。這種表述方式可以讓讀者“知其然”,并且“知其所以然”,也就是讓讀者既從使用者角度又從設計者角度來理解大數據處理框架中的基本問題、基本設計方法及實現思想。
(2)強調基本原理的闡述。本書著重介紹 Spark 設計和實現的基本原理,不具體展示代碼實現的細節。這樣做的第一個原因是,其基本原理是對代碼的高層抽象,對大數據框架的用戶、開發者和研究人員來說,原理更重要、更容易理解。第二個原因是,代碼在不斷優化更新,而基本原理比較穩定。本書也可以看作從 Spark 代碼中抽象出概要設計和詳細設計。
(3)圖文并茂,容易理解。本書將復雜的設計和實現邏輯抽象為圖例,并通過文字描述和實例來方便讀者理解復雜的設計方案和執行過程。對于一些復雜的問題,本書還進行了分類討論,使技術內容更具有邏輯性、更容易被理解。
(4)具有一定的學術研究價值。本書討論了 Spark 設計與實現過程中存在的一些挑戰性問題及當前解決方案的不足,同時也探討了一些相關的研究工作,并在必要時與Hadoop 進行了對比。這些討論將有助于讀者研究和優化改進大數據處理框架。
Spark 版本與 API 問題
本書以 Spark 2.4.3 版和 RDD API 為基礎進行編寫。實際上,從 Spark 2.0 版到未來的Spark 3.0 版,Spark 社區推薦用戶使用 DataSet、DataFrame 等面向結構化數據的高層 API(Structured API)來替代底層的 RDD API,因為這些高層 API 包含更多的數據類型信息(Schema),支持 SQL 操作,并且可以利用經過高度優化的 Spark SQL 引擎來執行。然而,由于以下幾個原因,本書使用 RDD API 來探討 Spark 的設計原理和實現。
(1)RDD API 更基礎,更適合分析大數據處理框架中的一些基本問題和原理。相比DataSet、DataFrame 數據結構,RDD API 的數據結構更簡單和通用,更適合用來展示一些基本概念和原理,如數據分區方法、每個數據操作的執行過程(生成什么樣的 RDD API、建立什么樣的數據依賴關系),以及執行階段劃分方法、任務劃分方法等。而且,RDD API 包含更多的數據操作類型,可以用來展示更豐富的數據依賴關系、邏輯處理流程等。
(2)學習 RDD API 及其執行原理,幫助讀者理解高層 API 和 Spark SQL 執行引擎。由于 Spark SQL 執行引擎采用了許多數據庫、分布式系統、編譯等領域的優化技術,其將應用程序(使用 DataSet/DataFrame API 編寫)轉化為物理執行計劃的過程比較復雜。本書講解了“RDD API 應用程序-邏輯處理流程-物理執行計劃”的基本轉化過程,幫助讀者進一步學習和理解更復雜的 Spark SQL 轉化過程。讀者可以參閱 Bill Chambers 和 Matei Zaharia 合著的 Spark: The Definitive Guide,學習 DataSet、DataFrame API 的具體使用方法,也可以參閱朱鋒、張韶全、黃明合著的《Spark SQL 內核剖析》,進一步學習 Spark SQL引擎的執行過程和具體實現。
(3)上層框架(如 MLlib、GraphX)中有很多代碼使用 RDD API,學習原生的 RDD API 有助于在分布式層面理解數據和計算的抽象表達,也有助于理解圖計算應用和機器學習應用中的數據分區(如邊劃分、點劃分),以及計算任務劃分方法(如數據并行等)。
另外,在未來的 Spark 3.0 版本中還會有一些新的特性,如支持 GPU 調度、SQL 自適大數據處理框架應查詢執行等。如果有機會,我們會在本書的下一版中探討更多關于 Spark SQL 執行引擎的設計原理,以及這些新特性。
與 SparkInternals 技術文檔的關系
有些讀者可能看過我們在 2015 年撰寫并在 GitHub 上公開的 SparkInternals 技術文檔。該文檔介紹了 Spark 1.0 與 Spark 2.0 版本的設計原理和實現,迄今已收到 4000 多顆 stars、1500 次 forks,也被翻譯為英文、日文和泰文,受到很多大數據工程師和研究人員的關注。
不過,SparkInternals 技術文檔中總結的設計原理不夠完整和深入,而且后幾章中涉及的實現細節也較多(包含一些實現細節代碼)。由于這本書的目的是總結設計原理和實現,所以并沒有使用太多 SparkInternals 技術文檔中的內容,而是按照“問題-解決方案- Spark采用的方案-實現-優缺點”的邏輯重新撰寫了相關章節,只是使用了 SparkInternals 技術文檔中的部分圖例。當然,如果讀者想要了解一些實現細節和代碼,也可將 SparkInternals技術文檔作為本書的補充資料。
我們在 GitHub 上建立了一個名為 ApacheSparkBook 的公開項目,將本書設計的示例代碼和高清圖片放到了項目中。
讀者可以在項目中進行提問,方便我們解答問題或勘誤。由于作者水平和經驗有限,本書的錯漏和不足之處歡迎廣大讀者朋友批評指正,可以將意見提交到 GitHub 項目中或者通過電子郵件聯系作者。在本書寫作過程中,作者得到了所在單位(中國科學院軟件研究所)諸多老師的關注和支持,在此感謝魏峻、武延軍、王偉等老師提供的科研工作環境。作者的研究工作受到國家自然科學基金(61802377),以及中國科學院青年創新促進會的項目支持。
感謝參與本書初稿討論和審閱的各位朋友,包括亞馬遜的紀樹平博士、騰訊的朱鋒博士、阿里巴巴的沈雯婷、中國科學院軟件研究所的李慧、王棟、葉星彤、康鍇等同學,以及 Databricks 的 Xiao Li 博士及其團隊。同時,也感謝廣大讀者對 GitHub 上 SparkInternals技術文檔的支持和反饋意見。
電子工業出版社的孫學瑛編輯及其團隊在本書的審校、排版、出版發行過程中付出了巨大努力,在此表示由衷感謝!
最后,感謝家人及朋友對作者一如既往的支持。
內容簡介:

(全彩)
近年來,以Apache Spark為代表的大數據處理框架在學術界和工業界得到了廣泛的使用。本書以Apache Spark框架為核心,總結了大數據處理框架的基礎知識、核心理論、典型的Spark應用,以及相關的性能和可靠性問題。本書分9章,主要包含四部分內容。第一部分 大數據處理框架的基礎知識(第1∼2章):介紹大數據處理框架的基本概念、系統架構、編程模型、相關的研究工作,并以一個典型的Spark應用為例概述Spark應用的執行流程。第二部分 Spark大數據處理框架的核心理論(第3∼4章):介紹Spark框架將應用程序轉化為邏輯處理流程,進而轉化為可并行執行的物理執行計劃的一般過程及方法。第三部分 典型的Spark應用(第5章):介紹迭代型的Spark機器學習應用和圖計算應用。第四部分 大數據處理框架性能和可靠性保障機制(第6∼9章):介紹Spark框架的Shuffle機制、數據緩存機制、錯誤容忍機制、內存管理機制等。


目錄:

第 1 章 大數據處理框架概覽 ...2
1.1 大數據及其帶來的挑戰 ..........2
1.2 大數據處理框架 ....3
1.3 大數據應用及編程模型 ..........4
1.4 大數據處理框架的四層結構 ..5
1.4.1 用戶層 ..... 7
1.4.2 分布式數據并行處理層 ...11
1.4.3 資源管理與任務調度層 .. 13
1.4.4 物理執行層 .... 15
1.5 錯誤容忍機制 ......17
1.6 其他大數據處理框架 ...18
1.7 本章小結 .....18
1.8 擴展閱讀 .....18
第 2 章 Spark 系統部署與應用運行的基本流程 ..........20
2.1 Spark 安裝部署 ...20
2.2 Spark 系統架構 ...21
2.3 Spark 應用例子 ...24
2.3.1 用戶代碼基本邏輯 .......... 24
2.3.2 邏輯處理流程 ......... 28
2.3.3 物理執行計劃 ......... 32
2.3.4 可視化執行過程 ..... 34
2.4 Spark 編程模型 ...38
2.5 本章小結 .....39
第 3 章 Spark 邏輯處理流程 ..........41
3.1 Spark 邏輯處理流程概覽 .....41
3.2 Spark 邏輯處理流程生成方法 ......43
3.2.1 根據應用程序如何產生 RDD,產生什么樣的 RDD ....... 44
3.2.2 如何建立 RDD 之間的數據依賴 關系...... 44
3.2.3 如何計算 RDD 中的數據 ........ 49
3.3 常用 transformation() 數據操作 ....50
3.4 常用 action() 數據操作 .........86
3.5 對比 MapReduce,Spark 的優缺點....98
3.6 本章小結 .....99
3.7 擴展閱讀 ...100
第 4 章 Spark 物理執行計劃 ........101
4.1 Spark 物理執行計劃概覽 ...101
4.2 Spark 物理執行計劃生成方法 ....105
4.3 常用數據操作生成的物理執行計劃..113
4.4 本章小結 ...121
4.5 擴展閱讀 ...121
第 5 章 迭代型 Spark 應用 ..123
5.1 迭代型 Spark 應用的分類及特點..123
5.2 迭代型機器學習應用 SparkLR ...124
5.2.1 應用描述 ..... 124
5.2.2 算法原理 ..... 125
5.2.3 基于 Spark 的并行化實現 ..... 129
5.2.4 深入討論 ...... 131
5.3 迭代型機器學習應用——廣義 線性模型...132
5.3.1 算法原理 ...... 132
5.3.2 基于 Spark 的并行化實現 ..... 136
5.3.3 深入討論 ...... 139
5.4 迭代型圖計算應用——PageRank ..140
5.4.1 應用描述 ...... 140
5.4.2 基于 Spark 的并行化實現 ..... 143
5.4.3 深入討論 ...... 149
5.5 本章小結 ...151
第 6 章 Shuffle 機制 ...153
6.1 Shuffle 的意義及設計挑戰 ..........153
6.2 Shuffle 的設計思想 ....155
6.2.1 解決數據分區和數據聚合問題 .... 156
6.2.2 解決 map() 端 combine問題 .... 158
6.2.3 解決 sort 問題 ....... 158
6.2.4 解決內存不足問題 ........ 159
6.3 Spark 中 Shuffle 框架的設計 .......160
6.3.1 Shuffle Write 框架設計和實現 .... 161
6.3.2 Shuffle Read 框架設計和實現 .... 166
6.4 支持高效聚合和排序的數據 結構..170
6.4.1 AppendOnlyMap 的原理 ........ 171
6.4.2 ExternalAppendOnlyMap ...... 173
6.4.3 PartitionedAppendOnlyMap ... 176
6.4.4 PartitionedPairBuffer ..... 176
6.5 與 Hadoop MapReduce 的 Shuffle 機制對比...177
6.6 本章小結 ...179
第 7 章 數據緩存機制 .........180
7.1 數據緩存的意義 .........180
7.2 數據緩存機制的設計原理 ..181
7.2.1 決定哪些數據需要被緩存 ..... 181
7.2.2 包含數據緩存操作的邏輯處理流程和物理執行計劃 .... 184
7.2.3 緩存級別 ...... 186
7.2.4 緩存數據的寫入方法 .... 189
7.2.5 緩存數據的讀取方法 .... 191
7.2.6 用戶接口的設計 ... 192
7.2.7 緩存數據的替換與回收方法 .... 193
7.3 與 Hadoop MapReduce 的緩存機制進行對比....197
7.4 本章小結 ...198
第 8 章 錯誤容忍機制 .........199
8.1 錯誤容忍機制的意義及挑戰 .......199
8.2 錯誤容忍機制的設計思想 ..201
8.3 重新計算機制 ....201
8.3.1 重新計算是否能夠得到與之前一樣的結果 .......... 202
8.3.2 從哪里開始重新計算 .... 204
8.3.3 重新計算機制小結 ........ 207
8.4 checkpoint 機制的設計與實現 ....207
8.4.1 哪些數據需要使用 checkpoint機制 .... 207
8.4.2 checkpoint 數據的寫入及接口 .... 210
8.4.3 checkpoint 時機及計算順序 ... 212
8.4.4 checkpoint 數據的讀取 .......... 213
8.4.5 checkpoint 數據寫入和讀取的實現細節 ..... 213
8.4.6 checkpoint 語句位置的影響.... 216
8.4.7 cache + checkpoint ......... 220
8.5 checkpoint 與數據緩存的區別 ....225
8.6 本章小結 ...226
第 9 章 內存管理機制 .........227
9.1 內存管理機制問題及挑戰 ..227
9.2 應用內存消耗來源及影響因素 ...228
9.2.1 內存消耗來源 1:用戶代碼 .... 229
9.2.2 內存消耗來源 2:Shuffle 機制中產生的中間數據 ....... 230
9.2.3 內存消耗來源 3:緩存數據 .... 231
9.3 Spark 框架內存管理模型 ...232
9.3.1 靜態內存管理模型 ........ 233
9.3.2 統一內存管理模型 ........ 234
9.4 Spark 框架執行內存消耗與管理..237
9.4.1 Shuffle Write 階段內存消耗及管理 .... 239
9.4.2 Shuffle Read 階段內存消耗及管理 .... 245
9.5 數據緩存空間管理 .....249
9.5.1 RDD 緩存數據 ..... 250
9.5.2 廣播數據 ...... 253
9.5.3 task 的計算結果 ... 254
9.6 本章小結 ...256
參考文獻 ....258
序: