熱線電話:13121318867

登錄
首頁精彩閱讀Apache Spark源碼走讀_數據分析師
Apache Spark源碼走讀_數據分析師
2014-12-14
收藏

Apache Spark源碼走讀_數據分析師

Spark是發源于美國加州大學伯克利分校AMPLab的集群計算平臺,它立足于內存計算,性能超過Hadoop百倍,即使使用磁盤,迭代類型的計算也會有10倍速度的提升。Spark從多迭代批量處理出發,兼收并蓄數據倉庫、流處理和圖計算等多種計算范式,是罕見的全能選手。Spark當下已成為Apache基金會的頂級開源項目,擁有著龐大的社區支持——活躍開發者人數已超過Hadoop MapReduce)。這里,我們為大家分享許鵬的“Apache Spark源碼走讀”系列博文,從源碼方面對這個流行大數據計算框架進行深度了解。

  以下為博文

  楔子

  源碼閱讀是一件非常容易的事,也是一件非常難的事。容易的是代碼就在那里,一打開就可以看到。難的是要通過代碼明白作者當初為什么要這樣設計,設計之初要解決的主要問題是什么。

  在對Spark的源碼進行具體的走讀之前,如果想要快速對Spark的有一個整體性的認識,閱讀Matei Zaharia做的Spark論文是一個非常不錯的選擇。

  在閱讀該論文的基礎之上,再結合Spark作者在2012 Developer Meetup上做的演講Introduction to Spark Internals,那么對于Spark的內部實現會有一個比較大概的了解。

  有了上述的兩篇文章奠定基礎之后,再來進行源碼閱讀,那么就會知道分析的重點及難點。

  基本概念(Basic Concepts)

  1. RDD——Resillient Distributed Dataset 彈性分布式數據集。

  2. Operation——作用于RDD的各種操作分為transformation和action。

  3. Job——作業,一個JOB包含多個RDD及作用于相應RDD上的各種operation。

  4. Stage——一個作業分為多個階段。

  5. Partition——數據分區, 一個RDD中的數據可以分成多個不同的區。

  6. DAG——Directed Acycle graph,有向無環圖,反應RDD之間的依賴關系。

  7. Narrow dependency——窄依賴,子RDD依賴于父RDD中固定的data partition。

  8. Wide Dependency——寬依賴,子RDD對父RDD中的所有data partition都有依賴。

  9. Caching Managenment——緩存管理,對RDD的中間計算結果進行緩存管理以加快整體的處理速度。

  編程模型(Programming Model)

  RDD是只讀的數據分區集合,注意是數據集。

  作用于RDD上的Operation分為transformantion和action。 經Transformation處理之后,數據集中的內容會發生更改,由數據集A轉換成為數據集B;而經Action處理之后,數據集中的內容會被歸約為一個具體的數值。

  只有當RDD上有action時,該RDD及其父RDD上的所有operation才會被提交到cluster中真正的被執行。

  從代碼到動態運行,涉及到的組件如下圖所示。

  演示代碼

  運行態(Runtime view)

  不管什么樣的靜態模型,其在動態運行的時候無外乎由進程,線程組成。

  用Spark的術語來說,static view稱為dataset view,而dynamic view稱為parition view。關系如圖所示

  在Spark中的task可以對應于線程,worker是一個個的進程,worker由driver來進行管理。

  那么問題來了,這一個個的task是如何從RDD演變過來的呢?下節將詳細回答這個問題。

  部署(Deployment view)

  當有Action作用于某RDD時,該action會作為一個job被提交。

  在提交的過程中,DAGScheduler模塊介入運算,計算RDD之間的依賴關系。RDD之間的依賴關系就形成了DAG。

  每一個JOB被分為多個stage,劃分stage的一個主要依據是當前計算因子的輸入是否是確定的,如果是則將其分在同一個stage,避免多個stage之間的消息傳遞開銷。

  當stage被提交之后,由taskscheduler來根據stage來計算所需要的task,并將task提交到對應的worker。

  Spark支持以下幾種部署模式,Standalone、Mesos和YARN。這些部署模式將作為taskscheduler的初始化入參。

  RDD接口(RDD Interface)

  RDD由以下幾個主要部分組成

  partitions——partition集合,一個RDD中有多少data partition

  dependencies——RDD依賴關系

  compute(parition)——對于給定的數據集,需要作哪些計算

  preferredLocations——對于data partition的位置偏好

  partitioner——對于計算出來的數據結果如何分發

  緩存機制(caching)

  RDD的中間計算結果可以被緩存起來,緩存先選Memory,如果Memory不夠的話,將會被寫入到磁盤中。

  根據LRU(last-recent update)來決定哪先內容繼續保存在內存,哪些保存到磁盤。

  容錯性(Fault-tolerant)

  從最初始的RDD到衍生出來的最后一個RDD,中間要經過一系列的處理。那么如何處理中間環節出現錯誤的場景呢?

  Spark提供的解決方案是只對失效的data partition進行事件重演,而無須對整個數據全集進行事件重演,這樣可以大大加快場景恢復的開銷。

  RDD又是如何知道自己的data partition的number該是多少?如果是HDFS文件,那么HDFS文件的block將會成為一個重要的計算依據。

  集群管理(cluster management)

  task運行在cluster之上,除了Spark自身提供的Standalone部署模式之外,Spark還內在支持Yarn和mesos。

  Yarn來負責計算資源的調度和監控,根據監控結果來重啟失效的task或者是重新distributed task一旦有新的node加入cluster的話。本文:CDA數據分析師官網

  這一部分的內容需要參Yarn的文檔。

  小結

  在源碼閱讀時,需要重點把握以下兩大主線。

  靜態view 即 RDD,transformation and action

  動態view 即 life of a job, 每一個job又分為多個stage,每一個stage中可以包含多個rdd及其transformation,這些stage又是如何映射成為task被distributed到cluster中

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢