本期內(nèi)容:
1. Spark Streaming架構(gòu)
2. Spark Streaming運行機制
Spark大數(shù)據(jù)分析框架的核心部件: spark Core、spark Streaming流計算、GraphX圖計算、MLlib機器學習、Spark SQL、Tachyon文件系統(tǒng)、SparkR計算引擎等主要部件.
Spark Streaming 其實是構(gòu)建在spark core之上的一個應用程序,要構(gòu)建一個強大的Spark應用程序 ,spark Streaming是一個值得借鑒的參考,spark Streaming涉及多個job交叉配合,基本涉及到了spark的所有的核心組件,精通掌握spark streaming是至關(guān)重要的。
Spark Streaming基礎(chǔ)概念理解:
1. 離散流:(Discretized Stream ,DStream):這是spark streaming對內(nèi)部的持續(xù)的實時數(shù)據(jù)流的抽象描述,也即我們處理的一個實時數(shù)據(jù)流,在spark streaming中對應一個DStream ;
2. 批數(shù)據(jù):將實時流時間以時間為單位進行分批,將數(shù)據(jù)處理轉(zhuǎn)化為時間片數(shù)據(jù)的批處理;
3. 時間片或者批處理時間間隔:邏輯級別的對數(shù)據(jù)進行定量的標準,以時間片作為拆分流數(shù)據(jù)的依據(jù);
4. 窗口長度:一個窗口覆蓋的流數(shù)據(jù)的時間長度。比如說要每隔5分鐘統(tǒng)計過去30分鐘的數(shù)據(jù),窗口長度為6,因為30分鐘是batch interval 的6倍;
5. 滑動時間間隔:比如說要每隔5分鐘統(tǒng)計過去30分鐘的數(shù)據(jù),窗口時間間隔為5分鐘;
6. input DStream :一個inputDStream是一個特殊的DStream 將spark streaming連接到一個外部數(shù)據(jù)源來讀取數(shù)據(jù)。
7. Receiver :長時間(可能7*24小時)運行在Excutor之上,每個Receiver負責一個inuptDStream (比如讀取一個kafka消息的輸入流)。每個Receiver,加上inputDStream 會占用一個core/slot ;
Spark Core處理的每一步都是基于RDD的,RDD之間有依賴關(guān)系。下圖中的RDD的DAG顯示的是有3個Action,會觸發(fā)3個job,RDD自下向上依賴,RDD產(chǎn)生job就會具體的執(zhí)行。從DSteam Graph中可以看到,DStream的邏輯與RDD基本一致,它就是在RDD的基礎(chǔ)上加上了時間的依賴。RDD的DAG又可以叫空間維度,也就是說整個Spark Streaming多了一個時間維度,也可以成為時空維度。
從這個角度來講,可以將Spark Streaming放在坐標系中。其中Y軸就是對RDD的操作,RDD的依賴關(guān)系構(gòu)成了整個job的邏輯,而X軸就是時間。隨著時間的流逝,固定的時間間隔(Batch Interval)就會生成一個job實例,進而在集群中運行。
對于Spark Streaming來說,當不同的數(shù)據(jù)來源的數(shù)據(jù)流進來的時候,基于固定的時間間隔,會形成一系列固定不變的數(shù)據(jù)集或event集合(例如來自flume和kafka)。而這正好與RDD基于固定的數(shù)據(jù)集不謀而合,事實上,由DStream基于固定的時間間隔行程的RDD Graph正是基于某一個batch的數(shù)據(jù)集的。
從上圖中可以看出,在每一個Batch上,空間維度的RDD依賴關(guān)系都是一樣的,不同的是這個五個Batch流入的數(shù)據(jù)規(guī)模和內(nèi)容不一樣,所以說生成的是不同的RDD依賴關(guān)系的實例,所以說RDD的Graph脫胎于DStream的Graph,也就是說DStream就是RDD的模板,不同的時間間隔,生成不同的RDD Graph實例。
從源碼解讀DStream :
從這里可以看出,DStream就是Spark Streaming的核心,就想Spark Core的核心是RDD,它也有dependency和compute。更為關(guān)鍵的是下面的代碼:
這是一個HashMap,以時間為key,以RDD為Value,這也正應證了隨著時間流逝,不斷的生成RDD,產(chǎn)生依賴關(guān)系的job,并通過JbScheduler在集群上運行。再次驗證了DStream就是RDD的模版。
DStream可以說是邏輯級別的,RDD就是物理級別的,DStream所表達的最終都是通過RDD的轉(zhuǎn)化實現(xiàn)的。前者是更高級別的抽象,后者是底層的實現(xiàn)。DStream實際上就是在時間維度上對RDD集合的封裝,DStream與RDD的關(guān)系就是隨著時間流逝不斷的產(chǎn)生RDD,對DStream的操作就是在固定時間上操作RDD。
總結(jié):
在空間維度上的業(yè)務邏輯作用于DStream,隨著時間的流逝,每個Batch Interval形成了具體的數(shù)據(jù)集,產(chǎn)生了RDD,對RDD進行Transform操作,進而形成了RDD的依賴關(guān)系RDD DAG,形成Job。然后JobScheduler根據(jù)時間調(diào)度,基于RDD的依賴關(guān)系,把作業(yè)發(fā)布到Spark Cluster上去運行,不斷的產(chǎn)生Spark作業(yè)。
備注:
資料來源于:DT_大數(shù)據(jù)夢工廠
更多私密內(nèi)容,請關(guān)注微信公眾號:DT_Spark
新浪微博:http://www.weibo.com/ilovepains
如果您對大數(shù)據(jù)Spark感興趣,可以免費聽由王家林老師每天晚上20:00開設(shè)的Spark永久免費公開課,地址YY房間號:68917580