spark架構(gòu)與作業(yè)執(zhí)行流程

spark相關(guān)術(shù)語

  1. Application
    指的是用戶編寫的Spark應(yīng)用程序,包含了一個Driver 功能的代碼和分布在集群中多個節(jié)點上運行的Executor代碼;

  2. Driver
    Spark中的Driver即運行上述Application的main()函數(shù)并且創(chuàng)建SparkContext,其中創(chuàng)建SparkContext的目的是為了準備Spark應(yīng)用程序的運行環(huán)境。在Spark中由SparkContext負責(zé)和ClusterManager通信,進行資源的申請、任務(wù)的分配和監(jiān)控等;當(dāng)Executor部分運行完畢后,Driver負責(zé)將SparkContext關(guān)閉。通常用SparkContext代表Driver;

  3. Executor
    Application運行在Worker 節(jié)點上的一個進程,該進程負責(zé)運行Task,并且負責(zé)將數(shù)據(jù)存在內(nèi)存或者磁盤上,每個Application都有各自獨立的一批Executor。

  4. Cluster Manager
    指的是在集群上獲取資源的外部服務(wù),目前有3種方式

  5. Worker
    集群中任何可以運行Application代碼的節(jié)點。

  6. Job
    包含多個Task組成的并行計算,往往由Spark Action催生,一個JOB包含多個RDD及作用于相應(yīng)RDD上的各種Operation;

  7. stage
    每個Job會被拆分很多組Task,每組任務(wù)被稱為Stage,也可稱TaskSet,一個作業(yè)分為多個階段;

  8. Task
    被送到某個Executor上的工作任務(wù);


    111609254102564.gif

Spark集群模式架構(gòu)

集群架構(gòu)圖

上圖中,Spark集群Cluster Manager目前支持如下三種模式:
1.Standalone模式
Standalone模式是Spark內(nèi)部默認實現(xiàn)的一種集群管理模式,這種模式是通過集群中的Master來統(tǒng)一管理資源,而與Master進行資源請求協(xié)商的是Driver內(nèi)部的StandaloneSchedulerBackend(實際上是其內(nèi)部的StandaloneAppClient真正與Master通信),后面會詳細說明。
2.YARN模式
YARN模式下,可以將資源的管理統(tǒng)一交給YARN集群的ResourceManager去管理,選擇這種模式,可以更大限度的適應(yīng)企業(yè)內(nèi)部已有的技術(shù)棧,如果企業(yè)內(nèi)部已經(jīng)在使用Hadoop技術(shù)構(gòu)建大數(shù)據(jù)處理平臺。
3.Mesos模式
隨著Apache Mesos的不斷成熟,一些企業(yè)已經(jīng)在嘗試使用Mesos構(gòu)建數(shù)據(jù)中心的操作系統(tǒng)(DCOS),Spark構(gòu)建在Mesos之上,能夠支持細粒度、粗粒度的資源調(diào)度策略(Mesos的優(yōu)勢),也可以更好地適應(yīng)企業(yè)內(nèi)部已有技術(shù)棧。

1.基于standalone模式下的spark架構(gòu)

1.1 角色介紹
  • Client:客戶端進程,負責(zé)提交作業(yè)到Master。
  • Master:Standalone模式中主控節(jié)點,負責(zé)接收Client提交的作業(yè),管理Worker,并命令Worker啟動Driver和Executor。
  • Worker:Standalone模式中slave節(jié)點上的守護進程,負責(zé)管理本節(jié)點的資源,定期向Master匯報心跳,接收Master的命令,啟動Driver和Executor。
  • Driver: 一個Spark作業(yè)運行時包括一個Driver進程,也是作業(yè)的主進程,負責(zé)作業(yè)的解析、生成Stage并調(diào)度Task到Executor上。包括DAGScheduler,TaskScheduler。
  • Executor:即真正執(zhí)行作業(yè)的地方,一個集群一般包含多個Executor,每個Executor接收Driver的命令Launch Task,一個Executor可以執(zhí)行一到多個Task。
1.2作業(yè)相關(guān)的名詞
  • Stage:一個Spark作業(yè)一般包含一到多個Stage。
  • Task:一個Stage包含一到多個Task,通過多個Task實現(xiàn)并行運行的功能。
  • DAGScheduler: 實現(xiàn)將Spark作業(yè)分解成一到多個Stage,每個Stage根據(jù)RDD的Partition個數(shù)決定Task的個數(shù),然后生成相應(yīng)的Task set放到TaskScheduler中。
  • TaskScheduler:實現(xiàn)Task分配到Executor上執(zhí)行。
1.3 提交作業(yè)的方式

提交作業(yè)有兩種方式分別是:

  1. Driver運行在Worker上(作業(yè)的master,負責(zé)作業(yè)的解析、生成stage并調(diào)度task到,包含DAGScheduler)
  2. Driver運行在client上 。
方式1:Driver運行在Worker上
111334483727486.png
方式2:Driver運行在Client上
111334487788428.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容