spark 運行架構(gòu)

1.為應(yīng)用構(gòu)建基本運行環(huán)境,Driver 創(chuàng)建SparkContext進行資源的申請,任務(wù)的分配,監(jiān)控。
2.ClusterManager為Executor分配資源,并且啟動Executor。
3.SparkContext根據(jù)Rdd的依賴關(guān)系構(gòu)建DAG圖,DAG圖提交給DAGScheduler解析為Stage,然后把TaskSet提交給TaskScheduler解析。Executor向SparkContext申請Task,TaskScheduler將Task發(fā)送給Executor運行并提供應(yīng)用程序代碼。
4.Task在Executor上運行,將計算結(jié)果發(fā)送給TaskScheduler然后,然后發(fā)送給DAGScheduler,運行完畢之后寫入數(shù)據(jù)并釋放所有資源。


image
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容