spark程序jar與spark lib jar沖突,加載順序

用戶(hù)編寫(xiě)的spark程序打包成jar后提交到y(tǒng)arn執(zhí)行時(shí),經(jīng)常會(huì)遇到j(luò)ar包中明顯存在某個(gè)類(lèi),但任務(wù)提交到y(tǒng)arn運(yùn)行時(shí)卻找不到類(lèi)或方法(java.lang.NoSuchMethodError)的問(wèn)題。本文總結(jié)下產(chǎn)生此類(lèi)問(wèn)題的原因及解決方案。

例子

比如我們有個(gè)spark程序用到了guava的Splitter類(lèi):

import com.google.common.base.Splitter;
...
    List list = Splitter.on("/").splitToList(output);

程序在本地模式下能正常運(yùn)行,打好的jar包也的確包含Splitter類(lèi)(驗(yàn)證方法參考附錄1),但是在yarn-cluster模式時(shí),會(huì)出現(xiàn)“java.lang.NoSuchMethodError: com.google.common.base.Splitter.splitToLis” 的錯(cuò)誤,具體錯(cuò)誤如下:

[2017-07-21 18:16:16,922] ERROR User class threw exception: java.lang.NoSuchMethodError: com.google.common.base.Splitter.splitToList(Ljava/lang/CharSequence;)Ljava/util/List; (org.apache.spark.deploy.yarn.ApplicationMaster)
java.lang.NoSuchMethodError: com.google.common.base.Splitter.splitToList(Ljava/lang/CharSequence;)Ljava/util/List;
    at cn.creditease.bdp.jsoncook.core.string.Variable.<init>(Variable.java:14)
    at cn.creditease.bdp.jsoncook.core.string.StringCompiler.compileVariable(StringCompiler.java:63)
    at cn.creditease.bdp.jsoncook.core.string.StringCompiler.compile(StringCompiler.java:73)
    at cn.creditease.bdp.jsoncook.core.Compiler.compile(Compiler.java:49)
    at cn.creditease.bdp.jsoncook.core.Compiler.compileMap(Compiler.java:82)
    at cn.creditease.bdp.jsoncook.core.Compiler.compile(Compiler.java:67)
    at cn.creditease.bdp.sparkcook.step.CookStep.<init>(CookStep.java:62)
    at cn.creditease.bdp.sparkcook.step.LoadSQLStep.<init>(LoadSQLStep.java:15)

原因

那是什么原因造成spark程序本地能運(yùn)行,yarn上就“ NoSuchMethodError”了呢?

原因是本地的jar包被SPARK_HOME/lib中的jar覆蓋。spark程序在提交到y(tǒng)arn時(shí),除了上傳用戶(hù)程序的jar,還會(huì)上傳SPARK_HOME的lib目錄下的所有jar包(參考附錄2 )。如果你程序用到的jar與SPARK_HOME/lib下的jar發(fā)生沖突,那么默認(rèn)會(huì)優(yōu)先加載SPARK_HOME/lib下的jar,而不是你程序的jar,所以會(huì)發(fā)生“ NoSuchMethodError”。

上面的例子就是因?yàn)槲页绦虻膉ar用的是guava18版本(mvn dependency:tree可查出版本),但是SPARK_HOME/lib下用的是guava14版本。lib下的guava14覆蓋了用戶(hù)的guava18,而guava14中并沒(méi)有splitToList()方法, 所以報(bào)錯(cuò)。

解決方案

由于默認(rèn)情況下,優(yōu)先級(jí)SPARK_HOME/lib/jar包 > 用戶(hù)程序中的jar包, 如果想讓用戶(hù)程序jar優(yōu)先執(zhí)行,那么要使用 spark.yarn.user.classpath.first (spark1.3以前)或者 spark.executor.userClassPathFirst 和spark.driver.userClassPathFirst 參數(shù)。
這些參數(shù)能讓用戶(hù)的jar覆蓋SPARK_HOME/lib的jar。在spark conf中將他們?cè)O(shè)置為"true"即可。

如下是“spark.yarn.user.classpath.first” 參數(shù)的官方解釋?zhuān)?/p>

(Experimental) Whether to give user-added jars precedence over Spark's own jars when loading classes in the the driver. This feature can be used to mitigate conflicts between Spark's dependencies and user dependencies. It is currently an experimental feature. This is used in cluster mode only.

(正文完)

附錄1 確認(rèn)某個(gè)類(lèi)在jar包中

第一種方式,我們用“jar -tf ”命令確認(rèn)Splitter確實(shí)在jar包內(nèi),比如確認(rèn)“Splitter” 類(lèi)在我們的打好的jar包中:

jar -tf sparkcook-1.0-SNAPSHOT.jar | grep "com/google/common/base/Splitter"
com/google/common/base/Splitter$1$1.class
com/google/common/base/Splitter$1.class
com/google/common/base/Splitter$2$1.class
com/google/common/base/Splitter$2.class
com/google/common/base/Splitter.class

第二種方式是通過(guò)反編譯工具(如JD-GUI)反編譯jar包,在反編譯的代碼中確認(rèn)類(lèi)和方法存在。

第三種方式是借助IDEA等開(kāi)發(fā)工具找到源碼所在的位置,還是以查Splitter類(lèi)為例:


image.png

附錄2 查看spark程序在yarn中的jar包使用情況

在啟動(dòng)spark程序后,在yarn的Environment UI子頁(yè)面可查看到spark 程序用到的jar包。
比如我們上面的spark例子程序跑起來(lái)后,可在頁(yè)面上查到一共有兩類(lèi)guava jar包,一類(lèi)是SPARK_HOME/lib中的guava-14:


image.png

第二類(lèi)是common、yarn、hdfs等hadoop相關(guān)的guava-18:


image.png

第三類(lèi)是用戶(hù)的guava-18, 由于用戶(hù)程序的guava-18整合在了打包好的jar包中,所以在UI頁(yè)面上看不到。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書(shū)系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容