【Spark】Spark應(yīng)用報(bào)錯(cuò)及解決

【1】 Expected only partition pruning predicates
解決方案:設(shè)置spark.sql.hive.metastorePartitionPruning=false

【2】 Error in query: Detected cartesian product for INNER join between logical plans
Project-Join condition is missing or trivial.
Use the CROSS JOIN syntax to allow cartesian products between these relations

解決方案:設(shè)置spark.sql.crossJoin.enabled=true

【3】 ERROR ApplicationMaster: User class threw exception: java.util.concurrent.TimeoutException: Futures timed out after [300 seconds]

  • image.png
  • image.png

解決方案:設(shè)置spark.sql.autoBroadcastJoinThreshold為-1,嘗試關(guān)閉BroadCast Join

【4】org.skife.jdbi.v2.exceptions.UnableToObtainConnectionException: java.sql.SQLException: No suitable driver found for
bigquery打包時(shí),生成了spark-1.0.3的包,用它起thriftserver,里面邏輯涉及到訪問mysql時(shí),報(bào)No suitable driver found for錯(cuò)誤,看錯(cuò)誤是沒拿到mysql的url。檢查jar包,common模塊的resource中的配置文件沒有打進(jìn)去,看了下是spark模塊pom.xml打包時(shí)沒有加上common模塊的resource包。

image.png
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容