spark1.6.3執(zhí)行hivesql遇到left join 時(shí)報(bào)can't zip rdds

image.png

在spark 上跑hive sql 腳本,在spark 2.x以上跑沒(méi)問(wèn)題 ,hive上沒(méi)問(wèn)題,spark1.6上跑最后會(huì)報(bào)如圖以上問(wèn)題 ,墻內(nèi)比較難找到對(duì)應(yīng)解決辦法 ,可以在腳本里配置一下配置,spark.sql.adaptive.enabled=true,默認(rèn)值是false。設(shè)置為true的話,就是開啟了Spark SQL自適應(yīng)查詢引擎,就是在運(yùn)行時(shí),通過(guò)一些統(tǒng)計(jì)指標(biāo)來(lái)動(dòng)態(tài)優(yōu)化Spark sql的執(zhí)行計(jì)劃。

產(chǎn)生原因目前沒(méi)有找到合適的解釋,產(chǎn)生問(wèn)題的地方很簡(jiǎn)單,就是兩個(gè)表在left join 預(yù)估是因?yàn)閿?shù)據(jù)傾斜導(dǎo)致 ,a left join b的時(shí)候 ,b表數(shù)據(jù)較小,大量數(shù)據(jù)關(guān)聯(lián)不上,導(dǎo)致數(shù)據(jù)傾斜

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容