Flink與HDFS結(jié)合flink用IDEA本地運(yùn)行可以讀取HDFS數(shù)據(jù),然后把項(xiàng)目打包提交到flink集群,無(wú)法讀取HDFS數(shù)據(jù),出現(xiàn)以下錯(cuò)誤及解決方案:

1、環(huán)境

CDH 3.5.12

flink 1.7.2

hadoop 2.6.0

2、錯(cuò)誤類型,flink結(jié)合了HDFS 讀寫文件


報(bào)錯(cuò)內(nèi)容


報(bào)錯(cuò)內(nèi)容

3、解決方案,以上兩種錯(cuò)誤都是因?yàn)橐蕾嚊_突引起。

原因就是xml-apis包與dom4j沖突了.

把所有引的包的xml-apis依賴全部排除了

(順便吐槽一下網(wǎng)上,有的說(shuō)加這個(gè)包,有的說(shuō)加哪個(gè)包,最后應(yīng)該是全部排除xml-apis的依賴才對(duì))

這里只是個(gè)樣例,可以使用mvn tree看看依賴,全部排除干凈才行

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

友情鏈接更多精彩內(nèi)容