1. hudi寫完文件后同步hive元數(shù)據(jù)報(bào)錯(cuò): sql直接在mysql的hive庫(kù)執(zhí)行是正常的 2. 把hive服務(wù)日志導(dǎo)出,發(fā)現(xiàn)如下錯(cuò)誤 原...
1. Kubectl添加自動(dòng)補(bǔ)全 2. 如果執(zhí)行命令遇到報(bào)錯(cuò) 解決方法:vim ~/.zshrc or vim ~/.bash_profile...
spark 任務(wù)寫hudi error,但是異常沒有拋出。 降低driver log日志為TRACE級(jí)別,可以看到如下報(bào)錯(cuò) 原因:最后排查原因?yàn)?..
ignite 服務(wù)重啟,查看錯(cuò)誤日志: 直接內(nèi)存是一種在堆外分配的內(nèi)存,它不受Java堆大小的限制。MaxDirectMemorySize參數(shù)可...
使用spark查詢mysql的my_table表中,status字段的值為"active"的數(shù)據(jù) 第一次查詢: 結(jié)果:可以查詢到表中的數(shù)據(jù) 分析...
spark 3.2.3hudi 0.11.0 spark 寫hudi,commit失敗。.hoodie目錄下,有commit.request和i...
生產(chǎn)環(huán)境,沒有進(jìn)行升級(jí)或修改配置,卻突然出現(xiàn)某些pod服務(wù)無法訪問hdfs的情況。拋出異常 unknownHostException 最終解決方...
重啟ignite后,遇到報(bào)錯(cuò): Caused by: java.sql.SQLException: Failed to update some ...
升級(jí)spark3遇到的問題 https://github.com/cjuexuan/mynote/issues/73[https://githu...