一:API
? ? saveAsTable 會(huì)根據(jù)表的schema匹配df的字段進(jìn)行存儲(chǔ)
? ? insertInto,要求表的schema與df必須一致才可以
? ? 對(duì)于Hive分區(qū)表的寫入,insertInto要待參數(shù)覆蓋為True,這樣每次會(huì)覆蓋分區(qū)。注意不要使用saveAsTable!,會(huì)將全表覆蓋,
? ? 正確語句,具體變化參考pyspark版本:
? ? df.write.format("hive").insertInto("dev.dev_rep_rebate_bjcouple_partion_orc",True)
二:sql方式
? ? 將df創(chuàng)建為臨時(shí)表,再使用spark.sql 里傳hive語句insert select。。。。。。。。。