UDFArgumentTypeException Only primitive type arguments are accepted but array was passed as param...

出現(xiàn)這個(gè)問題的原因是,使用了group bycollect_set(),
當(dāng)使用collect_set()參數(shù)建議是基本的數(shù)據(jù)類型

collect_set()
命令說明。
將colname指定的列值聚合為一個(gè)無重復(fù)元素的數(shù)組。此函數(shù)為MaxCompute 2.0擴(kuò)展函數(shù)。

參數(shù)說明。
colname:必填。表的列名稱,可以為任意類型。

返回值說明。
返回ARRAY類型。colname值為NULL時(shí),該行不參與計(jì)算。

回顧下錯(cuò)誤sql

CREATE TABLE table(
id string,
name string
values array<string>)
select  collect_set(values) from table group by name

因?yàn)関alues本身是個(gè)數(shù)組,所以是無法在聚合成一個(gè)多維數(shù)據(jù)的,可以轉(zhuǎn)換為字符串

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • Hive基本操作 Hive產(chǎn)生背景: mapreduce編程的不便性HDFS上文件缺少Schema (Schema...
    wong11閱讀 3,719評(píng)論 0 2
  • 本篇文章長(zhǎng)更,歡迎大家收藏和喜歡 2018.12.25 字符串函數(shù)2 1.正則表達(dá)式解析函數(shù):regexp_ext...
    清聽閱讀 4,840評(píng)論 0 1
  • pyspark.sql模塊 模塊上下文 Spark SQL和DataFrames的重要類: pyspark.sql...
    mpro閱讀 9,911評(píng)論 0 13
  • 1、給用戶賦予權(quán)限 2、數(shù)據(jù)庫新建/刪除操作 創(chuàng)建數(shù)據(jù)庫 查看所有的數(shù)據(jù)庫 進(jìn)入某個(gè)數(shù)據(jù)庫 刪除數(shù)據(jù)庫 3、hiv...
    雪飄千里閱讀 993評(píng)論 0 2
  • 操作手冊(cè):https://cwiki.apache.org/confluence/display/Hive/Lan...
    無劍_君閱讀 1,372評(píng)論 0 3

友情鏈接更多精彩內(nèi)容