Ambari安裝hadoop遇到的問題(一)

1、failure: repodata/repomd.xml frommysql56-community:[Errno 256] No more mirrors to try.

http://s3.amazonaws.com/dev.hortonworks.com/HDP-UTILS-1.1.0.21/repos/mysql-ppc64le/repodata/repomd.xml:[Errno 14] curl#6 - "Could not resolve host: s3.amazonaws.com; Unknownerror"

解決方案:查找到配置安裝包路徑的源文件,刪除掉。然后重新添加有效的的yum源文件配置

2、parent directory /usr/hdp/current/spark-client/confdoesn't exist(沒有找到conf)

解決方案:創(chuàng)建軟連接到conf (執(zhí)行 :ln-s /etc/spark/conf ./conf?)

3、

問題:啟動hive metastore沒有找到對應的數(shù)據(jù)庫hive。

解決方案:在對應的服務器下,

(1)創(chuàng)建hive用戶:CREATE?USER?‘hive’@'%'?IDENDIFIED?BY?'hive';

(2)給hive用戶賦權:grant?all?privileges?on?*.*?to?hive@’%’;

(3)通過hive用戶登錄mysql:mysql –h127.0.0.1 –uhive –p

創(chuàng)建hive數(shù)據(jù)庫:create database hive;

4、包沖突

--查找已安裝的包 ?rpm -qa |grep 沖突的包名

--刪除包? ? ? ? ? ? ? ? rpm -e 沖突的包名

--安裝包 ? ? ? ? ? ? ? ?yum install 新包名


其中要更換的兩個包:

mariadb-libs-5.5.50-1.el7_2.ppc64le

libtirpc-0.2.4-0.6.el7.ppc64le

在每臺服務器上安裝

libtirpc1-0.2.3-6.4.1.ppc64le.rpm

libtirpc-devel-0.2.3-6.4.1.ppc64le.rpm

for i `seq 138 140`;do scp lib* 10.19.88.$i:/tmp/ ;done (將包循環(huán)拷貝到138、139、140服務器上)

最后編輯于
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。

相關閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容