如何在CDH集群上部署Python3運(yùn)行環(huán)境及運(yùn)行Python作業(yè)

測(cè)試環(huán)境

1.CM和CDH版本為5.11.2,Spark On Yarn模式

2.基于Anaconda部署Python3

下載anaconda包,3.4.2版本的Anaconda和3.5.2的python,下載地址:https://repo.continuum.io/archive/Anaconda3-4.2.0-Linux-x86_64.sh

版本需要注意的是PySpark does not work with Python 3.6.0,SPARK-19019

https://issues.apache.org/jira/browse/SPARK-19019

安裝:sh /server/Anaconda3-4.2.0-Linux-x86_64.sh,一直默認(rèn)即可,注意選擇自己的安裝目錄,最好寫path路徑時(shí)候,no

因?yàn)槲覀円渲萌值穆窂?/p>

echo "export PATH=/server/anaconda3/bin:$PATH">>/etc/profile

source /etc/profile

當(dāng)前這個(gè)操作不需要安裝也可以:使用conda創(chuàng)建python3環(huán)境并激活,conda create --unknown --offline -n py3 python=3.5

(注意:這里創(chuàng)建python3環(huán)境時(shí)使用了離線模式,即--offline參數(shù),以及—unknown,這種方式適合安裝沒(méi)有依賴的python包,如果有依賴使用conda install會(huì)報(bào)錯(cuò),需要搭建一個(gè)內(nèi)部倉(cāng)庫(kù)。)

進(jìn)入python35環(huán)境:source activate python35

在CM配置Python環(huán)境變量


測(cè)試:

進(jìn)入spark2安裝目錄:cd /server/opt/cloudera/parcels/SPARK2/bin

root用戶,執(zhí)行命令./pyspark2,? ?會(huì)報(bào)錯(cuò)說(shuō)? Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

解決辦法:

1.切換到hdfs用戶

2.修hdfs目錄/user的權(quán)限? hdfs dfs -chmod 777 /user


最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容