本文使用的是Spark和python結(jié)合Spark的API組件pyspark
安裝Spark之前確保已有JDK環(huán)境和python環(huán)境(本文為JDK1.8.0_60和python3.6.5)
Spark安裝
1.官網(wǎng)下載spark
本文下載版本是spark-2.3.0-bin-hadoop2.7.tgz
2.安裝spark到/usr/local/
terminal中定位到spark-2.3.0-bin-hadoop2.7.tgz目錄,移動spark-2.3.0-bin-hadoop2.7.tgz到/usr/local
rm spark-2.3.0-bin-hadoop2.7.tgz /usr/local
解壓縮spark-2.3.0-bin-hadoop2.7.tgz
tar -zvxf spark-2.3.0-bin-hadoop2.7.tgz(若要改名,再添加一個變量為你想改動的名字,本文未改動)
3.安裝pyspark(本文使用python3,且mac自帶python 2.7)
pip3 install pyspark
4.設(shè)置環(huán)境變量
打開~/.bash_profile
vim ~/.bash_profile
添加
export SPARK_HOME=/usr/local/spark-2.3.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin
使環(huán)境變量生效
source ~/.bash_profile
5.在terminal中輸入
pyspark
就會出現(xiàn)如下界面了

pyspark交互界面
此時,Spark和pyspark都安裝好了
結(jié)合Jupyter使用和python版本的沖突請戳此處
轉(zhuǎn)載請注明出處