首先需要JDK
下載安裝JDK
下載spark
wget https://d3kbcqa49mib13.cloudfront.net/spark-1.6.3-bin-hadoop2.6.tgz
創(chuàng)建安裝目錄
mkdir /software
移動(dòng)安裝文件到新建目錄
mv ./spark-1.6.3-bin-hadoop2.6.tgz /sortware/
切換目錄
cd /software
解壓
tar xzvf spark-1.6.3-bin-hadoop2.6.tgz
cd spark-1.6.3-bin-hadoop2.6.tgz
pwd
復(fù)制打印出來的地址
修改配置文件 conf/
mv spark-env.sh.template spark-env.sh
我們默認(rèn)安裝不用修改目錄
配置環(huán)境變量 vim /etc/profile
export SPARK_HOME=/software/spark-1.6.3-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
使環(huán)境變量生效
source /etc/profile
執(zhí)行測試
spark-submit --master spark://node1:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi ../lib/spark-examples-1.6.3-hadoop2.6.0.jar