1、安裝jdk

image.png
2、安裝scala

image.png
3、下載spark

image.png
3.1安裝spark
- 將下載的文件解壓到一個(gè)目錄,注意目錄不能有空格,比如說(shuō)不能解壓到C:\Program Files
-
作者解壓到了這里,image.png
-
將spark的bin路徑添加到path中image.png
-
cmd輸入spark-shell,成功安裝啦,有個(gè)報(bào)錯(cuò)是因?yàn)檫€沒(méi)安裝Hadoop,image.png
4、安裝hadoop
-
spark版本為spark-2.3.3-bin-hadoop2.7,我們選擇下2.8.5版本的Hadoop
hadoop下載地址image.png -
解壓image.png
-
添加環(huán)境變量,新建一個(gè)HADOOP_HOMEimage.png
-
在path添加image.png
到此運(yùn)行spark-shell還會(huì)有沒(méi)安裝的時(shí)候那個(gè)報(bào)錯(cuò),接下來(lái)需要替代Hadoop里的bin文件來(lái)解決這個(gè)錯(cuò)。
5、下載winutils
- 下載地址
-
筆者用的是hadoop2.8.5版本的,下載的winutils上hadoop2.8.3版本的bin,實(shí)測(cè)也是可行的。image.png
- 接下來(lái)將bin替換原來(lái)Hadoop中的bin
6、運(yùn)行spark-shell成功啦

image.png







