[譯]Spark 2.1.0官方文檔翻譯

注:
1. 本文鏈接中,包含[]的為已翻譯的文檔鏈接,不包含的為官方文檔鏈接。
2. 涉及到編程語言的部分,以翻譯Scala的部分為主

Spark概述

Apache Spark是一個快速的,通用的集群計算系統(tǒng)。在Java,Scala,Python和R語言中提供了高層API,并提供一個支持一般圖形計算的優(yōu)化引擎。Spark支持一個豐富的高層工具集,包括Spark SQL用于SQL和結(jié)構(gòu)化數(shù)據(jù)處理,MLLib用于機(jī)器學(xué)習(xí),GraphX用于圖處理和Spark Streaming。

下載

從官網(wǎng)下載頁面獲取Spark。本文檔適用于Spark 2.1.0版本。Spark為使用HDFS和YARN而需要用到Hadoop客戶端庫。下載包是為適配主流Hadoop版本預(yù)先打包好的。用戶還可以下載"Hadoop free"二進(jìn)制文件,然后通過配置Spark的classpath在任意版本的Hadoop中運行Spark。Scala和Java用戶可以使用maven cooridnates在項目中包含Spark。將來Python用戶也可以從PyPI中安裝Spark。

如果想要從源碼編譯Spark,訪問構(gòu)建Spark。

Spark可以在Windows和類UNIX系統(tǒng)(如Linux,Mac OS)上運行。Spark很容易在一臺機(jī)器上本地運行——你需要做的就是在系統(tǒng)PATH上安裝了Java,或者在JAVA_HOME環(huán)境變量中指定了Java的安裝路徑。

Spark可以運行在Java 7+,Python 2.6+/3.4+,R 3.1+環(huán)境上。對于Scala API,Spark 2.1.0使用的是Scala 2.11。你需要使用一個可兼容的Scala版本(2.11.x)。

請注意,從Spark 2.0.0開始,對Java 7和Python 2.6的支持已棄用,從Spark 2.1.0開始,對Scala 2.10和Hadoop 2.6之前版本的支持已棄用,在Spark 2.2.0時可能會被刪除。

運行示例和Shell

Spark自帶幾個示例程序。Scala,Java,Python和R語言的示例在 examples/src/main 目錄下。要運行Java或者Scala示例程序,在Spark的根目錄中使用bin/run-example <class> [params](在后臺,將調(diào)用更通用的spark-submit腳本來啟動應(yīng)用程序)。例如:

./bin/run-example SparkPi 10

也可以使用一個修改版的Scala Shell以交互方式運行Spark。這是一種學(xué)習(xí)框架非常好的方式。

./bin/spark-shell --master local[2]

其中--master選項指定了分布式集群的master URL,local以單線程在本地運行,local[N]以N個線程在本地運行。你應(yīng)該首先使用local來進(jìn)行測試。完整的選項列表,可使用--help選項來運行Spark。

Spark也提供了Python API。要在Python解釋器中以交互方式運行Spark,使用bin/pyspark

./bin/pyspark --master local[2]

Spark也提供了Python的示例應(yīng)用程序,例如,

./bin/spark-submit examples/src/main/python/pi.py 10

Spark從1.4版本開始就提供了一個實驗的R API(只包含DataFrames API)。要在R語言解釋器中交互式地運行Spark,使用bin/sparkR

./bin/sparkR --master local[2]

Spark也提供了R語言的示例應(yīng)用程序,例如,

./bin/spark-submit examples/src/main/r/dataframe.R

在集群上運行

Spark集群模式概述解釋了在集群上運行Spark的關(guān)鍵概念。Spark可以獨立運行,或者在多個現(xiàn)有的集群管理器上運行。目前提供了集中部署選項:

從這里開始

編程指南:

API文檔:

部署指南:

  • 集群概述:在集群運行時的概念和組件概述
  • 提交應(yīng)用程序:打包和部署應(yīng)用程序
  • 部署模式:
    • Amazon EC2:讓你在5分鐘之內(nèi)在EC2上啟動集群的腳本
    • Standalone Deploy Mode:不使用第三方集群管理器的情況下快速啟動獨立集群
    • Mesos:使用Apache Mesos部署一個私有集群
    • YARN:在Hadoop NextGen (YARN)上部署Spark

其它文檔

外部資源


最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結(jié)合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

友情鏈接更多精彩內(nèi)容