Hadoop的安裝使用簡(jiǎn)介

Hadoop的運(yùn)行有三種形式:

  • 單實(shí)例運(yùn)行
  • 偽分布式
  • 完全分布式
    本文主要介紹單實(shí)例Hadoop的安裝以及使用簡(jiǎn)介。下面的安裝和配置步驟主要是為了快速安裝和體驗(yàn)Hadoop,而不是在產(chǎn)品環(huán)境下使用Hadoop。

單實(shí)例Hadoop

1.下載

Hadoop下載主頁中選擇合適的版本下載Hadoop。
命令示例如下:

HADOOP_VERSION=hadoop-3.0.0-alpha1
wget http://apache.fayea.com/hadoop/common/${HADOOP_VERSION}/${HADOOP_VERSION}.tar.gz
wget https://dist.apache.org/repos/dist/release/hadoop/common/${HADOOP_VERSION}/${HADOOP_VERSION}.tar.gz.mds
wget https://dist.apache.org/repos/dist/release/hadoop/common/${HADOOP_VERSION}/${HADOOP_VERSION}.tar.gz.asc
wget https://dist.apache.org/repos/dist/release/hadoop/common/KEYS

2.驗(yàn)證和解壓

  • 驗(yàn)證
    命令執(zhí)行類似如下:

    HADOOP_VERSION=hadoop-3.0.0-alpha1
    md5 ${HADOOP_VERSION}.tar.gz | awk '{print $4}' > mycomputation.md5
    sed -n '1,2p' ${HADOOP_VERSION}.tar.gz.mds | sed 's/[ ]//g' | awk -v RS="" -F= '{gsub("\n","");print tolower($2)}' > extraction.md5
    diff mycomputation.md5 extraction.md5
    gpg -q --import KEYS
    gpg --verify ${HADOOP_VERSION}.tar.gz.asc ${HADOOP_VERSION}.tar.gz
    
  • 解壓
    驗(yàn)證解壓下載的文件,并進(jìn)入其根目錄。
    命令執(zhí)行類似如下:

    HADOOP_VERSION=hadoop-3.0.0-alpha1
    tar xzvf ${HADOOP_VERSION}.tar.gz
    cd ${HADOOP_VERSION}
    

3.設(shè)置JAVA_HOME環(huán)境變量

修改配置JAVA_HOME
注意:
是通過修改文件etc/hadoop/hadoop-env.sh中的JAVA_HOME屬性變量。
示例如下:

export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_112.jdk/Contents/Home/

4.測(cè)試安裝正常

  • 通過執(zhí)行 bin/hadoop
    執(zhí)行命令bin/hadoop,正常情況應(yīng)該顯示hadoop的命令使用文檔。

  • 運(yùn)行map reduce任務(wù)
    執(zhí)行如下命令:

    mkdir input
    cp etc/hadoop/*.xml input
    bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha1.jar grep input output 'dfs[a-z.]+'
    cat output/*
    

偽分布式Hadoop

1.配置

  • 編輯文件etc/hadoop/core-site.xml:

    <configuration>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
    
  • 編輯文件etc/hadoop/hdfs-site.xml:

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
    </configuration>
    

2.無密碼ssh登陸

執(zhí)行如下命令:

ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

3.執(zhí)行測(cè)試

  1. 格式化文件系統(tǒng):
    bin/hdfs namenode -format

  2. 啟動(dòng)NameNode daemon和DataNode daemon:

    sbin/start-dfs.sh
    

日志寫到$HADOOP_LOG_DIR目錄(缺省是$HADOOP_HOME/logs)。

  1. 瀏覽NameNode的web接口:
  1. 創(chuàng)建HDFS目錄來執(zhí)行MapReduce任務(wù):

    bin/hdfs dfs -mkdir /user
    bin/hdfs dfs -mkdir /user/zhengfq
    
  2. 拷貝輸入文件到分布式文件系統(tǒng):

    bin/hdfs dfs -mkdir input
    bin/hdfs dfs -put etc/hadoop/*.xml input
    
  3. 運(yùn)行例子:

     bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha1.jar grep input output 'dfs[a-z.]+'
    
  4. 檢查輸出:

     bin/hdfs dfs -cat output/*
    
  5. 停止進(jìn)程:

     sbin/stop-dfs.sh
    

參考

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時(shí)請(qǐng)結(jié)合常識(shí)與多方信息審慎甄別。
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

相關(guān)閱讀更多精彩內(nèi)容

  • 之前的有點(diǎn)忘記了,這里在云筆記拿出來再玩玩.看不懂的可以留言 大家可以嘗試下Ambari來配置Hadoop的相關(guān)環(huán)...
    HT_Jonson閱讀 3,200評(píng)論 0 50
  • 簡(jiǎn)述 hadoop 集群一共有4種部署模式,詳見《hadoop 生態(tài)圈介紹》。HA聯(lián)邦模式解決了單純HA模式的性能...
    mtide閱讀 13,494評(píng)論 8 20
  • 1 目的將hadoop 2.7.1 安裝到 166、167、168 三臺(tái)機(jī)器上2 提供環(huán)境練習(xí)環(huán)境192.168....
    灼灼2015閱讀 3,639評(píng)論 4 40
  • 簡(jiǎn)述 hadoop 集群一共有4種部署模式,詳見《hadoop 生態(tài)圈介紹》。HA模式的集群里面會(huì)部署兩臺(tái)NN(最...
    mtide閱讀 7,539評(píng)論 0 10
  • 前言 網(wǎng)上的一些教程,大多比較舊,或者步驟繁瑣,后來我發(fā)現(xiàn),其實(shí)整個(gè)安裝還是比較簡(jiǎn)單的。確保 確保可以正常的更新和...
    SHUTUP閱讀 449評(píng)論 0 0

友情鏈接更多精彩內(nèi)容