環(huán)境準(zhǔn)備
- 節(jié)點(diǎn)四個(gè):
192.168.199.5(node1);
192.168.199.6(node2);
192.168.199.7(node3);
192.168.199.8(node4); - hadoop3.0.0,下載地址: http://www-us.apache.org/dist/hadoop/common/hadoop-3.0.0/hadoop-3.0.0.tar.gz
- zookeeper3.4.10,下載地址: http://www-eu.apache.org/dist/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz
節(jié)點(diǎn)分布

QQ截圖20180106105243.jpg
(1代表這個(gè)節(jié)點(diǎn)需要安裝)
NN: nameNode
DN: dataNode
ZK: zookeeper
ZKFC: ZKFailoverController
JN: journalnode
RM: ResourceManager
DM: NodeManager
分布式的整體架構(gòu):

QQ截圖20180106104703.jpg
步驟
- 在node1四個(gè)節(jié)點(diǎn)上解壓handoop: tar -zxvf hadoop-3.0.0.tar.gz
- 在node1上,進(jìn)入啟動(dòng)腳本目錄: cd hadoop-3.0.0/etc/hadoop/,修改文件: vim hadoop-env.sh 修改:export JAVA_HOME=/root/jdk1.8
- 在node1上,配置nameNode的HA,在目錄/etc/hadoop/,修改文件: vim hdfs-site.xml,下面是文件的所有配置:
<configuration>
<!--服務(wù)名,用于zookeeper識(shí)別 -->
<property>
<name>dfs.nameservices</name>
<value>chenzp</value>
</property>
<!--配置每個(gè)nameNode的id-->
<property>
<name>dfs.ha.namenodes.chenzp</name>
<value>nn1,nn2</value>
</property>
<!--配置nameNode rpc協(xié)議-->
<property>
<name>dfs.namenode.rpc-address.chenzp.nn1</name>
<value>node1:9820</value>
</property>
<property>
<name>dfs.namenode.rpc-address.chenzp.nn2</name>
<value>node2:9820</value>
</property>
<!--配置nodeNode的http訪問地址-->
<property>
<name>dfs.namenode.http-address.chenzp.nn1</name>
<value>node1:9870</value>
</property>
<property>
<name>dfs.namenode.http-address.chenzp.nn2</name>
<value>node2:9870</value>
</property>
<!--配置 journalnode 地址-->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://node2:8485;node3:8485;node4:8485/chenzp</value>
</property>
<!--配置用于切換name Ha的類-->
<property>
<name>dfs.client.failover.proxy.provider.chenzp</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!--配置節(jié)點(diǎn)的免密碼登錄位置-->
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>
<!--配置 journalnode 的工作目錄-->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/root/data/journal</value>
</property>
<!--配置開啟nameNode Ha的自動(dòng)切換-->
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
</configuration>
配置core-site.xml,名命令: vim core-site.xml,以下是所有配置:
<configuration>
<!--hadoop集群入口-->
<property>
<name>fs.defaultFS</name>
<value>hdfs://chenzp</value>
</property>
<!--zookeeper集群-->
<property>
<name>ha.zookeeper.quorum</name>
<value>node1:2181,node2:2181,node3:2181</value>
</property>
<!--hadoop工作目錄-->
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/hadoop</value>
</property>
</configuration>
- 配置zookeeper集群。
根據(jù)前面的節(jié)點(diǎn)分配圖,在node1,node2,node3上配置zookeeper集群。在node1,node2,node3解壓下載的zookeeper,
命令: tar -zxvf zookeeper-3.4.10.tar.gz.先在node1上配置,然后復(fù)制到node2,node3,所以進(jìn)入node1的zookeeper的配置目錄,命令: cd zookeeper-3.4.10/conf/。copy一個(gè)配置文件出來,命令: cp zoo_sample.cfg zoo.cfg
編輯zoo.cfg, 命令:vim zoo.cfg,需要配置的地方如下,其余保持不變:
dataDir=/root/data/zookeeper
server.1=node1:2888:3888
server.2=node2:2888:3888
server.3=node3:2888:3888
將上面的zoo.cfc文件copy到node2,node3,命令:
scp zoo.cfg root@node2:/root/zookeeper-3.4.10/conf/
scp zoo.cfg root@node3:/root/zookeeper-3.4.10/conf/
在上面的dataDir目錄下執(zhí)行命令:vim myid,編輯內(nèi)容1,保存退出。
將上面的myid文件copy到node2,node3,命令:
scp -r /root/data root@node2:/root
scp -r /root/data root@node3:/root
將node2里面的myid內(nèi)容修改成2,將node3里面的myid內(nèi)容修改成3。最后在配置zookeeper的環(huán)境變量: export PATH=/root/zookeeper-3.4.10/bin:$PATH。在node1,node2,node3分別執(zhí)行命令: zkServer.sh start,完成之后,查看zookeeper啟動(dòng)完成沒有,命令:jps 如果有:QuorumPeerMain,那么就ok啦. - 配置dataNode
根據(jù)前面的節(jié)點(diǎn)分配圖,dataNode在node2,node3,node4上有。我們先在node1配置,然后在copy到其他節(jié)點(diǎn)。在目錄/etc/hadoop/,修改文件: vim workers(2.x版本是slave)下面是文件的所有配置:
node2
node3
node4 - 將node1上etc目錄下的配置文件copy到node2,node3,node4上,
scp ./* root@node2:/root/hadoop-3.0.0/etc/hadoop/
scp ./* root@node3:/root/hadoop-3.0.0/etc/hadoop/
scp ./* root@node4:/root/hadoop-3.0.0/etc/hadoop/ - 根據(jù)前面的節(jié)點(diǎn)分配圖,在node2,node3,node4上啟動(dòng) journalnode,進(jìn)入hadoop的sbin目錄
./hadoop-daemon.sh start journalnode,查看啟動(dòng)成功沒有,命令:jps,如果有JournalNode進(jìn)程,那么就ok啦 - 初始化hdfs.在任意一臺(tái)namenode(這里是node1)節(jié)點(diǎn)的hadoop的bin目錄上執(zhí)行
./hdfs namenode -format
如果失敗,可能是防火墻問題.關(guān)閉四個(gè)節(jié)點(diǎn)的防火墻:
systemctl stop firewalld.service #停止firewall
systemctl disable firewalld.service #禁止firewall開機(jī)啟動(dòng)。
可以看到元數(shù)據(jù)位置:/opt/data/hadoop/dfs/name/current 下有fsimage文件就ok了 - 復(fù)制元數(shù)據(jù)到未格式化的節(jié)點(diǎn)(node2)
啟動(dòng)第8點(diǎn)的namenode(node1),進(jìn)入sbin目錄,
在未格式化的namenode(node2)上執(zhí)行命令:./hadoop-daemon.sh start namenode
執(zhí)行完成之后,jps看看有沒有NameNode進(jìn)程,如果有就ok啦.在node2的bin目錄下執(zhí)行: hdfs namenode -bootstrapStandby。執(zhí)行完以后可以看到/opt/data/hadoop/dfs/name/current 下有fsimage文件就ok了 - 初始化zkfc,在其中個(gè)一臺(tái)namenode的bin目錄下執(zhí)行命令: ./hdfs zkfc -formatZK
- 現(xiàn)在可以啟動(dòng)hadoop了。進(jìn)入namenode1的sbin目錄,執(zhí)行命令:
./stop-dfs.sh 先關(guān)閉所有和hadoop的相關(guān)進(jìn)程。如果出現(xiàn)錯(cuò)誤,在stop-dfs.sh和start-dfs.sh中添加下面變量后,dfs可以正常啟動(dòng)
HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_JOURNALNODE_USER=root
HDFS_ZKFC_USER=root
HDFS_SECONDARYNAMENODE_USER=root
,關(guān)閉完成之后,執(zhí)行命令./ststart-dfs.sh -
完成之后,查看四臺(tái)機(jī)器的進(jìn)程情況,如下:
node1:
QQ截圖20180108145102.jpg
node2:QQ截圖20180108145153.jpg
node3:QQ截圖20180108145228.jpg
node4:QQ截圖20180108145319.jpg
通過jps可以看到四個(gè)節(jié)點(diǎn)的hadoop啟動(dòng)完成了
- 通過瀏覽器地址訪問: http://node1:9870 ,可以看到如下的nameNode的web界面:
QQ截圖20180108145548.jpg
到此,handoop的配置完成。以上所有配置都來自3.0.0版本的官網(wǎng)




