1 介紹
1.1 系統(tǒng)版本介紹
此文檔編寫使用的系統(tǒng)為ubuntu-18.04.1-live-server-amd64.iso版本。
1.2 軟件版本介紹
| 軟件 | 版本 |
|---|---|
| jdk | jdk-8u181-linux-x64.tar.gz |
| hadoop | hadoop-2.7.7.tar.gz |
1.3 ubuntu集群服務器
| 主機名 | IP地址 | 服務 |
|---|---|---|
| Master | 10.168.1.216 | ResourceManager、SecondaryNameNode、NameNode |
| slave01 | 10.168.1.217 | NodeManager、DataNode |
| slave02 | 10.168.1.218 | NodeManager、DataNode |
| slave03 | 10.168.1.219 | NodeManager、DataNode |
1.4 說明
本文檔安裝jdk和ssh略過。
2 安裝hadoop集群
2.1 全局配置
2.1.1 解壓hadoop
創(chuàng)建一個hadoop的文件夾,用戶存放hadoop文件
mkdir /usr/local/hadoop
通過ftp工具把下載好的hadoop安裝包上傳到hadoop文件夾下。
解壓:
cd /usr/local/hadoop
tar -vxzf hadoop-2.7.7.tar.gz
解壓完成:

移動hadoop-2.7.7文件下的文件到當前的目錄
mv ./hadoop-2.7.7/* ./
刪除hadoop-2.7.7文件夾
rm -rf ./hadoop-2.7.7
查看文件夾的所有者以及用戶組,最重要的是擁有者是否是當前用戶

如果擁有者不是當前用戶,則修改為當前用戶:
chown -R 當前用戶名 ./hadoop
2.1.2 配置hadoop
設置環(huán)境變量:
vim /etc/profile
在末尾添加:
JAVA_HOME=/usr/local/java/jdk1.8.0_181
HADOOP_HOME=/usr/local/hadoop
PATH=$PATH:$HOME/bin:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export JAVA_HOME
export PATH
export HADOOP_HOME
重新加載環(huán)境變量的配置文件:
source /etc/profile
檢測:
hadoop version

2.1.3 修改配置文件
在core-site.xml 中添加
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>

在 hdfs-site.xml 中添加
<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/usr/local/hadoop/hdfs/name</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
<!--副本的數量-->
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
</configuration>

在 hadoop-env.sh 中更改 JAVA_HOME
注釋掉:
export JAVA_HOME=${JAVA_HOME}
添加:
export JAVA_HOME=/usr/local/java/jdk1.8.0_181
修改slaves文件,添加如下信息:
vim /usr/local/Hadoop/etc/Hadoop/slaves

1.2 特殊配置
2.2.1 復制三臺主機

2.2.2 設置靜態(tài)ip地址
前言
Ubuntu 18.04不再使用ifupdown配置網絡,而改用netplan。在/etc/network/interfaces配置固定IP是無效的,重啟網絡的命令services network restrart或/etc/init.d/networking restart也是無效的。
使用ifupdown配置網絡
如果要使用之前的方式配置網絡,需要重新安裝ifupdown:
apt install ifupdown
修改配置文件/etc/network/interfaces:
vim /etc/network/interfaces
配置文件修改如下:
iface ens160 inet static
address 210.72.92.25
gateway 210.72.92.254
netmask 255.255.255.0
dns-nameservers 8.8.8.8
重啟網絡服務使配置生效
services network restrart
使用netplan配置網絡
Ubuntu 18.04使用netplan配置網絡,其配置文件是yaml格式的。安裝好Ubuntu 18.04之后,在/etc/netplan/目錄下默認的配置文件名是50-cloud-init.yaml,我們通過VIM修改它:
vim /etc/netplan/50-cloud-init.yaml
配置文件修改如下:
network:
ethernets:
ens160:
addresses: [10.168.1.216/24]
dhcp4: false
gateway4: 10.168.1.254
version: 2
無論是ifupdown還是netplan,配置的思路都是一致的,在配置文件里面按照規(guī)則填入IP、掩碼、網關、DNS等信息。注意yaml是層次結構,需要縮進,冒號(:)表示字典,連字符(-)表示列表。
重啟網絡服務使配置生效:
netplan apply

2.2.3 配置hosts文件
vim /etc/hosts
添加master和slaves信息:

2.2.4 本地主機名配置
首先修改
vim /etc/cloud/cloud.cfg
將disable_root:false修改為true:

修改主機名:
vim /etc/hostname
將10.168.1.216主機名修改為master。

將其他機器也修改為對應的名稱,重啟所有服務器。
2.2.5 多服務器ssh免密碼登陸
由于Hadoop啟動以后,namenode是通過SSH(Secure Shell)來啟動和停止各個節(jié)點上的各種守護進程的,這就需要在節(jié)點之間執(zhí)行指令的時候是不需要輸入密碼的方式,故我們需要配置SSH使用無密碼公鑰認證的方式(安裝ssh,配置ssh遠程連接過程略過。)。
所有服務器使用rsa算法生成秘鑰和公鑰對:
ssh-keygen -t rsa

然后把master服務器中公鑰加入到授權中:
cat ./id_rsa.pub >> ./authorized_keys
使用ssh localhost驗證是否無密碼登陸。
把slave服務器中的id_rsa.pub復制到master中:
scp .ssh/id_rsa.pub root@master:/

查看公鑰是否復制成功:

將公鑰添加到master的授權文件中:
cat /id_rsa.pub >> ~/.ssh/authorized_keys
重復上面步驟,直到所有的slave公鑰都添加到了授權文件中。

將授權文件分發(fā)到每臺服務器上:
scp ~/.ssh/authorized_keys username@hostname: ~/.ssh/authorized_keys
測試通過ssh相互之間登錄:
ssh hostname
username:服務器用戶名。
hostname:服務器主機名。
測試完畢重啟服務器。
2.2.6 啟動hadoop
在master服務器上格式化namenode節(jié)點:
hadoop namenode -format

啟動hdfs
start-all.sh

查看相應的進程:
jps
master:

確定3個進程全部啟動。
slave:

確定2個進程全部啟動。
訪問測試:
10.168.1.216:50070



1.3 添加datanode節(jié)點
配置一臺新的slave機器,根據前面的步驟配置網絡IP。
啟動datanode服務:
hadoop-daemon.sh start datanode
啟動nodemanager服務:
yarn-daemon.sh start nodemanager

如果需要在name節(jié)點啟動的時候,同時也啟動這臺新加的data節(jié)點,那么需要根據特殊配置的步驟,修改hosts文件、服務器主機名、以及ssh免密登錄等,才能通過name來啟動data節(jié)點。
1.4 刪除datanode節(jié)點
首先需要在hdfs-site.xml添加:
<property>
<name>dfs.hosts.exclude</name>
<value>/usr/local/hadoop/etc/hadoop/excludes</value>
</property>

然后在對應位置創(chuàng)建文件:
vim /usr/local/hadoop/etc/hadoop/excludes
在文件中加入要刪除的節(jié)點名稱:

例如要刪除的節(jié)點是slave03

在NameNode上刷新所有DataNode:
hdfs dfsadmin -refreshNodes #刷新節(jié)點信息
start-balancer.sh #同步節(jié)點的數據

如下圖:表示與該節(jié)點已經斷開了連接(因為hadoop心跳檢測是10分鐘,所以如果是data節(jié)點宕機,就會一直檢測,直到超時)。
接下來就可以關閉data節(jié)點了:
關閉datanode服務:
hadoop-daemon.sh stop datanode
關閉nodemanager服務:
yarn-daemon.sh stop nodemanager