簡介
HDFS(Hadoop Distributed File System )Hadoop分布式文件系統(tǒng)。是根據(jù)google發(fā)表的論文翻版的。論文為GFS(Google File System)Google 文件系統(tǒng)(中文,英文)。
HDFS有很多特點:
**① **保存多個副本,且提供容錯機制,副本丟失或宕機自動恢復。默認存3份。
**② **運行在廉價的機器上。
**③ **適合大數(shù)據(jù)的處理。多大?多?。縃DFS默認會將文件分割成block,64M為1個block。然后將block按鍵值對存儲在HDFS上,并將鍵值對的映射存到內(nèi)存中。如果小文件太多,那內(nèi)存的負擔會很重。
如上圖所示,HDFS也是按照Master和Slave的結(jié)構(gòu)。分NameNode、SecondaryNameNode、DataNode這幾個角色。
NameNode:是Master節(jié)點,是大領(lǐng)導。管理數(shù)據(jù)塊映射;處理客戶端的讀寫請求;配置副本策略;管理HDFS的名稱空間;
SecondaryNameNode:是一個小弟,分擔大哥namenode的工作量;是NameNode的冷備份;合并fsimage和fsedits然后再發(fā)給namenode。
DataNode:Slave節(jié)點,奴隸,干活的。負責存儲client發(fā)來的數(shù)據(jù)塊block;執(zhí)行數(shù)據(jù)塊的讀寫操作。
熱備份:b是a的熱備份,如果a壞掉。那么b馬上運行代替a的工作。
冷備份:b是a的冷備份,如果a壞掉。那么b不能馬上代替a工作。但是b上存儲a的一些信息,減少a壞掉之后的損失。
fsimage:元數(shù)據(jù)鏡像文件(文件系統(tǒng)的目錄樹。)
edits:元數(shù)據(jù)的操作日志(針對文件系統(tǒng)做的修改操作記錄)
namenode內(nèi)存中存儲的是=fsimage+edits。
SecondaryNameNode負責定時默認1小時,從namenode上,獲取fsimage和edits來進行合并,然后再發(fā)送給namenode。減少namenode的工作量。
工作原理
寫操作:
有一個文件FileA,100M大小。Client將FileA寫入到HDFS上。
HDFS按默認配置。
HDFS分布在三個機架上Rack1,Rack2,Rack3。
a. Client將FileA按64M分塊。分成兩塊,block1和Block2;
b. Client向nameNode發(fā)送寫數(shù)據(jù)請求,如圖藍色虛線①------>。
c. NameNode節(jié)點,記錄block信息。并返回可用的DataNode,如粉色虛線②--------->。
Block1: host2,host1,host3
Block2: host7,host8,host4
原理:
NameNode具有RackAware機架感知功能,這個可以配置。
若client為DataNode節(jié)點,那存儲block時,規(guī)則為:副本1,同client的節(jié)點上;副本2,不同機架節(jié)點上;副本3,同第二個副本機架的另一個節(jié)點上;其他副本隨機挑選。
若client不為DataNode節(jié)點,那存儲block時,規(guī)則為:副本1,隨機選擇一個節(jié)點上;副本2,不同副本1,機架上;副本3,同副本2相同的另一個節(jié)點上;其他副本隨機挑選。
d. client向DataNode發(fā)送block1;發(fā)送過程是以流式寫入。
流式寫入過程,
** 1>**將64M的block1按64k的package劃分;
2>然后將第一個package發(fā)送給host2;
3>host2接收完后,將第一個package發(fā)送給host1,同時client想host2發(fā)送第二個package;
4>host1接收完第一個package后,發(fā)送給host3,同時接收host2發(fā)來的第二個package。
5>以此類推,如圖紅線實線所示,直到將block1發(fā)送完畢。
6>host2,host1,host3向NameNode,host2向Client發(fā)送通知,說“消息發(fā)送完了”。如圖粉紅顏色實線所示。
7>client收到host2發(fā)來的消息后,向namenode發(fā)送消息,說我寫完了。這樣就真完成了。如圖黃色粗實線
8>發(fā)送完block1后,再向host7,host8,host4發(fā)送block2,如圖藍色實線所示。
9>發(fā)送完block2后,host7,host8,host4向NameNode,host7向Client發(fā)送通知,如圖淺綠色實線所示。
10>client向NameNode發(fā)送消息,說我寫完了,如圖黃色粗實線。。。這樣就完畢了。
分析,通過寫過程,我們可以了解到:
①寫1T文件,我們需要3T的存儲,3T的網(wǎng)絡流量貸款。
②在執(zhí)行讀或?qū)懙倪^程中,NameNode和DataNode通過HeartBeat進行保存通信,確定DataNode活著。如果發(fā)現(xiàn)DataNode死掉了,就將死掉的DataNode上的數(shù)據(jù),放到其他節(jié)點去。讀取時,要讀其他節(jié)點去。
③掛掉一個節(jié)點,沒關(guān)系,還有其他節(jié)點可以備份;甚至,掛掉某一個機架,也沒關(guān)系;其他機架上,也有備份。
讀操作:
讀操作就簡單一些了,如圖所示,client要從datanode上,讀取FileA。而FileA由block1和block2組成。
那么,讀操作流程為:
a. client向namenode發(fā)送讀請求。
b. namenode查看Metadata信息,返回fileA的block的位置。
block1:host2,host1,host3
block2:host7,host8,host4
c. block的位置是有先后順序的,先讀block1,再讀block2。而且block1去host2上讀??;然后block2,去host7上讀取;
上面例子中,client位于機架外,那么如果client位于機架內(nèi)某個DataNode上,例如,client是host6。那么讀取的時候,遵循的規(guī)律是:
優(yōu)選讀取本機架上的數(shù)據(jù)。
HDFS中常用到的命令
1、hadoop fs
+ View Code
2、hadoop fsadmin
+ View Code
3、hadoop fsck
4、start-balancer.sh