一、shell命令
1、移動(dòng)本地文件至hdfs:hadoop fs -moveFromlocal 本地路徑? 存儲(chǔ)路徑??
2、復(fù)制本地文件至hdfs:hadoop fs -copyFromlocal 本地路徑? 存儲(chǔ)路徑 (copyToLocal/get則相反)
3、追加數(shù)據(jù):?? hadoop fs -appendToFile?本地路徑? 文件存儲(chǔ)路徑?
4、查看數(shù)據(jù):???hadoop fs -cat? 文件存儲(chǔ)路徑?
5、copy數(shù)據(jù): hadoop fs -cp hdfs源路徑 hdfs目標(biāo)存儲(chǔ)路徑??
6、移動(dòng)數(shù)據(jù): hadoop fs -mv hdfs源路徑 hdfs目標(biāo)存儲(chǔ)路徑??
7、合并下載多個(gè)文件: hadoop fs -getmerge hdfs源路徑 本地文件路徑?
8、hadoop fs -put 本地源路徑? hdfs存儲(chǔ)路徑(等同copyFromlocal)?
9、顯示文件末尾: hadoop fs -tail hdfs文件路徑? ?
10、統(tǒng)計(jì)文件目錄大小: hadoop fs -du -h -s?
其他命令: -rm(移除文件或目錄)、-rmdir(刪除空目錄)、-du(統(tǒng)計(jì)文件夾大小信息)、-setrep(設(shè)置副本數(shù)量)?
11、多文件歸檔命令:?bin/hadoop archive -archiveName input.har(歸檔文件名,后綴需har) -p /user/test/input(源文件路徑) /user/test/output(歸檔文件路徑)?
12、查看歸檔文件:?hadoop fs -ls -R har:///user/test/output/input.har?
13、解歸檔文件: hadoop fs -cp har:///user/test/output/input.har/* /user?
二、hdfs
1、hdfs將fsimage轉(zhuǎn)換xml操作命令: hdfs oiv -p XML -i?fsimage_0000000000000000114(原數(shù)據(jù)文件路徑)? -o fsimage_114.xml(目標(biāo)文件路徑)?
2、hdfs將操作命令日志轉(zhuǎn)換xml操作命令: hdfs oev -p XML -i?edits_0000000000000000114(原數(shù)據(jù)文件路徑)? -o edits_114.xml(目標(biāo)文件路徑)? ?
3、安全模式命令?
1) 查看安全模式:?hdfs dfsadmin -safemode get?
2)進(jìn)入安全模式:?hdfs dfsadmin -safemode enter?
3)離開安全模式:?hdfs dfsadmin -safemode leave?
4)等待安全模式:?hdfs dfsadmin -safemode wait?
4、快照?
1) 開啟指定目錄快照:?hdfs dfsadmin -allowSnapshot 路徑
2) 禁止指定目錄快照:?hdfs dfsadmin -disallowSnapshot 路徑?
3) 對(duì)目錄創(chuàng)建快照:?hdfs dfs -createSnapshot 路徑?
4) 指定名稱創(chuàng)建快照:?hdfs dfs -createSnapshot 路徑 名稱?
5) 重命名快照:?hdfs dfs -renameSnapshot 路徑 舊名稱 新名稱??
6) 列出當(dāng)前用戶所有可快照目錄:?hdfs lsSnapshottableDir??
7) 比較兩個(gè)快照目錄不同之處:?hdfs snapshotDiff 路徑1 路徑2??
8) 刪除快照:?hdfs dfs -deleteSnapshot <path> <snapshotName>