hadoop fs
(提示)
[-mvFromLocal]
[-mvToLocal]
[-appendToFile]
[-chgrp,chmod,chown]
hadoop fs -chown jiaojiao:mygirls /hamapi.txt(hdfs是弱的權限控制沒有用戶的概念,你說是誰的就是誰的)
[-cp][-mv][-get]
[-getmerge](下載合并到本地)
hadoop fs -getmerge /wordcount/input/*.* /merg.file
[-put][-rm]
hadoop fs -rm -r(遞歸刪除) /aaa/bbb/
[rmdir](刪除空目錄)
對于過大的文件可以cat | more
hadoop fs -df -h /(查看根目錄下的空間)
linux下:df -h
hadoop fs -du -s(匯總) -h(帶單位) hdfs://mini1:9000/*(統(tǒng)計文件夾的大小)
linux下:du -sh *
[-count](指定目錄下指定文件節(jié)點數(shù)量)
[-setrep](文件副本數(shù)量)
hadoop fs -setrep 10 /a.txt(10只是記錄在namenode元數(shù)據(jù)中,具體有多少個副本還得看datanode的數(shù)量)
hadoop fs -ls /
hadoop fs -put hamapi.txt /
hadoop fs -cat /hamapi.txt
cd /home/hadoop/hdpdata/dfs/data/current/BP-1583774307-192.168.23.201-1500998032274/current/finalized/subdir0/subdir0
cat blk_1073741825(輸出的結果和hdoop命令相同)
hadoop fs -put centos-6.5-hadoop-2.6.4.tar.gz /(這個文件大于128M)
hadoop fs -get /cenos-6.5-hadoop-2.6.4.tar.gz
cat blk1 >> tmp.file
cat blk2 >> tmp.file
tar -zxvf tmpfile(結果和直接解壓tar.gz文件相同)
hadoop fs -mkdir -p /wordcount/input
hadoop fs -put a.txt b.txt /wordcount/input
hadoop jar hadoop-mapreduce-examples-2.6.4.jar wordcount /wordcount/input/ /wordcount/output
hadoop fs -cat /wordcount/output/part-r-00000
最后編輯于 :
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
【社區(qū)內(nèi)容提示】社區(qū)部分內(nèi)容疑似由AI輔助生成,瀏覽時請結合常識與多方信息審慎甄別。
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點,簡書系信息發(fā)布平臺,僅提供信息存儲服務。