HDFS文件操作的基本格式是:
1 bin/hadoop dfs -cmd <args>
1. cat
1 $ hadoop dfs -cat URI [URI …] 2 #将参数所指示的文件的内容输出到stdout 3 4 #example: 5 $ hadoop dfs -cat file:///file2 /user/hadoop/file4
2.cp
1 $ hadoop dfs -cp URI [URI …] <dest> 2 #将文件拷贝到目标路径中。如果 <dest>为目录的话,可以将多个文件拷贝到该目录下 3 4 #example: 5 $ hadoop dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
3.get
1 $ hadoop dfs -get [-ignorecrc] [-crc] <src><localdst> 2 #将文件拷贝到本地文件系统 3 4 #example: 5 $ hadoop dfs -get /user/hadoop/file localfile
4.ls
1 $ hadoop dfs -ls <args> 2 #对于一个文件,该命令返回的文件状态以如下格式列出: 3 #文件权限、副本个数、用户ID、组ID、文件大小、最近一次修改日期、最近一次修改时间、文件名 4 #对于一个目录,结果格式: 5 #文件权限,用户ID,组ID,最近一次修改日期,最近一次修改时间,文件名 6 7 #example: 8 $ hadoop dfs -ls /user/hadoop/file1
5.lsr
1 $ hadoop dfs -lsr <args> 2 #在整个目录下递归执行ls
6.mkdir
1 $ hadoop dfs -mkdir <paths> 2 #以<paths>中的URI作为参数,创建目录 3 4 #example: 5 $ hadoop dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2