HDFS文件操作的基本格式是:

1 bin/hadoop dfs -cmd <args>

1. cat

1 $ hadoop dfs -cat URI [URI …] 
2 #将参数所指示的文件的内容输出到stdout 
3 
4 #example:
5 $ hadoop dfs -cat file:///file2 /user/hadoop/file4

2.cp

1 $ hadoop dfs -cp URI [URI …] <dest>
2 #将文件拷贝到目标路径中。如果 <dest>为目录的话,可以将多个文件拷贝到该目录下
3 
4 #example:
5 $ hadoop dfs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir

3.get

1 $ hadoop dfs -get [-ignorecrc] [-crc] <src><localdst>
2 #将文件拷贝到本地文件系统
3 
4 #example:
5 $ hadoop dfs -get /user/hadoop/file localfile

4.ls

1 $ hadoop dfs -ls <args>
2 #对于一个文件,该命令返回的文件状态以如下格式列出:
3 #文件权限、副本个数、用户ID、组ID、文件大小、最近一次修改日期、最近一次修改时间、文件名
4 #对于一个目录,结果格式:
5 #文件权限,用户ID,组ID,最近一次修改日期,最近一次修改时间,文件名
6 
7 #example:
8 $ hadoop dfs -ls /user/hadoop/file1

 

5.lsr

1 $ hadoop dfs -lsr <args>
2 #在整个目录下递归执行ls

 

6.mkdir

1 $ hadoop dfs -mkdir <paths>
2 #以<paths>中的URI作为参数,创建目录
3 
4 #example:
5 $ hadoop dfs -mkdir /user/hadoop/dir1 /user/hadoop/dir2
View Code

相关文章:

  • 2022-01-23
  • 2021-11-06
  • 2022-12-23
  • 2021-11-18
  • 2021-10-12
  • 2021-12-12
  • 2022-01-19
  • 2021-07-14
猜你喜欢
  • 2021-11-20
  • 2021-05-17
  • 2021-12-27
  • 2021-11-23
相关资源
相似解决方案