[转载]hadoop 常用命令

来源:互联网 发布:固态硬盘坏了数据恢复 编辑:程序博客网 时间:2024/06/17 00:01

转自:http://blog.sciencenet.cn/blog-604578-740259.html

  • 进入HADOOP_HOME目录。

  • 执行sh bin/start-all.sh


  • 进入HADOOP_HOME目录。

  • 执行sh bin/stop-all.sh


Usage: java FsShell
          [-ls <path>]
          [-lsr <path>]
          [-du <path>]
          [-dus <path>]
          [-count[-q] <path>]
          [-mv <src> <dst>]
          [-cp <src> <dst>]
          [-rm [-skipTrash] <path>]
          [-rmr [-skipTrash] <path>]
          [-expunge]
          [-put <localsrc> ... <dst>]
          [-copyFromLocal <localsrc> ... <dst>]
          [-moveFromLocal <localsrc> ... <dst>]
          [-get [-ignoreCrc] [-crc] <src> <localdst>]
          [-getmerge <src> <localdst> [addnl]]
          [-cat <src>]
          [-text <src>]
          [-copyToLocal [-ignoreCrc] [-crc] <src> <localdst>]
          [-moveToLocal [-crc] <src> <localdst>]
          [-mkdir <path>]
          [-setrep [-R] [-w] <rep> <path/file>]
          [-touchz <path>]
          [-test -[ezd] <path>]
          [-stat [format] <path>]
          [-tail [-f] <file>]
          [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
          [-chown [-R] [OWNER][:[GROUP]] PATH...]
          [-chgrp [-R] GROUP PATH...]
          [-help [cmd]]

1、查看指定目录下内容

hadoop dfs –ls [文件目录]

eg: hadoop dfs –ls /user/wangkai.pt

2、打开某个已存在文件

hadoop dfs –cat [file_path]

eg:hadoop dfs -cat /user/wangkai.pt/data.txt

3、将本地文件存储至hadoop

hadoop fs –put [本地地址] [hadoop目录]

hadoop fs –put /home/t/file.txt  /user/t  

(file.txt是文件名)

4、将本地文件夹存储至hadoop

hadoop fs –put [本地目录] [hadoop目录] 
hadoop fs –put /home/t/dir_name /user/t

(dir_name是文件夹名)

5、将hadoop上某个文件down至本地已有目录下

hadoop fs -get [文件目录] [本地目录]

hadoop fs –get /user/t/ok.txt /home/t

6、删除hadoop上指定文件

hadoop fs –rm [文件地址]

hadoop fs –rm /user/t/ok.txt

7、删除hadoop上指定文件夹(包含子目录等)

hadoop fs –rm [目录地址]

hadoop fs –rmr /user/t

8、在hadoop指定目录内创建新目录

hadoop fs –mkdir /user/t

9、在hadoop指定目录下新建一个空文件

使用touchz命令:

hadoop  fs  -touchz  /user/new.txt

10、将hadoop上某个文件重命名

使用mv命令:

hadoop  fs  –mv  /user/test.txt  /user/ok.txt   (将test.txt重命名为ok.txt)

11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地

hadoop dfs –getmerge /user /home/t

12、将正在运行的hadoop作业kill掉

hadoop job –kill  [job-i


0 0
原创粉丝点击