hadoop dfs 常用命令行
来源:互联网 发布:linux计划任务每5分钟 编辑:程序博客网 时间:2024/04/28 11:04
* 文件操作
* 查看目录文件
* $ hadoop dfs -ls /user/cl
*
* 创建文件目录
* $ hadoop dfs -mkdir /user/cl/temp
*
* 删除文件
* $ hadoop dfs -rm /user/cl/temp/a.txt
*
* 删除目录与目录下所有文件
* $ hadoop dfs -rmr /user/cl/temp
*
* 上传文件
* 上传一个本机/home/cl/local.txt到hdfs中/user/cl/temp目录下
* $ hadoop dfs -put /home/cl/local.txt /user/cl/temp
*
* 下载文件
* 下载hdfs中/user/cl/temp目录下的hdfs.txt文件到本机/home/cl/中
* $ hadoop dfs -get /user/cl/temp/hdfs.txt /home/cl
*
* 查看文件
* $ hadoop dfs –cat /home/cl/hdfs.txt
*
* Job操作
* 提交MapReduce Job, Hadoop所有的MapReduce Job都是一个jar包
* $ hadoop jar <local-jar-file> <java-class> <hdfs-input-file> <hdfs-output-dir>
* $ hadoop jar sandbox-mapred-0.0.20.jar sandbox.mapred.WordCountJob /user/cl/input.dat /user/cl/outputdir
*
* 杀死某个正在运行的Job
* 假设Job_Id为:job_201207121738_0001
* $ hadoop job -kill job_201207121738_0001
- hadoop dfs 常用命令行
- Hadoop dfs 常用命令行
- hadoop fs 常用的shell命令行
- 常用命令行
- 常用命令行
- 常用命令行
- 常用命令行
- 常用命令行
- 常用命令行
- 常用命令行
- Hadoop dfs -put 失败
- hadoop的dfs.replication
- hadoop的dfs.replication
- Hadoop之DFS扩容
- 使用Hadoop命令行执行jar包详解(生成jar、将文件上传到dfs、执行命令、下载dfs文件至本地)
- hadoop 命令行运行任务
- hadoop操作命令行
- Hadoop 命令行运行实例
- nginx安装
- 为Qt生成的可执行程序设置图标
- Redis安装与配置
- (转)深度剖析Redis持久化
- GLSL学习笔记---内置变量
- hadoop dfs 常用命令行
- lsof
- 使用ssh-keygen设置ssh无密码登录
- 找到最耗CPU的java线程
- SSH原理与运用(一):远程登录
- SSH原理与运用(二):远程操作与端口转发
- Ubuntu环境变量的设置&&主界面的选项设定&&: command not found的解决
- 处理JDBC返回值类-JdbcExecute.java(请看上一篇)
- (转) 设计模式——小单例有大秘密