Hadoop 常用命令
来源:互联网 发布:儿童服装淘宝网 编辑:程序博客网 时间:2024/06/14 02:04
所有的hadoop命令 由bin / hadoop脚本调用。不带任何参数运行 hadoop脚本会打印所有命令的描述。
用法: hadoop [--config confdir] [COMMAND] [GENERIC_OPTIONS] [COMMAND_OPTIONS]
Hadoop有一个选项解析框架用于解析一般的选项和运行类。
COMMAND
COMMAND_OPTIONS在下面的章节描述他们的各种各样的命令和选项。这些命令被分为用户命令 和管理命令。
用户命令:
archive
用法: hadoop archive -archiveName NAME <src>* <dest>
distcp
用法: hadoop distcp <srcurl> <desturl>
fs
用法: hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]
运行一个通用的文件系统的用户客户端。
各种命令,可以查阅文件系统Shell指南。
fsck
用法: hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]
fetchdt
用法: hadoop fetchdt [GENERIC_OPTIONS] [--webservice <namenode_http_addr>] <path>
jar
用法: hadoop jar <jar> [mainClass] args...
streaming作业是通过这个命令执行。实例可以被称为 流的例子
Word count 统计的例子还使用jar命令来运行。它可以被称为 wordcount的例
job和Map Reduce作业交互的命令。
用法: hadoop job [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] | [-counter <job-id> <group-name> <counter-name>] | [-kill <job-id>] | [-events <job-id> <from-event-#> <#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] | [-fail-task <task-id>] | [-set-priority <job-id> <priority>]
-history [all] <jobOutputDir>-history <jobOutputDir> 打印失败,被杀死的详情,更多的关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。-list [all]-list all显示所有工作。 -list 仅显示尚未完成的工作。
-kill-task <task-id>杀死任务。被杀死的任务不会不利于失败尝试。-fail-task <task-id>使任务失败。被失败的任务会对失败尝试不利。-set-priority <job-id> <priority>改变工作的优先级,允许的值有 VERY_HIGH, HIGH, NORMAL, LOW, VERY_LOW
pipes
运行一个pipes job.
用法: hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]
queue
命令交互,并查看作业队列信息
用法: hadoop queue [-list] | [-info <job-queue-name> [-showJobs]] | [-showacls]
-info <job-queue-name> [-showJobs]显示作业队列中的信息和相关的调度信息,特别是工作队列。如果-showJobs选项是目前的工作提交到特定的工作队列显示的列表。
-showacls显示队列名称和允许当前用户的操作相关的队列。这个列表只显示用户可以访问的。
version
打印版本
用法: hadoop version
CLASSNAME
用法: hadoop CLASSNAME
运行名为CLASSNAME的类。
classpath
用法: hadoop classpath
管理命令
hadoop集群管理员常用命令。
balancer用法: hadoop balancer [-threshold <threshold>]
daemonlog
获取/设置每个守护进程的日志级别。
用法: hadoop daemonlog -getlevel <host:port> <name>
用法: hadoop daemonlog -setlevel <host:port> <name> <level>
Prints the log level of the daemon running at <host:port>. This command internally connects to http://<host:port>/logLevel?log=<name>-setlevel <host:port> <name> <level>Sets the log level of the daemon running at <host:port>. This command internally connects to http://<host:port>/logLevel?log=<name>
datanode
运行一个 HDFS datanode.
用法: hadoop datanode [-rollback]
dfsadmin
运行HDFS dfsadmin客户端。
Usage: hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota <quota> <dirname>...<dirname>] [-clrQuota <dirname>...<dirname>] [-help [cmd]]
1 只读的命名空间
2 不能复制和删除快
namenode会在启动以后自动进入安全模式,最小复本条件满足配置的快的最小百分比时,自动离开安全模式。安全模式可以通过手工的方式进入,但是手工进入的话,必要要人工才能退出。
-refreshNodes
重新复读 hosts和 exclude 文件,去更新能连接到namenode的数据节点,包括现役和退役的节点-finalizeUpgrade完成hdfs的升级。继namenode之后,数据节点也会删除他们的上个版本留下的目录。这些完成一个升级过程。
-upgradeProgress status | details | force查询当前系统的升级状态,状态的细节,或进行强制升级。
-metasave filename 保存 Namenode的主要数据结构保存到<filename>在由hadoop.log.dir 属性指定的目录中。 <filename>将包含下面每一行
1。Datanodes 发送到 Namenode的心跳
2。等待被复制的块
3。正在被复制的块
4。等待被删除的块
-setQuota <quota> <dirname>...<dirname>Set the quota <quota> for each directory <dirname>. The directory quota is a long integer that puts a hard limit on the number of names in the directory tree.
Best effort for the directory, with faults reported if
1. N is not a positive integer, or
2. user is not an administrator, or
3. the directory does not exist or is a file, or
4. the directory would immediately exceed the new quota.-clrQuota <dirname>...<dirname>Clear the quota for each directory <dirname>.
Best effort for the directory. with fault reported if
1. the directory does not exist or is a file, or
2. user is not an administrator.
It does not fault if the directory has no quota.-help [cmd]Displays help for the given command or all commands if none is specified.
mradmin
用法: hadoop mradmin [ GENERIC_OPTIONS ] [-refreshQueueAcls]
jobtracker
用法: hadoop jobtracker [-dumpConfiguration]
namenode
用法: hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]
secondarynamenode
运行HDFS二次NameNode的。看
secondary
Namenode会 获得更多信息。
用法: hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]
tasktracker
运行一个MapReduce任务跟踪节点。
用法: hadoop tasktracker
- hadoop 常用命令
- hadoop常用命令
- Hadoop常用命令
- hadoop常用命令
- hadoop常用命令
- hadoop常用命令
- hadoop常用命令
- hadoop 常用命令
- hadoop常用命令
- hadoop常用命令
- hadoop常用命令
- Hadoop 常用命令
- hadoop常用命令
- Hadoop常用命令
- hadoop常用命令
- hadoop常用命令
- Hadoop常用命令
- hadoop常用命令
- JavaScript中的时间操作
- 先实践起来再说别的
- 总结之排序
- iOS基础控件-UITabBarController - 2 之UITabBarItem 详解,结合视图控制器和导航控制器的用法
- JavaScript 核心参考教程 内置对象
- Hadoop 常用命令
- 解决NDK开发中的 Method 'NewStringUTF' could not be resolved
- 嵌入式linux自动挂载U盘
- Android里scroll嵌套google map
- eXtremeDB-STAC测试1
- 计算机视觉领域
- Maven安装配置
- Java date format 时间格式化
- nyoj 744 蚂蚁的难题(一)