hadoop入门:hadoop使用shell命令总结
来源:互联网 发布:马蓉和王宝强下场知乎 编辑:程序博客网 时间:2024/05/02 00:29
第一部分:Hadoop Bin
后面根据项目的实际需要Hadoop Bin 包括:
Hadoop hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME(hadoop的安装目录)。
HADOOP_CONF_DIR(hadoop的配置文件目录)。HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 启动slaves.sh和hadoop-daemon.sh
start-all.sh 启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh 启动HDFS
start-jobhistoryserver.sh
start-mapred.sh 启动MapReduce
来进行调整。
后面根据项目的实际需要Hadoop Bin 包括:
Hadoop hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME(hadoop的安装目录)。
HADOOP_CONF_DIR(hadoop的配置文件目录)。
HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 在所有slaves上运行相同的脚本hadoop-daemon.sh
start-all.sh 启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh 启动HDFS
start-jobhistoryserver.sh
start-mapred.sh 启动MapReduce
来进行调整。
stop-all.sh 停止HDFS与MapReduce
stop-balancer.sh 停止做负载均衡
stop-dfs.sh 停止HDFS
stop-jobhistoryserver.sh 停止Job追踪
stop-mapred.sh 停止MapReduce
task-controller
第二部分:Hadoop Shell 基本操作
nHadoop shell
包括:
后面根据项目的实际需要Hadoop Bin 包括:
Hadoop hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME(hadoop的安装目录)。
HADOOP_CONF_DIR(hadoop的配置文件目录)。HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 启动slaves.sh和hadoop-daemon.sh
start-all.sh 启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh 启动HDFS
start-jobhistoryserver.sh
start-mapred.sh 启动MapReduce
来进行调整。
后面根据项目的实际需要Hadoop Bin 包括:
Hadoop hadoop的Shell
hadoop-config.sh 它的作用是对一些变量进行赋值
HADOOP_HOME(hadoop的安装目录)。
HADOOP_CONF_DIR(hadoop的配置文件目录)。
HADOOP_SLAVES(--hosts指定的文件的地址)
hadoop-daemon.sh 单节点启动
hadoop-daemons.sh 在所有slaves上运行相同的脚本hadoop-daemon.sh
start-all.sh 启动HDFS与MapReduce
start-balancer.sh 启动Hadoop的负载均衡
start-dfs.sh 启动HDFS
start-jobhistoryserver.sh
start-mapred.sh 启动MapReduce
来进行调整。
stop-all.sh 停止HDFS与MapReduce
stop-balancer.sh 停止做负载均衡
stop-dfs.sh 停止HDFS
stop-jobhistoryserver.sh 停止Job追踪
stop-mapred.sh 停止MapReduce
task-controller
第二部分:Hadoop Shell 基本操作
nHadoop shell
包括:
- namenode -format format the DFS filesystem
- secondarynamenode run the DFS secondary namenode
- namenode run the DFS namenode
- datanode run a DFS datanode
- dfsadmin run a DFS admin client
- mradmin run a Map-Reduce admin client
- fsck run a DFS filesystem checking utility
- fs run a generic filesystem user client
- balancer run a cluster balancing utility
- fetchdt fetch delegation token from the NameNode
- jobtracker run the MapReduce job Tracker node
- pipes run a Pipes job
- tasktracker run a MapReduce task Tracker node
- historyserver run job history servers as a standalone daemon
- job manipulate MapReduce jobs
- queue get information regarding JobQueues
- version print the version
- jar <jar> run a jar file
- distcp <srcurl> <desturl> copy file or directories recursively
- archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
- classpath prints the class path needed to get the
- Hadoop jar and the required libraries
- daemonlog get/set the log level for each daemon
- or
- CLASSNAME run the class named CLASSNAME
0 0
- hadoop入门:hadoop使用shell命令总结
- Hadoop shell 命令使用
- Hadoop 常用命令--------shell命令
- Hadoop Shell命令
- Hadoop Shell命令
- hadoop shell 命令
- Hadoop Shell命令
- Hadoop FS Shell命令
- hadoop shell 命令
- Hadoop FS Shell命令
- Hadoop Shell命令大全
- Hadoop FS Shell命令
- Hadoop Shell命令
- Hadoop Shell命令
- hadoop 文件系统shell命令
- Hadoop FS Shell命令
- hadoop shell 命令
- hadoop shell 命令
- JVM实用参数(四)内存调优
- Android Webview加载网页时发送HTTP头信息
- 2008server 共享您没有权限访问\\IP\d,请与网络管理员联系请求访问权限
- 在ArcGIS Desktop中进行三参数或七参数精确投影转换
- 酷狗音乐播放器2014 v7.6.1.0 官方免费版
- hadoop入门:hadoop使用shell命令总结
- LeetCode——Valid Palindrome
- xcknkc scl
- MVC和Observer
- 六类qsort排序方法
- fdfvdvvcbv
- cocos2d-x读取ZIP中的图片名称
- 十字链表的定义及C语言描述
- 知道自己能做什么,比想做什么更重要