搭建Hadoop开发环境
来源:互联网 发布:淘宝联盟网页版怎么用 编辑:程序博客网 时间:2024/05/20 00:13
1. 安装
这里假定我们运行Hadoop集群的三台机器名分别为fanbinx1,fanbinx2,fanbinx3。其中fanbinx1作为master节点,fanbinx2和fanbinx3作为slave节点。
另外我们hadoop的2.5.1的安装包安装到各个机器的/opt/hadoop目录下,为了说明方便我们这里使用$HADOOP_HOME来代替/opt/hadoop目录
并在此目录下创建下面三个目录
2. 配置
这里一共需要修改hadoop的下面几个配置文件和脚本文件
2.1 $HADOOP_HOME/etc/hadoop/hadoop-env.sh指定JAVA_HOME环境变量
2.2 $HADOOP_HOME/etc/hadoop/yarn-env.sh指定JAVA_HOME环境变量
2.3 $HADOOP_HOME/etc/hadoop/core-site.xml
2.4 $HADOOP_HOME/etc/hadoop/hdfs-site.xml
2.5 $HADOOP_HOME/etc/hadoop/mapred-site.xml
2.6 $HADOOP_HOME/etc/hadoop/yarn-site.xml
2.7 $HADOOP_HOME/etc/hadoop/slaves这个文件夹用来定义slave节点
2.8 最后需要将这些配置文件复制到另外两个slave节点上。
3. 设置Linux上可以ssh用户可以免密码登录
4. 启动Hadoop集群
4.1 首先格式化namenode
4.2 启动hdfs
在master机器上运行下面命令
在master机器上运行”ps -ef | grep hadoop”可以查看到NameNode和SecondaryNameNode两个hadoop进程
在slave机器上运行”ps -ef | grep hadoop”可以查看到DataNode一个hadoop进程
4.3 启动yarn
在master机器上运行下面命令
在master机器上运行”ps -ef | grep hadoop”可以查看到NameNode,SecondaryNameNode和ResourceManager三个hadoop进程
在slave机器上运行”ps -ef | grep hadoop”可以查看到DataNode和NodeManager两个hadoop进程
4.4 验证
在启动了hdfs和yarn之后,可以通过项目两个url来查看状态
查看HDFS:http://fanbin1:50070/
查看RM: http://fanbin1:8088/cluster/
也可以使用下面的命令行来查看集群状态
4.5 这里也可以使他”sbin/start-all.sh”和”sbin/stop-all.sh”来代替启动/停止hdfs和yarn两个服务。
5. 运行示例程序
首先提交作业
查看结果
阅读全文
0 0
- hadoop开发环境搭建
- Hadoop开发环境搭建
- hadoop 开发环境搭建
- hadoop开发环境搭建
- Hadoop开发环境搭建
- hadoop开发环境搭建
- Hadoop开发环境搭建
- 搭建Hadoop开发环境
- 搭建Hadoop开发环境
- Hadoop - Hadoop开发环境搭建
- eclipse搭建hadoop开发环境
- Hadoop本地开发环境搭建
- eclipse搭建hadoop开发环境
- eclipe hadoop 开发环境搭建
- Eclipse搭建hadoop开发环境
- hadoop+eclipse开发环境搭建
- hadoop开发之环境搭建
- 搭建spring-hadoop开发环境
- HDU -- 6113 度度熊的01世界 【搜联通块 + 思维】
- Redis命令
- 基于人机交互设备测量用户情绪。
- UVA10820SendATable
- 【我很简单,请不要欺负我】模拟环境渗透详细记录
- 搭建Hadoop开发环境
- 【字符串·Trie】uva3942 Remember the words
- STL——set
- connect()函数阻塞和非阻塞问题解决
- C语言小项目-万年历
- Scala学习之三Scala_ 下划线占位符语法
- MBR 和 GPT 分区差别
- linux-关机重启命令
- 我理解的设计模式之适配器模式