Ubuntu12 部署 Hadoop 全流程总结
来源:互联网 发布:java中reflect 编辑:程序博客网 时间:2024/04/28 20:41
环境:
VMware® Workstation 8.0.4 build-744019
ubuntu-12.04-desktop-i386.iso
jdk-7u7-linux-i586.gz
hadoop-0.20.203.0rc1.tar.gz
第一步:搭建虚拟机基础环境
至少需要3台虚拟机才能模拟hadoop的真实运行场景:一台作为master节点,跑namenode和jobtracker进程;两台作为slave节点,跑datanode和tasktracker。
具体过程:
1.安装VMware® Workstation 8.0.4 build-744019
2.使用ubuntu-12.04-desktop-i386.iso装一台虚拟机
3.安装jdk-7u7-linux-i586.gz,具体步骤参见:http://user.qzone.qq.com/26896185/blog/1346764350
4.设置虚拟机的网络连接为bridged模式,这样的话虚拟机就可以和宿主机器在同一个网段;
5.复制两台虚拟机,在VMware中修改机器名以方便识别,具体步骤参见:http://user.qzone.qq.com/26896185/blog/1346553654
6.用VMware加载复制出来的虚拟机,分别修改hostname文件(我将三台机器修改为masternode、slavenode1、slavenode2):当使用VMware加载复制的虚拟机文件时,会提示“是否拷贝过”,选择“拷贝过”,vmware会自动帮修改mac地址等基本信息,但是hostname不会改动,所以复制后的虚拟机hostname和原来的虚拟机一致,千万别忘记手工修改 /etc/hostname 文件,主机名最好与 /etc/hosts 中的地址映射主机名保持一致!!!
7.为三台虚拟机配置固定IP ;
8.为三台虚拟机配置 /etc/hosts ;
9.为每台虚拟机创建专门用来管理Hadoop的用户账号(可以三台都相同,或者在复制之前就创建好,我建的用户是grid);
10.配置SSH免登陆,具体步骤参见 http://user.qzone.qq.com/26896185/blog/1346862626
第二步:安装Hadoop
具体过程:
1.在目标目录解压hadoop安装包(我解压到/home/grid/hadoop);
2.修改hadoop/conf/下的配置文件:hadoop-env.sh , core-site.xml ,hdfs-site.xml ,mapred-site.xml , masters , slaves
hadoop-env.sh 文件主要修改如下语句,用于指明JDK位置:
# The java implementation to use. Required.
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_07
core-site.xml 文件主要编辑如下语句,用于指明namenode的域名/ip和端口:
<property>
<name>fs.default.name</name>
<value>hdfs://masternode:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/grid/hadoop_tmp</value>
<description>A base for other temporary directories.</description>
</property>
hdfs-site.xml 文件主要编辑如下语句,用于指明namenode、datanode的数据存放位置,及数据副本的个数:
<property>
<name>dfs.name.dir</name>
<value>/home/grid/hadoop/namedata</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/grid/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
mapred-site.xml 主要编辑如下语句,用于指明jobtracker进程所在节点的域名/ip和端口:
<property>
<name>mapred.job.tracker</name>
<value>masternode:9001</value>
</property>
masters文件添加master节点的域名或ip地址,我添加的是
masternode
slaves文件添加slave节点的域名或ip地址,我添加的是
slavenode1
slavenode2
3.向各节点复制hadoop文件夹;
4.在master节点上执行命令格式化namenode:hadoop/bin/hadoop namenode -format
5.启动hadoop:hadoop/bin/start-all.sh (相反的关闭hadoop:hadoop/bin/stop-all.sh)
6.用jps检验各后台进程是否成功启动:进入到jdk安装目录,执行 bin/jps,在master节点应该能看到namenode、jobtracker、secondarynamenode 三个进程,在slave节点应该能看到datanode、tasktracker两个进程。
各种报错的解决办法请参见:
http://blog.csdn.net/u010967382/article/details/9069625
和
http://blog.csdn.net/u010967382/article/details/9069623
- Ubuntu12 部署 Hadoop 全流程总结
- ubuntu12上docker部署hadoop集群环境
- Win2k8&&vCenter部署全流程
- Git全流程总结
- VirtualBox+Ubuntu12.04搭建全分布式Hadoop环境
- Cloudera Hadoop集群安装部署,cdh3u6,Ubuntu12.04
- hadoop全分布式系统搭建流程
- 编译Hadoop源码全流程讲解
- hadoop部署过程学习总结
- Hadoop集群部署权限总结
- hadoop安装部署问题总结
- 新安装ubuntu12.04部署项目+mysql安装总结
- Hadoop部署中遇到的错误总结
- hadoop分布式集群部署步骤总结
- hadoop--HA分布式集群部署步骤总结
- hadoop分布式集群部署配置总结
- 虚拟机部署hadoop遇到问题总结
- 在ubuntu部署hadoop之全分布模式
- iOS开发资源:推送通知相关开源项目--PushSharp、APNS-PHP以及Pyapns等
- dataguard-(ORA-16004/ORA-01196/ORA-01110)
- 冯诺依曼和哈佛体系结构的区别
- hadoop集群部署常见问题
- hadoop中datanode无法启动
- Ubuntu12 部署 Hadoop 全流程总结
- hadoop eclipse 插件 安装
- 黑马程序员.Net培训 C#基础知识——数据类型
- hadoop常用命令
- HTTP协议详解
- NGUI制作显示tooltip需要注意的地方
- DOM16---创建/删除指定行数列数
- openDatabase()出错,无法打开
- HBase完全分布式安装