hadoop与zookeeper完全分布式安装
来源:互联网 发布:java培训机构大全 编辑:程序博客网 时间:2024/04/29 09:15
集群配置
注:打勾的说明,本台主机配置有该项服务。服务全称为:
NN : NameNode
DN : DataNode
RM : ResourceManager
NM : NodeManager
ZK : ZooKeeper
JN : JournalNode(最后的参考文章第一篇是这个服务作用的解释)
本文章各组件安装地址:
zookeeper : /usr/local/zookeeper
hadoop : /usr/local/hadoop
安装JDK
参考http://blog.csdn.net/qq_806913882/article/details/53511741中的JDK安装。
更改主机名称
这一步不是必须,如果担心无法准确将本文章中的配置文件中的主机名替换成自己的主机名,可以把自己的主机名修改成与本文章一样。这样可以避免更改本文章中的配置文件。
# 打开主机名配置文件vi /etc/sysconfig/network# 更改主机名,修改HOSTNAME=?,?即是本机名。例如,修改本机名为node1,则HOSTNAME=node1#保存退出,主机名需要重启才能生效。
配置网络映射
给每台主机配置到其他主机的网络映射。
# 打开 /etc/hostsvi /etc/hosts# 添加一下内容到hosts,主机名称,ip地址等,由自己的集群确定。192.168.20.128 node1192.168.20.129 node2192.168.20.130 node3192.168.20.131 node4
配置ssh免密码登录
安装ssh服务
# 查看是否安装了ssh服务rpm -qa | grep openssh# 如果没有安装ssh服务,则安装sshyum install ssh
配置ssh免密码登录
各节点启动时需要通信,所以要配置ssh免密码登录,以保证各服务正确启动。以node1的root用户为例配置,其余节点步骤相同。
# 生成公钥ssh-keygen -t rsa# 将公钥发送给各个主机,包括自己。ssh-copy-id -i /root/.ssh/id_rsa.pub root@node1ssh-copy-id -i /root/.ssh/id_rsa.pub root@node2ssh-copy-id -i /root/.ssh/id_rsa.pub root@node3ssh-copy-id -i /root/.ssh/id_rsa.pub root@node4# 测试免密码登录,依次登录到各个主机,观察是否需要密码ssh root@node1exitssh root@node2exitssh root@node3exitssh root@node4exit
其余主机类似配置并测试后,如果任一主机都可以免密码登录到任一主机,则配置成功。
安装zookeeper
下载并解压zookeeper
从hadoop下载网站任选一个版本下载即可,本文章选用zookeeper-3.4.6.tar.gz
下载完毕
cd /usr/local# 下载wget http://apache.fayea.com/zookeeper/zookeeper-3.4.6/zookeeper-3.4.6.tar.gz# 解压tar -zxvf zookeeper-3.4.6.tar.gz #重命名,将zookeeper-3.4.6重命名为zookeepermv zookeeper-3.4.6 zookeeper
配置文档
进入配置文档 cd zookeeper/conf/
配置zoo.cfg
# 如果zoo.cfg不存在,则复制zoo_sample.cfg一份并重命名即可。# 在zoo.cfg添加一下内容# The number of milliseconds of each ticktickTime=2000initLimit=5syncLimit=2dataDir=/usr/local/zookeeper-3.4.5/dataclientPort=2181server.1=node1:2888:3888server.2=node3:2888:3888server.3=node4:2888:3888
配置myid
注:这一步应该在下一步,把zookeeper发送到各个节点之后做。
在zoo.cfg文件中,配置了dataDi的路径,在此路径下创建一个叫myid的文件。此文件要填入的内容是本台主机在zoo.cfg文件中配置的server号。
例如:
# 假设本主机为node3. 在zoo.cfg配置文件中,有 server.2=node3:2888:3888# 所以,本主机的myid文件中,只用写入一个数字 2 即可。
传输zookeeper文件到各个节点
配置完成后,把整个zookeeper文件夹传输到要用本服务的主机上,根据本文开头的集群配置,即把文件夹传输到 node1 node3 node4三台主机上,依旧放在/usr/local目录下。
# 使用scp命令传输,也可使用别的工具传输# 传输给node1scp -r /usr/local/zookeeper root@node1:/usr/local/zookeeper# 传输给node3 scp -r /usr/local/zookeeper root@node3:/usr/local/zookeeper# 传输给node4scp -r /usr/local/zookeeper root@node4:/usr/local/zookeeper
zookeeper配置完成。启动zookeeper的命令为 zkServer.sh start,zookeeper为单独启动,需要每个节点都启动一次。
安装hadoop
下载并解压安装包
参考 http://blog.csdn.net/qq_806913882/article/details/53511741 的第四节 “下载hadoop安装包并安装” 。
创建hadoop工作目录
# 进入hadoop文件夹中cd /usr/local/hadoop# 创建文件mkdir logsmkdir -p tmp/mapred/localmkdir journal
配置hadoop
hadoop-env.sh
# 配置JAVA_HOME环境变量和HADOOP的类路径export JAVA_HOME=/usr/local/jdk1.8.0_51export HADOOP_CLASSPATH=.
hadoop-env.sh
# 配置JAVA_HOME环境变量export JAVA_HOME=/usr/local/jdk1.8.0_51# 配置hadoop的日志文件夹export HADOOP_MAPRED_LOG_DIR="/usr/local/hadoop/logs"
yarn-env.sh
# 配置JAVA_HOME环境变量,这个可以不配,export JAVA_HOME=/usr/local/jdk1.8.0_51
core-site.xml
# 本参数指定默认文件系统的名称。hadoophdfs1 是namenode节点集群的逻辑名,在hdfs-site.xml中配置 <property> <name>fs.defaultFS</name> <value>hdfs://hadoophdfs1</value> </property># 本参数指定Hadoop的临时目录,其它目录会基于此路径。本地目录。 <property> <name>hadoop.tmp.dir</name> <value>/usr/local/hadoop/tmp</value> </property># 本参数是Ha功能,需要一组zookeepr地址,用逗号分隔。各个ZK节点的IP/host,及客户端连接ZK的端口,该端口需与zoo.cfg中的clientPort一致! <property> <name>ha.zookeeper.quorum</name> <value>node1:2181,node3:2181,node4:2181</value> </property># 以分钟为单位的垃圾回收时间,垃圾站中数据超过此时间,会被删除。如果是0,垃圾回收机制关闭。默认关闭,建议开启,建议4320(3天) <property> <name>fs.trash.interval</name> <value>4320</value> </property>
hdfs-site.xml
# 设置副本数 <property> <name>dfs.replication</name> <value>3</value> </property># namenode集群的逻辑名,与core-site.xml的参数fs.defaultFS逻辑名相同。<property> <name>dfs.nameservices</name> <value>hadoophdfs1</value></property># 包含一个NN列表。EXAMPLENAMESERVICE是指具体的nameservice名称,通常就是dfs.nameservices中配置的。值是预备配置的NN的ID。<property> <name>dfs.ha.namenodes.hadoophdfs1</name> <value>nn1,nn2</value></property># 以下四个函数是配置各个namenode的地址和端口# NN的RPC地址和端口<property> <name>dfs.namenode.rpc-address.hadoophdfs1.nn1</name> <value>node1:8020</value></property><property> <name>dfs.namenode.rpc-address.hadoophdfs1.nn2</name> <value>node2:8020</value></property># NN的HTTP地址和端口。0表示任意空闲端口。<property> <name>dfs.namenode.http-address.hadoophdfs1.nn1</name> <value>node1:50070</value></property><property> <name>dfs.namenode.http-address.hadoophdfs1.nn2</name> <value>node2:50070</value></property># 在多个NN中共享存储目录,用于存放edits文件。这个目录,由active写,由standby读,以保持命名空间数据一致。如果是用qj方式,则配置各个journalnode节点的地址和端口。与下面那个参数一起用。<property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://node2:8485;node3:8485;node4:8485/abc</value></property># 这是JournalNode进程保持逻辑状态的路径。这是在linux服务器文件的绝对路径。<property> <name>dfs.journalnode.edits.dir</name> <value>/usr/local/hadoop/journal</value></property># 是否开启自动故障转移。建议开启,true <property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property># 这里配置HDFS客户端连接到Active NameNode的一个java类。<property> <name>dfs.client.failover.proxy.provider.laoxiao</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value></property># 配置active namenode出错时的处理类。当active namenode出错时,一般需要关闭该进程。处理方式可以是ssh也可以是shell。<property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value></property><property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/root/.ssh/id_dsa</value></property>
mapred-site.xml
# 设置使用 yarn框架 <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property># 配置历史作业日志收集参数,参数具体含义和原理可以参看参考文章的第五篇 "Hadoop 2.0中作业日志收集原理以及配置方法" , 可以使用“sbin/mr-jobhistory-daemon.sh start jobhistoryserver”命令启动JobHistory Server。 <property> <name>mapreduce.jobhistory.address</name> <value>node1:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>node1:19888</value> </property> <property> <name>yarn.app.mapreduce.am.staging-dir</name> <value>/mapred</value> </property># MapReduce的缓存数据存储在文件系统中的位置 <property> <name>mapreduce.cluster.local.dir</name> <value>file:/usr/local/hadoop/tmp/mapred/local</value> </property>
yarn-site.xml
# 配置shuffle,配置为:mapreduce.shuffle,在Yarn上开启MR的必须项 <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux- services.mapreduce_shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property># 配置使用HA<property> <name>yarn.resourcemanager.ha.enabled</name> <value>true</value></property># 配置resourcemanager集群<property> <name>yarn.resourcemanager.cluster-id</name> <value>hadoopyarn1</value></property><property> <name>yarn.resourcemanager.ha.rm-ids</name> <value>rm1,rm2</value></property><property> <name>yarn.resourcemanager.hostname.rm1</name> <value>node2</value></property><property> <name>yarn.resourcemanager.hostname.rm2</name> <value>node3</value></property># 配置zookeeper节点<property> <name>yarn.resourcemanager.zk-address</name> <value>node1:2181,node3:2181,node4:2181</value></property>
slaves
# 本文件添加datanode和nodemanager节点的地址node1node3node4
发送hadoop到各个节点
为了寻求便捷,本文章一次性配置好一个hadoop文件夹,然后把此文件夹发送到其余主机、
# 使用scp命令传输,也可使用别的工具传输# 传输给node1scp -r /usr/local/hadoop root@node1:/usr/local/hadoop# 传输给node2 scp -r /usr/local/hadoop root@node2:/usr/local/hadoop# 传输给node3 scp -r /usr/local/hadoop root@node3:/usr/local/hadoop# 传输给node4scp -r /usr/local/hadoop root@node4:/usr/local/hadoop
关闭防火墙
因为节点之间要相互通信,所以要关闭各个节点的防火墙,以node1为例关闭防火墙,需要root权限
# 关闭防火墙service iptables stop# 关闭防火墙的开机自启,下次开机,防火墙不再启动chkconfig iptables off
配置环境变量
各个节点都需要配置,也可将配置内容写到一个 .sh 文件中,然后发送到每个主机的/etc/profile.d/目录下。
# 在 /etc/profile文件最后添加如下内容,# 配置zookeeper环境变量export ZOOKEEPER_HOME=/usr/local/zookeeperexport PATH=${PATH}:${ZOOKEEPER_HOME}/bin# 配置JDKexport JAVA_HOME=/usr/local/jdk1.8.0_51export JRE_HOME=/usr/local/jdk1.8.0_51/jreexport PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATHexport CLASS_PATH=.:$JAVA_HOME/lib:$JRE_HOME/lib# 配置 hadoopexport HADOOP_HOME=/usr/local/hadoopexport PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/binexport CLASS_PATH=$CLASS_PATH:$HADOOP_HOME/lib
启动
初始化启动
第一次启动集群时需要做一些初始化工作,请依次执行,这个流程只是第一次启动时使用,以后启动使用正常化启动的流程。
启动zookeeper
#每个拥有zookeeper服务的节点都要执行启动, #启动三个zookeeper: ./zkServer.sh start
启动journalnode
#启动三个JournalNode:./hadoop-daemon.sh start journalnode
启动hdfs
#在其中一个namenode上格式化:hdfs namenode -format#把刚刚格式化之后的元数据拷贝到另外一个namenode上#启动刚刚格式化的namenode./hadoop-daemon.sh start namenode#在没有格式化的namenode上执行:hdfs namenode -bootstrapStandby#启动第二个namenode./hadoop-daemon.sh start namenode#在其中一个namenode上初始化zkfc:hdfs zkfc -formatZK#停止上面节点:stop-dfs.sh#全面启动:start-dfs.sh
正常启动
一般来说,集群的启动都是使用脚本的,本文章以脚本形式来启动
#!/bin/bash#启动zookeeperssh root@node1 "zkServer.sh start" < /dev/null > /dev/nullssh root@node3 "zkServer.sh start" < /dev/null > /dev/nullssh root@node4 "zkServer.sh start" < /dev/null > /dev/null#启动hdfsssh root@node1 "start-dfs.sh" < /dev/null > /dev/null#启动yarnssh root@node2 "start-yarn.sh" < /dev/null > /dev/nullssh root@node3 "yarn-daemon.sh start resourcemanager" < /dev/null > /dev/null
查考文章
Hadoop Journal Node 作用
https://my.oschina.net/u/189445/blog/661561
hadoop配置参数汇总
https://segmentfault.com/a/1190000000709725
【甘道夫】Hadoop2.2.0 NN HA详细配置+Client透明性试验【完整版】
http://blog.csdn.net/u010967382/article/details/30976935
Hadoop2.2.0集群的HA高可靠的最简单配置
http://www.linuxidc.com/Linux/2014-01/95794p2.htm
Hadoop 2.0中作业日志收集原理以及配置方法
http://dongxicheng.org/mapreduce-nextgen/hadoop-2-0-jobhistory-log/
- hadoop与zookeeper完全分布式安装
- Hadoop完全分布式集群安装zookeeper集群
- ZooKeeper完全分布式安装与配置
- ZooKeeper完全分布式安装与配置
- ZooKeeper完全分布式安装与配置
- zookeeper完全分布式安装
- 完全分布式安装Hadoop,Hive,Hbase,Hwi,Zookeeper
- hadoop分布式安装zookeeper
- Hadoop完全分布式系统安装与配置
- Hadoop集群完全分布式安装与配置
- hadoop完全分布式安装
- 完全分布式安装hadoop
- Hadoop完全分布式安装
- hadoop完全分布式安装
- Hadoop完全分布式安装
- Hadoop完全分布式安装
- Hadoop完全分布式安装
- Hadoop完全分布式安装
- hadoop学习笔记
- Jquery 版本兼容性 attr("checked") 返回undefined或失效
- zmq_recvmsg
- React Native之样式
- kdtree&knn
- hadoop与zookeeper完全分布式安装
- 15.3 写入二进制数据
- throw 和 throws
- 五个典型的JavaScript面试题
- 更新JAVA最新JDK遇到的问题
- 编译超过2000+错误Error:warning: Ignoring InnerClasses attribute for an anonymous inner class
- zmq_send
- 15.4 ZIP文档
- Java 面试题