Hadoop+yarn搭建
来源:互联网 发布:淘宝网hd下载 编辑:程序博客网 时间:2024/06/08 02:28
多机版生产环境搭建(HDFS+yarn)
1.准备四台linux主机
2.配置每台虚拟机网卡eth0
[root@100 /]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
HWADDR=00:0C:29:7D:83:D6
TYPE=Ethernet
UUID=7cdb9398-f9ef-46f0-b29a-ad2e372a71ec
ONBOOT=yes
NM_CONTROLLED=none
BOOTPROTO=none
IPADDR=192.168.17.100
NETMASK=255.255.255.0
3.修改/etc/hosts文件并修改主机名
[root@100 /]# vim /etc/hosts
192.168.17.100 NameNode1
192.168.17.101 NameNode2
192.168.17.102 DataNode1
192.168.17.103 DataNode2
[root@100 /]# vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=NameNode1
4.关闭防火墙
service iptables stop
chkconfig iptables off
5.关闭selinux
[root@100 桌面]# cat /etc/selinux/config
# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of these two values:
# targeted - Targeted processes are protected,
# mls - Multi Level Security protection.
SELINUXTYPE=targeted
6.配置java环境
首先下载tar包
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
检查并卸载OpenJDK
第一步检查系统是否自带了OpenJDK以及相关安装包,如果有的话则应先将其卸载。
检查命令:
java -version
rpm -qa | grep java
如果发现有安装好的OpenJDK以及安装包的话那么首先依次执行卸载。
卸载命令:eduler
rpm -e – -nodeps tzdata-java-2012c-1.el6.noarch
rpm -e – -nodeps java-1.6.0-openjdk-1.6.0.0-1.45.1.11.1.el6.x86_64
直接复制上面的命令到xshell会出错,务必注意–nodeps前的两个横杠,注意自行修改。
解压安装
将安装文件上传到linux服务器后,进入到该目录执行解压安装:
tar -zxvf jdk-7u75-linux-x64.tar.gz
解压完成后创建一个新的java目录并将刚刚解压的jdk目录移动到我们创建的目录:
mkdir /java
mv ./jdk1.7.0_75 /java/
最后再删除安装文件:
rm -rf jdk-7u75-linux-x64.gz
安装完成后需要配置一下环境变量,编辑/etc/profile文件:
vi /etc/profile
在文件尾部添加如下配置:
export JAVA_HOME=/java/jdk1.7.0_75
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
编辑完成后记得输入:wq保存退出。
通过source命令重新加载/etc/profile文件,使得修改后的内容在当前shell窗口有效:
source /etc/profile
测试
输入java -version查看一下jdk版本信息:
注意事项:hadoop2.6版本用1.6的jkd,而Hadoop2.7则需要1.7以上版本,在安装java前先确定hadoop版本号
7.配置四台机器免密码登录
ssh-keygen -t rsa -P “”
建立.ssh/authorized_keys
8.修改配置文件
vim core-site.xml
vim hdfs-site.xml
vim yarn-site.xml
vim mapred-site.xml
vim slave
vim hadoop-env.sh
vim fairscheduler.xml
9启动Hadoop集群:
Step1 :
在各个JournalNode节点上,输入以下命令启动journalnode服务:
sbin/hadoop-daemon.sh start journalnode
Step2:
在[nn1]上,对其进行格式化,并启动:
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode
Step3:
在[nn2]上,同步nn1的元数据信息:
bin/hdfs namenode -bootstrapStandby
Step4:
启动[nn2]:
sbin/hadoop-daemon.sh start namenode
经过以上四步操作,nn1和nn2均处理standby状态
Step5:
将[nn1]切换为Active
bin/hdfs haadmin -transitionToActive nn1
Step6:
在[nn1]上,启动所有datanode
sbin/hadoop-daemons.sh start datanode
10关闭Hadoop集群:
在[nn1]上,输入以下命令
sbin/stop-dfs.sh
1.准备四台linux主机
2.配置每台虚拟机网卡eth0
[root@100 /]# cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
HWADDR=00:0C:29:7D:83:D6
TYPE=Ethernet
UUID=7cdb9398-f9ef-46f0-b29a-ad2e372a71ec
ONBOOT=yes
NM_CONTROLLED=none
BOOTPROTO=none
IPADDR=192.168.17.100
NETMASK=255.255.255.0
3.修改/etc/hosts文件并修改主机名
[root@100 /]# vim /etc/hosts
192.168.17.100 NameNode1
192.168.17.101 NameNode2
192.168.17.102 DataNode1
192.168.17.103 DataNode2
[root@100 /]# vim /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=NameNode1
4.关闭防火墙
service iptables stop
chkconfig iptables off
5.关闭selinux
[root@100 桌面]# cat /etc/selinux/config
# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of these two values:
# targeted - Targeted processes are protected,
# mls - Multi Level Security protection.
SELINUXTYPE=targeted
6.配置java环境
首先下载tar包
http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
检查并卸载OpenJDK
第一步检查系统是否自带了OpenJDK以及相关安装包,如果有的话则应先将其卸载。
检查命令:
java -version
rpm -qa | grep java
如果发现有安装好的OpenJDK以及安装包的话那么首先依次执行卸载。
卸载命令:eduler
rpm -e – -nodeps tzdata-java-2012c-1.el6.noarch
rpm -e – -nodeps java-1.6.0-openjdk-1.6.0.0-1.45.1.11.1.el6.x86_64
直接复制上面的命令到xshell会出错,务必注意–nodeps前的两个横杠,注意自行修改。
解压安装
将安装文件上传到linux服务器后,进入到该目录执行解压安装:
tar -zxvf jdk-7u75-linux-x64.tar.gz
解压完成后创建一个新的java目录并将刚刚解压的jdk目录移动到我们创建的目录:
mkdir /java
mv ./jdk1.7.0_75 /java/
最后再删除安装文件:
rm -rf jdk-7u75-linux-x64.gz
安装完成后需要配置一下环境变量,编辑/etc/profile文件:
vi /etc/profile
在文件尾部添加如下配置:
export JAVA_HOME=/java/jdk1.7.0_75
export CLASSPATH=.:$JAVA_HOME/jre/lib/rt.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
编辑完成后记得输入:wq保存退出。
通过source命令重新加载/etc/profile文件,使得修改后的内容在当前shell窗口有效:
source /etc/profile
测试
输入java -version查看一下jdk版本信息:
注意事项:hadoop2.6版本用1.6的jkd,而Hadoop2.7则需要1.7以上版本,在安装java前先确定hadoop版本号
7.配置四台机器免密码登录
ssh-keygen -t rsa -P “”
建立.ssh/authorized_keys
8.修改配置文件
vim core-site.xml
vim hdfs-site.xml
vim yarn-site.xml
vim mapred-site.xml
vim slave
vim hadoop-env.sh
vim fairscheduler.xml
9启动Hadoop集群:
Step1 :
在各个JournalNode节点上,输入以下命令启动journalnode服务:
sbin/hadoop-daemon.sh start journalnode
Step2:
在[nn1]上,对其进行格式化,并启动:
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode
Step3:
在[nn2]上,同步nn1的元数据信息:
bin/hdfs namenode -bootstrapStandby
Step4:
启动[nn2]:
sbin/hadoop-daemon.sh start namenode
经过以上四步操作,nn1和nn2均处理standby状态
Step5:
将[nn1]切换为Active
bin/hdfs haadmin -transitionToActive nn1
Step6:
在[nn1]上,启动所有datanode
sbin/hadoop-daemons.sh start datanode
10关闭Hadoop集群:
在[nn1]上,输入以下命令
sbin/stop-dfs.sh
阅读全文
0 0
- Hadoop Yarn 集群搭建
- Hadoop+yarn搭建
- 搭建Hadoop Yarn on Docker
- hadoop-2.0.2-alpha(yarn)集群搭建
- Hadoop 2.2.0 (YARN)搭建笔记
- Hadoop 2.2.0 (YARN)搭建笔记
- Hadoop 2.2.0 (YARN)搭建笔记
- hadoop集群搭建HDFS、HA、 YARN
- hadoop集群搭建HDFS、HA、 YARN
- Hadoop-2.7.3集群(YARN)搭建
- Hadoop集群搭建(HDFS和Yarn集群)
- Hadoop YARN
- Hadoop YARN
- Hadoop-yarn
- hadoop yarn
- Hadoop ---- YARN
- Hadoop Yarn
- Hadoop 2.2 YARN分布式集群搭建配置流程
- JPA EntityManager的四个主要方法:persist,merge,refresh和remove
- JTA 深度历险
- leetcode Majorty Element
- lintcode 中等题:Coins in Line II 硬币排成线 II
- 心无旁骛 目标明确
- Hadoop+yarn搭建
- 第三周-项目二 建立自己的算法库
- DB2存储过程中的异常处理
- Mac下Terminal路径显示配置
- 数组中出现次数最多的数及出现次数
- hiho一下第167周数组重排
- s1s3h3框架整合插入数据报错 No value specified for parameter 3 id没有自动生成
- 机器学习
- 二进制文件编译器汇总