centos7下hadoop2.7完全分布式集群搭建
来源:互联网 发布:avena 36一盒粉末淘宝 编辑:程序博客网 时间:2024/06/15 20:20
1. 准备
(一)软件准备
1.hadoop-2.7.3.tar.gz
2.jdk-8u91-linux-x64.rpm(二)环境准备
1.已经配置好网络的centos7虚拟机,详情见Virtual Box配置CentOS7网络
个人建议主节点最少2G内存和20G磁盘,子节点最少1G内存10G磁盘,(主要看你集群需要运行的组件有哪些)
2. 安装步骤
ssh免密配置
在每台机子上生成公钥:
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
在给自己发送一份:
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
在主节点上将主节点的公钥拷贝到各个子节点上:
scp ~/.ssh/id_dsa.pub root@slave2:~/
在各个子节点上将拷贝来的公钥发给自己:
cat ~/id_dsa.pub >> ~/.ssh/authorized_keys
安装jdk
rpm -ivh jdk-8u91-linux-x64.rpm
安装后JAVA_HOME=/usr/java/default安装hadoop
解压:tar zxvf hadoop-2.7.3.tar.gz
修改文件名:mv hadoop-2.7.3 hadoop
配置hadoop集群
创建文件:
创建hadoop数据文件的目录:mkdir /home/hadoopdir
创建储存临时文件:mkdir /home/hadoopdir/tmp
创建dfs系统使用的dfs系统名称:mkdir /home/hadoopdir/dfs/name
创建dfs系统使用的数据文件hdfs-site.xml文件使用:mkdir /home/hadoopdir/dfs/data
配置环境变量vim /etc/profile
在profile文件尾端加上
export PATH=${HADOOP_INSTALL}/bin:${HADOOP_INSTALL}/sbin${PATH}
保存退出后执行:source /etc/profile
以下步骤进入到目录:cd /usr/local/hadoop/etc/hadoop
修改core-site.xml
<configuration><property><name>fs.defaultFS</name> <value>hdfs://master:9000</value></property><property> <name>io.file.buffer.size</name><value>131072</value></property><property> <name>hadoop.tmp.dir</name> <value>file:/home/hadoopdir/tmp/</value> <description>A base for other temporary directories.</description></property><property> <name>hadoop.proxyuser.hadoop.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hadoop.groups</name> <value>*</value> </property></configuration>
修改hafs-site.xml
<configuration><property> <name>dfs.namenode.name.dir</name> <value>file:///home/hadoopdir/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///home/hadoopdir/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property></configuration>
修改mapred-site.xml
文件mapred-site.xml是没有的,需要复制mapred-site.xml.template为mapred-site.xml
先复制:cp mapred-site.xml.template mapred-site.xml
然后进行修改:vim mapred-site.xml
<configuration><property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>Master:10020</value> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>Master:19888</value> </property> <property> <name>mapreduce.jobtracker.http.address</name> <value>Master:50030</value> </property> <property> <name>mapred.job.tracker</name> <value>Master:9001</value> </property></configuration>
修改yarn-site.xml
<configuration><!-- Site specific YARN configuration properties --> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property><property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>master:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>master:8033</value> </property> <property> <name>yarn.resourcemanager.webapp.address</name> <value>master:8088</value> </property></configuration>
修改core-site.xml文件
<configuration><property> <name>fs.defaultFS</name> <value>hdfs://master:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/hadoopdir/tmp/</value> <description>A base for other temporary directories.</description> </property> <property> <name>hadoop.proxyuser.hadoop.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hadoop.groups</name> <value>*</value> </property></configuration>
修改slaves文件
slave1slave2
格式化集群hadoop namenode -format
发送dfs内容给slave1:scp -r /home/hadoopdir/dfs/* Slave1:/home/hadoopdir/dfs
发送dfs内容给slave2:scp -r /home/hadoopdir/dfs/* Slave2:/home/hadoopdir/dfs
启动集群: ./sbin/start-all.sh
- centos7下hadoop2.7完全分布式集群搭建
- centos7搭建hadoop2.7.2完全分布式集群
- CentOS7下搭建hadoop2.7.3完全分布式
- CentOS7搭建Hadoop2.6完全分布式集群环境
- CentOS7搭建HBase1.0完全分布式集群(Hadoop2.6)
- centos7 搭建hadoop2.7.3完全分布式集群环境
- Ubantu下搭建Hadoop2.x完全分布式集群
- windows+vmware+centos7+hadoop2.7搭建伪分布式集群
- hadoop2.7完全分布式集群搭建以及任务测试
- 【Hadoop】hadoop2.7完全分布式集群搭建以及任务测试
- VM+CentOS+hadoop2.7搭建hadoop完全分布式集群
- 搭建hadoop完全分布式集群VM+CentOS+hadoop2.7
- hadoop2.2.0完全分布式集群搭建
- hadoop2.x 完全分布式详细集群搭建
- Hadoop2.7.3完全分布式集群搭建
- 搭建hadoop2.6.0完全分布式集群
- hadoop2.7.1在vmware上3台centos7虚拟机上的完全分布式集群搭建
- centos7(vm)下hadoop2.7.2完全分布式安装验证(x86)-hadoop3节点集群(2副本)
- saber (线段树维护dp)
- ctf/web源码泄露及利用办法【总结中】
- 2017.10.6 P97-zhx
- Hadoop安装教程_伪分布式配置
- 换了电脑了,之前电脑上安装svn和git的时候,图标是都可以正常显示的,但是这次出了问题,废了好多时间才解决了,所以想记录一下解决
- centos7下hadoop2.7完全分布式集群搭建
- ZigBee CC2530 Z-Stack 28 终端设备低功耗模式与电池寿命2-实验
- linux 文件操作命令
- klocwork 12.2
- log4j的配置和使用
- learn python第四章:异常处理机制和文件夹(第二节:异常处理机制)
- POJ 1721 CARDS(置换+循环节)
- < 笔记 > Java SE
- VS Code C++开发常用文件过滤设置