Hadoop多节点集群配置
来源:互联网 发布:淘宝服装代理加盟 编辑:程序博客网 时间:2024/05/16 13:47
data1配置(步骤针对虚拟机virtualbox2.5.20)
网络配置文件{
sudo gedit /etc/network/interfaces
将下面代码贴到loopback下面一行
#NAT interfaceauto eth0iface eth0 inet dhcp#host only interfaceauto eth1 iface eth1 inet staticaddress 192.168.56.101netmask 255.255.255.0network 192.168.56.0broadcast 192.168.56.255
编辑hostname
sudo gedit /etc/hostname
改为data1
}
编辑hosts文件
sudo gedit /etc/hosts写在127.0.1.1 hadoop 下面那行
192.168.56.100 master192.168.56.101 data1 192.168.56.102 data2 192.168.56.103 data3
编辑core-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml
找到对应改成这个 hdfs://master:9000
编辑yarn-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml在两个类似下面那种的后面写上 如下语句<property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>master:8025</value> </property><property> <name>yarn.resourcemanager.scheduler.address</name> <value>master:8030</value> </property><property> <name>yarn.resourcemanager.address</name> <value>master:8050</value> </property>
编辑mapred-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/mapred-site.xml修改为<configuration><property> <name>mapred.job.tracker</name> <value>master:54311</value> </property></configuration>
编辑hdfs-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml
删除namenode设置
重启data1 可以用 ifconfig 查看ip
关机 完全复制data1到 data2,data3,master 复制过程如果有这个 重新初始化所有网卡的mac地址 就选择 。
设置data2和data3服务器
前面网络配置括号部分走一遍,改动为
address 192.168.56.10× ×为data×
hostname为对应data节点名字,只进行这两处修改
完成后都关机
设置master服务器
第一步进行和设置data2的类似,但是×是0 名字是master
编辑hdfs-site.xml
sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml 不能打开就重启设置namenode 不要datanodedfs.namenode.name.dir file:/usr/local/hadoop/hadoop_data/hdfs/namenode
编辑master文件
sudo gedit /usr/local/hadoop/etc/hadoop/master输入master
编辑slaves文件
sudo gedit /usr/local/hadoop/etc/hadoop/slaves输入 data1data2data3
都关机,之后都开启
master连接到data1,data2,data3创建hdfs目录
在master中 ssh data1 sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs sudo mkdir -p /usr/local/hadoop/hadoop_data/hdfs/datanode sudo chown hduser:hduser -R /usr/local/hadoop exit之后ssh data2 和ssh data3做类似的操作(ssh 后面的名字要改其他一样)
创建并格式化namenode hdfs目录
sudo rm -rf /usr/local/hadoop/hadoop_data/hdfs mkdir -p /usr/local/hadoop/hadoop_data/hdfs/namenode sudo chown -R hduser:hduser /usr/local/hadoophadoop namenode -format
启动Hadoop multinode cluster
start-all.sh 启动hdfs和yarn查看目前所執行的行程jps可以通过ssh data1 jpsexit来查看各个节点的进程Hadoop ResourceManager Web界面http://master:8088/开启namenode 界面http://master:50070/
阅读全文
0 0
- Hadoop多节点集群配置
- Hadoop多节点集群安装配置
- Hadoop多节点集群安装配置
- Hadoop多节点集群安装配置
- Hadoop多节点集群安装配置
- hadoop多节点集群安装配置
- Hadoop 单节点集群配置
- Hadoop 单节点集群配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- 一步步教你Hadoop多节点集群安装配置
- [机器学习案例1]基于KNN手写数字识别
- Android NDK系列(二)-AS使用CmakeLists生成so文件
- (HDU
- 蒙特卡洛模拟计算PI
- 网络通讯控件PowerSNMP for .NET常见问题合集
- Hadoop多节点集群配置
- java报错java.lang.UnsupportedClassVersionError: com/xingfeng/test/QuartzTest : Unsupported major.minor
- 在写JS时的小工具
- 7 款开源 Java 反编译工具
- ajax后台执行成功,却回调error
- 动态方式破解apk前奏篇学习笔记
- 常用排序算法总结
- 基于webrtc的apprtc服务器搭建(ubuntu14.04 64位)
- java的练习