Hadoop-2.2.0集群部署时live nodes数目不对的问题
来源:互联网 发布:完美坚持 知乎 编辑:程序博客网 时间:2024/06/06 06:37
关于防火墙,hadoop本身配置都确定没任何问题,集群启动不报错,但打开50070页面,始终live nodes数目不对,于是我尝试/etc/hosts文件配置是否存在逻辑的错误:
127.0.0.1 localhost
192.168.1.233 localhost
# Hadoop
192.168.1.233 ubuntu-233
192.168.1.234 ubuntu-234
192.168.1.235 ubuntu-235
192.168.1.236 ubuntu-236
上面是Master节点的hosts文件配置,233为master,234、235、236为slave节点。
三个slave节点的hosts文件和上面一样,但都没有【192.168.1.23X localhost】那条记录。
【192.168.1.233 localhost】
【192.168.1.233 ubuntu-233】
这两条记录同时配置在master节点的hosts文件中存在逻辑的冲突,
为了做实验,我交换了上面两条记录,于是此时master节点的hosts文件为:
127.0.0.1 localhost
#192.168.1.233 localhost
# Hadoop
192.168.1.233 ubuntu-233
192.168.1.234 ubuntu-234
192.168.1.235 ubuntu-235
192.168.1.236 ubuntu-236
192.168.1.233 localhost
发现启动hadoop集群一切正常。
问题确定是这两条记录引起的:
【192.168.1.233 localhost】
【192.168.1.233 ubuntu-233】
一个ip对应两个名字,Linux系统应该只采纳排序靠头的记录,当之后有同ip的记录时,估计会抛弃。
于是hadoop集群的master节点只知道:【192.168.1.233 localhost】
我这推测,当hadoop的内部机制会把【192.168.1.233 localhost】的映射发送到各个slave节点,最后造成一个回环,每个节点获得namenode的信息都是localhost名字,而具体到各个机器,localhost
反向映射到自己,最后造成集群中一个死路回环。
具体hadoop的内部机制是否如上推测,有待于进一步跟源码。但这或许是一个hadoop的小bug。
最后建议:/etc/hosts文件,一个ip只对应一个有效的机器名字,避免逻辑冗余与回环。
127.0.0.1 localhost
192.168.1.233 localhost
# Hadoop
192.168.1.233 ubuntu-233
192.168.1.234 ubuntu-234
192.168.1.235 ubuntu-235
192.168.1.236 ubuntu-236
上面是Master节点的hosts文件配置,233为master,234、235、236为slave节点。
三个slave节点的hosts文件和上面一样,但都没有【192.168.1.23X localhost】那条记录。
当我在master节点hosts文件中删除【192.168.1.233 localhost】这条记录时,集群启动一切正常,并且能正确识别三个节点,正常上传下载文件。
【192.168.1.233 localhost】
【192.168.1.233 ubuntu-233】
这两条记录同时配置在master节点的hosts文件中存在逻辑的冲突,
为了做实验,我交换了上面两条记录,于是此时master节点的hosts文件为:
127.0.0.1 localhost
#192.168.1.233 localhost
# Hadoop
192.168.1.233 ubuntu-233
192.168.1.234 ubuntu-234
192.168.1.235 ubuntu-235
192.168.1.236 ubuntu-236
192.168.1.233 localhost
发现启动hadoop集群一切正常。
问题确定是这两条记录引起的:
【192.168.1.233 localhost】
【192.168.1.233 ubuntu-233】
一个ip对应两个名字,Linux系统应该只采纳排序靠头的记录,当之后有同ip的记录时,估计会抛弃。
于是hadoop集群的master节点只知道:【192.168.1.233 localhost】
我这推测,当hadoop的内部机制会把【192.168.1.233 localhost】的映射发送到各个slave节点,最后造成一个回环,每个节点获得namenode的信息都是localhost名字,而具体到各个机器,localhost
反向映射到自己,最后造成集群中一个死路回环。
具体hadoop的内部机制是否如上推测,有待于进一步跟源码。但这或许是一个hadoop的小bug。
最后建议:/etc/hosts文件,一个ip只对应一个有效的机器名字,避免逻辑冗余与回环。
0 0
- Hadoop-2.2.0集群部署时live nodes数目不对的问题
- hadoop live nodes: 0 的问题
- Hadoop集群live nodes为0解决方案
- hadoop集群出现live nodes为1的解决方案
- Ubuntu-Hadoop集群live nodes为0解决方案
- hadoop 搭建3节点集群,遇到Live Nodes显示为0时解决办法
- (解决问题)hadoop Live Nodes :0
- Hadoop datanode正常启动,但是Live nodes中却缺少节点的问题
- hadoop集群的部署
- spark-2.2.0 集群安装部署以及hadoop集群部署
- spark-2.2.0 集群安装部署以及hadoop集群部署
- 有hadoop的Live Nodes为1引起的思考
- Hadoop在master查看live nodes为0解决方案
- Hadoop在master查看live nodes为0解决方案
- Hadoop在master查看live nodes为0解决方案
- centos6.6下hadoop搭建live nodes为0解决方案
- 部署Hadoop集群的步骤
- Hadoop集群nodes unhealthy解决方法
- Android 自定义菜单
- Linux下安装jdk1.6
- 黑马程序员---java中this去super的用法
- 关于使用TCP或者其他链接方式时数据接收问题
- WPF
- Hadoop-2.2.0集群部署时live nodes数目不对的问题
- HBase中LeaseException及ClosedChannelException解决办法
- 浪漫雅圆中英文体IOS7完整修改版
- oracle正则表达式regexp_like用法
- java程序执行cmd
- 动态链接库DLL的函数导出
- yii中 注册后需要邮件激活才可以访问 但激活后还是显示未登录
- CType, DirectCast, TryCast语句
- oracle日期函数集锦