Hadoop Overview显示Livenode为0
来源:互联网 发布:java实现ftp断点续传 编辑:程序博客网 时间:2024/06/13 04:00
CentOS 6.6 + JDK1.7 + hadoop 2.7.2
拓扑结构:1 master,2 slaves。
hadoop安装路径: /data/hadoop/hadoop-2.7.2/
问题:
1. http://master-ip:50070/ 里面看到livenode 是 0;
2. bin/hadoop dfs -mkdir /testdir 可以,但是 -put ./test.txt /testdir/就报错,说datanode is 0.
解(踩)决(坑)步骤:
1. sbin/stop-all.sh 先关闭;删除 hadoop的tmp目录,删除hdfs/下所有目录;sbin/start-all.sh重启,依旧没解决。
2. 查看防火墙,/etc/init.d/iptables status 显示not running;任性依旧关闭 /etc/init.d/iptables stop。重启hadoop(sbin/stop-all.sh && sbin/start-all.sh),依旧没解决。
3. 查看磁盘空间,/data 是单独磁盘,使用率很低,排除磁盘满原因。
4. 编辑/etc/hosts文件,只留这几行,删除其它的。重启网络 /etc/init.d/network restart,重启hadoop(sbin/stop-all.sh && sbin/start-all.sh),解决。
127.0.0.1 localhost:1 localhost10.120.9.107 master10.120.9.108 slave110.120.9.109 slave2
效果图
1 0
- Hadoop Overview显示Livenode为0
- Hadoop初始LiveNode个数为0
- 启动Hadoop集群失败,LiveNode 0
- Hadoop Overview
- Hadoop 3.0.0-α1:common:overview
- 【Hadoop】RPC Overview
- Eclipse为Hadoop类设置Javadoc显示
- hadoop集群完全分布式模式,为什么打开localhost:50070的时候 看到的livenode只有1个(本机)
- hadoop datanode结点不启动导致dfs控制台显示数据0(Configured Capacity为0)
- hadoop 搭建3节点集群,遇到Live Nodes显示为0时解决办法
- Hadoop Distributed FileSystem (HDFS) Architectural Documentation - Overview
- hadoop用vmare虚拟机实现桥接分布式,现实Livenode有4个,但是没有ResourceManager、SecondrryNameNode、JobHistoryServer 这几个 进程。
- Android Performance(0) OverView
- Android Performance(0) OverView
- Overview
- Overview
- Overview
- Overview
- ORB_SLAM2安装配置,运行实例
- Redis 命令
- MyBatis之ResultMap简介,关联对象
- artDialog 配置参数
- MATLAB中deconv函数用法
- Hadoop Overview显示Livenode为0
- ruby部署之Heroku
- linux后台执行命令:&和nohup
- IplImage* cvCapture* 的释放
- 7. Reverse Integer
- 【转载】C# 中的委托和事件(详解:简单易懂的讲解)
- Linux下串口通信详解(上)打开串口和串口初始化详解
- Leetcode-112 Path Sum
- 牛客网 好多鱼!(java实现)