hadoop 启动的时候datanode无法启动

来源:互联网 发布:哈工大gpa算法 编辑:程序博客网 时间:2024/06/07 13:02

网上找过一些资料 。 

对于这一错误的主要解决方法是在两个方面。

1 防火墙   

 我使用的 ubuntu  关闭 防火墙  sudo  ufw disable     。这个我前面配置时 已经关闭了 ,而且这个防火墙默认是关闭的 。 不过最后在试一试 , sudo ufw statu 查询状态 ,这个也是大部分小白的错误。

 2  hosts 文件

   这个是在配置ip 地址错误,  在 127.0.0.1  后添加了自己的用户名等。 


这个是我的配置文件


3  文件冗余问题

 这个就是我的问题 , 因为之前我配置过一次  fs.defaultFS   hdfs://master8020  ,之后 又改成 hdfs://master:9000

然后就直接格式化了, 后来发现 节点连接不上了 。试了上面两个方法。都不好使。

之后发现hadoop namenode -format  可能 不会重新初始化一些文件后,猜测可能是新接口 旧文件中接口不匹配的问题 。

我将 core-site.xml 中配置的  hadoop.tmp.dir  路径下的 文件删除了 。  

 还有 hdfs-site.xml 中配置的 dfs.namenode.name.dir 下 的 name  和 dfs.datanode.data.dir 下的 data 文件夹里的文件删除。

最后 将 hadoop 中 logs 中的日志文件删除 ,这是为了更好查看日志文件 。 可以随意了 。

然后我重新格式化了hdfs    :   hadoop  namenode -format  

然后 重亲启动 就成功了。 

可以通过  netstat  -ntlp 查看端口。




 



0 0