【问题解决】hadoop datanode无法启动

来源:互联网 发布:广电网络市场营销感悟 编辑:程序博客网 时间:2024/06/01 07:36

hadoop 配置描述:namenode: master    secondartynamenode :slave2 datanode: master slave1 slave2


问题描述:master多次执行dfs格式化指令以后,namenode secondarynamenode 启动正常,datanode无法启动

问题产生原因参考:http://blog.sina.com.cn/s/blog_76fbd24d01017qmc.html

采取措施 :

1.运行

sbin/stop-all.sh

停止服务


2.删除所有slave上配置的 hadoop.tmp.dir 的文件夹(本次配置如红标) 然后重新建立新的文件夹

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/modules/hadoop-2.6.0-cdh5.11.1/data/tmp</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
</configuration>


3.删除所有slave上的配置文件(hadoop目录/etc/hadoop/core-site.xml)并从master重新分发到slave上

scp hadoop目标/etc/hadoop/core-site.xml 用户名@s:lave1:hadoop目标/etc/hadoop/

4.master下将hadoop系统格式化 然后重新启动

bin/hdfs namenode -format

sbin/start-dfs.sh

问题解决