start-dfs.sh 在slave机器中报错

来源:互联网 发布:为奴十二年 知乎 编辑:程序博客网 时间:2024/06/08 11:21

在HADOOP_HOME/logs/hadoop-root-datanode-slave.out文件中发现以下错误

java.io.IOException: Incompatible clusterIDs in /usr/hadoop/tmp/dfs/data: namenode clusterID = CID-cd47cf1e-0f81-41b0-97df-7407db9f1fa5; datanode clusterID = CID-0462092f-2740-40a4-bf96-246be2efc49f

原因:每次执行./hdfs namenode -format进行namenode format时会重新创建一个namenodeId,而tmp/dfs/data下包含了上次format下的id,namenode format清空了namenode机器下的数据,但是没有晴空datanode机器下的数据,导致启动时失败,所要做的就是每次fotmat前,清空tmp一下 的所有目录.

解决方法 ::删除HADOOP_HOME/tmp下的所有内容即可。


 

 

0 0