hadoop启动出现异常 java.io.IOException: Incompatible namespaceIDs in

来源:互联网 发布:python socket arp 编辑:程序博客网 时间:2024/06/05 08:51
<span style="font-size:18px;"> </span>

启动hadoop前,需要先对namenode格式化

     

bin/hadoop  namenode  -formatbin/start-all.sh



启动后,有时会出现下面的类似异常:

 

<span style="font-size:18px;">2014-07-14 22:34:49,364 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: java.io.IOException: Incompatible namespaceIDs in /home/huangjinhui/hadoop/hadoop-huangjinhui/dfs/data: namenode namespaceID = 1146077961; datanode namespaceID = 1706635767        at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:233)        at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:148)        at org.apache.hadoop.hdfs.server.datanode.DataNode.startDataNode(DataNode.java:298)        at org.apache.hadoop.hdfs.server.datanode.DataNode.<init>(DataNode.java:216)        at org.apache.hadoop.hdfs.server.datanode.DataNode.makeInstance(DataNode.java:1283)        at org.apache.hadoop.hdfs.server.datanode.DataNode.instantiateDataNode(DataNode.java:1238)        at org.apache.hadoop.hdfs.server.datanode.DataNode.createDataNode(DataNode.java:1246)        at org.apache.hadoop.hdfs.server.datanode.DataNode.main(DataNode.java:1368)  </span>


原因是bin/hadoop  namenode  -format 每次会重新创建一个namenodeId,
保存数据的目录没有删除还下包含了上次format下的id,
namenode -format清空了namenode下的数据,但是没有清空datanode下的数据,
导致启动时失败,所要做的就是每次fotmat前,清空保存数据的目录一下的所有目录;


保存数据的目录默认是 tmp/dfs/data,可以在core-site.xml文件中重新配置保存数据的目录,比如:
  

  <property>          <name>hadoop.tmp.dir</name>          <value>    /home/huangjinhui/hadoop/hadoop-${user.name}     </value>     </property> 


  
  
  
  

0 0