hadoop启动datanode失败

来源:互联网 发布:手机动漫壁纸软件 编辑:程序博客网 时间:2024/05/22 09:44
在一次启动hadoop集群的时候报了错误,错误如下:
Lock on /opt/hadoop-2.7.3/hdf/data/in_use.lock acquired by nodename 3070@slave01
2017-04-05 10:53:53,046 WARN org.apache.hadoop.hdfs.server.common.Storage: Failed to add storage directory [DISK]file:/opt/hadoop-2.7.3/hdf/data/
java.io.IOException: Incompatible clusterIDs in /opt/hadoop-2.7.3/hdf/data: namenode clusterID = CID-df92c970-784c-498f-95f8-f6c2c069ed8e; datanode clusterID = CID-3ee16648-1d4b-4473-8ac6-ffa59c664bda

namenode clusterID 和 datanode clusterID 的值不一样,造成原因:
在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。
解决方案:
将master中的clusterID的值替换slave机上的/opt/hadoop-2.7.3/hdf/data/下的current下的VERSION文件中的clusterID,再重新启动,注:一定要先关闭集群再重新启动集群,免得集群被玩坏了。