hadoop无法启动常见问题

来源:互联网 发布:origin数据分析软件 编辑:程序博客网 时间:2024/05/21 09:28
1、启动hadoop,发现namenode未启动,其他进程可正常启动
   解决办法--可以将所有服务停掉,然后重新格式化namenode;bin/hadoop namenode -foramt;
2.  每次机器重启了,namenode都启动不了,造成到原因可能是
   
在core-site.xml配置中hadoop.tmp.dir的目录在系统启动时被清空


[html] view plaincopy
01.</pre><pre name="code" class="html"><property>  
02.    <name>hadoop.tmp.dir</name>  
03.    <value>/tmp/hadoop/hadoop-${user.name}</value>  
04.  </property>  



两种解决方案

   (1)进入hadoop到目录

           > bin/stop-all.sh

           > hadoop namenode -format

           > bin/start-all.sh

           > jps 查看namenode已经启动


          这种方式讲以前到数据全都格式化掉了

   (2)更该hadoop.tmp.dir的目录

[html] view plaincopy
01.<property>     
02.       <name>hadoop.tmp.dir</name>    
03.       <value>/home/leecho(你的账户名)/tmp</value>     
04.</property>    
   只要那个目录不会清空就可以了

3.两次或者两次以上的格式化namenode造成的,
  原因:每次格式化都会有一个新的namenode,但是以前的datanodeID却不会删除,所以启动不了
  解决办法有两种:
  (1)删除namenode的所有资料
  (2)修改namenode的namespaceID(在/dfs/name/current/VERSION文件中),使其一致。