Hadoop集群启动常见异常

来源:互联网 发布:php 大端 编辑:程序博客网 时间:2024/05/20 09:48

1、hadoop节点的本地工作目录访问异常(权限)

sudo chown -R administor:administor dfs/


2、namenode处于安全模式,导致无法上传数据
namenode在刚刚启动的时候处于安全模式不一定是异常,但是如果启动完成


之后一直不退出安全模式,就有问题,可以用以下指令尝试手动退出    

hdfs namenode -safemode leave  
如果退出不成功,可以查看日志信息或者关闭重启
3、start-dfs.sh后,直接上传文件,发现上传失败抛出异常
排查异常的步骤:
--应该用jps查看一下进程是否正常:namenode  datanode  


secondarynamenode
如果相关进程不存在,查看相关进程的日志文件来分析错误
--如果进程都存在,还存在问题,有可能是进程间的集群协调有问题
hdfs dfsadmin -report  来查看集群的信息


--实在找不到线索,删除tmp目录,然后重新格式化,启动

hadoop namenode -format

4、在Eclipse上传文件失败Permission denied:user=**等

应该是hdfs-site.xml文件里修改吧
<property>
      <name>dfs.permissions</name>
       <value>false</value>
</property>
hdfs dfsadmin -refreshNodes
或者
hdfs fs -chmod 777 /tmp 


0 0
原创粉丝点击