hadoop 节点链接不通、datanode无法启动问题解决

来源:互联网 发布:优化一个网站多少钱 编辑:程序博客网 时间:2024/06/06 07:08

datanode启动失败很可能是节点连通问题
一般来说,节点之间链接失败不外乎以下几个错误:

1、之前配置过ssh,信任hosts冲突

删除 ~/.ssh/konwn_host 文件

# rm /root/.ssh/konwn_hosts

因为保不齐有其他问题,实际推荐的是删除.ssh下的所有内容,然后ssh-keygen重新生成

rm -rf /root/.ssh/*

2、防火墙未关闭

CentOS 7开始改用firewall控制防火墙

# systemctl stop firewalld.service# systemctl disable firewalld.service

也可以用老方法,安装iptables,利用iptables关闭

# yum install iptables

立即生效重启后失效

# service iptables stop

重启后生效:

# chkconfig iptables off 

3、ssh权限问题

ssh对文件权限有明确的要求: .ssh文件夹700 authorized_keys 600,此错误一般会显示:Read from socket failed: Connection reset by peer

改正

# chmod 700 /root/.ssh# chmod 600 /root/.ssh/authorized_keys

4、使用了DSA秘钥

这也是我第一次ssh失败发现的错误,当时系统是ubuntu16.04,后来查看/etc/ssh/sshd_config 的时候发现竟然没有DSA相关配置信息,当然这里你可以加上配置信息,或者直接就换成RSA秘钥,CentOS是默认有DSA的配置信息的,如果用的CentOS应该没有这个问题

0 1
原创粉丝点击