hadoop动态添加节点

来源:互联网 发布:linux 查看文件夹用户 编辑:程序博客网 时间:2024/05/10 17:31

1.修改新节点的/etc/hosts,增加NameNode的主机名与ip

2.设置节点与新节点ssh免密码的登录

3.在新节点安装好Hadoop(NameNode有关配置文件复制到该节点)

4.修改NameNode的配置文件conf/slaves,添加新增节点

5.在新节点的机器上,单独启动该节点上的DataNode和TaskTracker

hadoop-daemon.shstart datanode

hadoop-daemon.shstart tasktracker

6.在NameNode节点执行  hadoop  dfsadmin -refreshNodes

7.均衡block在新节点上执行(如果是增加多个节点,只需在一个新节点,不需要重启集群)

运行start -balancer.sh进行数据负载均衡(不需要重启集群)

注意事项:

1. 必须确保新节点的防火墙已关闭;

2. 确保新节点的ip已经添加到master及其他slaves的/etc/hosts中,也要将master及其他slave的ip添加到新节点的/etc/hosts中

0 0
原创粉丝点击