hadoop节点管理体验

来源:互联网 发布:电信扫号软件 编辑:程序博客网 时间:2024/06/05 15:57

最近在做些节点增加、删除操作,以下步骤都是亲自操作,并验证过没有什么问题(hadoop版本1.0.3)

hadoop增加节点操作

前提操作系统环境已经成功安装完成,步骤如下:

第一: master主机里的$HADOOP_HOME/conf下,修改slaves文件,增加新增节点主机名

第二:配置免登录设置

第三:新增节点启动datanode和tasktracker两个进程

          $HADOOP_HOME/bin/hadoop-daemon.sh start datanode

         $HADOOP_HOME/bin/hadoop-daemon.sh start tasktracker

第四:master刷新所有节点

         $HADOOP_HOME/bin/hadoop dfsadmin -refreshNodes

 

数据均衡操作

[hadoop@master hadoop-1.0.3]# ./bin/start-balancer.sh

1) 如果不balance,那么cluster会把新的数据都存放在新的node上,这样会降低mapred的工作效率
2) 设置平衡阈值,默认是10%,值越低各节点越平衡,但消耗时间也更长

[hadoop@master hadoop-1.0.3]# ./bin/start-balancer.sh -threshold 5

3) 设置balance的带宽,默认只有1M/s

 <property>   <name>dfs.balance.bandwidthPerSec</name>   <value>1048576</value>   <description>     Specifies the maximum amount of bandwidth that each datanode     can utilize for the balancing purpose in term of     the number of bytes per second.   </description> </property>

注意:
1. 必须确保slave的firewall已关闭;
2. 确保新的slave的ip已经添加到master及其他slaves的/etc/hosts中,反之也要将master及其他slave的ip添加到新的slave的/etc/hosts中

 

删除相关节点操作

1.集群配置
修改conf/hdfs-site.xml文件(需要排除节点配置存放路径)

 <property>   <name>dfs.hosts.exclude</name>   <value>/home/hadoop/hadoop/conf/excludes</value>   <description>Names a file that contains a list of hosts that are   not permitted to connect to the namenode.  The full pathname of the   file must be specified.  If the value is empty, no hosts are   excluded.</description> </property>

 

2.确定要下架的机器
dfs.hosts.exclude定义的文件内容为,每个需要下线的机器,一行一个。这个将阻止他们去连接Namenode。如:

slave10slave11

3.强制重新加载配置

[hadoop@master hadoop-1.0.3]# ./bin/hadoop dfsadmin  -refreshNodes

它会在后台进行Block块的移动

4.关闭节点 
等待刚刚的操作结束后,需要下架的机器就可以安全的关闭了。

[hadoop@master hadoop-1.0.3]# ./bin/ hadoop dfsadmin -report

可以查看到现在集群上连接的节点

正在执行Decommission,会显示:Decommission Status : Decommission in progress  执行完毕后,会显示:Decommission Status : Decommissioned

5.再次编辑excludes文件
一旦完成了机器下架,它们就可以从excludes文件移除了
登录要下架的机器,会发现DataNode进程没有了,但是TaskTracker依然存在,需要手工处理一下

 

注意下:

少用数据均衡操作。现在体验了下,集群节点不多,数据总量在2TB多,均衡起来时间非常长(起始时间:13:44:12 截止时间:16:56:37)。

少进行删除节点操作,因为也涉及到节点的数据迁移处理,非常耗时。

 

在使用的过程当中,应当注意此两项操作。除非真是业务需要,不然尽量避免这些操作。

原创粉丝点击