Hadoop集群节点扩展
来源:互联网 发布:sac服务器卸载软件 编辑:程序博客网 时间:2024/05/17 00:54
近期因为Hadoop集群的三个节点磁盘存储空间不足,经常导致集群服务出现停止运行,因此对三个节点的集群做了一次节点扩展,将原有的三个节点扩展为8个节点,以下是操作过程:
1、以root用户身份登录新增加的5个物理服务器,修改/etc/sysconfig/network文件,将主机名分别修改为datanode03 datanode04 datanode05 datanode06 datanode07
2、关闭新增加的5台物理服务器的防火墙和SElinex
3、修改所有节点的/etc/hosts
4、在新增加的5台服务服务器上安装JDK,注意安装目录和版本与原来三个节点要一致。
5、为新增加的5个物理服务器新建Hadoop用户
6、以Hadoop用户身份登录,配置所有节点之间的SSH免密码登录
7、因为原有三个节点的dfs.namenode.name.dir目录为file:/hdfs/name,所以以root身份在新增加的5台主机上新建/hdfs文件夹,并修改文件夹机器子目录的用户和用户组
chown -R hadoop hdfs
chown -R :hadoop hdfs
8、将主节点namenode中的hadoop安装文件复制到新增加的5个节点中,
9、修改所有节点下的hadoop中的slaves文件,增加如下内容
10.30.16.34 datanode03
10.30.16.35 datanode04
10.30.16.36 datanode05
10.30.16.37 datanode06
10.30.16.38 datanode07
10、修改hadoop-2.5.0/etc/hadoop/hdfs-site.xml文件将HDFS中数据的副本数改为3
11、在新增5个节点的hadoop安装目录下执行sbin/hadoop-daemon.sh start datanode启动datanode
12、在新增5个节点的hadoop安装目录下执行sbin/yarn-daemons.sh start nodemanager启动yarn
13、在主节点执行hadoop dfsadmin -refreshNodes以刷新识别新增加的节点
14、在主节点执行bin/hadoop dfsadmin -report看新增加节点有没有生效
15、在主节点执行sbin/start-balancer.sh进行数据的负载均衡
16、将主节点的HBase安装文件复制到新增节点的相应目录下,并修改所有节点的HBase安装文件中的regionserver文件,新增如下内容
10.30.16.34 datanode03
10.30.16.35 datanode04
10.30.16.36 datanode05
10.30.16.37 datanode06
10.30.16.38 datanode07
17、在新增节点HBase安装目录下执行bin/hbase-daemon.sh start regionserver启动新增节点的HBase。
- Hadoop集群节点扩展
- Hadoop集群扩展子节点
- Hadoop集群节点扩展之后,更改HDFS数据副本数
- Hadoop集群下线节点
- hadoop集群添加节点
- hadoop集群删除节点
- Hadoop集群新增节点
- Hadoop集群安装部署---从单节点的伪分布式扩展为多节点分布式
- hadoop集群动态扩展
- hadoop集群扩展
- hadoop 集群搭建 三个节点
- CDH3 Hadoop集群摘除节点
- 部署Hadoop集群,三个节点
- hadoop集群增加删除节点
- hadoop集群添加删除节点
- hadoop集群节点添加硬盘
- hadoop集群中增加节点
- Hadoop:设置单节点集群
- hdu 1811 拓扑排序+并查集
- 欢迎使用CSDN-markdown编辑器
- NYOJ 519 密码发生器(递归法)
- Linux下四种安全删除文件的工具
- C语言及程序设计[套餐]课程主页
- Hadoop集群节点扩展
- Reverse Bits
- 事务隔离级别神话与误解
- linux 时间服务器部署
- 【计蒜客系列】挑战难题1:A+B+C问题
- php在apache中三种工作方式:CGI模式、FastCGI模式、Apache 模块DLL 的区别
- stl之queue队列容器
- cmd /c和cmd /k
- 三期_day08_信息+订单管理_I