hdfs分布式搭建
来源:互联网 发布:动画人物制作软件 编辑:程序博客网 时间:2024/05/17 06:12
所需环境
四台主机,一台NameNode,三台DataNode
NameNodeSecondaryNameNodeDataNodenode11 node2 11node3 1node4 1搭建NameNode主机流程,其余主机配置保持一致即可
一、修改主机名
(1)[root@node1 ~]# vim /etc/sysconfig/network
(2)修改每台主机上的/etc/hosts文件
a) 对于NameNode主机,需要在hosts文件中添加集群中所有节点的IP地址及对应的主机名:
b)对于DataNode,只需添加本机和NameNode的Ip地址和主机名。
(3)重启主机:[root@node1 ~]# reboot
二、时间同步 ntpdate -u -sla.time.edu.cn
关闭网络 hosts 防火墙 service iptables stop
三、免密钥配置
1.[root@node1 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
2.[root@node1 .ssh]# cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
3.将id_dsa.pub文件复制到所有DataNode节点
[root@node1 .ssh]# scp id_dsa.pub node2:/tmp/
[root@node1 .ssh]# scp id_dsa.pub node3:/tmp/
[root@node1 .ssh]# scp id_dsa.pub node4:/tmp/
4.给其它DataNode节点执行相同的操作,至此免密钥登录配置完毕
node2:
[root@node2 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
[root@node2 ~]# cat /tmp/id_dsa.pub >> /root/.ssh/authorized_keys
node3:
[root@node3 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
[root@node3 ~]# cat /tmp/id_dsa.pub >> /root/.ssh/authorized_keys
node4:
[root@node3 ~]# ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
[root@node3 ~]# cat /tmp/id_dsa.pub >> /root/.ssh/authorized_keys
5.可以通过本机ssh 各个节点IP来测试是否需要密码登录
[root@node1 ~]#ssh node1
[root@node1 ~]#ssh node2
[root@node1 ~]#ssh node3
[root@node1 ~]#ssh node4
四、安装jdk
jdk-8u131-linux-x64.rpm
1.安装jdk
这里我们将jdk包放在home目录下,使用rpm命令安装:
[root@node1 home]# rpm -ivh /home/jdk*
2.配置环境变量
[root@node1 ~]# vim /etc/profile,在最末行加入:
export JAVA_HOME=/usr/java/jdk1.8.0_131
export PATH=$PATH:$JAVA_HOME/bin
[root@node1 ~]# source /etc/profile
[root@node1 ~]# java -version
3.同理,其它主机安装jdk
五、安装Hadoop
1.上传、解压Hadoop包
hadoop-2.8.0.tar.gz,这里我们将Hadoop包放在home目录下,解压缩后的文件放在当前目录:
[root@node1 home]# tar zxvf hado op-2.8.0.tar.gz
2.配置环境变量
[root@node1 hadoop-2.8.0]# vim /etc/profile,(下图最末两行所示)
export HADOOP_HOME=/home/hadoop-2.8.0
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
~
[root@node1 hadoop-2.8.0]# source /etc/profile
3.检查是否配置成功
[root@node1 hadoop-2.8.0]# hfds
[root@node1 hadoop-2.8.0]# start
六、先在NameNode上修改hadoop配置文件,最后同步配置文件
(1)修改配置文件
hadoop-env.sh 中的 JAVA_HOME
core-site.xml
hdfs-site.xml
slaves 指定DataNode
手动创建masters 指定SNN
1.配置hadoop-env.sh
将JAVA_HOME的值改为实际地址,改地址可通过!echo $JAVA_HOME查看
[root@node1 hadoop]# vim hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.8.0_131
2.配置core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/hadoop</value>
</property>
</configuration>
3.配置hdfs-site.xml
<configuration>
<property>
<name>dfs.replication></name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address></name>
<value>node2:50090</value>
</property>
</configuration>
4.配置masters,填写node2
[root@node1 hadoop]# vim masters
5.配置slaves
(2)同步配置文件
将home下的hadoop-2.8.0同步到其它DataNode
[root@node1 home]# scp -r hadoop-2.8.0/ node2:/home/
[root@node1 home]# scp -r hadoop-2.8.0/ node3:/home/
[root@node1 home]# scp -r hadoop-2.8.0/ node4:/home/
七、格式化NameNode
[root@node1 home]# hdfs namenode -format
八、启动hdfs
[root@node1 ~]# start-dfs.sh
(停止命名 [root@node1 ~]# stop-dfs.sh)
用jps命令检测是否成功启动
[root@node1 hadoop]# jps
- hdfs完全分布式搭建
- hdfs分布式搭建
- Hadoop HDFS分布式环境搭建
- Hadoop HDFS分布式环境搭建
- Hadoop HDFS分布式环境搭建
- hadoop-hdfs 伪分布式搭建
- 搭建hadoop分布式文件管理系统(HDFS)
- [笔记]hadoop2.4.1伪分布式集群搭建\hdfs入门
- hadoop2.x新特性HDFS HA、YARN HA,分布式搭建
- hadoop 分布式环境搭建与hdfs简单实用
- HDFS-hadoop分布式文件系统
- 分布式文件系统HDFS
- Hadoop HDFS分布式文件系统
- 分布式文件系统HDFS设计
- 分布式文件系统HDFS
- HDFS--分布式存储系统
- 分布式文件系统HDFS简介
- HDFS--Hadoop分布式文件系统
- 杭电 1272 小希的迷宫 并查集 无向图是否为树
- SAP HANA XS ODATA展示
- Android UI 学习
- iOS常用的加密方式
- Python 创建二维列表+追加元素+items()
- hdfs分布式搭建
- Git和Github的简单使用
- 关于Windows update 和停机码0x0000006B
- Leetcode——44Wildcard Matching && 10 Regular Expression Matchi
- Java源码集合类TreeMap学习1——数据结构4平衡二叉树创建代码
- [设计模式]享元模式(Flyweight) 共享池 连接池
- 成员变量、类变量、局部变量的区别
- Caused by: java.sql.SQLException: Column count doesn't match value count at row 1
- 中断线程的方法