搭建hadoop集群
来源:互联网 发布:辐射4画面优化补丁 编辑:程序博客网 时间:2024/06/14 05:02
从今天开始我开始复习大数据方面的知识,所以入门或者复习的朋友都可以作参考。
首先我选用的是centos6.9的三台服务器,分别是
hdp-node-01 192.168.43.130
hdp-node-02 192.168.43.131
hdp-node-03 192.168.43.132
然后就是在/etc/hosts文件中把上面的内容加进去,:wq保存
在当前用户的~目录下新建.ssh文件夹,然后cd .ssh,在当前目录下输入ssh-keygen -t rsa,一直回车,在当前目录下就会出现两个带rsa的文件,在其他两台机器也这么做,
然后回到主节点机器上,接下来输入cat id_rsa.pub >> authorized_keys,然后将这个文件分发到两个子节点上去,scp authorized_keys hdp-node-02:/home/hadoop/.ssh,以此类推,然后就是我们去在etc/profile中配置我们的环境变量,我的配置如下
#JAVAexport JAVA_HOME=/home/hadoop/jdk1.8.0_77
#SCALA
#export SCALA_HOME=/home/wbc/opt/scala-2.11.8
export SCALA_HOME=/home/hadoop/scala-2.10.6
#HADOOP
#export HADOOP_HOME=/home/wbc/opt/hadoop-2.7.2
export HADOOP_HOME=/home/hadoop/hadoop-2.6.1
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HDFS_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_HOME PATH
#SPARK
export SPARK_HOME=/home/hadoop/spark-1.6.3
#TOMCAT
export CATALINA_HOME=/home/hadoop/tomcat
export CATALINA_BASE=/home/hadoop/tomcat
#ZOOKEEPER
export ZOOK_HOME=/home/hadoop/zookeeper-3.3.6
#HBASE
export HBASE_HOME=/home/hadoop/hbase-1.2.2
#HIVE
export HIVE_HOME=/home/hadoop/hive-2.1.0
#export HIVE_HOME=/home/wbc/opt/hive-2.0.0
PATH=$HIVE_HOME/bin:$PATH
export HIVE_HOME PATH
#REDIS
export REDIS_HOME=/home/hadoop/redis-3.0.0
export PATH=$JAVA_HOME/bin:$PYTHON_HOME/python:$REDIS_HOME/src:$FLUME_HOME/bin:$SCALA_HOME/bin:$HADOOP_HOME/bin:$SQOOP_HOME/bin:$SPARK_HOME/bin:$HBASE_HOME/bin:$ZOOK_HOME/bin:$HIVE_HOME/bin:$CATALINA_HOME/bin:$NUTCH_HOME/runtime/local/bin:$MAHOUT_HOME/bin:$PATH
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$HIVE_HOME/lib:$MAHOUT_HOME/lib
当然里面还有其他配置,这个我们以后再说,都是可以自己手动改变调整的。
接下来就是修改hadoop目录下的etc/hadoop下几个关键的配置文件了,如下:
vi core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://hdp-node-01:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/HADOOP/apps/hadoop-2.6.1/tmp</value>
</property>
</configuration>
vi hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.name.dir</name>
<value>/home/hadoop/data/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/home/hadoop/data/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.secondary.http.address</name>
<value>hdp-node-01:50090</value>
</property>
</configuration>
vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
vi yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop01</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
vi salves
hdp-node-01
hdp-node-02
hdp-node-03
最后就是格式化namenode,命令是hadoop namenode -format就会提示你在主节点格式化成功。最后就是我们启动集群./sbin/start-all.sh,万事搞定。
- hadoop集群搭建(hadoop)
- HADOOP: 搭建hadoop集群
- hadoop集群搭建
- Hadoop集群的搭建
- Hadoop集群搭建
- Hadoop集群搭建
- 搭建hadoop集群
- Nutch+Hadoop集群搭建
- Hadoop集群搭建
- Hadoop集群搭建
- Hadoop环境搭建-集群
- 搭建hadoop集群
- 搭建hadoop集群
- Hadoop集群搭建
- Nutch+Hadoop集群搭建
- 如何搭建hadoop集群
- hadoop分布式集群搭建
- Hadoop集群搭建
- ZOJ2971-Give Me the Number
- 数据库连接池
- 单调栈总结
- FastDFS 分布式系统需求分析
- SQL删除重复数据只保留一条
- 搭建hadoop集群
- HDUoj- 1004 -Let the Balloon Rise ( map
- Openstack : 2、devstack创建虚拟主机
- 喵哈哈村的木星传说(四)(LUCAS)@
- 身份证识别sdk在生活中的广泛应用
- sql语句中GROUP BY 和 HAVING的使用 count()
- 如何使用纯win32函数和C语言实现一个简单的文本编辑器
- 两个变量值交换java
- Java学习笔记(一)synchronized、volatile、环境变量、package、基本数据类型、值类型和引用类型、访问控制、对象引用和对象、static和final