hadoop安装
来源:互联网 发布:阿里云账号注销解绑 编辑:程序博客网 时间:2024/06/02 00:35
SSH免密码登录参照博客(点击进入),本篇博客内容在该篇博客的基础上完成
3台机器均需在/etc/profile文件中配置java、hadoop的环境变量
进入到hadoop的根目录下,修改以下文件
修改hadoop-env.sh文件
export JAVA_HOME=/usr/java/jdk1.8.0_131
修改core-site.xml文件
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.4/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.u0.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.u0.groups</name>
<value>*</value>
</property>
</configuration>
修改hdfs-site.xml文件
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.4/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.4/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
修改mapred-site.xml文件
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
修改yarn-site.xml文件
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>
修改slaves文件
slave1
slave2
将hadoop传输到slave1和slave2根目录
scp -r /usr/hadoop/hadoop-2.7.4 hadoop@slave1:~/
scp -r /usr/hadoop/hadoop-2.7.4 hadoop@slave2:~/
进入到slave1、slave2的/home/hadoop目录下,将master传过来的hadoop-2.7.4文件移动/usr/hadoop目录下,
若/usr目录下没有hadoop文件夹,记得重新创建。
第一次启动得格式化
./bin/hdfs namenode -format
启动dfs
./sbin/start-dfs.sh
启动yarn
./sbin/start-yarn.sh
在master、slave1、slave2机器下输入jps命令,查看显示内容
在master主机下,代开网址master:8088 master:50070两个网址查看内容
3台机器均需在/etc/profile文件中配置java、hadoop的环境变量
进入到hadoop的根目录下,修改以下文件
修改hadoop-env.sh文件
export JAVA_HOME=/usr/java/jdk1.8.0_131
修改core-site.xml文件
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131072</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.4/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>hadoop.proxyuser.u0.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.u0.groups</name>
<value>*</value>
</property>
</configuration>
修改hdfs-site.xml文件
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>master:9001</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.4/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/hadoop/hadoop-2.7.4/dfs/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
修改mapred-site.xml文件
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
</configuration>
修改yarn-site.xml文件
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:8032</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:8030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:8031</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:8033</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
</configuration>
修改slaves文件
slave1
slave2
将hadoop传输到slave1和slave2根目录
scp -r /usr/hadoop/hadoop-2.7.4 hadoop@slave1:~/
scp -r /usr/hadoop/hadoop-2.7.4 hadoop@slave2:~/
进入到slave1、slave2的/home/hadoop目录下,将master传过来的hadoop-2.7.4文件移动/usr/hadoop目录下,
若/usr目录下没有hadoop文件夹,记得重新创建。
第一次启动得格式化
./bin/hdfs namenode -format
启动dfs
./sbin/start-dfs.sh
启动yarn
./sbin/start-yarn.sh
在master、slave1、slave2机器下输入jps命令,查看显示内容
在master主机下,代开网址master:8088 master:50070两个网址查看内容
阅读全文
0 0
- 【hadoop】 1003-hadoop安装
- hadoop安装之-hadoop
- [Hadoop]Hadoop安装
- 【hadoop】hadoop安装篇
- hadoop安装
- 安装hadoop
- hadoop安装
- Hadoop安装
- hadoop 安装
- Hadoop 安装
- hadoop安装
- hadoop 安装
- Hadoop 安装
- hadoop安装
- Hadoop安装
- hadoop安装
- 安装hadoop
- Hadoop安装
- Python小白学习之路
- NOIP模拟(20171031)T1 机器清洁工
- Tensorflow学习之tf.cast类型转换函数
- js中call和apply(函数的上下文调用模式)详解
- PHP下载文件(laravel)
- hadoop安装
- [收藏]redis配置文件详解
- C/C++ 程序编译与链接的过程详解(静态链接)
- 第四课 方法
- Kafka 参数列表和解释
- jdk9新特征系列
- http以post方式上传一个文件,构造其请求头和消息报文
- 线性时间选择排序
- The DispatcherServlet configuration needs to include a HandlerAdapter that supports this handler