Hadoop3.0安装配置
来源:互联网 发布:csgo数据互换器永久 编辑:程序博客网 时间:2024/06/10 05:02
Hadoop3.0安装配置
1.在主机上安装java8(hadoop3.0需要Java8,操作细节见上篇)
2.下载hadoop安装tar包(ubuntu下可以使用wget命令直接下载路径)
$ wget mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.0.0-alpha4/hadoop-3.0.0-alpha4.tar.gz
3.解压到/opt/
/Downloads/$ tar -zxvf hadoop-3.0.0-alpha4.tar.gz -C /opt/
4.创建hadoop3.0用户
添加用户
$ sudo useradd -d /home/hadoop3.0 -m hadoop3.0
-d指定用户home目录,-m指定用户名
设置密码
$ sudo passwd hadoop3.0
可以切换用户查看
修改/etc/passwd文件在hadoop:后面添加/bin/bash从而可以正常使用bash命令
修改/etc/sudoers文件%sudo一行下面添加如下一行,使得hadoop3.0用户可以使用sudo权限
5.移动下载文件夹里的文件(文件夹)到指定hadoop3.0用户根目录
$ sudo mkdir /usr/local/hadoop3$ cd /opt/$ sudo mv hadoop-3.0.0-alpha4/* /usr/local/hadoop3/
6.设置Hadoop环境变量
$ sudo vi ~/.profile
添加以下Hadoop生态系统的所有环境变量
#Hadoop 3.0export HADOOP_HOME=/usr/local/hadoop3 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
(整个生态系统以及Java8,.bashrc文件里的环境变量的设置,文件目录根据个人情况来定)
export JAVA_HOME=/usr/local/java/jdk1.8.0_101 export HADOOP_HOME=~/usr/local/hadoop/hadoop-3.0.0-alpha4export JRE_HOME=${JAVA_HOME}/jreexport CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib:${HIVE_HOME}/libexport SCALA_HOME=~/usr/local/scala/scala-2.10.5export SPARK_HOME=~/usr/local/spark/spark-2.0.1-bin-hadoop2.7export SQOOP_HOME=~/usr/local/sqoop/sqoop-1.4.6export HIVE_HOME=~/usr/local/hive/hive-1.2.1export HBASE_HOME=~/usr/local/hbase/hbase-1.0.1.1export PATH=${SPARK_HOME}/bin:${SCALA_HOME}/bin:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:${SQOOP_HOME}/bin:${HADOOP_HOME}/lib:${HIVE_HOME}/bin:${HBASE_HOME}/bin:$PATH
7.配置文件
进入/usr/local/hadoop3/etc/hadoop下修改配置文件
需要先在/home/hadoop3.0目录下创建一些存放缓存数据的文件夹
$ mkdir hdfs$ mkdir tmp$ mkdir hdfs/name$ mkdir hdfs/data
<1>mapred-env.sh
与yarn-env.sh
文件末添加下面语句,指定JAVA_HOME
<2>core-site.xml
配置hdfs端口和地址,临时文件存放地址
hadoop-001为主机名
(主机名输入hostname命令查看)
<3>hdfs-site.xml
配置副本个数以及数据存放的路径
<4>mapred-site.xml
配置使用yarn框架执行mapreduce处理程序,与之前版本多了后面两部
不配置mapreduce.application.classpath这个参数mapreduce运行时会报错:
Error: Could not find or load main class org.apache.hadoop.mapreduce.v2.app.MRAppMaster
<5>yarn-site.xml
<6>workers
文件里添加workers的主机名
8.hadoop设置已基本完成,现在实现分布式
通过克隆linux或者复制hadoop文件夹的方式构建其它节点
scp -r /opt/hadoop3 root@hadoop-002:/opt
scp -r /opt/hadoop3 root@ hadoop-003: /opt
复制时候hadoop-002无法解析,此时需要我们在系统hosts文件中声明
此时再复制,发现需要输入节点的密码,则节点之间还没有设置免密码登录。
hadoop节点需要设置免密码登录。
阅读全文
0 0
- hadoop3.0安装配置
- Hadoop3.0安装配置
- hadoop3.0 分布式搭建/安装
- hadoop3.0 分布式搭建/安装
- centos7 下配置hadoop3.0 教程
- hadoop3.0高可用HA配置详解
- Hadoop3.0稳定版的安装部署
- hadoop3.0
- Ubuntu 14.04下 Hadoop3.0-alpha 的安装
- Hadoop3.0新特性
- hadoop3.0新特性
- hadoop3.0新特性
- hadoop3
- Hadoop3.0的新特性
- hadoop3.0 java.lang.ClassNotFoundException
- Hadoop3.0的新特性
- hadoop3.0.0分布式集群安装过程
- hadoop3.0 ecllipse windows下直接调试
- NSData 接受数据不正确
- ExtJS5 实现树形菜单
- Java开发大型互联网-架构师必须掌握的分布式技术
- 对MySql数据库插入数据操作
- CentOS7.2下安装MySQL-5.7.18RPM Bundle版(适用于最新版5.7.20)
- Hadoop3.0安装配置
- 人工智能越来越“能”
- Tractica:2022年全球企业机器人市场将达到679亿美元
- 多家银行APP存致命漏洞 汇丰和国民西敏寺均在列
- RethinkX:2020-2030交通运输业反思报告
- Python3之变量单下划线和双下划线的区别
- 算法总结01-递归
- opencv之图像几何变换和放大
- (转)Windows sockets编程指南