hadoop2.x 伪分布安装部署
来源:互联网 发布:mac aripods 编辑:程序博客网 时间:2024/04/30 04:54
一、安装环境准备(操作系统 Linux )
1、修改hostname
把机器hostname修改为 hadoop001
2、配置host
3、配置ssh免密码登录
现在确认能否不输入口令就用ssh登录localhost:
$ ssh localhost
如果不输入口令就无法用ssh登陆localhost,执行下面的命令:
$ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
4、Java环境变量
安装JDK
5、hadoop安装包目录结构分析
bin:hadoop最基本的管理脚本和使用脚本所在目录 ,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理和使用hadoop。
etc:hadoop配置文件所在目录,包括core-site.xml,hdfs-site.xml,mapred-site.xml,yarn-site.xml 等
include:对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用c++程序访问hdfs或者编写mapreduce程序的。
lib:改目录包含了hadoop对外提供的编程动态库和静态库,与include中的头文件结合使用
libexec:各个服务对应的shell配置文件所在目录,可用于配置日志输出目录,启动参数(比如jvm参数)等基本信息
sbin:hadoop管理脚本所在目录,主要包含hdfs和yarn中各类服务的启动关闭脚本
share:hadoop哥哥模块编译后的jar包所在目录。
准备好以上环境后开始配置hadoop
6、建立hadoop用户和hadoopgroup组
二、安装步骤 (此处以hadoop-2.6.1 为例)
1、将安装包存放到一目录下,并解压 赋予权限
2、修改解压后的目录文件夹/etc/hadoop下的xml配置文件(如果文件不存在自己创建)
hadoop-env.sh 修改以下配置项 (java环境)
export JAVA_HOME=/usr/java/jdk1.7.0_79
slaves文件配置为一下配置 (写成主机名)
hadoop001
core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://192.168.122.131:8020</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:///workdata/hadoop/hadoop-2.x/data/tmp</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property></configuration>
hdfs-site.xml
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:///workdata/hadoop/hadoop-2.x/data/nn</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:///workdata/hadoop/hadoop-2.x/data/dn</value> </property> <property> <name>dfs.permissions</name> <value>false</value> </property></configuration>
yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property></configuration>
mapred-site.xml
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> <property> <name>mapreduce.jobhistory.address</name> <value>192.168.122.131:10020</value> <description>MapReduce JobHistory Server IPC host:port</description> </property> <property> <name>mapreduce.jobhistory.webapp.address</name> <value>192.168.122.131:19888</value> <description>MapReduce JobHistory Server Web UI host:port</description> </property></configuration>
3、配置环境变量
$ sudo vim /etc/profileexport HADOOP_HOME=/workdata/hadoop/hadoop-2.xexport HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoopexport PATH=$PATH:$HADOOP_HOME/bin$ source /etc/profile
三、启动hadoop
格式化hdfs
hadoop namenode -format
注意:若格式化后,若namenode起不来,这时候查看存储文件(hdfs-site.xml里面配置的nn和dn所在文件夹里面current文件下的version)保证两个version里面的id一样
启动hdfs ( jobhistory可以不启动)
sbin/start-all.shsbin/mr-jobhistory-daemon.sh start historyserver
验证是否启动成功
$ jps
有如下进程,则启动成功
3199 DataNode
9295 Jps
3069 NameNode
3412 SecondaryNameNode
3547 ResourceManager
3668 NodeManager
Web Interfaces
web接口地址
NameNode
http://nn_host:port/
Default HTTP port is 50070.
ResourceManager
http://rm_host:port/
Default HTTP port is 8088.
MapReduce JobHistory Server
http://jhs_host:port/
Default HTTP port is 19888.
- hadoop2.x 伪分布安装部署
- hadoop2.x 伪分布安装部署
- hadoop2.X 伪分布安装
- hadoop2的伪分布部署
- hadoop2.6.1 完全分布/伪分布部署
- Hadoop2伪分布模式安装
- hadoop2.2.0伪分布安装
- Hadoop2安装-伪分布模式
- hadoop2.6伪分布部署笔记
- Hadoop2.x伪分布环境搭建
- Hadoop2.4.0伪分布安装步骤
- hadoop2.2.0伪分布下安装hive
- Ubuntu安装hadoop2.7.1----伪分布搭建
- hadoop2.7伪分布安装配置
- Hadoop2.X伪分布式安装
- Hadoop1.x伪分布安装
- Hadoop1.X伪分布安装
- hadoop2.x.x 伪分布式安装
- iOS-获取控件的隐藏属性并修改
- js总结--2017
- Learning Data Mining with Python-第一章-affinity analysis
- 扩展 sizeof和strlen malloc
- 正确导入android-support-v4.jar的方法
- hadoop2.x 伪分布安装部署
- spring cloud之简单介绍
- 总结
- socket通信简介
- 金蝶EAS,设置分录表格名称,隐藏、禁用分录按钮等
- 安卓原生自带的日期选择器DatePickerDialog、时间选择器TimePickerDialog使用方法
- -----栈和队列
- boost::thread线程管理
- springMVC请求映射