hadoop初识之五:hadoop启动方式、机器上必须的配置、本地native库配置、及hadoop编译
来源:互联网 发布:宁夏网络教育培训学院 编辑:程序博客网 时间:2024/06/14 05:55
--===============hadoop启动方式======================
=》各个组件逐一启动
*HDFS
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode
*yarn
yarn-daemon.sh start|stop resourcemanager|nodemanager
*mapreduce
mr-historyserver-daemon.sh start|stop historyserver
=》各个模块分开启动
*HDFS
start-dfs.sh
stop-dfs.sh
*yarn
start-yarn.sh
stop-yarn.sh
=> 全部启动(不常用)
* start-all.sh
因为启动HDFS和YARN必须在主节点上,如果用些命令,说明本机是
namenode和resourcemanager,而namenode和resourcemanager在
实际中是位于不同的节点上,如果本机挂了,整个集群都不能用了
* stop_all.sh
--===============hadoop无密钥登录======================
=》为了使用start_all类似命令,来启动所有节点
=》先启动namenode,然后namenode会通过ssh协议启动datanode节点
=》配置SSH无密钥登录
* /home/npl/.ssh下生成密钥:包括公钥和私钥(使用rsa算法生成密钥)
* ssh-keygen -t rsa 然后四个回车
* 然后生成两个文件id_rsa和id_rsa.pub
* ssh-copy-id master(命令+主机名)
* 生成两个文件:authorized_keys和known_hosts
* 测试:ssh master:远程登录主机,不需要输入密码
--===============指定mapreduce的namenode和datanode机器======================
=》namenode
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
=》DataNodes
slaves文件中配置master
=>SecondaryNameNode
hdfs-site.xml
<property>
<name>dfs.nodenode.secondary.http-address</name>
<value>0.0.0.0.50090</value>
</property>
--===============指定yarn的resourcemanager和nodemanager机器============
=》resourcemanager
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
=》nodemanager
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
=》nodemanager
--===============指定mapreduce的jobhistory============
=》
mapred-site.xml
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
--=============本地库native lib============
=》问题(下面的警告)
[root@master hadoop-2.5.0-cdh5.3.6]# bin/hdfs dfs -ls /
17/08/06 07:37:18 WARN util.NativeCodeLoader: Unable to load native-hadoop
library for your platform... using builtin-java classes where applicable
=》方案
下载native-2.5.0.tar.tz 覆盖/opt/modules/hadoop-2.5.0-cdh5.3.6/lib下的native文件夹
--=============hadoop2的编译==============
下载码包,里面有一个building.txt作为指引
注:需要用maven下载jar包,帮需要好的网络的,并且能翻墙,所以会经常不成功
=》各个组件逐一启动
*HDFS
hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode
*yarn
yarn-daemon.sh start|stop resourcemanager|nodemanager
*mapreduce
mr-historyserver-daemon.sh start|stop historyserver
=》各个模块分开启动
*HDFS
start-dfs.sh
stop-dfs.sh
*yarn
start-yarn.sh
stop-yarn.sh
=> 全部启动(不常用)
* start-all.sh
因为启动HDFS和YARN必须在主节点上,如果用些命令,说明本机是
namenode和resourcemanager,而namenode和resourcemanager在
实际中是位于不同的节点上,如果本机挂了,整个集群都不能用了
* stop_all.sh
--===============hadoop无密钥登录======================
=》为了使用start_all类似命令,来启动所有节点
=》先启动namenode,然后namenode会通过ssh协议启动datanode节点
=》配置SSH无密钥登录
* /home/npl/.ssh下生成密钥:包括公钥和私钥(使用rsa算法生成密钥)
* ssh-keygen -t rsa 然后四个回车
* 然后生成两个文件id_rsa和id_rsa.pub
* ssh-copy-id master(命令+主机名)
* 生成两个文件:authorized_keys和known_hosts
* 测试:ssh master:远程登录主机,不需要输入密码
--===============指定mapreduce的namenode和datanode机器======================
=》namenode
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:8020</value>
</property>
=》DataNodes
slaves文件中配置master
=>SecondaryNameNode
hdfs-site.xml
<property>
<name>dfs.nodenode.secondary.http-address</name>
<value>0.0.0.0.50090</value>
</property>
--===============指定yarn的resourcemanager和nodemanager机器============
=》resourcemanager
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
=》nodemanager
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
=》nodemanager
--===============指定mapreduce的jobhistory============
=》
mapred-site.xml
<property>
<name>mapreduce.jobhistory.address</name>
<value>master:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>master:19888</value>
</property>
--=============本地库native lib============
=》问题(下面的警告)
[root@master hadoop-2.5.0-cdh5.3.6]# bin/hdfs dfs -ls /
17/08/06 07:37:18 WARN util.NativeCodeLoader: Unable to load native-hadoop
library for your platform... using builtin-java classes where applicable
=》方案
下载native-2.5.0.tar.tz 覆盖/opt/modules/hadoop-2.5.0-cdh5.3.6/lib下的native文件夹
--=============hadoop2的编译==============
下载码包,里面有一个building.txt作为指引
注:需要用maven下载jar包,帮需要好的网络的,并且能翻墙,所以会经常不成功
阅读全文
0 0
- hadoop初识之五:hadoop启动方式、机器上必须的配置、本地native库配置、及hadoop编译
- hadoop配置及启动
- hadoop的启动配置
- hadoop之hadoop配置
- Hadoop 配置及hadoop HA 的配置
- hadoop环境变量配置及启动
- Hadoop环境搭建之二配置启动HDFS及本地模式运行MapReduce案例(使用HDFS上数据)
- eclipse配置hadoop 启动hadoop
- hadoop本地模式配置
- hadoop的配置和启动
- hadoop初识之三:搭建hadoop环境(配置HDFS,Yarn及mapreduce 运行在yarn)上及三种运行模式(本地模式,伪分布式和分布式介)
- 【hadoop】Hadoop的本地库(Native Libraries)介绍
- Hadoop-编译本地库
- Hadoop配置启动
- hadoop 安装配置启动
- hadoop配置启动historyserver
- 配置启动hadoop jobhistory
- Hadoop配置启动SecondaryNameNode
- FTP浅析
- Safari即将支持WebRTC
- 第三天:熟悉了python基础的整个框架,明天开始利用一个以爬虫为目标的视频练习并扩展python。
- 头结点循环链表 C语言
- 30 个java编程技巧(最佳实践的初学者)
- hadoop初识之五:hadoop启动方式、机器上必须的配置、本地native库配置、及hadoop编译
- http协议
- 安卓自定义View基础05-Canvas之基础图形绘制,点,线,矩形,圆,椭圆,弧形等
- 问题 E: 画图
- WPF控件篇(二)
- Windows下Navicat远程连接Debian下的Mysql
- 2440uboot启动内核打印:Verifying Checksum ... Bad Data CRC ERROR: can't get kernel image!
- java算法之归并排序
- Linux ssh登录命令