Apache Hadoop伪分布式安装
来源:互联网 发布:达梦数据库登录 编辑:程序博客网 时间:2024/06/15 21:50
Apache Hadoop伪分布式安装
操作系统:CentOS 6.5
连接工具:XShell,root用户登录虚拟机
安装包:
- JDK,版本:jdk-7u71-linux-x64.gz
下载地址:http://www.oracle.com/technetwork/java/javase/downloads
- Hadoop,版本:hadoop-2.6.4.tar.gz
下载地址:http://hadoop.apache.org/releases.html
一. 准备工作
1.关闭防火墙
service iptables stopservice iptables status (检查防火墙是否关闭)
2.关闭防火墙自启动
chkconfig iptables off
chkconfig –list | grep iptables (检查防火墙是否关闭自动运行)
3.设置主机名
vi /etc/sysconfig/network
NETWORKING=yes
HOSTNAME=hadoop
注:设置主机名永久生效,需要重新启动才能看到效果,可以通过hostname hadoop命令设置一次生效,这样就不需要重启了,使用hostname,查看设置的主机名。
4.设置IP地址与主机名绑定
vi /etc/hosts
Windows环境
以管理员的身份编辑C:\Windows\System32\drivers\etc\hosts
5.设置SSH免密码登录
ssh-keygen -t rsa
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys
二. 安装JDK
1. 解压缩安装包(需要跳转到安装包所在目录执行此命令)
tar -xvf jdk-7u71-linux-x64.gz
2. 配置环境变量
vi ~/.bash_profile(仅对当前用户生效)
3. 使环境变量生效
source ~/.bash_profile
4. 验证JDK是否安装成功
java -version
三. 安装Hadoop
1. 解压缩安装包(需要跳转到安装包所在目录执行此命令)
tar -xvf hadoop-2.6.4.tar.gz
2. 配置环境变量
3. 使环境变量生效
source ~/.bash_profile
4. 配置hadoop配置文件(需要跳转到hadoop安装目录/etc/hadoop)
(1)hadoop-env.sh,记录脚本中要用到的环境变量,以运行Hadoop。
vi hadoop-env.sh
export JAVA_HOME=/home/topsec/software/jdk1.7.0_71
(2)core-site.xml,Hadoop Core的配置项,例如HDFS和MapReduce常用的I/O设置等。
vi core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/topsec/hadoopdata</value> </property></configuration>
(3)hdfs-site.xml,Hadoop守护进程的配置项,包括namenode,辅助namenode和datanode。
vi hdfs-site.xml
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property></configuration>
(4)yarn-env.sh
vi yarn -env.sh
export JAVA_HOME=/home/topsec/software/jdk1.7.0_71
(5)yarn-site.xml
vi yarn-site.xml
<?xml version="1.0"?><configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.resourcemanager.address</name><value>hadoop:18040</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>hadoop:18030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value> hadoop:18025</value></property><property><name>yarn.resourcemanager.admin.address</name><value> hadoop:18141</value></property><property><name>yarn.resourcemanager.webapp.address</name><value> hadoop:18088</value></property> </configuration>
(6)mapred-site.xml,MapReduce守护进程的配置项,包括jobtracker和tasktracker。
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property></configuration>
5.格式化namenode,建立namenode自己的文件结构
hadoop namenode -format
6.启动HDFS
1.分步启动:
start-dfs.sh start-yarn.sh
2.一次全部启动:
start-all.sh
7.查看进程,检查HDFS是否启动成功
jps
HDFS的进程:
NameNode
DataNode
SecondaryNameNode
Yarn的进程:
ResourceManager
NodeManager
- Apache Hadoop伪分布式安装
- Hadoop 伪分布式安装
- hadoop 伪分布式安装
- Hadoop 伪分布式安装
- HADOOP伪分布式安装
- hadoop伪分布式安装
- Hadoop伪分布式安装
- Hadoop伪分布式安装
- hadoop伪分布式安装
- hadoop伪分布式安装
- 伪分布式Hadoop安装
- hadoop伪分布式安装
- hadoop伪分布式安装
- Hadoop 伪分布式安装
- 伪分布式安装Hadoop
- 伪分布式安装hadoop
- Hadoop伪分布式安装
- Hadoop伪分布式安装
- UBuntu常用的快捷键
- java控制台输入输出的方法
- c#学习之--封装
- ELK学习4_Elasticsearch+Logstash+Kibana安装_简易版
- MyEclipse更换JDK版本
- Apache Hadoop伪分布式安装
- JavaWeb校验码的实现
- 用多种方法访问字符数组元素
- Intellij Database配置全局数据源
- 安卓真机测试时用在控制台查找崩溃日志信息
- MySQL数据库索引的4大类型以及相关的索引创建
- EasyDSS流媒体服务器Linux emerg getpwnam("xxx") failed解决办法
- Tomcat version 7.0 only supports J2EE 1.2, 1.3, 1.4, and Java EE 5 and 6 Web mod
- linux下调用opencv接口函数显示一张图片