hadoop集群初识安装
来源:互联网 发布:虚拟内存 知乎 编辑:程序博客网 时间:2024/06/05 19:01
第一次接触大数据,在网上找了好多资料,自己搭建了一个集群,作为学习测试用。
环境:jdk:1.7.0_79 centos6.5(三台) hadoop1.2.1
vm上安装了三台虚拟机 h1 0.73 h2 0.74 h3 0.77
一、安装jdk
1、查看自带版本,有就卸载了
a.查看:rpm -qa |grep java
b.卸载:rpm -e --nodeps java*****
2、安装jdk
a.将下载的jdk的安装文件拷贝到/usr/local下面(*.rpm)
b.运行 rpm -ivh *.rpm
c.进入 /usr/java 目录下可以看到安装的jdk
d.配置环境变量 vim /etc/profile
最下面加入:(具体路径需要根据自己实际情况更改 hadoop提前写了)
export JAVA_HOME=/usr/java/jdk1.7.0_79
export HADOOP_HOME=/usr/local/hadoopexport PATH=$PATH:$HADOOP_HOME/bin
e.source /etc/profile 生效
f.java -version 查看是否安装成功
二、H adoop安装
准备工作,安装虚拟就的时候hostname配置有问题,都配置的一样的。后面我配置好了出错,找了解决方法。修改hostname
vim /etc/sysconfig/network 三台机器分别修改 hostname为 h1 h2 h3 自定义吧,也可以修改成其他的。完事最好重启一下,不然还会出错。
1、修改hosts文件 vim /etc/hosts 加入三台主机的ip hostname 如下:
2、为Hadoop建立专有账户(我没安装省去了,最好还是装一下)
3、配置ssh免密码登录
a.三台集群分别运行 ssh -keygen -t rsa 一路回车。中间会出现 save in +路径 路径看一下
b.进入上面的那个路径 cd /*/.ssh 查看一下文件 有两个id_rsa和id_rsa.pub
c.cp id_rsa.pub authorized_keys 多了一个authorized_keys
d. 将另外两台中id_rsa.pub文件内容都追加到authorized_keys这个文件中
e.将authorized_keys文件拷贝到其他两台机器,scp authorized_keys 你另外两台的ip: /*/.ssh/ 会要求输入密码照做就行
f.两两ssh ip 尝试一下有没有成功 退出ssh 输入 exit 即可
4、配置Hadoop
a.将下载下来的hadoop-1.2.1.tar.gz 拷贝到虚拟机 /usr/local/下
b.解压 tar xzvf hadoop-1.2.1.tar.gz 然后从命名一下 mv hadoop-1.2.1 hadoop
c.配置一下环境变量 上面写了
d.配置几个主要文件 hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、masters、slaves
vim hadoop-env.sh 配置一下javahome
e.vim core-site.xml 在configuration中添加
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.0.73:9000</value>
<final>true</final>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/temp</value>
</property>hadoop.tmp.dir的value 自己手动到那个路径创建一下 上面那个ip是master节点的ip 自己看着修改
f.vim hdfs-site.xml 同上加入
<property>
<name>dfs.data.dir</name>
<value>/usr/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
路径需要手动创建。具体字段含义后期专门来研究吧g.vim mapred-site.xml 同上
<property>
<name>mapred.job.tracker</name>
<value>192.168.0.73:9001</value>
</property>h.vim masters、slaves 分别在masters 写入 h1 ;slaves中写入 h2 回车 h3
j.将该配置好的hadoop复制到其他两台机器 scp命令
三、Hadoop启动
1、都是在master节点启动 进入hadoop/bin目录下
格式化namenode命令 : hadoop namenode -format (不报错没警告 就启动成功了)
启动 : start-all.sh (jps 查看各个节点是否启动成功,其他虚拟机也是)
关闭 : stop-all.sh
2、相关页面 master:50030 50070
大半天下去终于配置成功了,后期进行简单例子运行 慢慢研究吧。。。。
- hadoop集群初识安装
- Hadoop集群安装spark集群
- [Hadoop学习]Hadoop集群安装
- hadoop集群 安装步骤
- Hadoop集群安装
- Hadoop集群安装
- Hadoop集群安装 (1)
- Hadoop集群安装设置
- Hadoop集群安装
- Hadoop集群安装
- hadoop安装集群完毕
- hadoop集群安装
- Hadoop集群安装
- VMWare安装Hadoop集群
- hadoop 集群安装
- ubuntu安装hadoop集群
- Hadoop集群安装配置
- Hadoop集群安装配置
- Ehcache缓存入门实战(附源码)
- 一种高效、可自动扩容、缓存、永久存储通用方案设计
- Sublime Text 安装QuickXDev插件
- Linux deepin系统远程部署项目到tomcat服务器
- linux搭建nginx
- hadoop集群初识安装
- 大数据系列修炼-Scala课程11
- Event Handling Guide for iOS--(二)---Gesture Recognizers(翻译)
- Java代理模式及动态代理
- number(数位DP)
- 计算机网络学习 1.1
- 第一次利用CSS小感
- 【剑指offer】树的子结构
- how to build a git server