CentOS下安装hadoop
来源:互联网 发布:vb.net 开发工具 编辑:程序博客网 时间:2024/05/17 22:12
下载hadoop
http://apache.fayea.com/hadoop/common/hadoop-2.6.4/hadoop-2.6.4-src.tar.gz
http://apache.fayea.com/hadoop/common/hadoop-1.2.1/hadoop-1.2.1.tar.gz
SSH无密码验证配置
安装以下两个的服务
查看以下两个服务是否已安装
rpm –qa | grep openssh
rpm –qa | grep rsync
假设没有安装ssh和rsync,可以通过下面命令进行安装
yuminstall ssh 安装SSH协议
yum install rsync (rsync是一个远程数据同步工具,可通过LAN/WAN快速同步多台主机间的文件)
启动服务
service sshd restart
配置Master无密码登录所有Salve
生成密钥对
ssh-keygen -t rsa -P ''
把id_rsa.pub追加到授权的key里面去
cat ~/.ssh/id_rsa.pub>> ~/.ssh/authorized_keys
修改文件authorized_keys权限
chmod 600~/.ssh/authorized_keys
设置SSH配置 vim /etc/ssh/sshd_config
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes# 启用公钥私钥配对认证方式
AuthorizedKeysFile.ssh/authorized_keys # 公钥文件路径(和上面生成的文件同)
重启SSH服务
service sshd restart
把公钥复制所有的Slave机器上
scp ~/.ssh/id_rsa.pubhadoop@192.168.1.3:~/
修改文件夹".ssh"的用户权限
chmod 700 ~/.ssh
另外一台机器追加到授权文件"authorized_keys"
cat~/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600~/.ssh/authorized_keys
另外一台机器用root用户修改"/etc/ssh/sshd_config"
RSAAuthentication yes # 启用 RSA 认证
PubkeyAuthentication yes# 启用公钥私钥配对认证方式
AuthorizedKeysFile.ssh/authorized_keys # 公钥文件路径(和上面生成的文件同)
Hadoop集群安装
配置hadoop-env.sh
# set java environment
export JAVA_HOME=/usr/java/jdk1.6.0_31
配置core-site.xml文件即配置HDFS的地址和端口号
在/usr/programs/hadoop/hadoop-1.2.1/目录下建立tmp文件夹
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/programs/hadoop/hadoop-1.2.1/tmp</value>
<description>A base for othertemporary directories.</description>
</property>
<!--file system properties -->
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.166:9000</value>
</property>
</configuration>
配置hdfs-site.xml文件
修改Hadoop中HDFS的配置,配置的备份方式默认为3
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
(备注:replication 是数据副本数量,默认为3,salve少于3台就会报错)
</property>
<configuration>
配置mapred-site.xml文件即配置JobTracker的地址和端口。
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>http://192.168.1.166:9001</value>
</property>
</configuration>
配置masters文件
去掉"localhost",加入Master机器的IP:192.168.1.2
因为万一忘记配置"/etc/hosts"局域网的DNS失效,这样就会出现意想不到的错误,但是一旦IP配对,网络畅通,就能通过IP找到相应主机。
参考链接:
http://www.cnblogs.com/xia520pi/archive/2012/05/16/2503949.html
- centos下安装hadoop
- CentOS下安装hadoop
- CentOS下安装hadoop
- centos下hadoop的安装
- Centos下Hadoop安装配置
- centos 下 Hadoop+Hbase 安装手册
- CentOS 下 Hadoop+Hbase 安装手册
- CentOS 下 Hadoop+Hbase 安装手册
- centos下安装ganglia监控hadoop集群
- CentOS环境下安装Hadoop集群
- CentOS下Hadoop伪分布模式安装
- Centos 7 下安装hadoop 2.6.x
- CentOS下安装Hadoop单机版
- CentOS下的Hadoop安装教程
- hadoop在centOS下的安装
- Hadoop完全分布式安装(centos下)
- Linux CentOS下Hadoop伪分布模式安装笔记
- Linux CentOS下Hadoop伪分布模式安装笔记
- MATLAB全局变量
- 我的第一次作业喔
- 这叫啥事
- Plist—ios应用数据存储方式
- 版本回退和远程仓库
- CentOS下安装hadoop
- 15个数从大到小排列
- 内存管理笔记
- 1040. 有几个PAT(25)
- 排序第二节课
- shiro 登录验证授权问题
- 一直的没思想
- JavaSE学习笔记(2016.3.31)
- 安卓自定义状态栏颜色