hadoop环境配置
来源:互联网 发布:日本历史书籍推荐知乎 编辑:程序博客网 时间:2024/06/06 19:28
1.增加用户与用户组
groupadd hadoop //添加一个组
useradd hadoop -g hadoop //添加用户
2.设置用户密码
如果是超级用户,可以用下列形式指定任何用户的口令:
# passwd sam
New password:*******
Re-enter new password:*******
3.实现SSH的无密码连接
a、 ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa //生成密钥(这里密码为空) 文件如:id_dsa id_dsa.pub
b、 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys //加入受信列表
c、 chmod 755 ~/.ssh/authorized_keys
d、 ssh localhost 或者 ssh matraxa //第一次需输入"yes",成功就能无密码访问 这个是进行的本地测试
e、把localhost上的id_dsa.pub 文件追加到数据节点的authorized_keys 内:
$ scp id_dsa.pub hadoop@192.168.0.16:/home/hadoop
登录数据节点(192.168.0.16),进入/home/hadooop目录执行:$ cat id_dsa.pub >> .ssh/authorized_keys //可以在localhost上不输入密码直接访问数据节点了
4.设置配置文件
修改hadoop目录下的conf/hadoop-env.sh文件
加入java的安装路径export JAVA_HOME=/opt/java/jdk
把hadoop目录下的conf/core-site.xml文件修改成如下:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/hadoop-2.5.2/dhfs/tmp</value>
</property>
</configuration>
把hadoop目录下的conf/ hdfs-site.xml文件修改成如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
把hadoop目录下的conf/ slaves文件修改成如下:
hadoop16 //加入数据节点的服务器
groupadd hadoop //添加一个组
useradd hadoop -g hadoop //添加用户
2.设置用户密码
如果是超级用户,可以用下列形式指定任何用户的口令:
# passwd sam
New password:*******
Re-enter new password:*******
3.实现SSH的无密码连接
a、 ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa //生成密钥(这里密码为空) 文件如:id_dsa id_dsa.pub
b、 cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys //加入受信列表
c、 chmod 755 ~/.ssh/authorized_keys
d、 ssh localhost 或者 ssh matraxa //第一次需输入"yes",成功就能无密码访问 这个是进行的本地测试
e、把localhost上的id_dsa.pub 文件追加到数据节点的authorized_keys 内:
$ scp id_dsa.pub hadoop@192.168.0.16:/home/hadoop
登录数据节点(192.168.0.16),进入/home/hadooop目录执行:$ cat id_dsa.pub >> .ssh/authorized_keys //可以在localhost上不输入密码直接访问数据节点了
4.设置配置文件
修改hadoop目录下的conf/hadoop-env.sh文件
加入java的安装路径export JAVA_HOME=/opt/java/jdk
把hadoop目录下的conf/core-site.xml文件修改成如下:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/hadoop-2.5.2/dhfs/tmp</value>
</property>
</configuration>
把hadoop目录下的conf/ hdfs-site.xml文件修改成如下:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
把hadoop目录下的conf/ slaves文件修改成如下:
hadoop16 //加入数据节点的服务器
0 0
- Hadoop客户端环境配置
- hadoop环境配置
- Hadoop客户端环境配置
- Hadoop单机环境配置
- hadoop环境配置
- hadoop环境配置
- Hadoop单机环境配置
- Hadoop客户端环境配置
- hadoop环境配置
- hadoop环境配置
- hadoop的环境配置
- Hadoop环境配置
- 配置HADOOP开发环境
- Hadoop单机环境配置
- hadoop开发环境配置
- Hadoop环境配置
- eclipse Hadoop环境配置
- Hadoop 环境配置
- Java泛型详解
- topo排序(邻接表) 判断topo序列是否存在,是否唯一,以及输出序列
- L1-009. N个数求和
- 自己瞎写的小程序
- sdutacm-cyk追楠神系列一
- hadoop环境配置
- [Tkinter 教程09] Scale 控件
- java编程思想第4版第15章混型笔记及装饰器模式
- bole
- CSS3 Background-size
- 微服务实践Go
- 1
- sdutacm-bLue的文件查找器
- 赋予一个普通用户root权限(cetosOs6.5)