hadoop单机模式配置

来源:互联网 发布:java技术支持干什么的 编辑:程序博客网 时间:2024/05/21 17:05
hadoop单机模式配置
一、SSH(secure shell)的免密码登陆
a、执行命令,产生秘钥
产生的秘钥位于 ~/.ssh文件夹中 用户目录下
cd ~ 
cd .ssh
ssh-keygen -t rsa
b、cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

ubuntu可能要手动开启ssh服务:

sudo apt-get install openssh-server
然后确认sshserver是否启动了:
ps -e |grep ssh

验证:ssh localhost
使用pieTTY的SSH登陆


二、安装hadoop
tar -zvxf hadoop-1.1.2.tar.gz 


三、配置环境变量
/etc/profile添加
export JAVA_HOME=/root/local/jdk
export HADOOP_HOME=/root/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH
source /etc/profile
修改hadoop配置文件进行单机模式配置
参考教程ppt
配置文件主要位于$HADOOP_HOME/config目录下


1.hadoop-env.sh
export JAVA_HOME=/root/tool/jdk #按个人jdk安装位置自行修改
export HADOOP_PID_DIR=/var/hadoop/pids
export HADOOP_HOME_WARN_SUPPRESS=1
2、core-site.xml
<configuration>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/data/hadoop-${user.name}</value>
  </property>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
  </property>
</configuration>
3、hdfs-site.xml
<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <property>
    <name>dfs.block.size</name>
    <value>134217728</value>
  </property>
  <property>
    <name>dfs.data.dir</name>
    <value>${hadoop.tmp.dir}/dfs/data</value>
  </property>
</configuration>
4、mapred-site.xml
<configuration>
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
  </property>
  <property>
    <name>mapred.child.tmp</name>
    <value>${hadoop.tmp.dir}</value>
  </property>
  <property>
    <name>mapred.jobtracker.completeuserjobs.maximum</name>
    <value>25</value>
  </property>
  <property>
    <name>mapred.child.java.opts</name>
    <value>-Dfile.encoding=utf-8 -Duser.language=zh -Xmx512m</value>
  </property>
  <property>
    <name>io.sort.mb</name>
    <value>256</value>
  </property>
  <property>
    <name>mapred.tasktracker.map.tasks.maximum</name>
    <value>4</value>
  </property>
  <property>
    <name>mapred.tasktracker.reduce.tasks.maximum</name>
    <value>4</value>
  </property>
</configuration>


四、启动单机版hadoop


格式化hadoop:hadoop namenode -format

删除原来的Hadoop数据:rm -rf /data/hadoop/tmp



启动:start-all.sh
命令jps查看启动了5个进程 NameNode JobTracker TaskTracker DataNode SecondaryNameNode


web查看:http://192.168.1.100:50070/dfshealth.jsp
http://hadoop:50070/dfshealth.jsp


http://192.168.1.100:50030/jobtracker.jsp
http://hadoop:50030/jobtracker.jsp
然后hadoop配置和启动成功了!
其他的请参考我另外一篇配置文章
0 0
原创粉丝点击