hadoopCDH4.1+zookeeperCDH4.1+hbaseCDH4.1环境搭建
来源:互联网 发布:南京市软件定制开发 编辑:程序博客网 时间:2024/05/29 12:00
一、安装准备工作。
(1)3台或以上liunx_64机器。
(2)每台机器安装JDK1.6或以上版本。
(3)从https://ccp.cloudera.com/display/SUPPORT/CDH4+Downloadable+Tarballs+-+4.1.1下载hadoop,hbase,zookeeper的CDH4版本,下载需要注册。
(4)本地安装ftp(Winscp),xshell工具。
二、配置hadoop。
(1)core-site.xml配置
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://test01:9000</value>
<final>true</final>
</property>
<property>
<name>io.native.lib.available</name>
<value>true</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/tmp</value>
</property>
</configuration>
(2)hadoop-env.sh
export JAVA_HOME=/usr/java/jdk1.6.0_31
(3)hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.support.append</name>
<value>true</value>
</property>
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
<property>
<name>dfs.datanode.max.xcievers</name>
<value>4096</value>
</property>
</configuration>
(4)mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapred.job.tracker</name>
<value>test01:9001</value>
<final>true</final>
</property>
<property>
<name>mapred.map.java.opts</name>
<value>-Xmx1024m</value>
</property>
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx1024m</value>
</property>
</configuration>
(5)yarn-site.xml
<configuration>
<property>
<name>yarn.resourcemanager.address</name>
<value>test01:18080</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>test01:18081</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>test01:18082</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce.shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
<property>
<name>yarn.nodemanager.local-dirs</name>
<value>file:/data/hadoop/nmdata/local</value>
<description>thelocal directories used by the nodemanager</description>
</property>
<property>
<name>yarn.nodemanager.log-dirs</name>
<value>file:/data/hadoop/nmdata/log</value>
</property>
</configuration>
(6)yarn-env.xml
export JAVA_HOME=/usr/java/jdk1.6.0_30
export HADOOP_HOME=/home/fdhadoop/hadoop-2.0.0-cdh4.1.1
export HADOOP_PREFIX=${HADOOP_HOME}
export HADOOP_MAPRED_HOME=${HADOOP_HOME}
export HADOOP_COMMON_HOME=${HADOOP_HOME}
export HADOOP_HDFS_HOME=${HADOOP_HOME}
export HADOOP_YARN_HOME=${HADOOP_HOME}
export PATH=$PATH:${JAVA_HOME}/bin:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin
export JAVA_HOME JAVA_BIN PATH CLASSPATH JAVA_OPTS
export HADOOP_LIB=${HADOOP_HOME}/lib
export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop
(7)slaves
test01
test02
test03
三、配置hbase。
(1)hbase-site.xml
<configuration>
<property>
<name>hbase.rootdir</name>
<value>hdfs://test01:9000/hbase</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.master</name>
<value>test01:60000</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>test01,test02,test03</value> #奇数个
</property>
<property>
<name>hbase.zookeeper.property.clientPort</name>
<value>2181</value>
</property>
<property>
<name>hbase.regionserver.lease.period</name>
<value>120000</value>
</property>
<property>
<name>hbase.rpc.timeout</name>
<value>120000</value>
</property>
</configuration>
(2)hbase-env.xml
export JAVA_HOME=/usr/java/jdk1.6.0_30
export HBASE_OPTS="$HBASE_OPTS -XX:+HeapDumpOnOutOfMemoryError -XX:+UseConcMarkSweepGC -XX:+CMSIncrementalMode"
export HBASE_MANAGES_ZK=true
export HADOOP_HOME=/home/fdhadoop/hadoop-2.0.0-cdh4.1.1
export HBASE_LOG_DIR=/home/fdhadoop/hbase-0.92.1-cdh4.1.1/logs
export HBASE_CLASSPATH=/home/fdhadoop/hadoop-2.0.0-cdh4.1.1/etc/hadoop
(3)regionservers
test01
test02
test03
(4)将zook.cfg和hdfs-site.xml拷贝到目录下。
四、配置zookeeper。
tickTime=2000
initLimit=10
syncLimit=5
dataDir=/data/hadoop/zookeeper
clientPort=2181
server.1=172.18.117.32:2888:3888
server.2=172.18.117.109:2888:3888
server.3=172.18.117.69:2888:3888
五、启动环境。
(1)启动hadoop
hadoop/sbin/start-all.sh,如果在/etc/profile中配置了hadoop环境变量,则只需输入:start-all.sh。
(2)启动hbase
start-hbase.sh,同上。
六、验证环境。
确保第四步没有错误。就可以验证我们的hbase环境了。
(1)输入hbase shell进入hbase客户端操作平台。
(2)create 'test','f'命令创建表。
(3)put 'test','row1','f:aa','test'仓储向表中插入记录。
(4)scan 'test'查询表记录。
命令都正确执行。
执行mapreduce成功。
到此环境搭建成功。后续只需要根据实际需要对配置进行调整。
七、安装过程中的常见错误及解决方法。
暂无。
希望遇到问题的朋友可以留言。
- hadoopCDH4.1+zookeeperCDH4.1+hbaseCDH4.1环境搭建
- 1-1环境搭建
- (1) 搭建工作环境
- android环境搭建1
- 环境搭建常用命令1
- 1、Android环境搭建
- Extjs4.1 环境搭建
- 1 搭建EasyUI环境
- 搭建环境(1)
- Android 1 --> 环境搭建
- Extjs4.1 环境搭建
- struts2--(1)环境搭建
- maven(1)--环境搭建
- Extjs4.1 环境搭建
- 1环境搭建
- extjs4.1环境搭建
- phonegap-环境搭建(1)
- 1、robot_framework环境搭建
- __EMIT伪指令
- java书籍
- MFC图像处理-图像移动显示算法
- C# 解决datatable想删除不想要的多行方法
- uboot启动阶段修改启动参数方法及分析
- hadoopCDH4.1+zookeeperCDH4.1+hbaseCDH4.1环境搭建
- Linux下jdk1.6的安装(经测试,已成功。。。)
- 第二章 Oracle 概念2 数据块、区段和段
- UVA 445 - Marvelous Mazes
- android 基础 Handler
- (转载)左倾堆 (leftist heap):方法参见 Data Structures (Weiss)
- java书籍2
- JDK环境变量配置
- FLEX 本地文件写入