ClouderaManger(CDH5.5.1)大数据安装
来源:互联网 发布:火车选座软件 编辑:程序博客网 时间:2024/04/29 19:43
前言
接触大数据也有一段时间了,中间遇到过很多问题,从陌生到熟悉再到开发与维护,总结一句话就是痛并快乐着。痛是遇到的问题;快乐是获取的宝贵经验。
经验是用来分享的,不是藏着掖着的。我想对于初学者而言搭建集群是第一步,现在在这里分享下搭建大数据集群的方法,我相信在网上也有好多搭建的方
法,但我想这是最适合初学者的一种吧。安装过程中基本可以说直接复制就行了,复制的时候要多想一想多问一问自己当前的操作是干什么用的,这样你才
会在安装的过程中学到东西,也是我分享目的。其中如果遇到问题可以QQ我或者留言!(QQ请注明CDH安装疑问)
资源下载(2.42GB):http://pan.baidu.com/s/1c25MFO8
文件名:cm安装.zip
----------------------------------------------------华丽的分割线------------------------------------------------
系统版本:Ubuntu 14.04.3 LTS
机器配置:3台物理机,每台机器cup:12核,内存:64G,硬盘:3TB
CM版本:5.5.1
主节点:hadoop1
从节点:hadoop2 hadoop3
1.设置root密码
root@hadooptest1:~# passwd
2.更改root远程访问权限
root@hadooptest1:~# vi /etc/ssh/sshd_config
将PermitRootLogin without-password 改为without-password yes
3.设置所有节点hosts文件
root@hadooptest3:~# vi /etc/hosts
4.配置所有节点外网访问
root@hadooptest3:~# vi /etc/resolv.conf
nameserver 114.114.114.114
nameserver 8.8.8.8
5.将使用到的文件上传所有节点/opt/目录下进行解压
6.修改所有节点hostname文件
root@hadooptest3:/# vi /etc/hostname
修改完毕后需要重启机器,重启命令:
root@hadooptest1:/opt# reboot
7.所有节点安装deb文件
root@hadooptest1:/opt# dpkg -i cloudera-manager-daemons_5.5.1-1.cm551.p0.8~trusty-cm5_all.deb
*此文件是从ClouderaManger官网下载,与CDH对应,因为下载速度很慢所以预先下载好直接安装即可
8.修改所有从节点config.ini文件
root@hadooptest1:/opt# vi /opt/cm-5.5.1/etc/cloudera-scm-agent/config.ini
9.所有节点更新linux源
root@hadooptest1:/opt# vi /etc/apt/sources.list
deb http://mirrors.163.com/ubuntu/ trusty main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-security main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-updates main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-proposed main restricted universe multiverse
deb http://mirrors.163.com/ubuntu/ trusty-backports main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-security main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-updates main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-proposed main restricted universe multiverse
deb-src http://mirrors.163.com/ubuntu/ trusty-backports main restricted universe multiverse
root@hadooptest1:/opt# apt-get update
10.所有节点安装JDK
root@hadooptest1:/opt# apt-get install python-software-properties
root@hadooptest1:/opt# add-apt-repository ppa:webupd8team/java
root@hadooptest1:/opt# apt-get update
root@hadooptest1:/opt# apt-get install oracle-java7-installer
如果安装失败或者下载速度极慢,可以重新下载(重新下载会自动切换新的ip下载),使用ctrl+z停止后执行命令后移除oracle-java7-installer:
root@hadooptest1:/opt# dpkg -p oracle-java7-installer
root@hadooptest1:/opt# dpkg --configure -a
root@hadooptest1:/opt# rm /var/cache/apt/archives/lock
root@hadooptest1:/opt# rm /var/lib/dpkg/lock
root@hadooptest1:/opt# lsof /var/cache/debconf/config.dat
root@hadooptest1:/opt# kill -9 [pid]
11.所有节点安装ntp服务
root@hadooptest1:/etc/apt# apt-get install ntp
配置ntp服务(主节点):
root@hadooptest1:/etc/apt# vim /etc/ntp.conf
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default nomodify notrap
server time-b.nist.gov prefer
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys
root@hadooptest1:/etc/apt# service ntp restart
配置ntp服务(从节点):
root@hadooptest1:/etc/apt# vim /etc/ntp.conf
driftfile /var/lib/ntp/drift
restrict 127.0.0.1
restrict -6 ::1
restrict default kod nomodify notrap nopeer noquery
restrict -6 default kod nomodify notrap nopeer noquery
server 172.172.50.10
includefile /etc/ntp/crypto/pw
keys /etc/ntp/keys
root@hadooptest3:/etc/apt# service ntp restart
12.主节点安装cloudera manager依赖库(mysql)
root@hadooptest1:/etc/apt# apt-get install mysql-server
*安装中会让你设置mysql root用户密码
root@hadooptest1:/etc/apt# service mysql stop
配置mysql文件:
root@hadooptest1:/etc/apt# vi /etc/mysql/my.cnf
添加配置
# InnoDB settings
innodb_file_per_table = 1
innodb_flush_log_at_trx_commit = 2
innodb_log_buffer_size = 64M
innodb_buffer_pool_size = 4G
innodb_thread_concurrency = 8
innodb_flush_method = O_DIRECT
innodb_log_file_size = 512M
删除/var/lib/mysql文件夹下的ib_logfile1 ib_logfile0文件后启动mysql
root@hadooptest1:/etc/apt# service mysql start
root@hadooptest1:/etc/apt# mysql -u root -p
创建库与用户
mysql> create user 'hive'@'%' identified by '123';
mysql> create database metastore DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci;
mysql> grant all privileges on metastore.* to 'hive'@'%' identified by '123';
mysql> alter database metastore character set latin1;
mysql> FLUSH PRIVILEGES;
如果安装失败或出现异常,可完全卸载mysql后重新安装,卸载命令为:
root@hadooptest1:/var/lib/mysql# apt-get remove mysql-server
root@hadooptest1:/var/lib/mysql# apt-get autoremove mysql-server
root@hadooptest1:/var/lib/mysql# apt-get remove mysql-common
root@hadooptest1:/var/lib/mysql# dpkg -l |grep ^rc|awk '{print $2}' |sudo xargs dpkg -P
13.添加用户
root@hadooptest1:/var/lib/mysql# useradd --system --home=/opt/cm-5.5.1/run/cloudera-scm-server --no-create-home --shell=/bin/false --comment "Cloudera SCM User" cloudera-scm
14.创建cloudera依赖库
root@hadooptest1:/var/lib/mysql# cd /opt/cm-5.5.1/share/cmf/schema/
root@hadooptest1:/opt/cm-5.5.1/share/cmf/schema# ./scm_prepare_database.sh mysql cmf -hlocalhost -uroot -p --scm-host localhost scm scm scm
*输入mysql密码
15.所有节点添加mysql驱动
将mysql-connector-java-5.1.37-bin.jar存放于/opt/cm-5.5.1/share/cmf/lib/
16.启动服务
主节点:
root@hadooptest1:~# /opt/cm-5.5.1/etc/init.d
root@hadooptest1:/opt/cm-5.5.1/etc/init.d# ./cloudera-scm-server start
root@hadooptest1:/opt/cm-5.5.1/etc/init.d# ./cloudera-scm-agent start
从节点:
root@hadooptest1:~# /opt/cm-5.5.1/etc/init.d
root@hadooptest2:/opt/cm-5.5.1/etc/init.d# ./cloudera-scm-agent start
17.执行命令(所有节点)
root@hadoop1:/opt/cm-5.5.1/etc/init.d# echo 0 > /proc/sys/vm/swappiness
18.安装集群
打开浏览器输入 172.172.50.10:7180
用户名:admin
密码: admin
19.选择服务
20.安装服务
ZooKeeper 全部节点
Hive HiveServer2 全部节点
HBase RegionServer 全部节点
HDFS DataNode 全部节点
其他服务按实际需要选择
21.数据库设置
22.将mysql-connector-java-5.1.37-bin.jar存放于/opt/cloudera/parcels/CDH-5.5.1-1.cdh5.5.1.p0.11/lib/hive/lib目录下
23.添加flume服务
24.添加kafka服务
25.添加kafka topic
root@hadooptest1:~# cd /usr/bin/
root@hadooptest1:~# ./kafka-topics.sh --create --topic currentTimeSpark --partitions 3 --replication-factor 3 --zookeeper 172.160.0.204:2181,172.160.0.202:2181,172.160.0.201:2181
*zookeeper地址根据实际情况填写
26.集群服务出现 时间偏差 错误解决方法:
使用root用户执行命令(所有节点):ntpdate -u time-b.nist.gov 或ntpdate -u time.nist.gov
使用root用户执行命令(从节点):ntpdate -u hadoop1
*主节点时间与外网时间同步,从节点时间与主节点时间同步
*同步不会立即生效,大概10-20分钟的时间
**如启用 High Availability。
必须手动执行下列步骤:
对于每个 Hive 服务Hive,停止Hive服务,将Hive Metastore数据库备份到永久性存储中,运行服务命令"更新Hive Metastore NameNodes",然后重启Hive服务。
---------------------------------优雅的结束分割线-----------------------------------
安装结束后如果服务有出现黄色警告或红色错误时请点击进入查看详细,根据问题先自行百度,也算是留下等待你去解决、思考的练习吧!
- ClouderaManger(CDH5.5.1)大数据安装
- 大数据Hadoop测试环境搭建(CM、CDH5离线安装)
- 大数据CDH5环境搭建
- 六台Debian主机安装搭建Cloudera Manager 5和CDH5(版本5.9.0)大数据集群
- CDH5安装
- CDH5安装
- CDH5 安装
- CDH5离线文件大数据平台的搭建
- CDH5.5.1 安装指南 中文首发版
- CDH5 添加数据节点
- 【CDH5】-003CDH5.4.0 离线安装
- 使用yum安装CDH5
- CDH5.0安装【1】
- cdh5安装注意
- hadoop cdh5安装
- hadoop cdh5单机安装
- CDH5.4安装
- cdh5.5 RHadoop安装
- 阿里云服务CentOS安装基础环境
- openstack neutron(tap、qvb、qvo详解)(转)
- LINUX多线程
- android 机型适配,屏幕适配
- Android学习笔记——解决设置了android:layout_alignParentBottom="true"的控件会被弹出的输入法顶上去的问题
- ClouderaManger(CDH5.5.1)大数据安装
- 计算机视觉的一些测试数据集和源码站点
- 简图记录-代码整洁之道
- c++笔记(2):函数参数、函数调用、汉诺塔
- 复旦微电子CPU卡发卡流程
- 简单计算器实现
- DMC1380的使用:项目实例讲解
- BSOJ 4881 守望者的挑战---概率DP(更应该是递推)
- Robotframework实现Dictionary数据和Json格式数据自由转换