ClouderaManger(CDH5.5.1)大数据安装

来源:互联网 发布:火车选座软件 编辑:程序博客网 时间:2024/04/29 19:43

前言

接触大数据也有一段时间了,中间遇到过很多问题,从陌生到熟悉再到开发与维护,总结一句话就是痛并快乐着。痛是遇到的问题;快乐是获取的宝贵经验。

经验是用来分享的,不是藏着掖着的。我想对于初学者而言搭建集群是第一步,现在在这里分享下搭建大数据集群的方法,我相信在网上也有好多搭建的方

法,但我想这是最适合初学者的一种吧。安装过程中基本可以说直接复制就行了,复制的时候要多想一想多问一问自己当前的操作是干什么用的,这样你才

会在安装的过程中学到东西,也是我分享目的。其中如果遇到问题可以QQ我或者留言!(QQ请注明CDH安装疑问)


资源下载(2.42GB):http://pan.baidu.com/s/1c25MFO8

文件名:cm安装.zip


----------------------------------------------------华丽的分割线------------------------------------------------


系统版本:Ubuntu 14.04.3 LTS

机器配置:3台物理机,每台机器cup12核,内存:64G,硬盘:3TB

CM版本:5.5.1

主节点:hadoop1

从节点:hadoop2   hadoop3

1.设置root密码

root@hadooptest1:~# passwd

 

2.更改root远程访问权限

root@hadooptest1:~# vi /etc/ssh/sshd_config

PermitRootLogin without-password 改为without-password yes

 

3.设置所有节点hosts文件

root@hadooptest3:~# vi /etc/hosts



4.配置所有节点外网访问

root@hadooptest3:~# vi /etc/resolv.conf

nameserver 114.114.114.114

nameserver 8.8.8.8



5.将使用到的文件上传所有节点/opt/目录下进行解压



6.修改所有节点hostname文件

root@hadooptest3:/# vi /etc/hostname

修改完毕后需要重启机器,重启命令:

root@hadooptest1:/opt# reboot

 

7.所有节点安装deb文件

root@hadooptest1:/opt# dpkg -i cloudera-manager-daemons_5.5.1-1.cm551.p0.8~trusty-cm5_all.deb

*此文件是从ClouderaManger官网下载,与CDH对应,因为下载速度很慢所以预先下载好直接安装即可 


8.修改所有从节点config.ini文件

root@hadooptest1:/opt# vi /opt/cm-5.5.1/etc/cloudera-scm-agent/config.ini



9.所有节点更新linux

root@hadooptest1:/opt# vi /etc/apt/sources.list

deb http://mirrors.163.com/ubuntu/ trusty main restricted universe multiverse

deb http://mirrors.163.com/ubuntu/ trusty-security main restricted universe multiverse

deb http://mirrors.163.com/ubuntu/ trusty-updates main restricted universe multiverse

deb http://mirrors.163.com/ubuntu/ trusty-proposed main restricted universe multiverse

deb http://mirrors.163.com/ubuntu/ trusty-backports main restricted universe multiverse

deb-src http://mirrors.163.com/ubuntu/ trusty main restricted universe multiverse

deb-src http://mirrors.163.com/ubuntu/ trusty-security main restricted universe multiverse

deb-src http://mirrors.163.com/ubuntu/ trusty-updates main restricted universe multiverse

deb-src http://mirrors.163.com/ubuntu/ trusty-proposed main restricted universe multiverse

deb-src http://mirrors.163.com/ubuntu/ trusty-backports main restricted universe multiverse

root@hadooptest1:/opt# apt-get update


10.所有节点安装JDK


root@hadooptest1:/opt# apt-get install python-software-properties

root@hadooptest1:/opt# add-apt-repository ppa:webupd8team/java

root@hadooptest1:/opt# apt-get update

root@hadooptest1:/opt# apt-get install oracle-java7-installer

如果安装失败或者下载速度极慢,可以重新下载(重新下载会自动切换新的ip下载),使用ctrl+z停止后执行命令后移除oracle-java7-installer

root@hadooptest1:/opt# dpkg -p oracle-java7-installer

root@hadooptest1:/opt# dpkg --configure -a

root@hadooptest1:/opt# rm /var/cache/apt/archives/lock

root@hadooptest1:/opt# rm /var/lib/dpkg/lock

root@hadooptest1:/opt# lsof /var/cache/debconf/config.dat

root@hadooptest1:/opt# kill -9 [pid]

 

11.所有节点安装ntp服务

root@hadooptest1:/etc/apt# apt-get install ntp

配置ntp服务(主节点)

root@hadooptest1:/etc/apt# vim /etc/ntp.conf

driftfile /var/lib/ntp/drift

restrict 127.0.0.1

restrict -6 ::1

restrict default nomodify notrap

server time-b.nist.gov prefer

includefile /etc/ntp/crypto/pw

keys /etc/ntp/keys

root@hadooptest1:/etc/apt# service ntp restart

配置ntp服务(从节点)

root@hadooptest1:/etc/apt# vim /etc/ntp.conf

driftfile /var/lib/ntp/drift

restrict 127.0.0.1

restrict -6 ::1

restrict default kod nomodify notrap nopeer noquery

restrict -6 default kod nomodify notrap nopeer noquery

server 172.172.50.10

includefile /etc/ntp/crypto/pw

keys /etc/ntp/keys

root@hadooptest3:/etc/apt# service ntp restart

12.主节点安装cloudera manager依赖库(mysql

root@hadooptest1:/etc/apt# apt-get install mysql-server

*安装中会让你设置mysql root用户密码

root@hadooptest1:/etc/apt# service mysql stop

配置mysql文件:

root@hadooptest1:/etc/apt# vi /etc/mysql/my.cnf

添加配置

# InnoDB settings

innodb_file_per_table = 1

innodb_flush_log_at_trx_commit  = 2

innodb_log_buffer_size = 64M

innodb_buffer_pool_size = 4G

innodb_thread_concurrency = 8

innodb_flush_method = O_DIRECT

innodb_log_file_size = 512M


删除/var/lib/mysql文件夹下的ib_logfile1 ib_logfile0文件后启动mysql

root@hadooptest1:/etc/apt# service mysql start

root@hadooptest1:/etc/apt# mysql -u root -p

创建库与用户

mysql> create user 'hive'@'%' identified by '123';

mysql> create database metastore DEFAULT CHARACTER SET utf8 COLLATE utf8_general_ci;

mysql> grant all privileges on metastore.* to 'hive'@'%' identified by '123';

mysql> alter database metastore character set latin1;

mysql> FLUSH PRIVILEGES;

如果安装失败或出现异常,可完全卸载mysql后重新安装,卸载命令为:

root@hadooptest1:/var/lib/mysql# apt-get remove mysql-server

root@hadooptest1:/var/lib/mysql# apt-get autoremove mysql-server

root@hadooptest1:/var/lib/mysql# apt-get remove mysql-common

root@hadooptest1:/var/lib/mysql# dpkg -l |grep ^rc|awk '{print $2}' |sudo xargs dpkg -P

13.添加用户

root@hadooptest1:/var/lib/mysql# useradd --system --home=/opt/cm-5.5.1/run/cloudera-scm-server --no-create-home --shell=/bin/false --comment "Cloudera SCM User" cloudera-scm

 

14.创建cloudera依赖库

root@hadooptest1:/var/lib/mysql# cd /opt/cm-5.5.1/share/cmf/schema/

root@hadooptest1:/opt/cm-5.5.1/share/cmf/schema# ./scm_prepare_database.sh mysql cmf -hlocalhost -uroot -p --scm-host localhost scm scm scm

*输入mysql密码


15.所有节点添加mysql驱动

mysql-connector-java-5.1.37-bin.jar存放于/opt/cm-5.5.1/share/cmf/lib/

 

16.启动服务

主节点:

root@hadooptest1:~# /opt/cm-5.5.1/etc/init.d

root@hadooptest1:/opt/cm-5.5.1/etc/init.d# ./cloudera-scm-server start

root@hadooptest1:/opt/cm-5.5.1/etc/init.d# ./cloudera-scm-agent start

从节点:

root@hadooptest1:~# /opt/cm-5.5.1/etc/init.d

root@hadooptest2:/opt/cm-5.5.1/etc/init.d# ./cloudera-scm-agent start

17.执行命令(所有节点)

root@hadoop1:/opt/cm-5.5.1/etc/init.d# echo 0 > /proc/sys/vm/swappiness

18.安装集群

打开浏览器输入 172.172.50.10:7180

用户名:admin

密码: admin

 

19.选择服务



20.安装服务

ZooKeeper 全部节点

Hive     HiveServer2 全部节点

HBase    RegionServer 全部节点

HDFS     DataNode   全部节点

其他服务按实际需要选择

21.数据库设置



22.mysql-connector-java-5.1.37-bin.jar存放于/opt/cloudera/parcels/CDH-5.5.1-1.cdh5.5.1.p0.11/lib/hive/lib目录下

 

23.添加flume服务






24.添加kafka服务






25.添加kafka topic

root@hadooptest1:~# cd /usr/bin/

root@hadooptest1:~# ./kafka-topics.sh --create  --topic currentTimeSpark --partitions 3 --replication-factor 3 --zookeeper 172.160.0.204:2181,172.160.0.202:2181,172.160.0.201:2181

*zookeeper地址根据实际情况填写

 

26.集群服务出现 时间偏差 错误解决方法:

使用root用户执行命令(所有节点)ntpdate -u time-b.nist.gov 或ntpdate -u time.nist.gov

使用root用户执行命令(从节点)ntpdate -u hadoop1

*主节点时间与外网时间同步,从节点时间与主节点时间同步

*同步不会立即生效,大概10-20分钟的时间

 

**如启用 High Availability

必须手动执行下列步骤:

对于每个 Hive 服务Hive,停止Hive服务,将Hive Metastore数据库备份到永久性存储中,运行服务命令"更新Hive Metastore NameNodes",然后重启Hive服务。



---------------------------------优雅的结束分割线-----------------------------------


安装结束后如果服务有出现黄色警告红色错误时请点击进入查看详细,根据问题先自行百度,也算是留下等待你去解决、思考的练习吧!


1 1
原创粉丝点击