学习淘淘商城第三十一课(Redis集群搭建)

来源:互联网 发布:第二次世界大战知乎 编辑:程序博客网 时间:2024/05/17 05:08

       首先说一下,为何要搭建Redis集群。Redis是在内存中保存数据,而我们的电脑一般内存都不大,这也就意味着Redis不适合存储大数据。适合存储大数据的是Hadoop生态系统的HBase或者是MogoDB。Redis更适合处理高并发,一台设备的存储能力是很有限的,但是多台设备协同合作,就可以让内存增大很多倍,这就需要用到集群。

        我们来看一下集群图,如下图所示。可以看到Redis集群是没有统一入口的,客户端连集群中的哪台设备都行,集群中各个设备之间都定时进行交互,以便知道节点是否还正常工作。


        那么假如某个节点挂掉了怎么办?Redis集群是有容错投票机制的,如下图所示。浅黄色的那个节点向红色的那个节点发出ping命令,红色节点没有回应,这时浅黄色节点便认为这个节点可能挂掉了,它会投上一票,不过这时只是疑问,所以浅黄色节点画了一个"?",然后浅黄色节点告诉别的节点说这个红色的节点可能挂掉了,第二个节点去尝试和这个红色节点联系,发现也ping不同,于是第二个节点也认为这个红色节点挂掉了,第二个节点也投上一票,接着第三个节点去和红色节点联系,也联系不上,于是也投上一票,这样便三票了。Redis的容错投票机制是集群中过半数的节点认为某个节点挂了,那么就认定这个节点挂了。这时要看这个红色节点还有没有备用节点,如果没有备用节点了,那么整个集群将停止对外提供服务,如果有备份节点,那么会将备份节点扶正,继续对外提供服务。


         那么为什么一个节点挂掉(并且没有备用节点)的话,整个集群都不能提供服务了呢?其实这跟Redis集群的存储机制有关,Redis集群内置了16384个哈希槽,当需要在Redis集群中放置一个key-value时,redis先对key使用crc16算法算出一个结果,然后把结果对16384求余数,这样每个key都会对应一个编号在0-16383之间的哈希槽,redis会根据节点数量大致均等的将哈希映射到不同的节点。我们以下图为例,我们把这16384个哈希槽分配到三个Server上,假如Server1上卡槽是0-5000,Server2上卡槽是5001-10000,Server3上卡槽是10001-16383。假如我们要保存字符串"hello",而"hello"经过crc16算法再对16384求余后是500,很显然应该存到Server1上,假如要存储的字符串"hello2"经过crc16算法再对16384求余后是11500,那么狠显然应该存到Server3上,同理,"hello3"、"hello1"被分别存到Server2和Server1上了。也就是说每个Server其实存储的内容是不一样的,这也就是为何某个节点挂掉后如果没有备用节点的话,整个集群都会挂掉,因为数据不全了啊。另外,关于每个服务器上卡槽的分布数量可以根据服务器的性能来定,性能好的可以多分配些卡槽,这样在它上面存储的内容也就多了。

   

        下面我们来搭建Redis集群,由于集群的容错机制是超过半数的节点认为某节点挂掉就确认挂掉,因此我们搭建的集群最好是奇数台(>=3)。又由于为了高可用性,每个节点需要有备份节点,因此我们搭建Redis集群至少要有6台虚拟机。下面说下步骤:

第一步:新建6台虚拟机

         大家可以参考http://blog.csdn.net/u012453843/article/details/68947589这篇博客进行搭建

第二步:为每台虚拟机安装redis

         大家可以参考http://blog.csdn.net/u012453843/article/details/70254865这篇博客进行安装

第三步:修改配置文件

        首先将解压包中的redis.conf文件复制到/usr/local/redis/bin目录下

[root@redis1 redis-3.0.0]# pwd/usr/local/redis-3.0.0[root@redis1 redis-3.0.0]# cp redis.conf /usr/local/redis/bin/[root@redis1 redis-3.0.0]# cd /usr/local/redis/bin[root@redis1 bin]# ll总用量 15484-rwxr-xr-x. 1 root root 4588854 4月  21 05:18 redis-benchmark-rwxr-xr-x. 1 root root   22177 4月  21 05:18 redis-check-aof-rwxr-xr-x. 1 root root   45395 4月  21 05:18 redis-check-dump-rwxr-xr-x. 1 root root 4691761 4月  21 05:18 redis-cli-rw-r--r--. 1 root root   41403 4月  21 05:28 redis.conflrwxrwxrwx. 1 root root      12 4月  21 05:18 redis-sentinel -> redis-server-rwxr-xr-x. 1 root root 6450289 4月  21 05:18 redis-server[root@redis1 bin]# 
         接着修改redis.conf文件,需要修改两处地方,第一处是要开启后台运行功能,点击Xshell工具的"编辑"菜单,在下拉菜单中点击"查找",在查找对话框中输入"daemonize"即可搜索到相关配置,该配置原来默认值是"no",我们现在把它改为"yes"。


       第二处修改是开启集群,在搜索框中输入"cluster-enabled"便可找到这项配置,该配置原来是被注释掉的,我们把前面的那个注释符"#"去掉,如下图所示。


       这样第一台虚拟机便配置好了,由于六台虚拟机的这两项配置都一样,因此我们把刚修改好的这份配置文件复制到其它5台虚拟机上。

[root@redis1 bin]# scp redis.conf 192.168.156.16:/usr/local/redis/bin/[root@redis1 bin]# scp redis.conf 192.168.156.17:/usr/local/redis/bin/[root@redis1 bin]# scp redis.conf 192.168.156.18:/usr/local/redis/bin/[root@redis1 bin]# scp redis.conf 192.168.156.19:/usr/local/redis/bin/[root@redis1 bin]# scp redis.conf 192.168.156.20:/usr/local/redis/bin/

第四步:设置开机自启动
        为了避免以后集群所有设备都手工启动redis,可以为这6台设备设置开机自启动,在/etc/rc.d/rc.local文件当中添加/usr/local/redis/bin/redis-server /usr/local/redis/bin/redis.conf这一行命令。     

[root@redis1 bin]# vim /etc/rc.d/rc.local #!/bin/sh## This script will be executed *after* all the other init scripts.# You can put your own initialization stuff in here if you don't# want to do the full Sys V style init stuff.touch /var/lock/subsys/local/usr/local/redis/bin/redis-server /usr/local/redis/bin/redis.conf

第五步:启动六台设备的redis。

        以其中一台设备为例,如下所示。

[root@redis1 bin]# /usr/local/redis/bin/redis-server /usr/local/redis/bin/redis.conf[root@redis1 bin]# ps aux|grep redisroot      6222  0.2  1.0 137456  2500 ?        Ssl  07:00   0:00 /usr/local/redis/bin/redis-server *:6379 [cluster]root      6256  0.0  0.3 103336   896 pts/1    S+   07:00   0:00 grep redis[root@redis1 bin]#

第六步:安装ruby环境
        集群的搭建需要用到ruby环境,因此我们需要安装ruby环境,由于六台设备都需要安装ruby环境,因此我们直接在XShell工具的下面的输入框中输入安装命令(要确认当前 作用的窗口是所有窗口,就是左边的图标是多窗口图标,如果不是多窗口可以点击输入框右边的"三条横线"图标切换窗口)回车即可在六个窗口同时运行yum install ruby命令。


      安装完ruby之后,我们安装rubygem(也就是ruby第三方包管理工具),使用命令yum install rubygems,如下图所示



        安装完ruby和rubygems之后,我们需要安装ruby脚本运行所需要的一个包redis-3.0.0.gem。这个包大家可以到:http://download.csdn.net/detail/u012453843/9821251这个地址进行下载,下载完后上传到每台 设备的/usr/local/software目录下,如下所示。

[root@redis1 redis-3.0.0]# cd /usr/local/software/[root@redis1 software]# ll总用量 1388-rw-r--r--. 1 root root   57856 4月  21 2017 redis-3.0.0.gem-rw-r--r--. 1 root root 1358081 4月  20 11:15 redis-3.0.0.tar.gz[root@redis1 software]#

       下面来安装这个第三方包,在下面的那个输入框中输入gem install redis-3.0.0.gem然后回车,在六个窗口同时进行安装,其中一台的安装信息如下。

[root@redis1 software]# gem install redis-3.0.0.gemSuccessfully installed redis-3.0.01 gem installedInstalling ri documentation for redis-3.0.0...Installing RDoc documentation for redis-3.0.0...[root@redis1 software]# 

第七步:安装集群
        上面做了那么多准备其实是为一个脚本文件(redis-trib.rb)服务的,这个脚本的位置在/usr/local/redis-3.0.0/src目录下,如下所示

[root@redis1 src]# pwd/usr/local/redis-3.0.0/src[root@redis1 src]# ll *.rb-rwxrwxr-x. 1 root root 48141 4月   1 2015 redis-trib.rb[root@redis1 src]#

         为方便管理,我们把这个脚本复制到/usr/local/redis/bin目录下,如下所示

[root@redis1 src]# cp redis-trib.rb /usr/local/redis/bin[root@redis1 src]#

         下面正式搭建集群,命令中--replicas是指定每个节点备份的节点的数量,我们现在是每个节点备份一个,因此输入1。如下所示,可以看到从主节点是随机组成的,主节点是192.168.156.17、192.168.156.18、192.168.156.19这三台设备,192.168.156.15、192.168.156.16、192.168.20这三台是备用节点。Adding replica 192.168.156.16:6379 to 192.168.156.19:6379的意思是192.168.156.16作为192.168.156.19的从节点,同理,192.168.156.15作为了192.168.156.18的从节点,192.168.156.20作为了192.168.156.17的从节点。这样我们的集群便搭建完了。

[root@redis1 bin]# ./redis-trib.rb create --replicas 1 192.168.156.15:6379 192.168.156.16:6379 192.168.156.17:6379 192.168.156.18:6379 192.168.156.19:6379 192.168.156.20:6379>>> Creating clusterConnecting to node 192.168.156.15:6379: OKConnecting to node 192.168.156.16:6379: OKConnecting to node 192.168.156.17:6379: OKConnecting to node 192.168.156.18:6379: OKConnecting to node 192.168.156.19:6379: OKConnecting to node 192.168.156.20:6379: OK>>> Performing hash slots allocation on 6 nodes...Using 3 masters:192.168.156.19:6379192.168.156.18:6379192.168.156.17:6379Adding replica 192.168.156.16:6379 to 192.168.156.19:6379Adding replica 192.168.156.15:6379 to 192.168.156.18:6379Adding replica 192.168.156.20:6379 to 192.168.156.17:6379S: 076bec0407edac2a4d10e4ceaf62d7edf85013ad 192.168.156.15:6379   replicates 42b5398f180aa12951de65757485de6202e9691fS: bbe64932ee438edf6cb72023457dd503546434f4 192.168.156.16:6379   replicates 138fe0c66e6ee6f33b2f86ff878ad5e2766db281M: 424f48fe202d6a963938b1073e1d898a1c06621a 192.168.156.17:6379   slots:10923-16383 (5461 slots) masterM: 42b5398f180aa12951de65757485de6202e9691f 192.168.156.18:6379   slots:5461-10922 (5462 slots) masterM: 138fe0c66e6ee6f33b2f86ff878ad5e2766db281 192.168.156.19:6379   slots:0-5460 (5461 slots) masterS: af52e00584397ef503e90cbf76b1aaae3265e9e2 192.168.156.20:6379   replicates 424f48fe202d6a963938b1073e1d898a1c06621aCan I set the above configuration? (type 'yes' to accept): yes>>> Nodes configuration updated>>> Assign a different config epoch to each node>>> Sending CLUSTER MEET messages to join the clusterWaiting for the cluster to join.......>>> Performing Cluster Check (using node 192.168.156.15:6379)M: 076bec0407edac2a4d10e4ceaf62d7edf85013ad 192.168.156.15:6379   slots: (0 slots) master   replicates 42b5398f180aa12951de65757485de6202e9691fM: bbe64932ee438edf6cb72023457dd503546434f4 192.168.156.16:6379   slots: (0 slots) master   replicates 138fe0c66e6ee6f33b2f86ff878ad5e2766db281M: 424f48fe202d6a963938b1073e1d898a1c06621a 192.168.156.17:6379   slots:10923-16383 (5461 slots) masterM: 42b5398f180aa12951de65757485de6202e9691f 192.168.156.18:6379   slots:5461-10922 (5462 slots) masterM: 138fe0c66e6ee6f33b2f86ff878ad5e2766db281 192.168.156.19:6379   slots:0-5460 (5461 slots) masterM: af52e00584397ef503e90cbf76b1aaae3265e9e2 192.168.156.20:6379   slots: (0 slots) master   replicates 424f48fe202d6a963938b1073e1d898a1c06621a[OK] All nodes agree about slots configuration.>>> Check for open slots...>>> Check slots coverage...[OK] All 16384 slots covered.[root@redis1 bin]# 















0 0
原创粉丝点击