ZooKeeper+Wildfly(jboss)+SolrCloud搭建

来源:互联网 发布:暴风tv 直播软件 编辑:程序博客网 时间:2024/04/30 00:10

solr 新版本支持了cloud功能,对于solr来说 可以当成NOSQL数据源用,它最大的特点就是多字段,多条件联合查询功能比较强大,(Hbase 对大数据量支持会比较好,但是复杂查询就功能比较弱了,可以写filter但是功能支持比较少)比如当你需要对查询的结果集进行过滤,进行合并,它的功能最合适了,但是由于它是索引结构,所以如果是同时写又读的情况它的性能会大大降低。因此,对于大量单独读的应用,而且读的需求又比较复杂比如 过滤,合并等等功能 可以考虑搭建solrcloud环境(solr之前本身支持读写分离,但是由于维护的数据量过大的时候,solr的内存是个瓶颈,因此solrcloud的诞生,为我们提供了良好的解决方案 )下面就是测试环境搭建的solrcloud实践。


安装前准备

1、三台服务器:10.22.31.18(S1) 10.24.51.108(S2) 10.24.51.105(S3)

2、文件准备


1、zookeeper集群配置

多台zookeeper服务器具备系统高可靠性,高可用性,任意一台zookeeper服务器挂掉,系统会选举出一台服务器为leader(因为zookeeper的容错性,建议zookeeper服务器的个数为奇数)。任意一台solr服务器挂掉,系统还是可以用的。

1.1 在S1的D盘根目录新建文件夹apache,将三个文件分别拷贝到该文件夹下,并解压成功。

1.2 好了,废话不多说了,下面开始配置zookeeper分布式集群。



在zookeeper的根目录下新建“data”和“logs”两个文件夹,后面会用到。

复制zoo_sample.cfg并将文件名改为zoo.cfg


修改后


按照图中的配置修改zoo.cfg


下面再到刚刚新建的那个data文件夹目录下新建文件myid,记住不带任何后缀。在该文件中只写一个数字1。

目前为止S1(10.22.31.18)上的zookeeper已经配置好了,下面将配好的zookeeper分别复制到S2,S3上面,建议连带着apache文件夹一起复制。复制完了吧,最后分别把S2,S3上的myid文件的值改为2,3。这里的2,3不是随便写的,是要对应着zoo.cfg中的server.1、server.2、server.2

最后分别在三台机器上启动服务,位置在D:\apache\zookeeper-3.4.6\bin\ zkServer.cmd,一开始报错是正常的,因为zookeeper集群在寻找节点,只有最后出现图中的信息,说明你的zookeeper配置成功啦。

 

服务链接说明:

server.1=10.22.31.18:2888:3888

server.2=10.24.51.105:2888:3888

server.3=10.24.51.108:2888:3888

server.A=B:C:D:

A是一个数字,表示这个是第几号服务器,B是这个服务器的ip地址

C第一个端口用来集群成员的信息交换,表示的是这个服务器与集群中的Leader服务器交换信息的端口

D是在leader挂掉时专门用来进行选举leader所用

其他的参数请参考zoo.cfg配置参数详解

2、Wildfly(jboss)环境配置+solrcloud

其实说到wildfly的配置,我在搭建环境的时候还真没有进行多少配置修改的,只要你把jdk的环境变量配置好了,wildfly就能启动了,还有就是建议最好把你本机的jboss环境变量删除(删前备份)。

好了,下面的修改的配置,是针对zookeeper和solrcloud进行修改的,因为是windows,所以有的地方是要注意的,网上的教程都是一带而过,这里希望大家注意一下。

为了好区分,我将wildfly-8.1.0.Final的文件名改为wildfly-8781,8781也是后面用到的端口号。

首先修改D:\apache\wildfly-8781\standalone\configuration下面的standalone.xml文件,这里的ip要改成自己本机的ip不要用127或者localhost,不然到后面与zookeeper交互的时候会连接不上。


在根目录下新建solrbase文件夹,并将D:\apache\solr-4.9.0\example下的solr拷贝到solrbase下面


修改solr.xml

按照图中的红框修改,就是前面讲的端口号

 

然后再将D:\apache\solr-4.9.0\example\webapps\solr.war拷贝到D:\apache1\wildfly-8781\standalone\deployments下面。

最后就是要修改这个solr.war这个war包了,双击用rar方式打开,进入WEB-INF中,先将web.xml拷出来,进行配置修改


修改env-entry-value ,这个值就是你的solrbase的位置,也就是网上说的solr-home。

然后在其他地方新建classes文件夹,将D:\apache\solr-4.9.0\example\resources\log4j.properties拷贝到里面,然后将这个classes和修改后的web.xml拖到刚刚打开的那个war包里面,还有D:\apache\solr-4.9.0\example\lib\ext下面的所有jar包,也要拷贝到WEB-INF\lib下面。

最后还有就是配置JAVA_OPTS,这个是wildfly和zookeeper集群交互的关键,


其值是

1.在作为leader的jboss启动的配置 

-Dbootstrap_confdir=D:\apache\wildfly-8781\solrbase\solr\collection1\conf-Dcollection.configName=clusterconf -DzkHost=10.24.51.105:2181,10.24.51.108:2181,10.22.31.18:2181-DnumShards=2

2.在作为slave的jboss启动的配置 

-DzkHost=10.24.51.105:2181,10.24.51.108:2181,10.22.31.18:2181

说明:-Dbootstrap_confdir:zookeeper存放solr配置文件的路径-Dcollection.configName:自定义的配置名称 -DzkHost:zookeeper服务IP及端口;-DnumShards就是shard个数。

所有配置都弄好了,下面当然要看看成果怎么样啦,

首先启动三个zookeeper,然后起solr服务,D:\apache\wildfly-8781\bin\standalone.bat。出现下图则说明solrcloud配置成功。


如果要多几个solr服务,方法同上面一样。如果在同一台机器上其多个solr服务,需要考虑的是不同的端口号。

 

其实Linux和windows的配置都是一样的,只是有的地方配置的要用linux的命令去配置,就比如最后一项,linux的命令是:
Export JAVA_OPTS=-Dbootstrap_confdir=D:\apache\wildfly-8781\solrbase\solr\collection1\conf -Dcollection.configName=clusterconf -DzkHost=10.24.51.105:2181,10.24.51.108:2181,10.22.31.18:2181 -DnumShards=2

 

 

3zoo.cfg配置参数详解

参数名

说明

clientPort

客户端连接server的端口,即对外服务端口,一般设置为2181吧。

dataDir

存储快照文件snapshot的目录。默认情况下,事务日志也会存储在这里。建议同时配置参数dataLogDir,事务日志的写性能直接影响zk性能。

tickTime

ZK中的一个时间单元。ZK中所有时间都是以这个时间单元为基础,进行整数倍配置的。例如,session的最小超时时间是2*tickTime

dataLogDir

事务日志输出目录。尽量给事务日志的输出配置单独的磁盘或是挂载点,这将极大的提升ZK性能。  
No Java system property

globalOutstandingLimit

最大请求堆积数。默认是1000ZK运行的时候,尽管server已经没有空闲来处理更多的客户端请求了,但是还是允许客户端将请求提交到服务器上来,以提高吞吐性能。当然,为了防止Server内存溢出,这个请求堆积数还是需要限制下的。  
(Java system property:zookeeper.globalOutstandingLimit. )

preAllocSize

预先开辟磁盘空间,用于后续写入事务日志。默认是64M,每个事务日志大小就是64M。如果ZK的快照频率较大的话,建议适当减小这个参数。(Java system property:zookeeper.preAllocSize )

snapCount

每进行snapCount次事务日志输出后,触发一次快照(snapshot),此时,ZK会生成一个snapshot.*文件,同时创建一个新的事务日志文件log.*。默认是100000.(真正的代码实现中,会进行一定的随机数处理,以避免所有服务器在同一时间进行快照而影响性能)(Java system property:zookeeper.snapCount )

traceFile

用于记录所有请求的log,一般调试过程中可以使用,但是生产环境不建议使用,会严重影响性能。(Java system property:? requestTraceFile )

maxClientCnxns

单个客户端与单台服务器之间的连接数的限制,是ip级别的,默认是60,如果设置为0,那么表明不作任何限制。请注意这个限制的使用范围,仅仅是单台客户端机器与单台ZK服务器之间的连接数限制,不是针对指定客户端IP,也不是ZK集群的连接数限制,也不是单台ZK对所有客户端的连接数限制。指定客户端IP的限制策略,这里有一个patch,可以尝试一下:http://rdc.taobao.com/team/jm/archives/1334No Java system property

clientPortAddress

对于多网卡的机器,可以为每个IP指定不同的监听端口。默认情况是所有IP都监听 clientPort 指定的端口。  New in 3.3.0

minSessionTimeoutmaxSessionTimeout

Session超时时间限制,如果客户端设置的超时时间不在这个范围,那么会被强制设置为最大或最小时间。默认的Session超时时间是在2 *  tickTime ~ 20 * tickTime 这个范围 New in 3.3.0

fsync.warningthresholdms

事务日志输出时,如果调用fsync方法超过指定的超时时间,那么会在日志中输出警告信息。默认是1000ms(Java system property:  fsync.warningthresholdms )New in 3.3.4

autopurge.purgeInterval

在上文中已经提到,3.4.0及之后版本,ZK提供了自动清理事务日志和快照文件的功能,这个参数指定了清理频率,单位是小时,需要配置一个1或更大的整数,默认是0,表示不开启自动清理功能。(No Java system property)  New in 3.4.0

autopurge.snapRetainCount

这个参数和上面的参数搭配使用,这个参数指定了需要保留的文件数目。默认是保留3个。(No Java system property)  New in 3.4.0

electionAlg

在之前的版本中,这个参数配置是允许我们选择leader选举算法,但是由于在以后的版本中,只会留下一种“TCP-based version of fast leader election”算法,所以这个参数目前看来没有用了,这里也不详细展开说了。(No Java system property)

initLimit

Follower在启动过程中,会从Leader同步所有最新数据,然后确定自己能够对外服务的起始状态。Leader允许F initLimit 时间内完成这个工作。通常情况下,我们不用太在意这个参数的设置。如果ZK集群的数据量确实很大了,F在启动的时候,从Leader上同步数据的时间也会相应变长,因此在这种情况下,有必要适当调大这个参数了。(No Java system property)

syncLimit

在运行过程中,Leader负责与ZK集群中所有机器进行通信,例如通过一些心跳检测机制,来检测机器的存活状态。如果L发出心跳包在syncLimit之后,还没有从F那里收到响应,那么就认为这个F已经不在线了。注意:不要把这个参数设置得过大,否则可能会掩盖一些问题。(No Java system property)

leaderServes

默认情况下,Leader是会接受客户端连接,并提供正常的读写服务。但是,如果你想让Leader专注于集群中机器的协调,那么可以将这个参数设置为no,这样一来,会大大提高写操作的性能。(Java system property: zookeeper. leaderServes )

server.x=[hostname]:nnnnn[:nnnnn]

这里的x是一个数字,与myid文件中的id是一致的。右边可以配置两个端口,第一个端口用于FL之间的数据同步和其它通信,第二个端口用于Leader选举过程中投票通信。  
(No Java system property)

group.x=nnnnn[:nnnnn]weight.x=nnnnn

对机器分组和权重设置,可以  参见这里(No Java system property)

cnxTimeout

Leader选举过程中,打开一次连接的超时时间,默认是5s(Java system property: zookeeper.  cnxTimeout )

zookeeper.DigestAuthenticationProvider
.superDigest

ZK权限设置相关,具体参见    使用super  身份对有权限的节点进行操作      ZooKeeper   权限控制 

skipACL

对所有客户端请求都不作ACL检查。如果之前节点上设置有权限限制,一旦服务器上打开这个开头,那么也将失效。(Java system property:  zookeeper.skipACL )

forceSync

这个参数确定了是否需要在事务日志提交的时候调用 FileChannel .force来保证数据完全同步到磁盘。(Java system property: zookeeper.forceSync )

jute.maxbuffer

每个节点最大数据量,是默认是1M。这个限制必须在serverclient端都进行设置才会生效。(Java system property: jute.maxbuffer )

 

 

0 0