Kafka入门:主要配置以及集群搭建

来源:互联网 发布:菜鸟网络农村物流加盟 编辑:程序博客网 时间:2024/04/29 21:45

1. broker配置

这里写图片描述

2. consumer主要配置

这里写图片描述

3. zookeeper集群

zookeeper是一个为分布式应用提供一致性服务的软件,它是开源的Hadoop项目的一个子项目,并根据google发表的一篇论文来实现的。zookeeper为分布式系统提供了高笑且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等。zookeeper接口简单,我们不必过多地纠结在分布式系统编程难于处理的同步和一致性问题上,你可以使用zookeeper提供的现成(off-the-shelf)服务来实现来实现分布式系统额配置管理,组管理,Leader选举等功能。
zookeeper集群的安装,准备三台服务器:
server1:192.168.0.1
server2:192.168.0.2
server3:192.168.0.3.
1)下载zookeeper
到http://zookeeper.apache.org/releases.html去下载最新版本Zookeeper-3.4.5的安装包zookeeper-3.4.5.tar.gz.将文件保存server1的~目录下
2)安装zookeeper
先在服务器server分别执行a-c步骤
a)解压
tar -zxvf zookeeper-3.4.5.tar.gz
解压完成后在目录~下会发现多出一个目录zookeeper-3.4.5,重新命令为zookeeper
b)配置
将conf/zoo_sample.cfg拷贝一份命名为zoo.cfg,也放在conf目录下。然后按照如下值修改其中的配置:

    # The number of milliseconds of each tick    tickTime=2000    # The number of ticks that the initial    # synchronization phase can take    initLimit=10    # The number of ticks that can pass between    # sending a request and getting an acknowledgement    syncLimit=5    # the directory where the snapshot is stored.    # do not use /tmp for storage, /tmp here is just    # example sakes.    dataDir=/home/wwb/zookeeper/data    dataLogDir=/home/wwb/zookeeper/logs    # the port at which the clients will connect    clientPort=2181    #    # Be sure to read the maintenance section of the    # administrator guide before turning on autopurge.    #http://zookeeper.apache.org/doc/ ... html#sc_maintenance    #    # The number of snapshots to retain in dataDir    #autopurge.snapRetainCount=3    # Purge task interval in hours    # Set to "0" to disable auto purge feature    #autopurge.purgeInterval=1    server.1=192.168.0.1:3888:4888    server.2=192.168.0.2:3888:4888    server.3=192.168.0.3:3888:4888

tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。

dataDir:顾名思义就是 Zookeeper 保存数据的目录,默认情况下,
Zookeeper 将写数据的日志文件也保存在这个目录里。

clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。

initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接 Zookeeper 服务器的客户端,而是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒

syncLimit:这个配置项标识 Leader 与Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是2*2000=4 秒

server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于 B 都是一样,所以不同的 Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号
注意:dataDir,dataLogDir中的wwb是当前登录用户名,data,logs目录开始是不存在,需要使用mkdir命令创建相应的目录。并且在该目录下创建文件myid,serve1,server2,server3该文件内容分别为1,2,3。
针对服务器server2,server3可以将server1复制到相应的目录,不过需要注意dataDir,dataLogDir目录,并且文件myid内容分别为2,3
3)依次启动server1,server2,server3的zookeeper.
/home/wwb/zookeeper/bin/zkServer.sh start,出现类似以下内容
JMX enabled by default
Using config: /home/wwb/zookeeper/bin/../conf/zoo.cfg
Starting zookeeper … STARTED
4) 测试zookeeper是否正常工作,在server1上执行以下命令
/home/wwb/zookeeper/bin/zkCli.sh -server192.168.0.2:2181,出现类似以下内容
JLine support is enabled
2013-11-27 19:59:40,560 - INFO [main-SendThread(localhost.localdomain:2181):ClientCnxn$SendThread@736]- Session establishmentcomplete on server localhost.localdomain/127.0.0.1:2181, sessionid = 0x1429cdb49220000, negotiatedtimeout = 30000
WATCHER::
WatchedEvent state:SyncConnected type:None path:null
[zk: 127.0.0.1:2181(CONNECTED) 0] [root@localhostzookeeper2]#
即代表集群构建成功了,如果出现错误那应该是第三部时没有启动好集群,
运行,先利用
ps aux | grep zookeeper查看是否有相应的进程的,没有话,说明集群启动出现问题,可以在每个服务器上使用
./home/wwb/zookeeper/bin/zkServer.sh stop。再依次使用./home/wwb/zookeeper/binzkServer.sh start,这时在执行4一般是没有问题,如果还是有问题,那么先stop再到bin的上级目录执行./bin/zkServer.shstart试试。

注意:zookeeper集群时,zookeeper要求半数以上的机器可用,zookeeper才能提供服务。

4. kafka集群

1)下载kafka0.8(http://kafka.apache.org/downloads.html),保存到服务器/home/wwb目录下kafka-0.8.0-beta1-src.tgz(kafka_2.8.0-0.8.0-beta1.tgz)
2)解压 tar -zxvf kafka-0.8.0-beta1-src.tgz,产生文件夹kafka-0.8.0-beta1-src更改为kafka01
3)配置
修改kafka01/config/server.properties,其中broker.id,log.dirs,zookeeper.connect必须根据实际情况进行修改,其他项根据需要自行斟酌。大致如下:

     broker.id=1       port=9091       num.network.threads=2       num.io.threads=2       socket.send.buffer.bytes=1048576      socket.receive.buffer.bytes=1048576       socket.request.max.bytes=104857600      log.dir=./logs      num.partitions=2      log.flush.interval.messages=10000      log.flush.interval.ms=1000      log.retention.hours=168      #log.retention.bytes=1073741824      log.segment.bytes=536870912      num.replica.fetchers=2      log.cleanup.interval.mins=10   zookeeper.connect=192.168.0.1:2181,192.168.0.2:2182,192.168.0.3:2183  zookeeper.connection.timeout.ms=1000000      kafka.metrics.polling.interval.secs=5      kafka.metrics.reporters=kafka.metrics.KafkaCSVMetricsReporter      kafka.csv.metrics.dir=/tmp/kafka_metrics      kafka.csv.metrics.reporter.enabled=false

4)初始化因为kafka用scala语言编写,因此运行kafka需要首先准备scala相关环境。

     cd kafka01       ./sbt update       ./sbt package       ./sbt assembly-package-dependency

在第二个命令时可能需要一定时间,由于要下载更新一些依赖包。所以请大家耐心点。

5) 启动kafka01
JMX_PORT=9997 bin/kafka-server-start.sh config/server.properties &
a)kafka02操作步骤与kafka01雷同,不同的地方如下
修改kafka02/config/server.properties

    broker.id=2    port=9092

启动kafka02
bin/kafka-server-start.shconfig/server.properties &

b)kafka03操作步骤与kafka01雷同,不同的地方如下
修改kafka03/config/server.properties

    broker.id=3    port=9093

启动kafka02
bin/kafka-server-start.shconfig/server.properties &

6)创建Topic(包含一个分区,三个副本)

bin/kafka-create-topic.sh–zookeeper 192.168.0.1:2181 –replica 3 –partition 1 –topicmy-replicated-topic

7)查看topic情况

bin/kafka-list-top.sh –zookeeper 192.168.0.1:2181
topic: my-replicated-topic partition: 0 leader: 1 replicas: 1,2,0 isr: 1,2,0

8)创建发送者

bin/kafka-console-producer.sh–broker-list 192.168.0.1:9091 –topic my-replicated-topic

my test message1
my test message2

9)创建消费者
bin/kafka-console-consumer.sh –zookeeper127.0.0.1:2181 –from-beginning –topic my-replicated-topic

my test message1
my test message2

10)杀掉server1上的broker
pkill -9 -f config/server.properties
11)查看topic

bin/kafka-list-top.sh –zookeeper192.168.0.1:2181
topic: my-replicated-topic partition: 0 leader: 1 replicas: 1,2,0 isr: 1,2,0
发现topic还正常的存在
11)创建消费者,看是否能查询到消息
bin/kafka-console-consumer.sh –zookeeper192.168.0.1:2181 –from-beginning –topic my-replicated-topic

my test message 1
my test message 2
说明一切都是正常的。

OK,以上就是对Kafka个人的理解,不对之处请大家及时指出。

0 0
原创粉丝点击