kafka随笔记

来源:互联网 发布:urllib.request json 编辑:程序博客网 时间:2024/06/07 17:22

Kafka相关概念

1. Topic:特指Kafka处理的消息源(feeds of messages)的不同分类。2. Partition:Topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列。partition中的每条消息都会被分配一个有序的id(offset)。3. Message:消息,是通信的基本单位,每个producer可以向一个topic(主题)发布一些消息。4. Producers:消息和数据生产者,向Kafka的一个topic发布消息的过程叫做producers。5. Consumers:消息和数据消费者,订阅topics并处理其发布的消息的过程叫做consumers。6. Broker:缓存代理,Kafa集群中的一台或多台服务器统称为broker。

注意事项:

1.kafka取消息时间复杂度为O(1) ,删除kafka的日志并不能提高性能
2.根据offset找到日志文件:

kafka Consumer均衡算法,partition的个数和消费组组员个数的关系

有一个topic:lijietest,然后这个topic的partition和他们所在的broker的图如下:
这里写图片描述
1.其中 broker有两个,也就是服务器有两台。
2.partition有6个,分布按照如图所示,按照哈希取模的算法分配。
3.消费者有8个,他们属于同一个消费组。
如果按照如图所示,那么这一个消费组中的消费者会怎么取kafka的数据呢?
其实kafka的消费端有一个均衡算法,算法如下:
1.A=(partition数量/同分组消费者总个数)
2.M=对上面所得到的A值小数点第一位向上取整
3.计算出该消费者拉取数据的patition合集:Ci = [P(M*i ),P((i + 1) * M -1)]
按照如图所示,那么这里:
A=6/8=0.75
M=1

C0=[P(1*0),P((0+1)*1-1)]=[P0,P0]
同理:
C1=[P(1*1),P((1+1)*1-1)]=[P1,P1]
C2=[P(1*2),P((2+1)*1-1)]=[P2,P2]
C3=[P(1*3),P((3+1)*1-1)]=[P3,P3]
C4=[P(1*4),P((4+1)*1-1)]=[P4,P4]
C5=[P(1*5),P((5+1)*1-1)]=[P5,P5]
C6=[P(1*6),P((6+1)*1-1)]=[P6,P6]
C7=[P(1*7),P((7+1)*1-1)]=[P7,P7]
那么按照上面的算法:
C0消费者消费P0的数据
C1消费者消费P1的数据
C2消费者消费P2的数据
C3消费者消费P3的数据
C4消费者消费P4的数据
C5消费者消费P5的数据
C6消费者消费P6的数据
C7消费者消费P7的数据
但是partition只有P0-P5根本就没有P6和P7,所以这两个消费者相当于是会被闲置的,就相当于占用资源,却没什么用,所以在这里真正起到作用的就是C0-C5。

1.按照如上的算法,所以如果kafka的消费组需要增加组员,最多增加到和partition数量一致,超过的组员只会占用资源,而不起作用;

2.kafka的partition的个数一定要大于消费组组员的个数,并且partition的个数对于消费组组员取模一定要为0,不然有些消费者会占用资源却不起作用;

3.如果需要增加消费组的组员个数,那么也需要根据上面的算法,调整partition的个数