漫游Kafka之过期数据清理
来源:互联网 发布:asp.net和java的区别 编辑:程序博客网 时间:2024/04/28 17:29
Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。
数据清理的方式
删除
log.cleanup.policy=delete启用删除策略
直接删除,删除后的消息不可恢复。可配置以下两个策略:
清理超过指定时间清理:
log.retention.hours=16
超过指定大小后,删除旧的消息:
log.retention.bytes=1073741824
为了避免在删除时阻塞读操作,采用了copy-on-write形式的实现,删除操作进行时,读取操作的二分查找功能实际是在一个静态的快照副本上进行的,这类似于Java的CopyOnWriteArrayList。
压缩
将数据压缩,只保留每个key最后一个版本的数据。
首先在broker的配置中设置log.cleaner.enable=true启用cleaner,这个默认是关闭的。
在topic的配置中设置log.cleanup.policy=compact启用压缩策略。
压缩策略的细节
如上图,在整个数据流中,每个Key都有可能出现多次,压缩时将根据Key将消息聚合,只保留最后一次出现时的数据。这样,无论什么时候消费消息,都能拿到每个Key的最新版本的数据。
压缩后的offset可能是不连续的,比如上图中没有5和7,因为这些offset的消息被merge了,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,比如,当试图获取offset为5的消息时,实际上会拿到offset为6的消息,并从这个位置开始消费。
这种策略只适合特俗场景,比如消息的key是用户ID,消息体是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
压缩策略支持删除,当某个Key的最新版本的消息没有内容时,这个Key将被删除,这也符合以上逻辑。
Kafka视频教程同步首发,欢迎观看!
- 漫游Kafka之过期数据清理
- 漫游Kafka之过期数据清理
- 漫游Kafka之过期数据清理
- 漫游Kafka之过期数据清理
- 漫游Kafka之过期数据清理
- kafka清理过期数据
- 漫游Kafka设计篇之数据持久化
- 漫游Kafka设计篇之数据持久化
- 漫游Kafka设计篇之数据持久化
- 漫游Kafka设计篇之数据持久化
- kafka清理数据
- 漫游MQ之kafka实战
- 清理RMAN备份数据中的过期数据
- 漫游Kafka入门篇之简单介绍
- 漫游Kafka设计篇之性能优化
- 漫游Kafka设计篇之主从同步
- 漫游Kafka实现篇之分布式
- 漫游Kafka入门篇之简单介绍
- PHP http_build_query()函数
- MySql自定义函数
- IOS中,两个APP之间的跳转!
- poj 1087 A Plug for UNIX 网络流
- 30个最常用CSS选择器解析
- 漫游Kafka之过期数据清理
- Ubuntu 入门 Lession 03.Linux系统的求助
- 让你半途而废的五大凶手
- Java异常处理
- view里的一些方法
- selenium webDriver 启动Google浏览器遇到的问题
- 关于添加私有库后ld: framework not found 的问题
- PCM音频文件格式的头信息
- 编译Bootstrap,定制自己的模板。