Kafka系列之-Kafka监控工具KafkaOffsetMonitor配置及使用

来源:互联网 发布:淘宝内部卷 编辑:程序博客网 时间:2024/05/17 04:47

KafkaOffsetMonitor是一个可以用于监控Kafka的Topic及Consumer消费状况的工具,其配置和使用特别的方便。源项目Github地址为:

https://github.com/quantifind/KafkaOffsetMonitor


  最简单的使用方式是从Github上下载一个最新的KafkaOffsetMonitor-assembly-0.2.1.jar,上传到某服务器上,然后执行一句命令就可以运行起来。

但是在使用过程中有可能会发现页面反应缓慢或者无法显示相应内容的情况。据说这是由于jar包中的某些js等文件需要连接到网络,或者需要翻墙导致的。网上找的一个修改版的KafkaOffsetMonitor对应jar包,可以完全在本地运行,经过测试效果不错。下载地址是:http://pan.baidu.com/s/1ntzIUPN


一、KafkaOffsetMonitor的使用

  因为完全没有安装配置的过程,所以直接从KafkaOffsetMonitor的使用开始。 
  将KafkaOffsetMonitor-assembly-0.2.0.jar上传到服务器后,可以新建一个脚本用于启动该应用。脚本内容如下:

java -cp KafkaOffsetMonitor-assembly-0.2.0.jar \    com.quantifind.kafka.offsetapp.OffsetGetterWeb \    --zk m000:2181,m001:2181,m002:2181 \    --port 8088 \    --refresh 10.seconds \    --retain 2.days
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

  各参数的作用可以参考一下Github上的描述:

  • offsetStorage valid options are ”zookeeper”, ”kafka” or ”storm”. Anything else falls back to ”zookeeper”
  • zk the ZooKeeper hosts
  • port on what port will the app be available
  • refresh how often should the app refresh and store a point in the DB
  • retain how long should points be kept in the DB
  • dbName where to store the history (default ‘offsetapp’)
  • kafkaOffsetForceFromStart only applies to ”kafka” format. Force KafkaOffsetMonitor to scan the commit messages from start (see notes below)
  • stormZKOffsetBase only applies to ”storm” format. Change the offset storage base in zookeeper, default to ”/stormconsumers” (see notes below)
  • pluginsArgs additional arguments used by extensions (see below)

    启动后,访问m000:8088端口,可以看到如下页面:   这里写图片描述
      在这个页面上,可以看到当前Kafka集群中现有的Consumer Groups。

    在上图中有一个Visualizations选项卡,点击其中的Cluster Overview可以查看当前Kafka集群的Broker情况 
    这里写图片描述

      接下来将继续上一篇Kafka相关的文章Kafka系列之-自定义Producer,在最后对Producer进行包装的基础上,分别实现一个简单的往随机Partition写messge,以及自定义Partitioner的Producer,对KafkaOffsetMonitor其他页面进行展示。

二、简单的Producer

1、新建一个Topic

  首先为本次试验新建一个Topic,命令如下:

bin/kafka-topics.sh \    --create \    --zookeeper m000:2181 \    --replication-factor 3 \    --partition 3 \    --topic kafkamonitor-simpleproducer
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

2、新建SimpleProducer代码

  在上一篇文章中提到的Producer封装Github代码的基础上,写了一个往kafkamonitor-simpleproducer发送message的java代码。

import com.ckm.kafka.producer.impl.KafkaProducerToolImpl;import com.ckm.kafka.producer.inter.KafkaProducerTool;/** * Created by ckm on 2016/8/30. */public class SimpleProducer {    public static void main(String[] args) {        KafkaProducerTool kafkaProducerTool = new KafkaProducerToolImpl();        int i = 0;        String message = "";        while (true) {            message = "test-simple-producer : " + i ++;            kafkaProducerTool.publishMessage("kafkamonitor-simpleproducer", message);        }    }}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17

  程序运行效果: 
  这里写图片描述

3、ConsoleConsumer消费该topic

  用kafka自带的ConsoleConsumer消费kafkamonitor-simpleproducer中的message。

bin/kafka-console-consumer.sh --zookeeper m000:2181 --from-beginning --topic kafkamonitor-simpleproducer
  • 1

  消费截图如下: 
  这里写图片描述

4、KafkaOffsetMonitor页面

(1)在Topic List选项卡中,我们可以看到刚才新建的kafkamonitor-simpleproducer 
  这里写图片描述
(2)点开后,能看到有一个console-consumer正在消费该topic 
  这里写图片描述
(3)继续进入该Consumer,可以查看该Consumer当前的消费状况 
  这里写图片描述
  这张图片的左上角显示了当前Topic的生产速率,右上角显示了当前Consumer的消费速率。 
  图片中还有三种颜色的线条,蓝色的表示当前Topic中的Message数目,灰色的表示当前Consumer消费的offset位置,红色的表示蓝色灰色的差值,即当前Consumer滞后于Producer的message数目。 
(4)看一眼各partition中的message消费情况 
  这里写图片描述
  从上图可以看到,当前有3个Partition,每个Partition中的message数目分布很不均匀。这里可以与接下来的自定义Producer的情况进行一个对比。

三、自定义Partitioner的Producer

1、新建一个Topic

bin/kafka-topics.sh \    --create \    --zookeeper m000:2181 \    --replication-factor 3 \    --partition 3 \    --topic kafkamonitor-partitionedproducer
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

2、Partitioner代码

  逻辑很简单,循环依次往各Partition中发送message。

import kafka.producer.Partitioner;/** * Created by ckm on 2016/8/30. */public class TestPartitioner implements Partitioner {    public TestPartitioner() {    }    @Override    public int partition(Object key, int numPartitions) {        int intKey = (int) key;        return intKey % numPartitions;    }}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16

3、Producer代码

  将自定义的Partitioner设置到Producer,其他调用过程和二中类似。

import com.ckm.kafka.producer.impl.KafkaProducerToolImpl;import com.ckm.kafka.producer.inter.KafkaProducerTool;/** * Created by ckm on 2016/8/30. */public class PartitionedProducer {    public static void main(String[] args) {        KafkaProducerTool kafkaProducerTool = new KafkaProducerToolImpl();        kafkaProducerTool.getProducerProperties().put("partitioner.class", "TestPartitioner");        int i = 0;        String message = "";        while (true) {            message = "test-partitioner-producer : " + i;            System.out.println(message);            kafkaProducerTool.publishPartitionedMessage("kafkamonitor-partitionedproducer", i + "", message);            i ++;        }    }}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20

  代码运行效果如下图: 
  这里写图片描述

4、ConsoleConsumer消费Message

bin/kafka-console-consumer.sh --zookeeper m000:2181 --from-beginning --topic kafkamonitor-partitionedproducer
  • 1

  消费效果如下图: 
  这里写图片描述

5、KafkaOffsetMonitor页面

  其他页面与上面的类似,这里只观察一下每个partition中的message数目与第二节中的对比。可以看到这里每个Partition中message分别是很均匀的。 
  这里写图片描述

注意事项: 
  注意这里有一个坑,默认情况下Producer往一个不存在的Topic发送message时会自动创建这个Topic。由于在这个封装中,有同时传递message和topic的情况,如果调用方法时传入的参数反了,将会在Kafka集群中自动创建Topic。在正常情况下,应该是先把Topic根据需要创建好,然后Producer往该Topic发送Message,最好把Kafka这个默认自动创建Topic的功能关掉。 
  那么,假设真的不小心创建了多余的Topic,在删除时,会出现“marked for deletion”提示,只是将该topic标记为删除,使用list命令仍然能看到。如果需要调整这两个功能的话,在server.properties中配置如下两个参数:

参数默认值作用auto.create.topics.enabletrueEnable auto creation of topic on the serverdelete.topic.enablefalseEnables delete topic. Delete topic through the admin tool will have no effect if this config is turned off



原创粉丝点击