flume和kafka对接
来源:互联网 发布:赤兔cms 编辑:程序博客网 时间:2024/05/09 03:55
问题
flume采集日志用kafka来广播消息
flume的配置
[root@SZB-L0032016 bin]# cat ../conf/flume_kafka.conf a.sinks=k1a.sources=s1 s2a.channels=r1#定义source是从文本文件过来a.sources.s1.type=execa.sources.s1.command=tail -F /root/a.loga.sources.s2.type=execa.sources.s2.command=tail -F /root/b.log#sink 是kafka topic 是test broker 是10.20.25.199:9092a.sinks.k1.type=org.apache.flume.sink.kafka.KafkaSinka.sinks.k1.kafka.topic = testa.sinks.k1.kafka.bootstrap.servers =10.20.25.199:9092a.sinks.k1.kafka.flumeBatchSize = 20a.sinks.k1.kafka.producer.acks = 1a.sinks.k1.kafka.producer.linger.ms = 1a.sinks.ki.kafka.producer.compression.type = snappya.channels.r1.type=filea.channels.r1.checkpointDir=/root/flume/checkpointa.channels.r1.dataDirs=/root/flume/dataa.sources.s2.channels=r1a.sources.s1.channels=r1a.sinks.k1.channel=r1
启动flume服务
[root@SZB-L0032016 bin]# ./flume-ng agent --conf conf --conf-file ../conf/flume_kafka.conf --name a -Dflume.root.logger=INFO,console
往flume的source里面增加内容
[root@SZB-L0032016 ~]# echo "test">a.log [root@SZB-L0032016 ~]# echo "test11111">a.log
启动kafka的消费端
[xulu@SZB-L0032015 bin]$ ./kafka-console-consumer.sh --zookeeper 10.20.25.241:3181 --topic test --from-beginningthis is messagethis is aaaclearrsssthis is the kafka info1111ddddddddtest big datatesttest11111
可以在kafka消费端查看到flume发送过来的消息
0 0
- flume和kafka对接
- Flume对接Kafka
- Flume对接Kafka的实例
- flume同kafka的对接
- Kafka对接flume实现(一)
- kafka和flume整合
- flume和kafka区别
- Flume和Kafka整合
- 集成kafka和flume
- kafka和flume的对比
- flume整合kafka和hdfs
- Flume和Kafka整合安装
- 【配置】Storm和Kafka的对接:KafkaSpout
- flume+kafka
- flume+kafka
- flume kafka
- flume-ng和kafka集成的配置
- Flume 与 kafka 配置和使用
- Canvas的使用
- java的一些学习要点!
- 企业转型互联网会遇到哪些坑
- 问题:附加数据库时“拒绝访问”,错误:5120
- 微博强推自媒体这是要闹哪样?
- flume和kafka对接
- 百度自家产品到底是怎么了?
- 企业网络营销永远差一个螺丝钉
- 数据结构(六)
- MySQL新模式only_full_group_by
- [Mapbox GL]创建并设计clusters
- 欢迎使用CSDN-markdown编辑器
- 回顾我学习java的历程!
- nginx配置 error content length mismatch