Flume+Kafka+Storm
来源:互联网 发布:openwrt网络设置 编辑:程序博客网 时间:2024/05/23 02:01
- 本篇主要讲述,flume收集日志数据,这里写了脚本,日志数据每隔一秒写入一条记录,flume将记录写到Kafka中,供Storm进行处理,这里的storm,可参考的我的其它文章,这里就不讲了。
- 产生数据脚本。
python脚本
#!/usr/bin/pythonimport timefile1=open("/opt/app/log.log","a");mess="message";file1.write(mess)file1.write('\r\n')file1.close()
shell脚本
while [ true ]; do/bin/sleep 1/opt/app/pr.pydone
3.flume配置文件,参考了网上的代码。
a1.sources = r1 a1.sinks = k1 a1.channels = c1 # Describe/configure the source a1.sources.r1.type = exec a1.sources.r1.command = tail -F /home/airib/work/log.log # Describe the sink #a1.sinks.k1.type = logger a1.sinks.k1.type = org.apache.flume.sink.kafka.KafkaSink a1.sinks.k1.topic = test a1.sinks.k1.brokerList = localhost:9092 a1.sinks.k1.requiredAcks = 1 a1.sinks.k1.batchSize = 20 # Use a channel which buffers events in memory a1.channels.c1.type = memory a1.channels.c1.capacity = 1000 a1.channels.c1.transactionCapacity = 100 # Bind the source and sink to the channel a1.sources.r1.channels = c1 a1.sinks.k1.channel = c1
4.执行命令
bin/flume-ng agent –conf conf –conf-file conf/flume-conf.properties –name a1 -Dflume.root.logger=INFO,console
阅读全文
0 0
- flume+kafka+storm
- flume+kafka+storm调研
- Flume+kafka+storm整合
- flume+kafka+storm+mysql
- Flume+storm+kafka
- flume+kafka+storm
- flume、kafka、storm常用命令
- flume+kafka+storm整合
- flume+kafka+storm整合
- flume+kafka+storm+hdfs
- Flume+Kafka+Storm
- flume+kafka+storm
- flume+kafka+storm+mysql 数据流
- Flume-Kafka-Storm 整合实例
- flume,kafka,storm学习笔记
- flume+kafka+storm+mysql 数据流
- Flume,Kafka与Storm整合
- flume+Kafka+Storm实时框架
- self.navigationController.navigationBarHidden带来的坑
- 有上传文件 接口 IE浏览器弹框保存
- 第5次面试
- 收缩日志文件
- linux当中使用vi/vim编辑器时,错误操作遇到警告信息,该如何做。
- Flume+Kafka+Storm
- 1003. Emergency (25) <优先队列>
- 一位ACMer过来人的心得
- parasoft Jtest 使用教程:防止和检查内存问题
- 深入分析Android Binder 驱动
- 给部分文字设置颜色以及点击
- 使用 OAuth 2 和 JWT 为微服务提供安全保障
- Oracle基础练习题二
- JSP servlet 不生成 class,404错误