Flume之——采集Nginx日志到HDFS
来源:互联网 发布:微信加粉软件 编辑:程序博客网 时间:2024/05/22 13:49
转载请注明出处:http://blog.csdn.net/l1028386804/article/details/78070111
今天,就给大家带来一篇Flume采集Nginx日志到HDFS的文章,好了,不多说了,直接进入主题。
一、下载
大家可以到Apache官网下载:http://flume.apache.org/
比如我下载的是apache-flume-1.7.0-bin.tar.gz
二、配置
1、解压
输入如下命令进行解压
tar -zxvf apache-flume-1.7.0-bin.tar.gz
2、配置/etc/profile
export FLUME_HOME=/opt/apache-flume-1.7.0-binexport PATH=$PATH:$FLUME_HOME/bin
3、修改$FLUME_HOME/conf/下的两个文件
在flume-env.sh中增加JAVA_HOME:
JAVA_HOME=/opt/jdk1.8.0_121
4、修改修改flume-conf.properties文件
# 配置Agenta1.sources = r1a1.sinks = k1a1.channels = c1# 配置Sourcea1.sources.r1.type = execa1.sources.r1.channels = c1a1.sources.r1.deserializer.outputCharset = UTF-8# 配置需要监控的日志输出目录a1.sources.r1.command = tail -F /usr/local/nginx/log/access.log# 配置Sinka1.sinks.k1.type = hdfsa1.sinks.k1.channel = c1a1.sinks.k1.hdfs.useLocalTimeStamp = truea1.sinks.k1.hdfs.path = hdfs://master:9000/flume/events/%Y-%ma1.sinks.k1.hdfs.filePrefix = %Y-%m-%d-%Ha1.sinks.k1.hdfs.fileSuffix = .loga1.sinks.k1.hdfs.minBlockReplicas = 1a1.sinks.k1.hdfs.fileType = DataStreama1.sinks.k1.hdfs.writeFormat = Texta1.sinks.k1.hdfs.rollInterval = 86400a1.sinks.k1.hdfs.rollSize = 1000000a1.sinks.k1.hdfs.rollCount = 10000a1.sinks.k1.hdfs.idleTimeout = 0# 配置Channela1.channels.c1.type = memorya1.channels.c1.capacity = 1000a1.channels.c1.transactionCapacity = 100# 将三者连接a1.sources.r1.channel = c1a1.sinks.k1.channel = c1以上文件设置了Source、Channel和Sink,将Nginx日志中的记录采集到HDFS,运行
flume-ng agent -n a1 -c conf -f $FLUME_HOME/conf/flume-conf.properties
如果没有报错,则安装设置成功了,Nginx中新增加的记录都会被Flume采集,并且存储到HDFS。
阅读全文
0 0
- Flume之——采集Nginx日志到HDFS
- Flume 收集Nginx日志到Hdfs Tail-to-hdfs sink
- Flume 收集Nginx日志到Hdfs Tail-to-hdfs sink
- flume采集数据到hdfs
- flume 采集数据到hdfs
- flume 收集日志到HDFS
- flume采集本地数据到hdfs
- Flume应用之三——将一个服务器上的日志实时采集到另一个服务器上
- Flume 日志收集、使用Flume收集日志到HDFS
- flume采集log4j日志到kafka
- Hadoop学习笔记之flume Nginx日志收集到HBase
- flume的导日志数据到hdfs
- Flume采集日志进入HDFS以及Hadoop环境搭建
- hadoop学习之HDFS(2.7):实例:开发shell脚本定时采集日志数据到hdfs
- Flume-ng 1.7.0 安装、配置及说明之1-直接读取Nginx日志存入HDFS
- Flume采集数据到HDFS时,文件中有乱码
- flume通过公网ip采集到hdfs上
- 大数据可视化之Nginx服务器日志分析及可视化展示(Nginx+flume+HDFS+Spark+Highcharts)
- ubuntu 安装adobe flash
- 我的程序员路(上)
- mybaties的执行流程
- ABAP SORT
- 外网无法访问阿里云服务器解决方案
- Flume之——采集Nginx日志到HDFS
- Unity AssetBundle 加载
- 关于更新用户信息丢失头像的问题
- SSM 三大框架---事务处理
- Retrofit+Rxjava
- iOS 枚举位移
- ros catkin project
- java学习应知道的 7 个 Java 新工具
- alertdialog创建对话框的几个小点