Hadoop硬实战之一:使用flume将系统日志文件导入HDFS
来源:互联网 发布:加州枪击 知乎 编辑:程序博客网 时间:2024/05/22 06:13
问题来源:将所有生产系统产生的日志文件导入到HDFS
解决方案:使用数据收集系统Flume将Linux日志文件导入HDFS,将讲解如何在分布式环境中配置Flume,并检验Flume的可靠性模式,本文以配置单机为例进行说明。
实施步骤:
1.在伪分布式模型中运行Flume.
#yum install -y flume flume-master flume-node
安装完成后,启动Master和Agent
#/etc/init.d/flume-master start
#/etc/init.d/flume-node start
2.格式配置。默认情况下,Flume以Avro JSON格式写数据,若保留syslog原始格式,那么需要创建和编辑flume-site.xml文件。
3.前面已经启动flume master和Agent结点,另外还需要启动Collector结点作为Agent结点的数据接收器。
#flume node nowatch -n collector
需要注意的是:Flume以用户flume运行,需要确保该用户具有足够权限访问数据源文件(如 /var/log/messages),可通过chmod命令修改权限,否则数据源文件将无法上传到HDFS。
4.Flume Agent节点配置。访问http://172.16.24.160:35871/,如下图所示(已经配置完的结果):
点击config弹出对话框中配置如下:
5.Flume Collector节点配置。点击config弹出对话框中配置如下:
6.验证文件是否成功上传到HDFS。
0 0
- Hadoop硬实战之一:使用flume将系统日志文件导入HDFS
- 使用JAVA将Hadoop HDFS中的日志文件导入HBase中(一)
- 使用MapReduce将Hadoop HDFS中的日志文件导入HBase中(二)
- flume+kafka+hdfs日志系统
- 使用flume将avro文件上传到hdfs上
- 实时日志流系统(kafka-flume-hdfs)
- Flume实战采集文件内容存入HDFS
- Flume 日志收集、使用Flume收集日志到HDFS
- Flume向hdfs发送日志文件配置
- hadoop日志分析系统二 第一部分 利用任务调度系统定期的把web系统所产生的日志文件导入到hdfs中
- 模拟使用Flume监听日志变化,并且把增量的日志文件写入到hdfs中
- flume收集Hadoop运行产生的日志,并写入hdfs
- Flume采集日志进入HDFS以及Hadoop环境搭建
- flume上传日志到ha hadoop hdfs上
- 日志系统搭建一(flume+hadoop+hive)
- flume将log4j日志数据写入到hdfs
- 使用hdfs-slurper 将数据导入hdfs
- Hadoop读写Hdfs系统文件
- 安全测试工具IBM Rational AppScan的使用教程
- html、css日常问题记录
- java float类型保留小数点后几位
- CentOS时区设置
- 通过tomcat源码查看其如何实现热部署
- Hadoop硬实战之一:使用flume将系统日志文件导入HDFS
- TSS任务状态段
- Leetcode 23 Merge k Sorted Lists
- 使用phpExcel库构建一个导出excel的通用类
- 一个DirectInput演示程序
- fork系统调用
- 09 ListView监听 ExpandableListView的使用总结
- 卡特兰数相关知识
- 对于RTTI机制的理解