flume学习(十一):如何使用Spooling Directory Source
来源:互联网 发布:网络游戏同步算法 编辑:程序博客网 时间:2024/06/09 16:13
问题导读
1.如何理解将FTP上的信令数据汇聚到HDFS上去存储?
2.使用Spooling Directory Source的时候同时读写一个文件会怎样?
最近在弄一个信令数据汇聚的事情,主要目的是把FTP上的信令数据汇聚到HDFS上去存储。 逻辑是这样的:把FTP服务器上的文件下载到一台主机上,然后SCP到另外一台主机上的Spooling Directory Source所监控的目录下面去,sink是hdfs(这里解释一下,由于网络环境的因素,另一台不能访问到内网的FTP服务器,所以只能这样中转一下)。
嗯,想法不错,逻辑上看上去也应该没啥问题,于是就开始吭哧吭哧写脚本了。FTP上每个信令数据的每个文件的大小差不多都有300M左右。SCP到远端服务器也没出现问题,可就是agent老是会挂掉,报这个异常:
- 2014-11-26 12:30:16,942 ERROR org.apache.flume.source.SpoolDirectorySource: FATAL: Spool Directory source source1: { spoolDir: /var/log/apache/flumeSpool }: Uncaught exception in SpoolDirectorySource thread. Restart or reconfigure Flume to continue processing.
- java.nio.charset.MalformedInputException: Input length = 1
- at java.nio.charset.CoderResult.throwException(CoderResult.java:277)
- at org.apache.flume.serialization.ResettableFileInputStream.readChar(ResettableFileInputStream.java:195)
- at org.apache.flume.serialization.LineDeserializer.readLine(LineDeserializer.java:134)
- at org.apache.flume.serialization.LineDeserializer.readEvent(LineDeserializer.java:72)
- at org.apache.flume.serialization.LineDeserializer.readEvents(LineDeserializer.java:91)
- at org.apache.flume.client.avro.ReliableSpoolingFileEventReader.readEvents(ReliableSpoolingFileEventReader.java:241)
- at org.apache.flume.source.SpoolDirectorySource$SpoolDirectoryRunnable.run(SpoolDirectorySource.java:224)
- at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
- at java.util.concurrent.FutureTask.runAndReset(FutureTask.java:304)
- at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.access$301(ScheduledThreadPoolExecutor.java:178)
- at java.util.concurrent.ScheduledThreadPoolExecutor$ScheduledFutureTask.run(ScheduledThreadPoolExecutor.java:293)
- at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
- at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
- at java.lang.Thread.run(Thread.java:745)
然后让我重启agent才会把Spooling Directory Source所监控的目录下面的文件抽取到HDFS上去,感觉很莫名,网上搜索了一下这个错误的原因,很多都是说可能传输的文件字符集的原因,不以为然,因为我反复测试了一下,如果是字符集的原因,那么为什么我重启一下agent又可以成功的抽取数据了。
于是我想了想是不是由于同时读写导致的问题,因为我SCP文件过去,文件较大,需要一定的时间,而flume监测到有文件马上就开始逐行读取文件转化成EVENT发送到HDFS上去,这中间肯定存在同时读写一个文件了,然后就产生的这个异常问题?
目前仅仅是猜测,于是我修改了Spooling Directory Source的配置,加了这么一个配置:
tier1.sources.source1.ignorePattern = ^(.)*\\.tmp$
就是忽略监控目录下面的.tmp文件。然后我修改了scp的逻辑,拷贝到另一台主机上时,先命名为:原文件名.tmp(由于是.tmp文件,agent不会采集此类文件),等SCP执行成功之后,在mv这个.tmp文件,去掉.tmp后缀,这样agent又会抽取这个文件的数据了,通过这么一处理,就巧妙的避免了同时读写一个文件的问题。
脚本调整好之后,重新运行脚本,惊喜的发现成功了,这次agent没有挂掉,大功告成了。
总结:使用Spooling Directory Source的时候,一定要避免同时读写一个文件的情况。采用上面提到的方法就可以巧妙的避开这个问题。
- flume学习(十一):如何使用Spooling Directory Source
- flume学习(十一):如何使用Spooling Directory Source
- flume学习(十一):如何使用Spooling Directory Source
- flume学习(十一):如何使用Spooling Directory Source
- flume学习(十):如何使用Spooling Directory Source
- flume学习05---Spooling Directory Source
- Flume学习12_Flume Spooling directory source读取文件格式的要求
- Flume的Spooling Directory Source支持Sub-directories
- [FLUME-2052]Spooling directory source should be able to replace or ignore malformed characters
- flume学习(七)、(八):如何使用event header中的key值以及自定义source
- flume学习(七)、(八):如何使用event header中的key值以及自定义source
- flume学习(八):自定义source
- flume学习(七):自定义source
- Flume学习02 — Source
- flume学习05---Avro Source
- flume学习05---Exec Source
- flume学习05---Thrift Source
- flume学习05---Taildir Source
- MySql中数据库存储过程与触发器案例
- 小米笔试题-右移k位数组元素查找
- UVA 10891 Game of Sum(经典区间dp)
- flume学习(十):使用Morphline Interceptor
- Light oj 1433 - Minimum Arc Distance【计算几何(坑精度!)】
- flume学习(十一):如何使用Spooling Directory Source
- jzoj 2016.5.21noip模拟赛C 总结
- PJSIP的配置文件和字段
- SQL Server触发器创建、删除、修改、查看示例步骤
- mysql 中插入中文出现的 Incorrect string value: '\xE5\xA5\xBD\xE5\xAE\xB6...' from column错误
- PackageManager使用
- github desktop(for Window)从本地上传项目到github
- Echarts 柱形图 时间横轴的动态生成和数据的动态生成
- HDU_5690_all X -- 百度程序之星的一个题目