Spark-stream 主动poll数据
来源:互联网 发布:ff14捏脸数据下载 编辑:程序博客网 时间:2024/05/18 13:10
import java.net.InetSocketAddressimport org.apache.spark.SparkConfimport org.apache.spark.storage.StorageLevelimport org.apache.spark.streaming.flume.FlumeUtilsimport org.apache.spark.streaming.{Seconds, StreamingContext}object FlumePollWordCount { def main(args: Array[String]) { val conf = new SparkConf().setAppName("FlumePollWordCount").setMaster("local[2]") val ssc = new StreamingContext(conf, Seconds(5)) //从flume中拉取数据(flume的地址) val address = Seq(new InetSocketAddress("172.16.0.11", 8888)) val flumeStream = FlumeUtils.createPollingStream(ssc, address, StorageLevel.MEMORY_AND_DISK) val words = flumeStream.flatMap(x => new String(x.event.getBody().array()).split(" ")).map((_,1)) val results = words.reduceByKey(_+_) results.print() ssc.start() ssc.awaitTermination() }}
阅读全文
0 0
- Spark-stream 主动poll数据
- 第88讲:Spark Streaming从Flume Poll数据
- spark stream冷启动处理kafka中积压的数据
- spark stream初探
- spark stream JavaKafkaWordCount
- Spark Stream 实战
- Spark Stream 简单例子
- Flume Push数据到spark streaming或者接收Spark streaming的poll数据时实际运行程序总结
- Spark Streaming从Flume Poll数据案例实战和内幕源码解密
- spark Streaming flume poll 坑
- Spark Stream 教程
- AJAX 服务端主动推送数据
- spark中stream编程指导(一)
- spark中stream编程指导(二)
- spark stream中的dstream对象saveAsTextFiles问题
- 基于HDFS,Spark Stream的实时统计
- spark stream上创建对象实例
- Kafka + spark stream +redis (createStream + createDirectStream)
- CANopen通信之PDO通信
- .NET利用AccessDatabaseEngine作为辅助工具实现导入EXECL表数据
- uuid简介
- 跟我一起写 Makefile(三)
- c++之重载运算符(一)
- Spark-stream 主动poll数据
- 启程
- IntelliJ Idea中右边的maven projects窗口找不到了如何调出来
- Angularjs 前端数据用orderBy排序,单表头和多表头处理,单表头不默认排序
- adb学习命令总结
- 将文件间的编译依存关系降至最低
- 《人类简史》读书笔记1
- 跟我一起写 Makefile(四)
- 关于java线程浅谈五: Condition条件