SparkStream文件监控和数据读取
来源:互联网 发布:linux怎么杀进程 编辑:程序博客网 时间:2024/05/20 07:35
代码
package main.scalaimport org.apache.spark.SparkConfimport org.apache.spark.streaming.{Seconds, StreamingContext}import org.slf4j.LoggerFactory/** * Created by silentwolf on 2016/5/23. */object FileRead { val log = LoggerFactory.getLogger(classOf[HdfsCount]) def main(args: Array[String]) { if (args.length < 1) { System.err.println("Usage: HdfsWordCount <directory>") System.exit(1) } val sparkConf = new SparkConf().setAppName("HdfsCount").setMaster("local[2]") // Create the context val ssc = new StreamingContext(sparkConf, Seconds(10)) val lines = ssc.textFileStream(args(0)) lines.map(line => { val json = line+"2222222222222" println("-----------------" ) println(json) println("-----------------" ) }).print() ssc.start() ssc.awaitTermination() }}
启动
(备注:注意查看/spark/bin/./spark-submit 的方法)
/spark/bin/./spark-submit --class main.scala.FileRead SparkSteamStudy.jar /user/yuhui/sparkStreaming/data
执行数据和过程
在一批数据来的时候,是一行一行存入list集合中,这样数据可以一行一行取出来
0 0
- SparkStream文件监控和数据读取
- Spark之sparkStream实时监控端口读取数据存入到HDFS
- SparkStream从kafka读取数据编码问题(Java)
- Sparkstream kafka 数据零丢失方案
- 读取Excel和CSV文件数据
- xml文件存储和读取数据操作
- Matlab读取和保存TXT文件数据
- matlab写入和读取文件数据
- XNA:保存数据到文件和从文件读取数据
- 数据存储到文件和从文件中读取数据
- qt数据写入文件和读取文件里的数据
- 读取本地txt文件数据和excel文件数据
- [matlab] 读取数据-保存数据-文件移动和复制
- java 文件尾添加数据,和 文件的快速读取
- C#创建DAT文件和读取DAT文件数据
- 关于数据的归档存入文件和读取文件
- Android 存储数据之1 读取文件和存储文件
- c语言链表数据存入文件和读取文件
- 清除浮动
- 第十二周项目二-Time类中的运算符重载
- poj之旅——3666
- 初识Less
- 项目1-3 定义一个定义完整的类。这样的类在(2)的基础上,扩展+、-、*、/运算符的功能,使之能与double型数据进行运算。设Complex c; d
- SparkStream文件监控和数据读取
- 史上最全linux内核配置详解
- tomcat启用不同端口,同时启动多个项目
- [ 系统]win10下vmware workstation 12虚拟机安装MAC OS X
- Java并发编程与技术内幕:线程池深入理解
- OpenStack的基本概念与架构图
- Linux下undefined reference to ‘pthread_create’问题解决
- Ubuntu 美化教程:添加新字体
- background-position 用法详细介绍