第一课: 通过案例对SparkStreaming透彻理解三板斧之二

来源:互联网 发布:软件导刊 核心期刊 编辑:程序博客网 时间:2024/04/30 13:08

空间维度:Y轴代表RDD的依赖关系构成的具体的处理逻辑步骤, 是用DStream Graph 表示的

时间维度:X轴按照特定间隔不断的生成job的实例并在集群上运行

随着时间的流失基于DStream Graph不断的生成以RDD Graph也就是DAG的方式产生JOB,并通过JobSchedule的线程池的方式提交Spark Cluster不断执行。

数据在与不在,SparkStreaming不管有没有数据,一直监听


1、需要RDD DAG生成模板DStreamGraph

2、需要基于Timeline的job控制器

3、InputStream和OutputStream代表数据的输入和输出

4、具体JOB运行在SparkCluster之上,此时系统容错就至关重要

5、事务处理,数据有且只有一次的处理。

0 0
原创粉丝点击