spark的组件

来源:互联网 发布:通过网线共享网络 编辑:程序博客网 时间:2024/05/17 01:39

Spark的组件介绍

1.Spark Core(任务调度,内存管理)

Spark Core 实现了Spark 的基本功能,包括任务调度,内存管理,错误恢复,和存储系统交互等模块。Spark Core 包括了弹性分布式数据集RDD的API定义,

2.Spark SQL(结构化数据)

Spark SQL 是Spark用来操作结构化数据的程序包,通过spark sql 可以使用SQL或者Hive查询数据,

3.Spark Streaming(实时计算)

Spark Streaming是Spark 提供的实时数据进行流式计算的组件,

4.MLlib(机器学习)

MLlib提供机器学习的程序库,它提供了很多机器学习的算法, 包括分类、回归、聚类、协同过滤等,还提供了模型评估,数据导入等支持功能

5.GraphX(图计算)

GraphX是用来操作图的程序库,可以进行并行的图计算。它扩展了Spark的RDD API,能用来创建一个顶点和边都包含任意属性的有向图。

0 0
原创粉丝点击