Spark基本工作原理与RDD
来源:互联网 发布:台湾网络信号 编辑:程序博客网 时间:2024/06/05 05:14
参考地址:http://www.cnblogs.com/thinkpad/p/5107722.html
Spark 是什么
Spark是UC Berkeley AMP lab所开源的类Hadoop MapReduce的通用分布式并行计算框架。
Spark拥有hadoop MapReduce所具有的优点,但和MapReduce 的最大不同之处在于Spark是基于内存的迭代式计算——Spark的Job处理的中间输出结果可以保存在内存中,从而不再需要读写HDFS,除此之外,一个MapReduce 在计算过程中只有map 和reduce 两个阶段,处理之后就结束了,而在Spark的计算模型中,可以分为n阶段,因为它内存迭代式的,我们在处理完一个阶段以后,可以继续往下处理很多个阶段,而不只是两个阶段。
因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。其不仅实现了MapReduce的算子map 函数和reduce函数及计算模型,还提供更为丰富的算子,如filter、join、groupByKey等,是一个用来实现快速而同用的集群计算的平台。
Spark基本工作原理
1、分布式
2、主要基于内存(少数情况基于磁盘)
3、迭代式计算
RDD以及其特点
1、RDD是Spark提供的核心抽象,全称为Resillient Distributed Dataset,即弹性分布式数据集。
2、RDD在抽象上来说是一种元素集合,包含了数据。它是被分区的,分为多个分区,每个分区分布在集群中的不同节点上,从而让RDD中的数据可以被并行操作。(分布式数据集)
3、RDD通常通过Hadoop上的文件,即HDFS文件或者Hive表,来进行创建;有时也可以通过应用程序中的集合来创建。
4、RDD最重要的特性就是,提供了容错性,可以自动从节点失败中恢复过来。即如果某个节点上的RDD partition,因为节点故障,导致数据丢了,那么RDD会自动通过自己的数据来源重新计算该partition。这一切对使用者是透明的。
5、RDD的数据默认情况下存放在内存中的,但是在内存资源不足时,Spark会自动将RDD数据写入磁盘。(弹性)
- Spark基本工作原理与RDD
- Spark基本工作原理与RDD
- spark的基本工作原理和RDD
- Spark工作模式与RDD
- Spark 工作原理及核心RDD 详解
- spark基本工作原理
- Spark基本工作原理
- 1.spark基本工作原理
- spark RDD 基本操作
- Spark RDD基本操作
- Spark RDD基本操作
- spark RDD的原理
- 3.Spark-RDD原理
- 【spark,rdd,2】RDD基本转换算子
- Spark RDD使用详解1--RDD原理
- Spark RDD使用详解1--RDD原理
- Spark基本原理与RDD
- Spark:DataFrame 与 RDD
- SpringMVC配置AOP
- Java8函数式编程
- HBuilder mui入门教程——(2)含tab选项卡的首页
- 随机产生n个字符串排序输出
- PRO-seq数据分析
- Spark基本工作原理与RDD
- 30元内,搭建个人网站
- 物理材质与射线
- NIO
- java编译器之前端编译器
- 读书笔记-人月神话15
- 用js实现一个栈
- Tomcat系列之服务器的基本配置及Nginx反向代理tomcat服务——(一)
- C++分数相加