Spark的action和transformation

来源:互联网 发布:君主立宪 知乎 编辑:程序博客网 时间:2024/04/28 12:48

http://blog.csdn.net/egraldloi/article/details/16343733

http://www.cnblogs.com/dasn/articles/5644919.html


弹性分布式数据集(Resilient Distributed Dataset ,RDD),它是逻辑集中的实体,但在集群中的多台机器上进行了分区。通过对多台机器上不同RDD联合分区的控制,就能够减少机器之间数据混合(data shuffling)。Spark提供了一个“partition-by”运算符,能够通过集群中多台机器之间对原始RDD进行数据再分配来创建一个新的RDD。

RDD可以随意在RAM中进行缓存,因此它提供了更快速的数据访问。目前缓存的粒度在处在RDD级别,因此只能是全部RDD被缓存。在集群中有足够的内存时,Spark会根据LRU驱逐算法将RDD进行缓存。

RDD提供了一个抽象的数据架构,我们不必担心底层数据的分布式特性,而应用逻辑可以表达为一系列转换处理。

通常应用逻辑是以一系列TRANSFORMATION和ACTION来表达的。前者在RDD之间指定处理的相互依赖关系DAG,后者指定输出的形式。调度程序通过拓扑排序来决定DAG执行的顺序,追踪最源头的节点或者代表缓存RDD的节点。


典型的执行顺序如下:

  1. RDD直接从外部数据源创建(HDFS、本地文件等)
  2. RDD经历一系列的TRANSFORMATION( map、flatMap、filter、 groupBy、join),每一次都会产生不同的RDD,供给下一个TRANSFORMATION使用
  3. 最后一步就是ACTION(count、collect、save、take),将最后一个RDD进行转换,输出到外部数据源。


那么典型的action和transformation有哪些呢?

transformation:

  • 1. map(func):对调用map的RDD数据集中的每个element都使用func,然后返回一个新的RDD,这个返回的数据集是分布式的数据集  
  • 2. filter(func) : 对调用filter的RDD数据集中的每个元素都使用func,然后返回一个包含使func为true的元素构成的RDD  
  • 3. flatMap(func):和map差不多,但是flatMap生成的是多个结果  
  • 4. mapPartitions(func):和map很像,但是map是每个element,而mapPartitions是每个partition  
  • 5. mapPartitionsWithSplit(func):和mapPartitions很像,但是func作用的是其中一个split上,所以func中应该有index  
  • 6. sample(withReplacement,faction,seed):抽样  
  • 7. union(otherDataset):返回一个新的dataset,包含源dataset和给定dataset的元素的集合  
  • 8. distinct([numTasks]):返回一个新的dataset,这个dataset含有的是源dataset中的distinct的element  
  • 9. groupByKey(numTasks):返回(K,Seq[V]),也就是hadoop中reduce函数接受的key-valuelist  
  • 10. reduceByKey(func,[numTasks]):就是用一个给定的reduce func再作用在groupByKey产生的(K,Seq[V]),比如求和,求平均数  
  • 11. sortByKey([ascending],[numTasks]):按照key来进行排序,是升序还是降序,ascending是boolean类型  
  • 12. join(otherDataset,[numTasks]):当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numTasks为并发的任务数  
  • 13. cogroup(otherDataset,[numTasks]):当有两个KV的dataset(K,V)和(K,W),返回的是(K,Seq[V],Seq[W])的dataset,numTasks为并发的任务数  
  • 14. cartesian(otherDataset):笛卡尔积就是m*n,大家懂的 

action

  • 1. reduce(func):说白了就是聚集,但是传入的函数是两个参数输入返回一个值,这个函数必须是满足交换律和结合律的  
  • 2. collect():一般在filter或者足够小的结果的时候,再用collect封装返回一个数组  
  • 3. count():返回的是dataset中的element的个数  
  • 4. first():返回的是dataset中的第一个元素  
  • 5. take(n):返回前n个elements,这个士driver program返回的  
  • 6. takeSample(withReplacement,num,seed):抽样返回一个dataset中的num个元素,随机种子seed  
  • 7. saveAsTextFile(path):把dataset写到一个text file中,或者hdfs,或者hdfs支持的文件系统中,spark把每条记录都转换为一行记录,然后写到file中  
  • 8. saveAsSequenceFile(path):只能用在key-value对上,然后生成SequenceFile写到本地或者hadoop文件系统  
  • 9. countByKey():返回的是key对应的个数的一个map,作用于一个RDD  
  • 10. foreach(func):对dataset中的每个元素都使用func  



0 0
原创粉丝点击