通过 “由对象V到对象C的转换” 来说明 Spark_Streaming api中 reduceByKey 与 combineByKey 注意事项

来源:互联网 发布:sql union和join 编辑:程序博客网 时间:2024/06/04 19:37

今年以来一直在学习通过Spark Streaming 来处理公司大数据相关的业务需求。去重\汇总 在大数据统计中是很常见的。而reduceByKey、combineByKey 在 Spark Streaming 中做合并操作时(由对象V到对象C的转换)很重要的两个api .  网上的事例大部分太过简单,或者讲解过于皮毛。


先对比下二者的函数签名:class PairRDDFunctions[K, C](...) {  def reduceByKey(func: (C, C) => C): RDD[(K, C)]  def combineByKey[C](      createCombiner: V => C,      mergeValue: (C, V) => C,      mergeCombiners: (C, C) => C): RDD[(K, C)]}

总体来看, reduceByKey 比 combineByKey 更简单,combineByKey 比 reduceByKey 更通用,另外,在实际转换(从对象V到对象C)过程当中,对开发员来讲是非常讲究的。而我将就实际的需求事例,来做讲解:

现有 V 与 C 两个对象:

class Vobj(vId: String, vName: String, vType : String) extends Serializable{  var id:String = vId  val name:String = vName  val stype:String = vType}

class Cobj extends Serializable{  var lists = new ObjectArraySet[Vobj]()}

现有数据内容如下:

val c01 = new Vobj("1","hu","1")val c02 = new Vobj("2","hu","2")val c03 = new Vobj("3","hu","3")val c04 = new Vobj("4","hu","1")val c05 = new Vobj("5","hu","1")

现在需要按 V对象的值进行分组合并,将转化成 C对象,现有两种实现方式:

第一种:

val testCobjRdd = sc.parallelize(List(c01,c02,c03,c04,c05))testCobjRdd.map(x => {  //在map阶段就进行对象的转换  val cj = new Cobj()  cj.lists.add(x)  (x.stype,cj)}).reduceByKey((pre:Cobj,aft:Cobj) => {  //构造一个新的中间对象并间数据进行汇集  val mid = new Cobj()  mid.lists.addAll(pre.lists)  mid.lists.addAll(aft.lists)  mid}).foreach(x => {  println(x._1+"-"+x._2.lists.size())})

第二种:

testCobjRdd.map(x => {  (x.stype,x)}).combineByKey[Cobj]((v:Vobj)=>{  //创建V对象的初始化[在第一个RDD中的第一条C记录中逻辑]  val midC = new Cobj()  midC.lists.add(v)  midC},(c:Cobj,v:Vobj) => {  //由C到V汇集业务逻辑[在第一个RDD中的第一条V记录与第二条C记录的逻辑]  c.lists.add(v)  c},(cPre:Cobj,cAft:Cobj) => {  //由V到V汇集业务逻辑[在第一个与第二个RDD中汇集时的逻辑]  val midC = new Cobj()  midC.lists.addAll(cPre.lists)  midC.lists.addAll(cAft.lists)  midC}).foreach(x => {  println(x._1+"-"+x._2.lists.size())})


结果都会如下:

2-1
3-1
1-3


其中,这两种实现逻辑是等价的。但是根据实际消耗的时间来看,第二种要好于第一种。



另外,重点讲一个严重错误事例,有的童鞋为了省事,只用V一个对象做合并,然后 V对象内新建一个集合属性,如下:

class Vobj(vId: String, vName: String, vType : String) extends Serializable{  var id:String = vId  val name:String = vName  val stype:String = vType  var lists = new ObjectArraySet[Vobj]()}

然后,在代码中如下:

val testCobjRdd = sc.parallelize(List(c01,c02,c03,c04,c05))testCobjRdd.map(x => {  (x.stype,x)}).reduceByKey((pre,aft) => {  val cMid = new Vobj(null,null,null)  cMid.lists.add(pre)  cMid.lists.add(aft)  cMid}).foreach(x => {  println(x._1+"-"+x._2.lists.size())})

却发现结果为:

2-0
3-0
1-2


所以,上面的这种事例是严重错误的。因为,如果结果集中如果只有一个对象,那reduce的时候就不会参于里面的函数运算。







0 0
原创粉丝点击