总结:Spark性能优化上的一些总结
来源:互联网 发布:学软件编程 编辑:程序博客网 时间:2024/06/04 18:56
Spark性能调优
整理来自于:
- Spark性能优化指南——基础篇
会增加:
- 一些其他博客的内容
- 自己的理解和pyspark代码的补充实践
开发调优
Spark性能优化的第一步,就是要在开发Spark作业的过程中注意和应用一些性能优化的基本原则。开发调优,就是要让大家了解以下一些Spark基本开发原则,包括:RDD lineage设计、算子的合理使用、特殊操作的优化等。在开发过程中,时时刻刻都应该注意以上原则,并将这些原则根据具体的业务以及实际的应用场景,灵活地运用到自己的Spark作业中。
原则一:避免创建重复的RDD
通常来说,我们在开发一个Spark作业时,首先是基于某个数据源(比如Hive表或HDFS文件)创建一个初始的RDD;接着对这个RDD执行某个算子操作,然后得到下一个RDD;以此类推,循环往复,直到计算出最终我们需要的结果。在这个过程中,多个RDD会通过不同的算子操作(比如map、reduce等)串起来,这个“RDD串”,就是RDD lineage,也就是“RDD的血缘关系链”
// 需要对名为“hello.txt”的HDFS文件进行一次map操作,再进行一次reduce操作。也就是说,需要对一份数据执行两次算子操作。// 错误的做法:对于同一份数据执行多次算子操作时,创建多个RDD。// 这里执行了两次textFile方法,针对同一个HDFS文件,创建了两个RDD出来,然后分别对每个RDD都执行了一个算子操作。// 这种情况下,Spark需要从HDFS上两次加载hello.txt文件的内容,并创建两个单独的RDD;第二次加载HDFS文件以及创建RDD的性能开销,很明显是白白浪费掉的。val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt")rdd1.map(...)val rdd2 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt")rdd2.reduce(...)// 正确的用法:对于一份数据执行多次算子操作时,只使用一个RDD。// 这种写法很明显比上一种写法要好多了,因为我们对于同一份数据只创建了一个RDD,然后对这一个RDD执行了多次算子操作。// 但是要注意到这里为止优化还没有结束,由于rdd1被执行了两次算子操作,第二次执行reduce操作的时候,还会再次从源头处重新计算一次rdd1的数据,因此还是会有重复计算的性能开销。// 要彻底解决这个问题,必须结合“原则三:对多次使用的RDD进行持久化”,才能保证一个RDD被多次使用时只被计算一次。val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt")rdd1.map(...)rdd1.reduce(...)
原则二:尽可能复用同一个RDD
比如说,有一个RDD的数据格式是key-value类型的,另一个是单value类型的,这两个RDD的value数据是完全一样的。那么此时我们可以只使用key-value类型的那个RDD,因为其中已经包含了另一个的数据。对于类似这种多个RDD的数据有重叠或者包含的情况,我们应该尽量复用一个RDD,这样可以尽可能地减少RDD的数量,从而尽可能减少算子执行的次数。
// 错误的做法。// 有一个<Long, String>格式的RDD,即rdd1。// 接着由于业务需要,对rdd1执行了一个map操作,创建了一个rdd2,而rdd2中的数据仅仅是rdd1中的value值而已,也就是说,rdd2是rdd1的子集。JavaPairRDD<Long, String> rdd1 = ...JavaRDD<String> rdd2 = rdd1.map(...)// 分别对rdd1和rdd2执行了不同的算子操作。rdd1.reduceByKey(...)rdd2.map(...)// 正确的做法。// 上面这个case中,其实rdd1和rdd2的区别无非就是数据格式不同而已,rdd2的数据完全就是rdd1的子集而已,却创建了两个rdd,并对两个rdd都执行了一次算子操作。// 此时会因为对rdd1执行map算子来创建rdd2,而多执行一次算子操作,进而增加性能开销。// 其实在这种情况下完全可以复用同一个RDD。// 我们可以使用rdd1,既做reduceByKey操作,也做map操作。// 在进行第二个map操作时,只使用每个数据的tuple._2,也就是rdd1中的value值,即可。JavaPairRDD<Long, String> rdd1 = ...rdd1.reduceByKey(...)rdd1.map(tuple._2...)// 第二种方式相较于第一种方式而言,很明显减少了一次rdd2的计算开销。// 但是到这里为止,优化还没有结束,对rdd1我们还是执行了两次算子操作,rdd1实际上还是会被计算两次。// 因此还需要配合“原则三:对多次使用的RDD进行持久化”进行使用,才能保证一个RDD被多次使用时只被计算一次。
原则三:对多次使用的RDD进行持久化
Spark中对于一个RDD执行多次算子的默认原理是这样的:每次你对一个RDD执行一个算子操作时,都会重新从源头处计算一遍,计算出那个RDD来,然后再对这个RDD执行你的算子操作。这种方式的性能是很差的。
对多次使用的RDD进行持久化。此时Spark就会根据你的持久化策略,将RDD中的数据保存到内存或者磁盘中。以后每次对这个RDD进行算子操作时,都会直接从内存或磁盘中提取持久化的RDD数据,然后执行算子,而不会从源头处重新计算一遍这个RDD,再执行算子操作。
- cache: 使用非序列化的方式将RDD中的数据全部尝试持久化到内存中。
// 此时再对rdd1执行两次算子操作时,只有在第一次执行map算子时,才会将这个rdd1从源头处计算一次。// 第二次执行reduce算子时,就会直接从内存中提取数据进行计算,不会重复计算一个rdd。val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt").cache()rdd1.map(...)rdd1.reduce(...)
- persist: 手动选择持久化级别,并使用指定的方式进行持久化。比如说,StorageLevel.MEMORY_AND_DISK_SER表示,内存充足时优先持久化到内存中,内存不充足时持久化到磁盘文件中。其实Memory_only(内存中缓存)这个级别就是cache
// 序列化的方式可以减少持久化的数据对内存/磁盘的占用量,进而避免内存被持久化数据占用过多,从而发生频繁GC(garbage collection)。val rdd1 = sc.textFile("hdfs://192.168.0.1:9000/hello.txt").persist(StorageLevel.MEMORY_AND_DISK_SER)rdd1.map(...)rdd1.reduce(...)
原则四:尽量避免使用shuffle类算子
如果有可能的话,要尽量避免使用shuffle类算子。因为Spark作业运行过程中,最消耗性能的地方就是shuffle过程。shuffle过程,简单来说,就是将分布在集群中多个节点上的同一个key,拉取到同一个节点上,进行聚合或join等操作。比如reduceByKey、join等算子,都会触发shuffle操作。
shuffle过程中,各个节点上的相同key都会先写入本地磁盘文件中,然后其他节点需要通过网络传输拉取各个节点上的磁盘文件中的相同key。而且相同key都拉取到同一个节点进行聚合操作时,还有可能会因为一个节点上处理的key过多,导致内存不够存放,进而溢写到磁盘文件中。因此在shuffle过程中,可能会发生大量的磁盘文件读写的IO操作,以及数据的网络传输操作。磁盘IO和网络数据传输也是shuffle性能较差的主要原因。
因此在我们的开发过程中,能避免则尽可能避免使用reduceByKey、join、distinct、repartition等会进行shuffle的算子,尽量使用map类的非shuffle算子。这样的话,没有shuffle操作或者仅有较少shuffle操作的Spark作业,可以大大减少性能开销。
使用broadcast优化shuffle
广播变量允许程序员将一个只读的变量缓存在每台机器上,而不用在任务之间传递变量。广播变量可被用于有效地给每个节点一个大输入数据集的副本。Spark还尝试使用高效地广播算法来分发变量,进而减少通信的开销。
使用广播变量的方法,将原来的需要shuffle的过程用map来解决,对spark来说如果join的表比较大,那么在shuffle时网络及磁盘压力会明显提升,严重时可能会造成excutor失败导致任务无法进行下去,对这种join的优化方法主要是采用map和filter来改变join的实现方式,减少shuffle阶段的网络和磁盘I/O
原始方法
d1=sc.parallelize([(1,2),(2,3),(2,4),(3,4)])d2=sc.parallelize([(1,'a'),(2,'b'),(1,'d'),(5,'2')])d1.join(d2).collect() # join会启动shuffle过程# [(1, (2, 'a')), (1, (2, 'd')), (2, (3, 'b')), (2, (4, 'b'))]
优化方法
def doJoin(row): result=[] if row[1][1] is not None: for i in row[1][1]: result+=[(row[0],(row[1][0],i))] else: result+=[row] return resultd2_map={} # 构造字典比较好用get的方法获取valuefor i in d2.groupByKey().collect(): d2_map[i[0]]=i[1]d2_broadcast=sc.broadcast(d2_map) # 以broadcast的形式分发到每个executord2_dict=d2_broadcast.value# {1: <pyspark.resultiterable.ResultIterable at 0x1125d6a50>,2: <pyspark.resultiterable.ResultIterable at 0x11272f1d0>,5: <pyspark.resultiterable.ResultIterable at 0x11272f050>}# 这是操作leftouterjoind1.map(lambda row:(row[0],(row[1],d2_dict.get(row[0])))).flatMap(doJoin).collect() # [(1, (2, 'a')), (1, (2, 'd')), (2, (3, 'b')), (2, (4, 'b')), (3, (4, None))]# 这是操作joind1.map(lambda row:(row[0],(row[1],d2_dict.get(row[0])))).filter(lambda x:x[1][1] is not None).flatMap(doJoin).collect() #[(1, (2, 'a')), (1, (2, 'd')), (2, (3, 'b')), (2, (4, 'b'))]# 这是跑题了,看下map和flatmap区别# d1.map(lambda row:(row[0],(row[1],d2_dict.get(row[0])))).map(doJoin).collect()# [[(1, (2, 'a')), (1, (2, 'd'))],[(2, (3, 'b'))],[(2, (4, 'b'))],[(3, (4, None))]]
使用map-side预聚合的shuffle操作
如果因为业务需要,一定要使用shuffle操作,无法用map类的算子来替代,那么尽量使用可以map-side预聚合的算子。
所谓的map-side预聚合,说的是在每个节点本地对相同的key进行一次聚合操作,类似于MapReduce中的本地combiner。map-side预聚合之后,每个节点本地就只会有一条相同的key,因为多条相同的key都被聚合起来了。其他节点在拉取所有节点上的相同key时,就会大大减少需要拉取的数据数量,从而也就减少了磁盘IO以及网络传输开销。
通常来说,在可能的情况下,建议使用reduceByKey或者aggregateByKey算子来替代掉groupByKey算子。因为reduceByKey和aggregateByKey算子都会使用用户自定义的函数对每个节点本地的相同key进行预聚合。而groupByKey算子是不会进行预聚合的,全量的数据会在集群的各个节点之间分发和传输,性能相对来说比较差。
上图是groupByKey的原理图,可以看到,没有进行任何本地聚合时,所有数据都会在集群节点之间传输,非常耗费网络开销
是reduceByKey的原理图,可以看到,每个节点本地的相同key数据,都进行了预聚合,然后才传输到其他节点上进行全局聚合。这样网络开销就会被groupByKey要小很多
hello_ = ['hello']*6world_ = ['world']*2you_ = ['you']*2data_ = sc.parallelize(hello_+world_+you_,3)data_.collect()#['hello', 'hello', 'hello', 'hello', 'hello', 'hello', 'world', 'world', 'you', 'you'] # 方法一,使用reduceByKey data_.map(lambda x:(x,1)).reduceByKey(lambda x,y:x+y).collect() # [('world', 2), ('you', 2), ('hello', 6)] # 方法二,使用groupBykey data_.map(lambda x:(x,1)).groupByKey().map(lambda x:(x[0],sum(x[1]))).collect() # [('world', 2), ('you', 2), ('hello', 6)] # 对于单词统计,还可以使用countByKey data_.map(lambda x:(x,1)).countByKey() # defaultdict(int, {'hello': 6, 'world': 2, 'you': 2})
原则六:使用高性能的算子
除了shuffle相关的算子有优化原则之外,其他的算子也都有着相应的优化原则。
使用reduceByKey/aggregateByKey替代groupByKey
详见原则五
使用mapPartitions替代普通map
mapPartitions类的算子,一次函数调用会处理一个partition所有的数据,而不是一次函数调用处理一条,性能相对来说会高一些。但是有的时候,使用mapPartitions会出现OOM(内存溢出)的问题。因为单次函数调用就要处理掉一个partition所有的数据,如果内存不够,垃圾回收时是无法回收掉太多对象的,很可能出现OOM异常。所以使用这类操作时要慎重!
使用foreachPartitions替代foreach
原理类似于“使用mapPartitions替代map”,也是一次函数调用处理一个partition的所有数据,而不是一次函数调用处理一条数据。在实践中发现,foreachPartitions类的算子,对性能的提升还是很有帮助的。比如在foreach函数中,将RDD中所有数据写MySQL,那么如果是普通的foreach算子,就会一条数据一条数据地写,每次函数调用可能就会创建一个数据库连接,此时就势必会频繁地创建和销毁数据库连接,性能是非常低下;但是如果用foreachPartitions算子一次性处理一个partition的数据,那么对于每个partition,只要创建一个数据库连接即可,然后执行批量插入操作,此时性能是比较高的。实践中发现,对于1万条左右的数据量写MySQL,性能可以提升30%以上。
使用filter之后进行coalesce操作
通常对一个RDD执行filter算子过滤掉RDD中较多数据后(比如30%以上的数据),建议使用coalesce算子,手动减少RDD的partition数量,将RDD中的数据压缩到更少的partition中去。因为filter之后,RDD的每个partition中都会有很多数据被过滤掉,此时如果照常进行后续的计算,其实每个task处理的partition中的数据量并不是很多,有一点资源浪费,而且此时处理的task越多,可能速度反而越慢。因此用coalesce减少partition数量,将RDD中的数据压缩到更少的partition之后,只要使用更少的task即可处理完所有的partition。在某些场景下,对于性能的提升会有一定的帮助。
- coalesce(numPartitions, shuffle=False): 第一个参数为重分区的数目,第二个为是否进行shuffle,默认为false;如果默认shuffle为true,那恰好就是repartition,参考Spark算子:RDD基本转换操作(2)–coalesce、repartition
print data_.collect()print data_.getNumPartitions()# ['hello', 'hello', 'hello', 'hello', 'hello', 'hello', 'world', 'world', 'you', 'you']# 3
# 注意这是一个transform操作,产生新的rdddata_newpartitions = data_.coalesce(2)data_newpartitions.getNumPartitions()# 2
这里需要强调的一点是,并非所有场景适用,因为压缩为一个partition之前需要进行预估,至于压缩成几个partition这都是要靠经验
使用repartitionAndSortWithinPartitions替代repartition与sort类操作
repartitionAndSortWithinPartitions是Spark官网推荐的一个算子,官方建议,如果需要在repartition重分区之后,还要进行排序,建议直接使用repartitionAndSortWithinPartitions算子。因为该算子可以一边进行重分区的shuffle操作,一边进行排序。shuffle与sort两个操作同时进行,比先shuffle再sort来说,性能可能是要高的。
data2 = data_.map(lambda x:(x,1)).reduceByKey(lambda x,y:x+y)data2.collect()# [('world', 2), ('you', 2), ('hello', 6)]
- 使用
repartitionAndSortWithinPartitions
(numPartitions=None, partitionFunc=, ascending=True, keyfunc=
data2.repartitionAndSortWithinPartitions(1,keyfunc=lambda x:x[0],ascending=True).collect()# [('hello', 6), ('world', 2), ('you', 2)]
- 使用传统的repartition和sortBy
data2.repartition(1).sortBy(lambda x:x[1],ascending=False,).collect()# [('hello', 6), ('world', 2), ('you', 2)]
原则七:广播大变量
有时在开发过程中,会遇到需要在算子函数中使用外部变量的场景(尤其是大变量,比如100M以上的大集合),那么此时就应该使用Spark的广播(Broadcast)功能来提升性能。
在算子函数中使用到外部变量时,默认情况下,Spark会将该变量复制多个副本,通过网络传输到task中,此时每个task都有一个变量副本。如果变量本身比较大的话(比如100M,甚至1G),那么大量的变量副本在网络中传输的性能开销,以及在各个节点的Executor中占用过多内存导致的频繁GC,都会极大地影响性能。
因此对于上述情况,如果使用的外部变量比较大,建议使用Spark的广播功能,对该变量进行广播。广播后的变量,会保证每个Executor的内存中,只驻留一份变量副本,而Executor中的task执行时共享该Executor中的那份变量副本。这样的话,可以大大减少变量副本的数量,从而减少网络传输的性能开销,并减少对Executor内存的占用开销,降低GC的频率。
// 以下代码在算子函数中,使用了外部的变量。// 此时没有做任何特殊操作,每个task都会有一份list1的副本。val list1 = ...rdd1.map(list1...)// 以下代码将list1封装成了Broadcast类型的广播变量。// 在算子函数中,使用广播变量时,首先会判断当前task所在Executor内存中,是否有变量副本。// 如果有则直接使用;如果没有则从Driver或者其他Executor节点上远程拉取一份放到本地Executor内存中。// 每个Executor内存中,就只会驻留一份广播变量副本。val list1 = ...val list1Broadcast = sc.broadcast(list1)rdd1.map(list1Broadcast...)
资源调优
就是你启动spark作业的时候后面尾巴带的一堆参数,都是对资源配置的手动调优
一个例子,比如我提交testpy.py的spark任务的时候只设置了如下
$ spark-submit --executor-memory 6G --queue 如果有队列填上队列名字 testpy.py
实际上,这里有非常多的参数可以设置和调节,每个参数用`–开始,配置项之间空格
./bin/spark-submit \ --master yarn-cluster \ --num-executors 100 \ --executor-memory 6G \ --executor-cores 4 \ --driver-memory 1G \ --conf spark.default.parallelism=1000 \ --conf spark.storage.memoryFraction=0.5 \ --conf spark.shuffle.memoryFraction=0.3 \
下面详解一下这些配置参数项什么意思
- 总结:Spark性能优化上的一些总结
- 总结:Hive性能优化上的一些总结
- Spark性能优化总结
- Spark性能优化总结
- Spark性能优化总结
- Spark性能优化总结
- Spark性能优化总结
- Spark Core性能优化总结
- Android性能优化的一些总结
- 一些关于性能优化的总结
- PHP性能的一些优化总结
- Android性能优化的一些总结
- 优化反射性能的总结(上)
- 优化反射性能的总结(上)
- Spark的一些配置总结
- 【转载】Flex垃圾回收和性能优化的一些总结
- 关于程序性能优化基础的一些个人总结
- 关于程序性能优化基础的一些个人总结
- Java instanceof
- 问题 : 最小周长
- rocketMQ消息堆积监控的java实现
- 【从0到1学Web前端】CSS伪类和伪元素
- Spark基础-Scala语句解析
- 总结:Spark性能优化上的一些总结
- 关于mybatis的知识点整理
- 问题 : 走格子
- Java多线程优先级
- Codeforces Round #428 (Div. 2)
- 锤子剪刀布
- 利用python中的turtle库绘制图形
- IDEA安装流程
- QT问题