python 扩大spark.driver.maxResultSize参数

来源:互联网 发布:linux c编程工具 编辑:程序博客网 时间:2024/06/15 17:21

spark默认的spark.driver.maxResultSize为1g,所以在运行spark程序的时候有时候会报错:

ERROR TaskSetManager: Total size of serialized results of 8113 tasks (1131.0 MB) is bigger than spark.driver.maxResultSize (1024.0 MB)

解决方案是:

from pyspark import SparkConf, SparkContext

SparkContext.setSystemProperty('spark.driver.maxResultSize', '10g')


原创粉丝点击