Spark执行过程出现outofmemory错误的解决方案

来源:互联网 发布:新闻发布系统源码 编辑:程序博客网 时间:2024/04/29 12:54

进入Spark的conf目录,找到spark-env.sh文件,添加如下值:

export SPARK_WORKER_MEMORY=4gexport SPARK_WORKER_INSTANCES=2export SPARK_EXECUTOR_MEMORY=4gexport SPARK_DRIVER_MEMORY=4gexport SPARK_JAVA_OPTS="-Xms2048m -Xmx4096m -Dspark.cores.max=2 -Dspark.executor.memory=4g"

考虑只添加如下值应该也可以:

export SPARK_JAVA_OPTS="-Xms2048m -Xmx4096m -Dspark.cores.max=2 -Dspark.executor.memory=4g"

注意上面的2048等数值可以根据配置自行调整。

0 0
原创粉丝点击