ValueError: Cannot run multiple SparkContexts at once; existing SparkContext ...

来源:互联网 发布:伊甸园ydy论坛广州域名 编辑:程序博客网 时间:2024/06/05 20:15

将代码写成如下形式:

from pyspark import SparkContexttry:    sc.stop() #停止以前的SparkContext,要不然下面创建工作会失败except:    passsc=SparkContext('local','pyspark')'''your code'''sc.stop() #最好是再停止一下本次的




1 0