spark出现“org.apache.spark.SparkException: Task not serializable"

来源:互联网 发布:新闻发布网站源码 编辑:程序博客网 时间:2024/05/21 13:42

出现“org.apache.spark.SparkException: Task not serializable"这个错误,一般是因为在map、filter等的参数使用了外部的变量,但是这个变量不能序列化。特别是当引用了某个类(经常是当前类)的成员函数或变量时,会导致这个类的所有成员(整个类)都需要支持序列化。解决这个问题最常用的方法有:

  1. 1将依赖的变量放到map、filter等的参数内部定义。这样就可以使用不支持序列化的类;
  2. 2将依赖的变量独立放到一个小的class中,让这个class支持序列化;这样做可以减少网络传输量,提高效率;
  3. 3将被依赖的类中不能序列化的部分使用transient关键字修饰,告诉编译器它不需要序列化。
  4. 4将引用的类做成可序列化的。
0 0