【Spark】Spark 执行出现的兼容性坑
来源:互联网 发布:花返网络股份有限公司 编辑:程序博客网 时间:2024/05/16 05:07
原创文章,转载请标注来自http://blog.csdn.net/lsttoy/article/details/53331578
以下bug猜测为scala版本不匹配出现的error
16/11/24 17:53:54 INFO HadoopRDD: Input split: file:/home/hadoop/input/lekkoTest.txt:0+12516/11/24 17:53:54 ERROR Executor: Exception in task 0.0 in stage 0.0 (TID 0)java.lang.AbstractMethodError: lekko.spark.SparkDemo$1.call(Ljava/lang/Object;)Ljava/util/Iterator; at org.apache.spark.api.java.JavaRDDLike$$anonfun$fn$1$1.apply(JavaRDDLike.scala:124) at org.apache.spark.api.java.JavaRDDLike$$anonfun$fn$1$1.apply(JavaRDDLike.scala:124) at scala.collection.Iterator$$anon$12.nextCur(Iterator.scala:434) at scala.collection.Iterator$$anon$12.hasNext(Iterator.scala:440) at scala.collection.Iterator$$anon$11.hasNext(Iterator.scala:408) at org.apache.spark.util.collection.ExternalSorter.insertAll(ExternalSorter.scala:192) at org.apache.spark.shuffle.sort.SortShuffleWriter.write(SortShuffleWriter.scala:63) at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:79) at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:47) at org.apache.spark.scheduler.Task.run(Task.scala:86) at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:274) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at java.lang.Thread.run(Thread.java:745)16/11/24 17:53:54 WARN TaskSetManager: Lost task 0.0 in stage 0.0 (TID 0, localhost): java.lang.AbstractMethodError: lekko.spark.SparkDemo$1.call(Ljava/lang/Object;)Ljava/util/Iterator; at org.apache.spark.api.java.JavaRDDLike$$anonfun$fn$1$1.apply(JavaRDDLike.scala:124) at org.apache.spark.api.java.JavaRDDLike$$anonfun$fn$1$1.apply(JavaRDDLike.scala:124) at scala.collection.Iterator$$anon$12.nextCur(Iterator.scala:434) at scala.collection.Iterator$$anon$12.hasNext(Iterator.scala:440) at scala.collection.Iterator$$anon$11.hasNext(Iterator.scala:408) at org.apache.spark.util.collection.ExternalSorter.insertAll(ExternalSorter.scala:192) at org.apache.spark.shuffle.sort.SortShuffleWriter.write(SortShuffleWriter.scala:63) at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:79) at org.apache.spark.scheduler.ShuffleMapTask.runTask(ShuffleMapTask.scala:47) at org.apache.spark.scheduler.Task.run(Task.scala:86) at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:274) at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:617) at java.lang.Thread.run(Thread.java:745)
这个bug看起来是工具上的报错,非业务逻辑代码报错,然后去官网看了看版本。
因为目前我的scala安装的最新版本2.12.X,后来在spark官网那边查到以下消息
Spark runs on Java 7+, Python 2.6+/3.4+ and R 3.1+. For the Scala API, Spark 2.0.2 uses **Scala 2.11.** You will need to use a compatible Scala version (**2.11.x**).
因此需要更改版本。
第二,根据以下的代码可以看到
lekko.spark.SparkDemo$1.call(Ljava/lang/Object;)Ljava/util/Iterator;
问题会可能在处理该逻辑的问题。
因此,同时关注对应的代码,进行修正即可
0 0
- 【Spark】Spark 执行出现的兼容性坑
- Spark执行过程出现outofmemory错误的解决方案
- Spark源码解析---Spark执行的架构
- Spark的应用程序执行模型
- Spark逻辑图的执行
- Spark物理图的执行
- 【Spark】Spark应用执行机制
- 【Spark】Spark应用执行机制
- [spark] spark推测式执行
- spark-thrift-server 执行spark-sql 的OOM GC异常.
- 从Spark组件来剖析Spark的执行流程
- spark spark-commit 出现内存不够的问题
- 执行spark sql 遇到的问题
- 以wordcount理解spark的执行过程
- spark的任务执行流程解析
- Spark job 的执行流程简介
- Spark Job具体的物理执行
- Spark的Task执行原理流程
- Javaweb中JavaScript的变量声明
- /usr/lib64/libstdc++.so.6: undefined reference to `memcpy@GLIBC_2.14'
- hadoop环境搭建之配置SSH免密码登录
- ubuntu14.04下deb文件安装mysql数据库
- css3-filter滤镜总纲
- 【Spark】Spark 执行出现的兼容性坑
- SSD(Single Shot MultiBox Detector)不得不说的那些事
- 初探计算机视觉的三个源头、兼谈人工智能|正本清源
- JS,图片上下滚动(主要是定时器的熟练运用)
- qt添加图片资源
- ruby的collect或者map
- java导出excel
- git rebase -i HEAD~2 将提交合并到上一次未审核的提交
- Vim 添加删除多行注释