Spark中常见问题
来源:互联网 发布:刷商务通软件网站 编辑:程序博客网 时间:2024/06/05 12:03
- Spark local mode 报Input path does not exist: hdfs://
Exception in thread “main” org.apache.hadoop.mapred.InvalidInputException: Input path does not exist: hdfs://argo/data/resys/mingliang/shop_diary/sparktest/WordCount/input.dat
at org.apache.hadoop.mapred.FileInputFormat.singleThreadedListStatus(FileInputFormat.java:285)
at org.apache.hadoop.mapred.FileInputFormat.listStatus(FileInputFormat.java:228)
at org.apache.hadoop.mapred.FileInputFormat.getSplits(FileInputFormat.java:313)
at org.apache.spark.rdd.HadoopRDD.getPartitions(HadoopRDD.scala:199)
outputfile=/data/resys/mingliang/shop_diary/sparktest/WordCount/outputrm -rf $outputfile/data/resys/var/spark-1.6.0-bin-hadoop2.6/bin/spark-submit \ --class SparkTest.WordCount \ --master "local" \ --deploy-mode "client" \ spark-wordcount-in-scala.jar \ "local[2]" \ /data/resys/mingliang/shop_diary/sparktest/WordCount/input.dat \ $outputfile
http://stackoverflow.com/questions/27299923/how-to-load-local-file-in-sc-textfile-instead-of-hdfs
More than one scala library found in the build path (…org.scala-lang.scala-library_2.11.7.v…)
解决方案:项目属性->scala compiler->
选择Use Project Settings 以及 Latest 2.10 bundle (dynamic)
点确定就不会再报错了JAR creation failed. See details for additional information
右键项目点击“刷新“就OK了java.lang.NoSuchMethodError: scala.runtime.ObjectRef.create(Ljava/lang/Object;)Lscala/runtime/ObjectRef;
此问题是由于本地编译时用到的scala版本和Spark集群所用Scala版本不一致导致的,可以在Spark Job监控页面Environment选项中查看相应版本号日志报org.apache.spark.shuffle.FetchFailedException
可以尝试将RDD进行repartition操作,增大repartition个数,从而每个partition的size减小,这样shuffle时就不会报内存错误编译时显示”can not resolve symbol ”
这种情况一般是没有import相关包;这个问题把我坑惨了,找了好久,之前同事用sbt build的代码,改为用maven build结果一直爆这个,加入import后就没问题。但是奇怪的是为什么用sbt build时不需要导入相关包。java.lang.NoSuchMethodError: scala.Predef$.ArrowAssoc(Ljava/lang/Object;)Ljava/lang/Object
网上说的一般是打包时的spark/scala版本与线上不一致导致的。不过我遇到的是:val rdd = xx.map(col -> 1)
这个结果类型实际是Tuple,但是貌似线上spark是不支持的。改为标准的Tuple即可, val rdd = xx.map((col -> 1))JAR will be empty - no content was marked for inclusion!
用的是idea,mvn package发现jar包生成了,但是并没有包含class文件,解决办法是每次先[Build]->[Make Project], 然后执行mvn package即可生成完整的jar包。
- Spark中常见问题
- spark常见问题
- spark 2.0.1使用过程中常见问题汇总
- Spark的常见问题
- spark常见问题积累
- Spark 常见问题小结
- 部署Spark不常见问题
- spark 常见问题,命令
- Spark SQL的常见问题
- Spark 常见问题小结
- Spark常见问题解决办法
- Spark常见问题汇总 (转载)
- Spark程序常见问题
- Spark常见问题解决办法
- Spark常见问题解决办法
- Spark常见问题解决办法
- Spark 常见问题小结
- spark常见问题解决
- iOS NSThread
- PHP验证日常格式_邮箱验证_手机验证_身份正验证_网址验证_时间验证
- 修改内核临时端口范围
- android 空指针异常
- Docker交流学习途径
- Spark中常见问题
- 理解"unrecognized selector sent to instance 0x1412c "异常
- Java将科学计数法数据转为字符串
- Nginx中为http请求或响应添加头部字段
- 【HDU 1004】Let the Balloon Rise(STL+水题)
- Ubuntu将本机作为局域网内其他PC的网关,使局域网内机器可通过本机上网
- 树的子结构
- Date篇
- Android中使用Handler造成内存泄露的分析和解决