解决:spark启动错误Exception in thread "main" java.lang.UnsupportedClassVersionError: org/apach..

来源:互联网 发布:农村网络消费研究报告 编辑:程序博客网 时间:2024/04/27 19:11

MacOS:Sierra 10.12.2
Spark版本:2.1.0


今天想在本地安装spark,结果按照步骤来竟然报错,问题原因spark 2.1.0需要java 7+的支持,但是Mac默认的java 是1.6的,导致运行失败,解决方案也很简单,到官网下载最新的Java JDK和JRE安装好即可,当时我只下载了jre,结果还是不行,傻逼了,下了jdk后安装好就可以了,具体安装过程如下4步

  1. mac java jdk官网下载
  2. 然后安装jdk
  3. mac java jre官网下载
  4. 然后安装jre

mac java安装方法


上述过程都是傻瓜式的都不用修改任何文件,接下来安装好后验证自己的java版本和编译环境

$ java -versionjava version "1.8.0_121"Java(TM) SE Runtime Environment (build 1.8.0_121-b13)Java HotSpot(TM) 64-Bit Server VM (build 25.121-b13, mixed mode)$ javac -versionjavac 1.8.0_121

上述输出没问题了即可开始之后的操作。


在Mac上安装Spark
这一篇写的很好,直接按照他的步骤即可成功调试

转–单机版Spark在Mac上简装笔记[0]


Pay Attention

直接下载spark即可傻瓜式安装(都不用安装,解压就行): Note: Starting version 2.0, Spark is built with Scala 2.11 by default. Scala 2.10 users should download the Spark source package and build with Scala 2.10 support.


致谢

转–单机版Spark在Mac上简装笔记[0]

0 1
原创粉丝点击