spark 安装与运行

来源:互联网 发布:java简历项目经验案例 编辑:程序博客网 时间:2024/05/16 10:00

1.需要自己安装一个sbt, spark 附带的sbt不能用

2.$> sbt package

[error] import org.apache.spark.SparkContext_

[error]        ^
[error] one error found
[error] (compile:compile) Compilation failed


原因: org.apache.spark包不包含Context_类,估计是官方文档有错误,把这一行代码删除即可


3.有必要装$SPARK_HOME/assembly/target/scala_2.10/assembly/spark-assembly-0.91-hadoopxxx.jar 加入到 CLASSPATH


0 0
原创粉丝点击