spark eclipse开发调试 本地单机模式

来源:互联网 发布:linux只读文件怎么修改 编辑:程序博客网 时间:2024/05/17 03:57

windows环境下使用eclipse开发spark程序,报错

Exception in thread "main" org.apache.spark.SparkException: A master URL must be set in your configuration    at org.apache.spark.SparkContext.<init>(SparkContext.scala:401)    at org.apache.spark.api.java.JavaSparkContext.<init>(JavaSparkContext.scala:59)    at com.chuck.cust.filter.DataFilterAP.init(DataFilterAP.java:56)    at com.chuck.cust.filter.DataFilterAP.main(DataFilterAP.java:46)

从提示中可以看出找不到程序运行的master,此时需要配置环境变量。
传递给spark的master url可以有如下几种:
local 本地单线程
local[K] 本地多线程(指定K个内核)
local[*] 本地多线程(指定所有可用内核)
spark://HOST:PORT 连接到指定的 Spark standalone cluster master,需要指定端口。
mesos://HOST:PORT 连接到指定的 Mesos 集群,需要指定端口。
yarn-client客户端模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
yarn-cluster集群模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
点击edit configuration,在左侧点击该项目。在右侧VM options中输入“-Dspark.master=local”,指示本程序本地单线程运行,再次运行即可。

eclipse环境下,在项目右键–>Run As–>Run Configurations
这里写图片描述
转载自:http://blog.csdn.net/shenlanzifa/article/details/42679577

原创粉丝点击