编写Java程序访问Spark环境

来源:互联网 发布:windows快捷方式图标 编辑:程序博客网 时间:2024/06/05 17:53

Spark本身是使用scala语言编写的,但是Spark提供了访问Spark环境的Java API,使得可以从Java程序中访问Spark环境。

准备环境

在互联的5台机器上同时部署Spark环境和Hadoop环境,之所以部署Hadoop环境,是为了让Spark可以从HDFS加载数据。Spark的版本是为CDH4预编译的0.8.0,Hadoop的版本为CDH4(好像是CDH4.3)。

创建Maven项目

创建Maven项目,在POM文件中添加如下依赖:

<dependencies><dependency><groupId>org.apache.spark</groupId><artifactId>spark-core_2.9.3</artifactId><version>0.8.0-incubating</version></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.0.0-mr1-cdh4.2.0</version></dependency></dependencies>

编写Java程序

直接贴Demo程序的代码和注释。

package xxx;import java.util.HashMap;import java.util.Map;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;public class Demo {static final String USER = "wyc";public static void main(String[] args) throws Exception {System.setProperty("user.name", USER); // 设置访问Spark使用的用户名System.setProperty("HADOOP_USER_NAME", USER); // 设置访问Hadoop使用的用户名Map<String, String> envs = new HashMap<String, String>();envs.put("HADOOP_USER_NAME", USER); // 为Spark环境中服务于本App的各个Executor程序设置访问Hadoop使用的用户名System.setProperty("spark.executor.memory", "512m"); // 为Spark环境中服务于本App的各个Executor程序设置使用内存量的上限// 以下构造sc对象的构造方法各参数意义依次为://   Spark Master的地址;//   App的名称;//   Spark Worker的部署位置;//   需要提供给本App的各个Executor程序下载的jar包的路径列表,这些jar包将出现在Executor程序的类路径中;//   传递给本App的各个Executor程序的环境信息。JavaSparkContext sc = new JavaSparkContext("spark://node01:7077", "Spark App 0", "/home/wyc/spark", new String[0], envs);String file = "hdfs://node01:8020/user/wyc/a.txt";JavaRDD<String> data = sc.textFile(file, 4).cache();System.out.println(data.count());}}


0 0
原创粉丝点击