Spark Java版 windows本地开发环境
来源:互联网 发布:矩阵组织项目组织结构 编辑:程序博客网 时间:2024/06/10 18:07
安装IntelliJ IDEA
下载地址:https://www.jetbrains.com/idea/download/#section=windows
选择Community版本安装
安装好后启动,我这里选择UI主题
默认Plugins.
安装scala插件.
配置hadoop环境变量
下载winutils.exe
https://github.com/steveloughran/winutils
我这里面选择hadoop2.7.1版本在D盘新建文件D:\hadoop-2.7.1\bin\winutils.exe
配置windows环境变量
用户变量:添加HADOOP_HOME=D:\hadoop-2.7.1系统变量:Path添加%HADOOP_HOME%\bin
新建maven项目
<project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"> <modelVersion>4.0.0</modelVersion> <groupId>com.spark</groupId> <artifactId>sparktest</artifactId> <version>2.2.0</version> <packaging>jar</packaging> <name>sparktest</name> <url>http://maven.apache.org</url> <properties> <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding> <spark.version>2.2.0</spark.version> <hadoop.version>2.7.1</hadoop.version> </properties> <dependencies> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql_2.11</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-core_2.11</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-hive_2.11</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming-kafka-0-10_2.11</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-streaming_2.11</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>${hadoop.version}</version> </dependency> <dependency> <groupId>org.apache.spark</groupId> <artifactId>spark-sql-kafka-0-10_2.11</artifactId> <version>${spark.version}</version> </dependency> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>3.8.1</version> <scope>test</scope> </dependency> </dependencies></project>
拷贝
https://github.com/apache/spark/blob/master/examples/src/main/resources/employees.json 文件到项目中
测试代码
package com.spark;import org.apache.spark.sql.Dataset;import org.apache.spark.sql.Row;import org.apache.spark.sql.SparkSession;/** * Hello world! * */public class App { public static void main( String[] args ) { SparkSession spark= SparkSession.builder().appName("spark-test").master("local[3]").getOrCreate(); Dataset<Row> result=spark.read().json("employees.json"); result.show(); result.printSchema(); spark.stop(); }}
运行结果
完成!
阅读全文
0 0
- Spark Java版 windows本地开发环境
- spark本地java开发环境的搭建
- Spark Streaming 实战(1)搭建kafka+zookeeper+spark streaming 的windows本地开发环境
- windows环境下本地运行spark程序
- Spark开发记录(windows环境)
- Spark开发记录(windows环境)
- Spark开发记录(windows环境)
- Spark Windows开发环境搭建
- windows搭建spark开发环境
- Windows Spark开发环境部署
- spark windows开发调试环境
- Windows下单机安装Spark开发环境机器 (java, python)
- 一 eclipse Spark 本地开发调试环境
- Spark本地开发环境scala版本
- spark的windows开发环境搭建
- Spark开发环境之windows配置
- spark+hive+hdfs windows开发环境配置:
- Windows下单机安装Spark开发环境
- 福州市第一张全域覆盖的LoRa物联网络在马尾区顺利建成
- eclipse报错Server Tomcat v7.0 Server at localhost failed to start.
- Java网络编程基础知识(IP/端口/协议)
- 文章标题
- PHP7使用原生PDO查询和使用Yii2的AR类查询的效率问题
- Spark Java版 windows本地开发环境
- linux分区格式化挂载mount
- 最全的常用正则表达式大全——包括校验数字、字符、一些特殊的需求等等
- fiddler修改接口请求返回数据Response的三种方法
- CF292D Connected Components【并查集】
- jetty+spring+mybatis (三)
- Java集合-TreeSet(一)
- 拦截导弹(规律:下降子序列的个数等于最长上升子序列的长度)
- 用python实现零钱找零的三种方法