spark shell ,在Windows上build Spark
来源:互联网 发布:天谕萌女萝莉数据 编辑:程序博客网 时间:2024/05/17 03:35
在本机(Windows 8)上安装spark玩一玩,Spark的Quick Start上没有指明具体步骤,自己Build好了之后把步骤记录一下。
首先,到Spark的官网上下载Spark的压缩包,然后解压缩到本地文件夹。我下的是Spark 1.1.0,目前最新的release,链接spark-1.1.0.tgz。
按照文档上运行bin/spark-shell,会提示找不到所需的jar包,需要重新build生成这个jar包。
首先确认本机是否已安装Scala和SBT,scala需要2.10.x版本,sbt我用的是0.13,如果没有安装的就从网上下载安装。将sbt的bin添加到windows path环境变量下,确保可以运行。
到Spark的root目录下,运行sbt package(比较耗时,10多分钟),这会将spark所有依赖的lib下载到本地的ivy repository(sbt默认使用ivy repository)
第四步成功完成之后,spark依赖的库已经具备,运行sbt assembly,这会将spark依赖的库和spark本身assemble成一个很大的jar包。这步完成后,你会在assembly\target\scala-2.10下找到spark-assembly-1.1.0-hadoop1.0.4.jar, spark-assembly_2.10-1.1.0.jar这两个jar包
上述步骤完成之后,就可以在bin下运行spark-shell,可以成功进入shell,进行操作。
(附:sbt下载安装即可使用,命令行输入sbt,未报错即安装成功。但是环境变量path下可能不正确导致命令行输入“sbt”提示错误,更改path即可sbt/bin。下载网址:http://www.scala-sbt.org/release/docs/Setup.html
sbt具体安装及配置:http://my.oschina.net/u/915967/blog/146746 or 自己的转载)
- spark shell ,在Windows上build Spark
- 在Windows上build Spark
- 在Yarn上运行spark-shell和spark-sql命令行
- 在Yarn上运行spark-shell和spark-sql命令行
- spark安装:在hadoop YARN上运行spark-shell
- 在windows上运行Spark Driver
- 在windows上通过Spark访问HBase
- 在Windows上安装单机Spark
- 在Windows上编译Spark源码
- 在windows上pycharm配置spark环境
- Windows上配置Spark(2):导入Spark
- 在windows上使用eclipse提交Spark任务到Spark平台上
- 在windows上使用eclipse提交Spark任务到Spark平台上
- spark:在spark-shell上运行一些sparkSQL简单语句--12
- spark:在spark-shell上用260M的数据包做简单的sparkSQL练习--13
- 【MongoDB】【Spark】在MongoDB上使用Spark
- spark部署:在YARN上运行Spark
- Scala-IDE Eclipse(Windows)中开发Spark应用程序,在Ubuntu Spark集群上运行
- HttpServletRequest和HttpServletResponse的常用方法
- 深入浅出RxJava三--响应式的好处
- 下载原版Windows/Office
- javaWeb学习记录:数据库:事务
- AS中import module、import project
- spark shell ,在Windows上build Spark
- 我常浏览的网站和开发工具下载地址
- php相关错误
- 蓝桥杯2
- Tricks(二十七)—— 如何在不使用 np.argsort 的情况下获得排序后元素的下标
- StringBuffer的相关区别
- 001.php输出echo
- Mac/Linux --管理与维护
- CI面向对象的加强利用