Linux安装Spark2.0.2步骤
来源:互联网 发布:常用排序算法包括 编辑:程序博客网 时间:2024/05/21 22:42
一、下载Spark
首先我们需要下载Spark安装包,下载地址:http://spark.apache.org/downloads.html,以spark-2.0.2版本为例
二、安装
1、将下载的Spark安装包放到/usr/local目录,解压缩安装包
tar zxvf spark-2.0.2-bin-without-hadoop.tgz
mv spark-2.0.2-bin-without-hadoop spark //重命名目录
2、修改Spark的配置文件spark-env.sh
cp spark-env.sh.template spark-env.sh
如果下载的包类型是“Pre-build with user-provided Hadoop[can use with most Hadoop distributions]”,则需要在配置文件spark-env.sh中第一行添加如下配置信息:
export SPARK_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
否则,不需要添加如上SPARK_CLASSPATH配置信息,spark可直接运行。
保存退出(“:wq”)
关于为什么要添加SPARK_CLASSPATH信息,可参考官网:http://spark.apache.org/docs/latest/index.html
官方原话:Spark uses Hadoop’s client libraries for HDFS and YARN. Downloads are pre-packaged for a handful of popular Hadoop versions. Users can also download a “Hadoop free” binary and run Spark with any Hadoop version by augmenting Spark’s classpath.
- Linux安装Spark2.0.2步骤
- spark2.1.0安装步骤
- centos7.2(linux)+spark2.1.0安装
- CDH5.11 离线安装或者升级spark2.x详细步骤
- CDH5.11 离线安装或者升级spark2.x详细步骤
- Linux安装Spark集群(CentOS7+Spark2.1.1+Hadoop2.8.0)
- Linux安装单机版Spark(CentOS7+Spark2.1.1+Scala2.12.2)
- Linux安装Spark集群(CentOS7+Spark2.1.1+Hadoop2.8.0)
- Linux安装单机版Spark(CentOS7+Spark2.1.1+Scala2.12.2)
- Spark2.0安装
- spark2.1集群安装
- Spark2.0安装配置
- Spark2.0安装
- centos6.5安装spark2
- Spark2.x集群安装
- spark2.2.0安装配置
- linux安装界面步骤
- Linux安装JDK步骤
- error while performing databases login with sqlserver driver:unable to create connection
- Python:文件
- CS231n课程笔记5.1:神经网络历史&激活函数比较
- 快速排序实例化(详细过程)
- HDU 4022 Bombing (STL)
- Linux安装Spark2.0.2步骤
- 在tomcat下,实现通过端口访问不同的网站
- 上班第二天,第一个任务
- 5.5.2
- 我的blog
- Xcode8一些新玩法
- 【leetcode】83. Remove Duplicates from Sorted List【java】
- 5.5.3
- 镜头camera shot