如何安装spark

来源:互联网 发布:程序员真的每天很累吗 编辑:程序博客网 时间:2024/06/07 08:10

第一步:

Spark官网下载相应版本的spark,http://spark.apache.org/

第二步:

解压安装spark

sudo tar -zxf spark-2.0.0-bin-hadoop2.7.tgz -C /usr/local

第三步:

重命名

cd /usr/localsudo mv spark-2.0.0-bin-hadoop2.7 spark
第四步:

声明环境变量,并修改权限

sudo vim /etc/profile# 添加以下内容export SPARK_HOME=/usr/local/sparkexport PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

在local文件路径下修改权限

cd /usr/local

sudo chown -R yourusername:yourusername ./spark   #其中yourusername为你的计算机名字第五步:修改配置文件
cd /usr/local/sparkcp ./conf/spark-env.sh.template ./conf/spark-env.sh
vim ./conf/spark-env.sh# 添加以下内容export SPARK_DIST_CLASSPATH=$(/path/hadoop/bin/hadoop classpath)export JAVA_HOME=/path/jvm/jdk
#其中的path为你的hadoop和java安装路径,可以用echo $HADOOP_HOME 和echo $JAVA_HOME查看

第六步:
/usr/local/spark/bin/run-example SparkPi 2>&1 | grep "Pi is roughly"
启动Spark
usr/local/spark/sbin/start-all.sh
浏览器中输入地址:localhost:8080