Spark2.1集群环境搭建小结(1)
来源:互联网 发布:node全栈工程师招聘 编辑:程序博客网 时间:2024/05/18 06:52
操作系统Ubuntu 用户root
1 打开Terminal,使用 java -version
检查是否安装,若未安装,使用
sudo apt-get install default-jre 安装OpenJDK;
或使用
sudo apt-getinstall oracle-java8-installer
sudo apt-getinstall oracle-java8-set-default
安装java 8;
2 设置环境变量
(1)在/etc/profile中设置JAVA环境变量;
export JAVA_HOME="jdk的安装路径"
exportJRE_HOME=$JAVA_HOME/jre
exportJAVA_BIN=$JAVA_HOME/bin
exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
使用source /etc/profile命令生效;
(2)在/etc/environment 中设置JAVA环境变量;
JAVA_HOME="jdk的安装路径"
JRE_HOME=$JAVA_HOME/jre
JAVA_BIN=$JAVA_HOME/bin
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
输入以下命令验证java -version
3 下载spark-2.1.0-bin-hadoop2,使用chmod 755改变./bin和./sbin中的文件属性;
在./conf/spark-env.sh增加
export SPARK_MASTER_IP="master IP"
export JAVA_HOME="jdk的安装路径",同/etc/profile的JAVA_HOME;
./bin/spark-shell运行单机类型的SPARK环境,若成功,则会出现:
Welcome to
____ __
/ __/__ ___ _____/ /__
_\ \/ _ \/ _ `/ __/ '_/
/___/ .__/\_,_/_/ /_/\_\ version 2.1.0
- Spark2.1集群环境搭建小结(1)
- Spark2.1集群环境搭建小结(2)
- Spark2.1集群搭建
- spark2.2.0集群环境搭建
- spark学习1--centOS7.2下基于hadoop2.7.3的spark2.0集群环境搭建
- CentOS7下 Hadoop2.7.3+Spark2.1.0 集群环境搭建(1NN+2DN)
- spark2.2.0搭建standalone集群环境
- Spark2学习1之基本环境搭建(win)问题
- spark2.1集群安装
- Centos 7.2 Hadoop2.7+Spark2.1分布式集群搭建
- Spark2.0.1 on yarn with hue 集群搭建部署(一)基础环境配置
- Spark2.0.0集群搭建部署
- 【spark】spark2.1.1集群搭建
- Spark2.0.0集群环境部署(Spark On Yarn)
- kubernetes环境搭建(1) 一一 etcd集群搭建
- VirtualBox+Centos7+Hadoop2.6.0+scala-2.11.8+spark2.2.0搭建spark集群环境
- spark2.1源码分析1:Win10下IDEA源码阅读环境的搭建
- Spark<集群搭建Centos7.3+Spark2.1.1>
- 国内外著名地球物理学网站
- 索智R16点亮ov7725.txt
- Android——获得自己手机内部的传感器
- android 导入so库文件
- bzoj3894: 文理分科
- Spark2.1集群环境搭建小结(1)
- 合并两个排序链表
- 三月三十
- 在SpringMVC下面从零开始构建WebSocket服务
- LeetCode-Easy部分标签为HashTable#136 Single Number
- 结构体对齐问题
- 机器学习(4):python基础及fft、svd、股票k线图、分形等实践
- 细说new与malloc的10点区别
- 【模拟试题】逛公园