Spark集群的安装与使用
来源:互联网 发布:java list排序 编辑:程序博客网 时间:2024/05/29 19:15
spark集群安装与启动
- 前提:hadoop集群已正常运行
- 安装scala,修改环境变量,用scala -version指令查看是否正确安装
- 下载对应hadoop版本和scala版本的spark压缩包,并解压至目录/usr/local/spark
配置spark
cd /usr/local/spark/confcp spark-env.sh.template spark-env.shvim spark-env.sh
修改以下几项内容
export JAVA_HOME=/usr/lib/java/jdk1.7.0_79 export SCALA_HOME=/usr/lib/scala/scala-2.11.7 export SPARK_MASTER_IP=master的ip地址 export SPARK_WORKER_MEMORY=4g #spark的工作内存,不能超过机身内存。同一集群中不同节点内存不一样,可以进行修改,如8g内存的就改为8g export HADOOP_CONF_DIR=/usr/local/hadoop-1.2.1/conf #hadoop的配置文件所在文件夹
再修改slaves文件
vim slaves
内容修改为
#填所有的计算节点的主机名,一行一个 master slave1 slave2
按上述配置每一台机器。
5. 启动和关闭spark
cd /usr/local/spark/sbin ./start-all.sh ./stop-all.sh
6. spark web监控地址为master:8080
执行spark作业代码
cd /usr/local/spark/bin ./spark-submit --master spark://114.213.234.152:7077 --class SparkPi HelloScala.jar 100
spark-sql配置
- 前提:hadoop集群的hive已正常运行。假设hive的metastore为远程mysql数据库
切换到hive的安装目录,启动metastore服务
./bin/hive --service metastore &
spark的conf文件夹下新建一个hive-site.xml,内容如下:
<?xml version="1.0" encoding="UTF-8" standalone="no"?><?xml-stylesheet type="text/xsl" href="configuration.xsl"?><configuration> <property> <name>hive.metastore.uris</name> <value>thrift://master的ip地址:9083</value> </property></configuration>
4.启动spark-sql
cd /usr/local/spark./bin/spark-sql --master spark://114.213.234.152:7077
现在spark-sql就可以操作hive的数据了。
0 0
- Spark集群的安装与使用
- spark的集群安装
- Spark集群的安装
- spark集群安装与配置
- Spark集群安装和使用
- 使用 Shell 脚本进行 Hadoop Spark 集群的批量安装
- 提交任务到spark集群及spark集群的安装
- Spark安装与使用
- spark集群安装和基本使用
- Hadoop集群安装spark集群
- Spark学习笔记--01 Spark集群的安装
- Spark安装与基础使用
- 安装与使用 Spark-jobServer
- Spark安装与入门使用
- Spark安装搭建与使用
- Spark集群安装
- spark集群安装
- Spark集群安装
- 常见的时间复杂度
- 第五周项目1-三角形类雏形(2)
- python简单浮点数匹配
- PHPCMSV9 乱解读 之 PHPCMS V9的MVC
- windows下Eclipse的Hadoop运行调试环境搭建
- Spark集群的安装与使用
- git命令行
- 串的三种实现方式
- 动手实践 Linux VLAN - 每天5分钟玩转 OpenStack(13)
- hadoop集群安装以及Hive、sqoop的使用
- 字符串中第一次出现的字符
- hadoop2.6.3配置
- 台大机器学习笔记(7)——The VC Dimension
- Sublime Text 2编辑markdown文件