spark-sql on yarn环境搭建
来源:互联网 发布:300英雄淘宝 编辑:程序博客网 时间:2024/05/16 16:15
安装环境:
hadoop2.6.0 + hive1.2.1 + spark1.5.1
前提是hive和hadoop集群已经安装完毕。
1.将hive-site.xml配置文件放置在spark目录下的conf目录下。
2.配置spark-defaults.conf文件:
spark.master yarn
spark.executor.instances 5
spark.executor.instances 5
spark.executor.memory 2g
3.修改spark-env.sh文件,添加
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_CLASSPATH=/usr/local/spark/libext/*
ps:在spark目录下创建一个libext文件,将mysql的jar包,以及其他一些非hadoop官方的包放入这个目录下,比如说hadoop的lzo包等,这样设置的话spark就可以默认这些jar文件。
4.通过bin/spark-sql来执行sql
5.也可通过 sbin/start-thriftserver.sh来启动spark的hiveserver2接口,然后通过beeline来连接。或者通过jdbc的接口类来实现。
0 0
- spark-sql on yarn环境搭建
- Spark On Yarn环境搭建
- 012-01Spark On YARN 环境搭建
- Spark On Yarn集群环境搭建
- Spark on Yarn 环境搭建(CDH5.3)
- Spark on Yarn+Hbase环境搭建指南(一)准备工作
- Spark on Yarn集群搭建
- Spark on Yarn集群搭建
- Spark on Yarn集群搭建
- Spark on Yarn集群搭建
- Spark on Yarn集群搭建
- Spark on Yarn集群搭建
- Spark on Yarn集群搭建
- sparkR on yarn环境搭建
- Spark on Yarn+Hbase环境搭建指南(三)Spark安装
- Spark on Yarn集群搭建详细过程
- Spark on Yarn集群搭建详细过程
- Spark on Yarn集群高可用搭建
- 用系统自带的框架分享到腾讯微博
- 获取enhancedgrid切换页码按钮
- 查看linux服务器的连接数
- AutoEE_V3-自动智能快速开发平台-模块代码生成功能讲解
- Linux增加静态路由方法
- spark-sql on yarn环境搭建
- IOS--自动布局 入门
- test——map
- Java学习笔记(五)接口及类
- GridView使用集合
- 哈夫曼树
- gitlab使用总结
- 论黑产黑阔如何安全地转移赃款/洗钱?
- L状态栏中的信号栏默认无上下行标识