hive2.3-spark2.0-yarn 安装
来源:互联网 发布:2017全球华人网络春晚 编辑:程序博客网 时间:2024/05/19 15:20
hive on spark 安装
- jar包选用
hadoop - 2.7.3 hive - 2.3.0 spark - 2.0.0 scala - 2.11.8
- spark安装
引用官网 https://cwiki.apache.org//confluence/display/Hive/Hive+on+Spark:+Getting+Started 请注意,您必须具有不包括Hive jar 的Spark版本 。意思是一个没有用Hive配置文件构建的。 我选用spark2.0 因为hive现在最新版本支持spark2.0版本 下载hive源码pom.xml中支持spark 2.0版本
下载sprk-2.0版本解压 用maven编译 编译前必须先安装scala maven ./dev/make-distribution.sh --name "hadoop2-without-hive" --tgz "-Pyarn,hadoop-provided,hadoop-2.7,parquet-provided" 编译时间长 耐心等待 编译完成后在当前文件下 生成 spark-2.2.0-bin-hadoop2-without-hive.tgz
- 配置 spark-env.sh
解压 后配置 spark-env.sh export SCALA_HOME=/usr/local/scala export JAVA_HOME=/usr/java/default export HADOOP_HOME=/usr/local/hadoop export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) export SPARK_MASTER_IP=192.168.137.100 export SPARK_LOCAL_DIRS=/usr/local/spark export SPARK_WORKER_MEMORY=1g export SPARK_DRIVER_MEMORY=1g # spark master端口 默认7077 下面是可选的 export SPARK_MASTER_PORT=7077 export SPARK_WORKER_PORT=7078 配置有很多 这是基础得 export SPARK_DIST_CLASSPATH 必须配置 不配置会报 Exception in thread "main" java.lang.NoClassDefFoundError: org/slf4j/impl/StaticLoggerBinder
- 配置spark-defaultt.conf
spark.master yarn-cluster spark.home /usr/local/spark spark.eventLog.enabled true spark.eventLog.dir hdfs://master:9000/spark-log spark.serializer org.apache.spark.serializer.KryoSerializer spark.driver.memory 1g spark.executor.memory 1g spark.executor.extraJavaOptions -XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"
– 配置hive
将 spark/jars 文件下得scala-library spark-core spark-network-common包复制到hive/lib下 hive-site.xml添加 <property> <name>hive.enable.spark.execution.engine</name> <value>true</value> </property> <property> <name>spark.home</name> <value>/usr/local/spark</value> </property> <property> <name>spark.master</name> <value>yarn-client</value> </property> <property> <name>spark.enentLog.enabled</name> <value>true</value> </property> <property> <name>spark.enentLog.dir</name> <value>hdfs://master:9000/spark-log</value> </property> <property> <name>spark.serializer</name> <value>org.apache.spark.serializer.KryoSerializer</value> </property> <property> <name>spark.executor.memeory</name> <value>1g</value> </property> <property> <name>spark.driver.memeory</name> <value>1g</value> </property> <property> <name>spark.executor.extraJavaOptions</name> <value>-XX:+PrintGCDetails -Dkey=value -Dnumbers="one two three"</value> </property>
– 注意 hive与spark版本要对应
不匹配启动spark集群 会报 Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)' FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask
– 启动spark 启动hive 验证Hive on Spark是否可用
命令行输入 hive,进入hive CLI set hive.execution.engine=spark; (将执行引擎设为Spark,默认是mr,退出hive CLI后,回到默认设置。若想让引擎默认为Spark,需要在hive-site.xml里设置) create table test(ts BIGINT,line STRING); (创建表) select count(*) from test; 若整个过程没有报错,并出现正确结果,则Hive on Spark配置成功。
阅读全文
0 0
- hive2.3-spark2.0-yarn 安装
- hive on spark安装(hive2.3 spark2.1)
- hive2.1.1 和 spark2.1.2
- Spark2.0安装
- Spark2.0安装配置
- Spark2.0安装
- mac安装配置hive2.0
- hive2安装
- centos7.3+hive2.3.0+mysql5.6安装
- Spark2.0.1 on yarn with hue 集群安装部署(七)livy安装测试
- Spark2.0.1 on yarn with hue 集群安装部署(六)livy安装测试
- spark2.0.1 on yarn with hue 集群搭建部署(三)msyql安装
- spark2.0.1 on yarn with hue 集群搭建部署(四)hive、hive metastore安装
- Spark2.0.1 on yarn with hue 集群搭建部署(五)hue安装支持hadoop
- Spark2.0.1 on yarn with hue 集群安装部署(八)hue+livy+spark整合
- Spark2.0.1 on yarn with hue 集群安装部署(六)hue+hive+sparksql
- Spark2.0.1 on yarn with hue 集群安装部署(九)启动脚本编写
- Yarn 2.2.0安装
- 1040. 有几个PAT(25)
- NIM与SG值
- English story 18
- go的反射机制和interface
- 统计单词数
- hive2.3-spark2.0-yarn 安装
- 设计模式之对象行为型模式 — CHAIN OF RESPONSIBILITY (职责链)模式
- HDU
- vue.js 初探之用户管理
- 面试题4:将空格换成其他的字符串
- jzoj5220 【GDOI2018模拟7.10】C (双序列dp)
- Debian下安装nginx错误error: the HTTP rewrite module requires the PCRE library 解决方法
- 商场分类导航效果
- unity profiler深入学习2:ios调试配置