pyspark执行hivesqlstr
来源:互联网 发布:苹果微信网络出错1202 编辑:程序博客网 时间:2024/06/06 01:48
spark执行hivesqlstr
法1:
spark = SparkSession \
.builder \
.appName("app_level") \
.enableHiveSupport() \
.getOrCreate()
spark.sql(sql)
法2:
os.system("export PYSPARK_PYTHON=python2.7.5")
appName = "VL_caltion"
mode = "yarn-client"
conf =SparkConf().setAppName(appName).setMaster("yarn-client")
sc = SparkContext(conf=conf)
hiveContext= HiveContext(sc)
self.result=sku_result.join(dept_result,["dc_id","seller_code","dept_code"]).coalesce(10)\
.select("seller_code","dept_code","sku_code","dc_id",F.when(sku_result.amt<10,dept_result.vl_mean_dept).otherwise(sku_result.vl_mean).alias("vl_mean"),
F.when(sku_result.amt<10,dept_result.vl_std_dept).otherwise(sku_result.vl_std).alias("vl_std"),
col("amt").alias("sku_order_count"),col("amt_dept").alias("dept_order_count"),
F.when(sku_result.amt<10,2).otherwise(1).alias("dim_type")).withColumn("dt",lit(endDate)).coalesce(10)
hiveContext.sql("set hive.exec.dynamic.partition.mode=nonstrict;set hive.exec.dynamic.partition=true;")
hiveContext.sql("alter table app.app_ivlt drop if existspartition(dt='"+endDate+"')")
self.result.write.mode("append").insertInto("app.app_ivlt ")
- pyspark执行hivesqlstr
- pyspark
- Spark学习,pyspark执行后默认启动Ipython
- [pyspark] pyspark使用记录
- pyspark笔记
- pyspark例子
- pySpark记录
- pyspark 使用
- pyspark + mongodb
- Learning PySpark
- pyspark-Logisticregression
- pyspark takesample()
- pyspark-wordcount
- pyspark安装
- pyspark 笔记
- pyspark-教程
- pyspark-RDD
- pyspark-mllib
- 【Quartz】Quartz概述及入门实例
- 快递江湖:一支穿云箭 千军万马来相见
- C/C++_log2000_空白窗口2
- mac 下python3 virtualenv 环境搭建
- jsoup API
- pyspark执行hivesqlstr
- 完成二叉树的判断
- Java Filter过滤机制详解与监听器详解
- Zookeeper原理架构
- 【Quartz】深入Job、JobDetail、JobDataMap、Trigger
- zabbix 报错
- Windows系统alt+数字键 的特殊字符集
- Log4j2实现不同线程不同级别日志输出到不同的文件中
- POJ