spark 将dataframe数据写入Hive分区表
来源:互联网 发布:速拓必达医疗器械软件 编辑:程序博客网 时间:2024/05/22 12:58
从spark1.2 到spark1.3,spark SQL中的SchemaRDD变为了DataFrame,DataFrame相对于SchemaRDD有了较大改变,同时提供了更多好用且方便的API。
DataFrame将数据写入hive中时,默认的是hive默认数据库,insertInto没有指定数据库的参数,本文使用了下面方式将数据写入hive表或者hive表的分区中,仅供参考。
1、将DataFrame数据写入到Hive表中
从DataFrame类中可以看到与hive表有关的写入Api有以下几个:
registerTempTable(tableName: String): Unit,
insertInto(tableName: String): Unit
insertInto(tableName: String, overwrite: Boolean): Unit
saveAsTable(tableName: String, source: String, mode: SaveMode, options: Map[String, String]): Unit
有很多重载函数,不一一列举
registerTempTable函数是创建spark临时表
insertInto函数是向表中写入数据,可以看出此函数不能指定数据库和分区等信息,不可以直接进行写入。
向hive数据仓库写入数据必须指定数据库,hive数据表建立可以在hive上建立,或者使用hiveContext.sql(“create table ....")
下面语句是向指定数据库数据表中写入数据:
case
class Person(
name
:String,col1:
Int
,col2:String)
val sc = new org.apache.spark.SparkContext
val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
import hiveContext.implicits._
hiveContext.sql(
"use DataBaseName"
)
val data = sc.textFile(
"path"
).map(x=>x.split(
"\\s+"
)).map(x=>Person(x(0),x(1).toInt,x(2)))
data.toDF().insertInto(
"tableName"
)
创建一个case类将RDD中数据类型转为case类类型,然后通过toDF转换为DataFrame,调用insertInto函数时,首先指定数据库,使用的是hiveContext.sql("use DataBaseName")语句,就可以将DataFrame数据写入hive数据表中了
2、将DataFrame数据写入hive指定数据表的分区中
hive数据表建立可以在hive上建立,或者使用hiveContext.sql(“create table ...."),使用saveAsTable时数据存储格式有限,默认格式为parquet,可以指定为json,如果有其他格式指定,尽量使用语句来建立hive表。
将数据写入分区表的思路是:首先将DataFrame数据写入临时表,之后是由hiveContext.sql语句将数据写入hive分区表中。具体操作如下:
case
class Person(
name
:String,col1:
Int
,col2:String)
val sc = new org.apache.spark.SparkContext
val hiveContext = new org.apache.spark.sql.hive.HiveContext(sc)
import hiveContext.implicits._
hiveContext.sql(
"use DataBaseName"
)
val data = sc.textFile(
"path"
).map(x=>x.split(
"\\s+"
)).map(x=>Person(x(0),x(1).toInt,x(2)))
data.toDF().registerTempTable(
"table1"
)
hiveContext.sql(
"insert into table2 partition(date='2015-04-02') select name,col1,col2 from table1"
)
使用以上方式就可以将dataframe数据写入hive分区表了
- spark 将dataframe数据写入Hive分区表
- spark 1.3.0 将dataframe数据写入Hive分区表
- 利用Spark将DataFrame、Hive数据写入Oracle
- 利用Spark将DataFrame、Hive数据写入Oracle
- [Hive]MapReduce将数据写入Hive分区表
- spark<Dataframe 直接写入hive表>
- Spark RDD(DataFrame) 写入到HIVE的代码实现
- Spark RDD(DataFrame) 写入到HIVE的代码实现
- dataframe 写入hive中
- Flume-将数据写入动态分区表
- 将pandas的DataFrame数据写入MySQL数据库 + sqlalchemy
- 将hive数据查询直接写入文件
- 利用hive将数据写入es
- scala实战之spark源码修改(能够将DataFrame按字段增量写入mysql数据表)
- Spark SQL 1.3.0 DataFrame介绍、使用及提供了些完整的数据写入
- Spark SQL 1.3.0 DataFrame介绍、使用及提供了些完整的数据写入
- API。Spark SQL 1.3.0 DataFrame介绍、使用及提供了些完整的数据写入
- Spark SQL 1.3.0 DataFrame介绍、使用及提供了些完整的数据写入
- 如何做缓存
- C语言-倒计时操作操作
- Java多线程之死锁
- OpenStack CDNaaS - Poppy介绍
- Android子线程中更新UI的方法
- spark 将dataframe数据写入Hive分区表
- Untiy轻量级网络开发-Tnet客户端服务器编程
- Android 实现按钮自定义风格
- 解决WebView加载的网页被放大的问题
- Matlab连接MySQL数据库入门
- [生存志] 第92节 纵横游说之辞
- [JAVA] float,double计算方法
- Android 五子棋开发经验
- java静态代理与动态代理简单分析