SparkSql读取数据和插入数据
来源:互联网 发布:网络语666是什么意思 编辑:程序博客网 时间:2024/06/03 16:25
一、sparksql读写mysql数据
1.读取
val url = "jdbc:mysql://主机名:端口号"val tableName = "db_name"val properties = new java.util.Properties()properties.put("user", "username")properties.put("password", "password")val tbDeptDF = sqlContext. read. // 获取数据读取对象 jdbc(url, tableName, properties)
2.写入
val url = "jdbc:mysql://主机名:端口号"val tableName = "db_name"val properties = new java.util.Properties()properties.put("user", "username")properties.put("password", "password")df.write.jdbc(url, tableName, properties)// df.write.mode("append").jdbc(url, tableName, properties)//追加写入//df.write.mode("overwrite").jdbc(url, tableName, properties)//重新写入// df.write.mode("ignore").jdbc(url, tableName, properties)//忽略写入
二、sparksql读写parquet格式的数据
1.读取
val df1 = sqlContext. read. // 获取数据读取对象 format("parquet"). // 指定格式 load("/存储路径")val df1 = sqlContext. read. // 获取数据读取对象 format("parquet"). // 指定格式 load("/存储路径")//可以是文件夹,也可以是指定文件
2.写入
df. write. // DF数据写出对象 format("parquet"). // 指定文件格式 mode("overwrite"). // 给定模式是覆盖 save("/路径") // 给定保存路径,存在在hdfsdf.repartition(3). // 重置分区数量为3个 write. // DF数据写出对象 format("parquet"). // 指定文件格式 mode("overwrite"). // 给定模式是覆盖 save("/路径") // 给定保存路径,存在在hdfs
阅读全文
0 0
- SparkSql读取数据和插入数据
- SparkSQL之读取数据
- SparkSQL读取Hive中的数据
- 使用sparksql读取mysql中的数据
- python3 pandas 读取MySQL数据和插入
- 基于java的sparkSQL从mysql中读取数据
- sparksql 从oracle读取数据然后整合到elasticsearch
- SparkSQL之保存数据
- 插入和读取blob和clob类型数据
- 读取excel数据插入表
- ORACLE数据库中CLOB数据的插入和快速读取
- 向sqlite数据库插入和读取图片数据 (for ios)
- 在Sqlite数据库插入和读取图片数据
- 在Sqlite数据库插入和读取图片数据
- iOS sqlite数据库插入和读取图片数据
- sqlite数据库插入和读取图片数据 (for ios)
- MySQL 中Blob类型数据的插入和读取
- SparkSQL读HBase的数据
- SQL更新多行数据为不同的值如何实现?
- hello world
- ORACLE 查看RMAN的备份信息总结
- 解决Installation failed with message INSTALL_FAILED_NO_MATCHING_ABIS
- Golang json解析
- SparkSql读取数据和插入数据
- 人工智能与前端技术不能说的秘密
- mysql_replace into
- jxl和poi操作Excel
- 深入Protobuf源码-概述、使用以及代码生成实现
- Centos7安装Mysql
- c#整型转字符型,不足位数的在前面补0
- Java NIO学习笔记三(堆外内存之 DirectByteBuffer 详解)
- Tensorflow常用基本概念与函数(三)