spark sql结果写mysql以及隐式转化的简单使用
来源:互联网 发布:yum remove nodejs 编辑:程序博客网 时间:2024/05/16 14:52
spark sql写mysql
这里可以用隐式转化,结合foldLeft,将scala中的map转化为java中的Properties
implicit def map2Prop(map: Map[String, String]): Properties = map.foldLeft(new Properties) { case (prop, kv) ⇒ prop.put(kv._1, kv._2); prop }
这样就完成了Map到Properties的转化,免得我们将每个参数分别put,还是很好用的
表结构
df.printSchema
结果:
root |-- id_1: integer (nullable = true) |-- id_2: integer (nullable = true)
数据源:
id_1,id_237291,5311339086,4761470031,7023784795,9743936950,42116
最终代码
val conf = new SparkConf().setMaster("local[*]").setAppName("csv") val sc = new SparkContext(conf) sc.setLogLevel("ERROR") val sqlContext = new SQLContext(sc) implicit def map2Prop(map: Map[String, String]): Properties = map.foldLeft(new Properties) { case (prop, kv) ⇒ prop.put(kv._1, kv._2); prop } sqlContext.read.format("com.databricks.spark.csv") .option("header", "true") .option("inferSchema", "true") .load("newid.csv").write.mode("append").jdbc("jdbc:mysql://localhost:3306/test", "mytest", Map("user" → "root", "password" → "1234"))
其中write的mode有好几个级别,放在下一个源码分析中写
RDBMS
然后我们查看数据库:
select * from test.mytest;
结果:
再次查看表结构:
desc mytest;
结果:
my github
0 0
- spark sql结果写mysql以及隐式转化的简单使用
- Spark SQL 简单使用
- spark写mysql解决schema不一致问题的简单方法
- spark sql读取mysql数据源并且将结果写入mysql
- Spark SQL的使用
- spark-SQL的使用
- Linux mysql 以及sql 语句的使用
- sqoop连接hbase以及spark sql使用
- Java写Sql注入时间盲注Demo对Mysql的substring、 case when 、offset、使用以及payload
- MySql简单sql使用
- myeclipse链接mysql以及简单的sql语句操作,笔记
- 【SQL】MySQL的安装使用以及SQL语法简介
- [Spark]Shark, Spark SQL, Hive on Spark以及SQL On Spark的未来
- SQL将查询的结果转化为XML格式数据
- 一个基于python写的ms sql和postgresql互相转化表结构以及操作的用例
- hive和spark-sql计算stddev的结果差异
- 使用navicat for mysql 写一个简单的定时任务。
- 6、SQL Server 对结果集的排序以及谓词的使用(distinct、top)
- 单数组哈希表unordered_map和unordered_set(转)
- tmux设置和使用
- Gstreamer 工具使用 (一)
- 常见的设计模式
- 安卓通知的使用系列7:对话框通知的使用之日期对话框、时间对话框
- spark sql结果写mysql以及隐式转化的简单使用
- TC SRM 683 Div2(1000pts)
- IE和Firefox的兼容问题
- Gradle Build加速
- 命名空间 xml(一)
- Oracle数据库TNS常见错误解决方法:
- 二月的尾巴
- 字符串 2016.3.1
- JavaWeb的servlet的几个方法