Spark-zeppelin大数据可视化导入Mysql
来源:互联网 发布:mac os x10.10镜像 编辑:程序博客网 时间:2024/06/08 11:59
Zeppelin是基于spark的数据可视化方案。支持scala语言,任何在spark上运行的job都可以在此平台上运行,此外支持对表数据的可视化。对数据源的可视化可以通过interpreter进行扩展,比如github中就有支持MySQL的interpreter。
下面着重介绍zeppelin notebook中代码书写:
scala:使用此interpreter的好处是,可以将各个数据源的数据在同一张视图中进行展示。比如以下是对mysql,hive数据的混合展示:
Load mysql表,并注册为spark sqlContext同样的表名:
import java.util.Properties
val properties = new Properties()
val url = "..."
properties.put("user", "...")
properties.put("password", "...")
properties.put("driver", "com.mysql.jdbc.Driver")
val tables = "...,..."
tables.split(",").foreach{mysql_table =>
sqlContext.read.jdbc(url, mysql_table, properties).registerTempTable(mysql_table)
}
Hive数据可以直接进行load:
sql(s"""
SELECT
...
FROM table where ...""").registerTempTable("hive_table")
对mysql,hive表进行混合查询,支持下拉框:
sql(""select ... from """
+
z.select("数据源", Seq(("""mysql_table1""","mysql table1数据"),
("""mysql_table2""","mysql table2数据"),
("""hive_table""","hive数据")))
+ """ where ...""").registerTempTable("result")
效果:
scala中可以使用以下方式对dataframe数据进行展示:
val result = sql("select * from result").rdd.map { r => r.mkString("\t") }.collect().mkString("\n")
println("%table dt\tvalue\n" + result)
- Spark-zeppelin大数据可视化导入Mysql
- Spark-zeppelin-大数据可视化分析
- Spark-数据分析可视化Zeppelin
- 如何使用zeppelin实现大数据可视化
- zeppelin mysql可视化之旅
- zeppelin mysql可视化之旅
- 数据可视化工具zeppelin安装
- MYSQL大数据导入
- mysql 导入大数据
- Spark & Zeppelin
- Zeppelin&Spark Zeppelin开发spark
- 利用R语言实现spark大数据分析与可视化
- mysql大数据导入方法
- mysql 导入大容量数据
- MySQL大数据导出导入
- MySQL 使用可视化工具导出与导入数据
- 使用Spark和Zeppelin探索movie-lens数据
- Zeppelin对Spark进行交互式数据查询和分析
- 添加每天重复的闹钟,更改日期为2天后再改回来,前面两天的闹钟不会响
- 【Hadoop】HDFS的运行原理
- [Python note] Namespaces & scope
- 第13周-项目3-形状类族的中的纯虚函数
- hibernate中inverse的用法
- Spark-zeppelin大数据可视化导入Mysql
- Background Modes in iOS Tutorial
- 每天进步一点点--java多线程
- hdu_1348_Wall(凸包)
- Android CountDownTimer倒计时器的使用
- idea解决编译时出现的未结束的字符文字等错误
- Reverse linked list(逆转从n到m处的单链表)--leetcode
- android 4.0 BLE开发官方文档介绍
- Android UI