SparkSQL的发展历史

来源:互联网 发布:java招聘系统源码 编辑:程序博客网 时间:2024/06/16 10:21

Hadoop刚开始出来的时候,使用的是hadoop自带的分布式计算系统MapReduce,但是MapReduce的使用难度较大,所以就开发了HiveHive编程用的是类SQLHQL的语句,这样编程的难度就大大的降低了,Hive的运行原理就是将HQL语句经过语法解析、逻辑计划、物理计划转化成MapReduce程序执行。当Spark出来以后,Spark团队也开发了一个Shark,就是在Spark集群上安装一个Hive的集群,执行引擎是Hive转化成Mapreduce的执行引擎,这样的框架就是Hive  on  Spark,但是这样是有局限性的,因为Shark的版本升级是依赖Hive的版本的,所有201471spark团队就将Shark转给Hive进行管理,Spark团队开发了一个SparkSQL,这个计算框架就是将Hive on Spark的将SQL语句转化为Spark RDD的执行引擎换成自己团队从新开发的执行引擎。Spark SQL经历了几次的更新,演变历程如下:

-1  1.0版本以前

Hive on Spark   Shark

-2  1.0.x版本

Spark SQL

      Alpha版本(测试版本,不建议商业项目使用)

这个版本让Spark升为了Apache的顶级项目

-3  1.3.x版本

SparkSQL  DataFrame

Release(成熟,可以使用)

-4  spark 1.5.x版本

     钨丝计划(底层代码的优化)

-5  spark 1.6.x版本

     DataSetalpha版本)

-6  Spark 2.x.x版本

      DataSet(正式的)

      Structrued Streaming

 

从发展历史来看会发现Spark的重要版本的变更都跟SparkSQL有关

原创粉丝点击