SparkSQL中DataFrame Operations操作(select、filter、groupBy、count)
来源:互联网 发布:淘宝信用贷款逾期 编辑:程序博客网 时间:2024/06/07 01:41
注意:此处用的spark version 1.6.0,版本不同,SparkSQL写代码时不太一样,比如要查询所有用户,并且使每一位用户年龄增加1.
spark 2.1.0写法为:
df.select($"name", $"age" + 1).show()spark 1.6.0写法为:
df.select(df("name"),df("age")+1).show()
1.创建DataFrame
val df = new SQLContext(sc).read.json("E:\\spark-2.1.0\\spark-2.1.0\\examples\\src\\main\\resources\\people.json")
2.查看DataFrame内容
df.show()
结果如图所示:
3.查看Schema
df.printSchema()
4.Select操作
4.1 只查看姓名
df.select("name").show()
4.2 查看所有姓名、年龄
df.select("name","age").show()
4.3 查看所有姓名,同时使每个人年龄增加1
df.select(df("name"),df("age")+1).show()
注意:不能写成这样:
df.select("name","age"+1).show()否则会报如下错误:
Exception in thread "main" org.apache.spark.sql.AnalysisException: cannot resolve 'age1' given input columns age, name;
5.Filter操作
查询年龄大于21的用户
df.filter(df("age")>21).show()
6.GroupBy操作
按年龄分组查看用户
df.groupBy("age").count().show()
7.完整代码
/** * Created by RiverCode on 2017/3/6. */object SparkSQLExample { def main(args: Array[String]) { val sparkConf = new SparkConf().setMaster("local").setAppName("spark SQL basic example") val sc = new SparkContext(sparkConf) val sqlContext = new SQLContext(sc) val df = new SQLContext(sc).read.json("E:\\spark-2.1.0\\spark-2.1.0\\examples\\src\\main\\resources\\people.json") df.show() df.printSchema() df.select("name").show() df.select("name","age").show() // 可以// df.select("name","age"+1).show() // 不可以cannot resolve 'age1' given input columns age, name;// df.select($"name",$"age"+1) // spark 2.1.0 这样写 df.select(df("name"),df("age")+1).show() // spark 1.6.3 df.filter(df("age")>21).show() df.groupBy("age").count().show() }}
8.相关文章链接
Spark中DataFrame的schema讲解:spark中DataFrame的schema讲解
http://blog.csdn.net/rivercode/article/details/60604327
spark创建DataFrame:spark创建DataFrame
http://blog.csdn.net/rivercode/article/details/60596079
0 0
- SparkSQL中DataFrame Operations操作(select、filter、groupBy、count)
- SparkSql之DataFrame操作
- SparkSQL---Dataframe(Dynamic)
- SparkSQL---Dataframe(Reflection)
- SparkSQL操作RDD转DataFrame
- SparkSQL中DataFrame常用API
- SparkSQL中DataFrame常用API
- scala实战之SparkSQL应用实例(单表count和groupby多来源表join等)
- sparkSQL:dataframe
- sparksql dataframe
- SparkSQL---DataFrame
- SparkSQL中DataFrame registerTempTable源码浅析
- pandas数据预处理之dataframe的groupby操作
- python dataframe groupby
- select count(*) ,count() , select *
- DataFrame执行groupby聚合操作后,如何继续保持DataFrame对象而不变成Series对象
- SparkSQL------SQL,DataFrame,DataSet
- SparkSQL-DataFrame学习笔记
- LZW压缩算法
- 设计模式学习--策略模式
- 【LeetCode】53. Maximum Subarray
- 关于PHP NGINX PHP 如何配合工作
- 共享单车丢失里的产品设计。 你会怎样解决?
- SparkSQL中DataFrame Operations操作(select、filter、groupBy、count)
- 腾云阁「腾讯云的1001种玩法」征文活动
- appium+Python :操作键盘搜索响应事件
- HihoCoder 状态压缩二
- 2017.3.7 搞笑世界杯 失败总结
- 瞬间生成bean实体类简单技巧
- Mongodb源码分析--Replication之主从模式--Slave
- JSP——EL表达式详细讲解
- Open vSwitch小结