本地模式使用JAVA SACLA 开发 Spark SQL DataFrame
来源:互联网 发布:苹果便签软件关闭 编辑:程序博客网 时间:2024/05/17 18:15
原文件:
{"name":"Michael"}
{"name":"Andy", "age":30}
{"name":"Justin", "age":19}
java
package com.dt.sparkApps.sql;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.sql.DataFrame;
import org.apache.spark.sql.SQLContext;
public class DataFrameOps {
public static void main(String[] args) {
// TODO Auto-generated method stub
SparkConf conf=new SparkConf().setAppName("DataFrameOps").setMaster("local");
JavaSparkContext sc=new JavaSparkContext(conf);
SQLContext sqlContext=new SQLContext(sc);
//DataFrame df=sqlContext.read().json("hdfs://master:9000/library/people.json");
DataFrame df=sqlContext.read().json("G://IMFBigDataSpark2016//tesdata//people.json");
df.show();
df.printSchema();
df.select("name").show();
//select name,age+10 fom table;
df.select(df.col("name"),df.col("age").plus(10)).show();
//select * from table whee age>10
df.filter(df.col("age").gt(10)).show();
//select count(1) from table groupby age;
df.groupBy(df.col("age")).count().show();
}
}
结果
scala
package com.dt.spark.sql
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext
object DataFrameOps {
def main(args: Array[String]){
val conf = new SparkConf() //创建SparkConf对象
conf.setAppName("Wow,My First Spark DataFrame App!") //设置应用程序的名称,在程序运行的监控界面可以看到名称
conf.setMaster("local") //此时,程序在本地运行,不需要安装Spark集群
val sc = new SparkContext(conf)
val sqlContext =new SQLContext(sc)
// val df =sqlContext.read.json("hdfs://master:9000/library/people.json");
val df =sqlContext.read.json("G://IMFBigDataSpark2016//tesdata//people.json");
df.show()
df.printSchema()
df.select("name").show()
df.select(df("name"), df("age")+10).show()
df.filter(df("age")>10).show()
}
}
- 本地模式使用JAVA SACLA 开发 Spark SQL DataFrame
- 使用JAVA SACLA 开发 Spark SQL DataFrame IMF内部课程
- Spark SQL 1.3.0 DataFrame介绍、使用
- 1.Spark SQL:DataFrame的使用
- Spark SQL中的DataFrame
- spark sql DataFrame操作
- Spark SQL与DataFrame
- spark sql dataframe操作
- Spark SQL 之 DataFrame
- Spark SQL与DataFrame
- Spark-SQL DataFrame操作
- 使用Spark SQL和DataFrame的一些总结和心得
- Spark单机模式下使用mysql和DataFrame API
- Spark SQL and DataFrame Guide
- Spark SQL和DataFrame指南
- Spark SQL and DataFrame Guide
- Spark SQL、DataFrame和Dataset
- spark sql和DataFrame本质
- 项目4-换分币
- dbms_lock.sleep,日期格式
- gcc常用参数
- ZooKeeper系列之一:ZooKeeper简介
- Eclipse中常用快捷键
- 本地模式使用JAVA SACLA 开发 Spark SQL DataFrame
- Android--使用活动响应网页
- sizeof和sizeof(string)的问题
- c#后台将数据转换为json字符串,前台ajax解析json字符串
- PythonChallenge Mission 9
- nodeJs--模块module.exports与实例化方法
- python - __dict__的妙用
- leetcode 83. Remove Duplicates from Sorted List
- ZooKeeper数据模型、命名空间以及节点的概念