SparkSQL已编程模式指定Schema
来源:互联网 发布:usb数据延长线 编辑:程序博客网 时间:2024/06/03 11:10
def test5(): Unit ={ val ss: SparkSession = SparkSession.builder().appName("Spark SQL basic example") .config("spark.some.config.option", "some-value").getOrCreate() import ss.implicits._ import org.apache.spark.sql.types._ val personRDD: RDD[String] = ss.sparkContext.textFile("c:/users/os/desktop/people.txt") //指定编码模式 val schemaString = "name age" val fields: Array[StructField] = schemaString.split(" ").map(fileName =>StructField(fileName,StringType,nullable = true)) val schema: StructType = StructType(fields) //将RDD(person)的记录转换为行 val rowRDD: RDD[Row] = personRDD.map(_.split(",")).map(attribute=>Row(attribute(0),attribute(1).trim)) //将模式应用于RDD val peopleDF: DataFrame = ss.createDataFrame(rowRDD,schema) //用DataFrame创建一个临时表 peopleDF.createOrReplaceTempView("person") val result = ss.sql("select * from person") result.map(attribute=>"Name: "+ attribute(0)).show() }
case class Person(name:String,age:Long)
阅读全文
0 0
- SparkSQL已编程模式指定Schema
- sparkSQL实战之二:编程指定模式
- SparkSQL schema创建DataFrame
- SparkSQL编程指导
- sparkSQL
- SparkSQL
- SparkSQL
- SparkSQL
- 设置默认模式schema
- Schema(模式)
- POSTGRESQL 数据库 模式 SCHEMA
- 数据模式(Schema)定义
- JSON 模式(Schema)
- JSON- 框架模式(Schema)
- postgres 模式schema
- Javaweb-xml编程-Schema
- Spark-sql:以编程方式执行Spark SQL查询(通过反射的方式推断出Schema,通过StrutType直接指定Schema)
- sparkSQL实战一:利用反射推断模式
- java通过jxl来读取excel的乱码问题
- 面试时,如何回答你还有什么想要了解的?
- nodejs基础教程--http 与express比较
- 二路归并排序Python实现
- 直流电机PID控制例程程序注释
- SparkSQL已编程模式指定Schema
- Android HTML与原生交互
- 【区块链】DOCKER部署量子链私有网络环境以及部署智能合约实践
- Spring Cloud生态系统
- 字符函数库include<ctype.h>和字符串函数库include<string>
- gogland使用File Watchers 配置gofmt
- 数据分析
- 机器学习-kNN 算法(1)
- 自定义view-drawText