【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战016--DateSet实用API详解016
来源:互联网 发布:java dom4j解析xml 编辑:程序博客网 时间:2024/06/15 21:42
DateSet的API详解十六
writeAsCsv
def writeAsCsv(filePath: String, rowDelimiter: String = ..., fieldDelimiter: String = ..., writeMode: WriteMode = null): DataSink[T]参数说明:rowDelimiter:行分隔符fieldDelimiter:列分隔符Writes this DataSet to the specified location as CSV file(s).将DataSet以CSV格式写出到存储系统。路径写法参考writeAsText。
执行程序:
//1.创建 DataSet[Student]case class Student(age: Int, name: String,height:Double)val input: DataSet[Student] = benv.fromElements(Student(16,"zhangasn",194.5),Student(17,"zhangasn",184.5),Student(18,"zhangasn",174.5),Student(16,"lisi",194.5),Student(17,"lisi",184.5),Student(18,"lisi",174.5))//2.将DataSet写出到存储系统input. writeAsCsv("hdfs:///output/flink/dataset/testdata/students.csv","#","|")//3.执行程序benv.execute()
hadoop web ui中的执行效果:
terminal中查看文件效果:
getExecutionEnvironment
def getExecutionEnvironment: ExecutionEnvironmentReturns the execution environment associated with the current DataSet.获取DataSet的执行环境上下文,这个歌上下文和当前的DataSet有关,不是全局的。
执行程序:
//1.创建一个 DataSet其元素为String类型val input0: DataSet[String] = benv.fromElements("A", "B", "C")val input1: DataSet[String] = benv.fromElements("A", "B")//2.获取DataSet的执行环境上下文。benv val env0=input0.getExecutionEnvironmentval env1=input1.getExecutionEnvironmentenv0==env1
执行结果:
Scala-Flink> benvres96: org.apache.flink.api.scala.ExecutionEnvironment = org.apache.flink.api.scala.ExecutionEnvironment@2efd2f21Scala-Flink> val env0=input0.getExecutionEnvironmentenv0: org.apache.flink.api.scala.ExecutionEnvironment = org.apache.flink.api.scala.ExecutionEnvironment@4f87dfc6Scala-Flink> val env1=input1.getExecutionEnvironmentenv1: org.apache.flink.api.scala.ExecutionEnvironment = org.apache.flink.api.scala.ExecutionEnvironment@1a46d614Scala-Flink> env0==env1res97: Boolean = false
Aggregate
def aggregate(agg: Aggregations, field: String): AggregateDataSet[T]def aggregate(agg: Aggregations, field: Int): AggregateDataSet[T]Creates a new DataSet by aggregating the specified tuple field using the given aggregation function.
CoGroup
defcoGroup[O](other: DataSet[O])(implicit arg0: ClassTag[O]): UnfinishedCoGroupOperation[T, O]For each key in this DataSet and the other DataSet, create a tuple containing a list of elements for that key from both DataSets.
combineGroup
def combineGroup[R](fun: (Iterator[T], Collector[R]) ⇒ Unit)(implicit arg0: TypeInformation[R], arg1: ClassTag[R]): DataSet[R]def combineGroup[R](combiner: GroupCombineFunction[T, R])(implicit arg0: TypeInformation[R], arg1: ClassTag[R]): DataSet[R]Applies a GroupCombineFunction on a grouped DataSet.
阅读全文
0 0
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战016--DateSet实用API详解016
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战001--DateSet实用API详解001
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战002--DateSet实用API详解002
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战003--DateSet实用API详解003
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战004--DateSet实用API详解004
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战005--DateSet实用API详解005
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战006--DateSet实用API详解006
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战007--DateSet实用API详解007
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战008--DateSet实用API详解008
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战009--DateSet实用API详解009
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战010--DateSet实用API详解010
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战011--DateSet实用API详解011
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战012--DateSet实用API详解012
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战013--DateSet实用API详解013
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战014--DateSet实用API详解014
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战015--DateSet实用API详解015
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战017--DateSet实用API详解017
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战018--DateSet实用API详解018
- Polling + Inotify 组合下的日志保序采集方案
- Maven生成可以直接运行的jar包的多种方式
- springcloud eureka服务注册与发现
- 【JAVA】java中实现map集合的数据存取详解三种方法。Android程序员也是要会写的
- 用自己的话总结arrayList与LinkedList
- 【云星数据---Apache Flink实战系列(精品版)】:Apache Flink批处理API详解与编程实战016--DateSet实用API详解016
- Android 自定View基础
- mysql查询语句中执行转义符
- Qt扫描进程列表以及获取进程信息
- java 导出excel copy 模版
- github删除本地和远端分支
- springmvc 出现No mapping found for HTTP request with URI
- 下载apk的services封装
- 萌新报道!