Spark注册UDF函数,用于DataFrame DSL or SQL
来源:互联网 发布:linux创建新用户并授权 编辑:程序博客网 时间:2024/06/06 02:54
网址:https://www.cnblogs.com/wwxbi/p/6798384.html
import
org.apache.spark.sql.SparkSession
import
org.apache.spark.sql.functions.
_
object
Test
2
{
def
main(args
:
Array[String])
:
Unit
=
{
val
spark
=
SparkSession
.builder()
.appName(
"Spark SQL basic example"
)
.config(
"spark.some.config.option"
,
"some-value"
)
.getOrCreate()
// For implicit conversions like converting RDDs to DataFrames
import
spark.implicits.
_
val
df
=
Seq((
"id1"
,
1
,
100
), (
"id2"
,
4
,
300
), (
"id3"
,
5
,
800
)).toDF(
"id"
,
"value"
,
"cnt"
)
df.printSchema()
// 注册自定义UDF函数
spark.udf.register(
"simpleUDF"
, (v
:
Int, w
:
Int)
=
> v * v + w * w)
df.select($
"id"
, callUDF(
"simpleUDF"
, $
"value"
, $
"cnt"
)).toDF(
"id"
,
"value"
).show
}
}
阅读全文
0 0
- Spark注册UDF函数,用于DataFrame DSL or SQL
- 13.Spark SQL:UDF自定义函数实战
- Spark SQL UDF使用
- Spark SQL UDF使用
- Spark 之 UDF 函数
- spark之udf函数
- Spark SQL中的DataFrame
- spark sql DataFrame操作
- Spark SQL与DataFrame
- spark sql dataframe操作
- Spark SQL 之 DataFrame
- Spark SQL与DataFrame
- Spark-SQL DataFrame操作
- Spark SQL概述,DataFrames,创建DataFrames的案例,DataFrame常用操作(DSL风格语法),sql风格语法
- spark dataframe函数编程
- [2.5]详解spark sql用户自定义函数:UDF与UDAF
- 详解spark sql用户自定义函数:UDF与UDAF
- Spark SQL用户自定义函数UDF及Apache日志实例
- 商城项目分解-登录
- Hadoop集群搭建(HDFS和Yarn集群)
- Java for循环的几种用法
- Greenplum通过gp_dist_random('gp_id') 在所有节点调用某个函数
- On Reading this Text
- Spark注册UDF函数,用于DataFrame DSL or SQL
- mint-ui loadmore 上拉加载的坑
- Java8基础_Hashmap
- Angular之基础知识
- FFMpeg无损合并视频的多种方法
- 国密算法概述
- Windows下Nginx+Tomcat整合的安装与配置
- Eclipse如何自动补全的设置
- android Inspector View Hierarchy