Spark中的DataFrame的getAs方法如果取到的值是null的处理
来源:互联网 发布:tensorflow最新版本 编辑:程序博客网 时间:2024/06/05 21:10
Spark中的DataFrame的getAs方法如果取到的值是null的处理结果
我遇到的两种情况吧
val DF = hc.sql("...............")
val rdd = DF.rdd.map{
row =>
val label = row.getAs[Int]("age")
}
1,如果getAs[Integer]("age")那么null值被拿出来依然为null
2,如果getAs[Int]("age")则 label = 0(本以为要报错的才对)
源码spark1.6
/** * Returns the value of a given fieldName. * For primitive types if value is null it returns 'zero value' specific for primitive * ie. 0 for Int - use isNullAt to ensure that value is not null * * @throws UnsupportedOperationException when schema is not defined. * @throws IllegalArgumentException when fieldName do not exist. * @throws ClassCastException when data type does not match. */ def getAs[T](fieldName: String): T = getAs[T](fieldIndex(fieldName))
建议:如果null不是你想的数据建议在SQL阶段就将其过滤掉补充一点Java的成员变量和局部变量的知识
成员变量与局部变量的联系与区别:
a)无论是成员变量还是局部变量,使用前都需要声明( 定义)。
b) 对于局部变量来说,使用前必须要初始化;对于成员变量来说,使用前可以不初始化。如果没有初始化成员变量就开始使用,那么每个类型的成员变量都有一个默认的初始值
i. byte、short、int、long 类型的初始值为 0
ii. float、 double 类型的初始值为 0.0
iii. char 类型的初始值'\u0000'
iv. boolean 类型的初始值为 false
阅读全文
0 1
- Spark中的DataFrame的getAs方法如果取到的值是null的处理
- spark dataframe新增列的处理
- spark中的dataframe与sparksql的实例
- 如果数据库中的某条数据是经纬度的时候处理方法
- Spark RDD(DataFrame) 写入到HIVE的代码实现
- Spark RDD(DataFrame) 写入到HIVE的代码实现
- 对spark dataframe join之后的列值NULL值进行填充为指定数值的操作
- SQL中的NULL的处理
- Spark的DataFrame的窗口函数使用
- ibaitis 关于处理null值的方法
- oralce处理null值的方法
- 使用ado遇到数据库中的NULL时的处理方法。
- 基于DataFrame的StopWordsRemover处理
- 我对DataFrame的理解(Spark)
- 基于Spark DataFrame的数据仓库框架
- day56-Spark SQL和DataFrame的本质
- 解密Spark SQL与DataFrame的本质
- Spark SQL和DataFrame的学习总结
- Android 学习笔记(二):引导界面
- hdu-5980-Find Small A
- Java的三种代理模式
- DeepLearing学习笔记-改善深层神经网络(第一周作业-2-正则化)
- 黄金分割法推导及单变量函数近似最优解
- Spark中的DataFrame的getAs方法如果取到的值是null的处理
- Linux 的处理器负载均值
- 输入一行字符,分别统计出其中英文字母、空格、数字和其它字符的个数
- Python比较两个文件(txt,csv等)相同内容合并同一文件/文本时间大小比较大小
- CaptureWizPro(屏幕抓取软件)官方注册版V6.10下载 | CaptureWizPro 注册版
- Ubuntu14.04 ROS indigo 入门参考资料介绍
- 模糊PID控制算法的C++实现
- 堆排序(Heap-Sort)
- sdnu1053水题4