Hadoop入门(七)之java对应的Hadoop数据类型及自定义类型序列化

来源:互联网 发布:东莞网络写手招聘 编辑:程序博客网 时间:2024/06/05 20:11
 首先,我们都知道,Hadoop的读写都是通过流来实现的。在java中想把一个对象通过流进行读写,我们时要把它序列化和反序列化(Serialization、Deserialization)的。那么,Hadoop的对象读写操作也需要序列化-----格式:Writable 。序列化在分布式环境的两大作用:进程间通信,永久存储。

下面,我们说一下Hadoop的数据类型:
Hadoop数据类型,基本上都是Writable接口的实现类。
上一篇,我们提到的数据类型Text对应java中的String(默认utf-8序列)


java基本类型                    Writable实现                            序列化大小(字节)         

boolean                            BooleanWritable                               1

byte                                    ByteWritable                                      1

int                                       IntWritable (或VintWritable)          4(1~5)

float                                   FloatWritable                                      4

long                                   LongWritable(或VlongWritable)      8(1~9)

double                              DoubleWritable                                  8

再说一下Writable接口;
§Writable接口, 是根据 DataInput 和 DataOutput 实现的简单、有效的序列化对象.
§Mapper、Reducer的任意Key和Value必须实现Writable接口。
MR的任意key必须实现WritableComparable接口(而Java值对象的比较:一般需要重写toString(),hashCode(),equals()方法)

Writable接口有2个方法:
public interface Writable{
          void   write(DataOutpute out) throws IOException;  //把每个对象序列化到输出流
          void   readFields(DataInpute in) throws IOException;  //把输入流字节反序列化
}

下面看一下writable接口的完整结构:



下面这个就是自定义数据类型,要实现Writable接口:



下一篇,通过一个自定义类型的实例Demo,去理解自定义类型。


原创粉丝点击