Hadoop字符转码的实现
来源:互联网 发布:linux ip扫描工具 编辑:程序博客网 时间:2024/04/30 04:17
在hadoop中最常见的就是Text,而Text对象是继承了BinaryComparable且实现了WritableComparable接口。在Text内部封装了原始二进制数据byte数组和长度,并且提供了编码解码的工具类,Text的toString()方法是已经解码过的。
今天在工作中遇到一个问题,我的一个job输出格式为TextInputFormat,但是在另一个job读取的时候总是读取的数据不对,new String(text.getBytes()),使用的是这个方法,后来看hadoop源码发现getBytes()返回的是未经解码的二进制流。
Hadoop默认使用的是UTF-8编码方式。在Hadoop使用过程中,需要将其他的编码方式进行转码以防止乱码的出现。在Hadoop中出现乱码的情景是TextFileInputFormat,即处理Text的情景。在这种情况下,Value一般是Text。为了实现转码我们看一下Text的实现。在Text中包含了源数据的byte数组以及其中数据的长度,这是原始数据,不经过编码的。在Text类中包含了CharsetEncoder和CharsetDecoder两个变量,这两个变量都是UTF-8编码。当把byte数据写到文件时(writeString方法)需要对其进行Encode,将其编码成UTF-8格式。当Text读入数据时(readString方法),用Decoder将其从UTF-8模式转码成Unicode。
在Map执行过程中,Text的byte数组是原始数据的byte数组,可以直接将该数组进行转码,具体实现如下:
protected void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException { byte[] valueBytes = value.getBytes(); String result = new String(valueBytes, "GB2312"); context.write(key, new Text(result));}
- Hadoop字符转码的实现
- Hadoop字符转码的实现
- Hadoop的基本使用(3)——MapReduce的基本操作(实现字符统计)
- hadoop writable的实现
- Hadoop的RPC实现
- Hadoop的HA实现
- Hadoop的WordCount实现
- Hadoop的RPC实现
- hadoop的分组实现
- 字符转Unicode的一种实现方法
- 实现图片转字符
- FP-tree的hadoop实现
- Hadoop 实现WritableComparable的类
- Hadoop的Text类型实现
- hadoop的RPC实例实现
- linux 字符驱动的实现
- 简单实现字符的验证
- 一些字符函数的实现。
- HDU 2099 整数的尾数
- 串连字符串strcat
- 问题一百零一十:数列求和
- 搜索的分类及八数码问题
- 几个常见的关于日期的SQL
- Hadoop字符转码的实现
- Hadoop+HBase+ZooKeeper三者关系图
- USACO 1.1.2 Greedy Gift Givers
- wince上如何判断系统是否连上网络
- poj 2492 A Bug's Life
- android:descendantFocusability用法简析
- 导出wince6.0的SDK 并且添加MFC支持
- 利用VS2005创建WINCE 6.0 平台
- 统计字符