MapReduce 编程 系列二 编写简单mapper
来源:互联网 发布:手机蓝牙软件下载 编辑:程序博客网 时间:2024/06/11 03:49
MapReduce的基本流程是, 框架会使用FileInputFormat读取文件,默认会根据文件大小的进行记录拆分,这里拆分器叫做InputSplitter。通过InputSplitter将文件拆成若干块,后面也就有若干个mapper与之对应。
InputSplitter里面使用RecordReader对文件块的记录进行读取,生成key/value的pair,调用mapper的map函数去处理。
当然这些流程中有些可以定制,比如InputSplitter的算法可以修改,RecordReader也是可以定制。
而且还有一个非常有效的方法,可以避免mapper将过多的数据传递给reducer。
比如前面的例子都是1, 其实可以先用一个HashMap对key做分组,有则value加1, 无则添加到HashMap中。
最后将分组统计后的key/value数据通过context.write方法发送给reducer,能够大大提高效率。
现在想从日志中提取数据,日志文件如下:
2014-05-10 13:36:40,140307000287,536dbacc4700aab274729cca,login2014-05-10 13:37:46,140310000378,536dbae74700aab274729ccb,login2014-05-10 13:39:20,140310000382,536dbb284700aab274729ccd,login2014-05-10 13:39:31,140331001080,536dbb864700aab274729ccf,login2014-05-10 13:39:45,140331001105,536dbba04700aab274729cd4,login2014-05-10 13:39:45,140328000969,536dbba04700aab274729ce4,login2014-05-10 13:39:45,140408001251,536dbba04700aab274729cd8,login2014-05-10 13:39:45,140328000991,536dbba04700aab274729ce9,login2014-05-10 13:39:45,140324000633,536dbba14700aab274729cf5,login2014-05-10 13:39:45,140331001077,536dbba04700aab274729cdd,login2014-05-10 13:39:45,140408001242,536dbba04700aab274729cd7,login2014-05-10 13:39:45,140327000941,536dbba14700aab274729cf1,login2014-05-10 13:39:45,140408001265,536dbba04700aab274729ce5,login2014-05-10 13:39:45,140324000673,536dbba04700aab274729cd3,login2014-05-10 13:39:45,140331001066,536dbba04700aab274729cd5,login2014-05-10 13:39:45,140408001292,536dbba14700aab274729cee,login2014-05-10 13:39:45,140328000966,536dbba14700aab274729cec,login2014-05-10 13:39:45,140312000501,536dbba04700aab274729ce1,login2014-05-10 13:39:45,140306000216,536dbba14700aab274729d02,login2014-05-10 13:39:45,140327000856,536dbba04700aab274729ce2,login2014-05-10 13:39:46,140328000985,536dbba14700aab274729cf7,login2014-05-10 13:39:46,140306000245,536dbba14700aab274729d0d,login2014-05-10 13:39:46,140326000797,536dbba14700aab274729cf6,login2014-05-10 13:39:46,140328000993,536dbba14700aab274729d12,login2014-05-10 13:39:46,140331001115,536dbba14700aab274729d10,login2014-05-10 13:39:46,140325000744,536dbba04700aab274729ce0,login2014-05-10 13:39:46,140328000982,536dbba14700aab274729d0a,login2014-05-10 13:39:46,140331001063,536dbba04700aab274729ce3,login2014-05-10 13:39:46,140331001067,536dbba14700aab274729d1c,login2014-05-10 13:39:46,140401001157,536dbba04700aab274729ce8,login2014-05-10 13:39:46,140408001216,536dbba14700aab274729cef,login2014-05-10 13:39:46,140401001174,536dbba14700aab274729d27,login2014-05-10 13:39:46,140306000215,536dbba04700aab274729cde,login2014-05-10 13:39:46,140331001064,536dbba04700aab274729cdc,login2014-05-10 13:39:46,140326000825,536dbba04700aab274729cd9,login2014-05-10 13:39:46,140408001294,536dbba14700aab274729d0f,login
我希望将login前面的设备ID取出来,进行数量的统计,最后得到结果:
各个设备的累计登录次数
536dbba04700aab274729cdc 5536dbba04700aab274729ce3 4
好,创建一个LogMapper类,该类负责做数据的Map,前两各模板参数用于KeyIn和ValueIn, 后两个模板参数用于KeyOut和ValueOut,都是代表类型。
假定一个<KeyIn, ValueIn>组成一个pair,输入的很多pair在一个组里面, 这些pair被一定的算法Map之后,会变成很多组pair。
官方文档:http://hadoop.apache.org/docs/r2.4.1/api/org/apache/hadoop/mapreduce/Mapper.html
Maps input key/value pairs to a set of intermediate key/value pairs.注意,这里的Mapper类用的包是mapreduce,以前有一个老的叫mapred。
这里介绍了两者的区别:
http://stackoverflow.com/questions/7598422/is-it-better-to-use-the-mapred-or-the-mapreduce-package-to-create-a-hadoop-job
LongWritable和IntWritable是两个类,用于帮助创建可以Long和Int类型的变量。它们能够帮助将Long和Int的值序列化成字节流,因此都有两个关键方法读入和写出:
void
readFields(DataInput in)
Deserialize the fields of this object from
in
. void
write(DataOutput out)
Serialize the fields of this object to
out
.这个和Hadoop内部RPC调用时采用的序列化算法有关。
我的Mapper代码:
package org.freebird.mapper;import java.io.IOException;import org.apache.hadoop.io.IntWritable;import org.apache.hadoop.io.LongWritable;import org.apache.hadoop.io.Text;import org.apache.hadoop.mapreduce.Mapper;public class LogMapper extends Mapper<Object, Text, Text, IntWritable> { private final static IntWritable ONE = new IntWritable(1); public void map(Object key, Text value, org.apache.hadoop.mapreduce.Mapper.Context context) throws IOException, InterruptedException {String[] line = value.toString().split(",");if (line.length == 4) { String dId = line[2]; context.write(new Text(dId), ONE);} } }
这个Mapper的子类覆盖了map函数,将字符串用,号拆开后,取出第三个元素作为设备ID, 然后作为key写入context对象。
这里value设置为1, 因为后面reduce阶段会简单的求和。
Context类文档参考: http://hadoop.apache.org/docs/r1.1.1/api/org/apache/hadoop/mapreduce/Mapper.Context.html
write方法不是一般概念的hasmap添加key,value,而是生成一个新的pair对象,里面包含了key和value。 如果多个key相同,也会产生多个pair对象,交给reduce阶段处理。
- MapReduce 编程 系列二 编写简单mapper
- MapReduce 编程 系列三 编写简单reducer
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- [Hadoop源码解读](二)MapReduce篇之Mapper类
- 笨鸟先飞学编程系列之二 基础代码的编写
- MapReduce编程实例(二)
- Mapreduce编程二 表关联
- 利用mincemeat编写简单的MapReduce程序
- 在eclipse下编写简单mapreduce程序
- Hadoop开发周期(二):编写mapper和reducer程序
- Makefile 简单编写(二)
- Makefile 简单编写(二)
- 小米笔试第一题:回文数
- 函数调用约定
- 进制转换
- 关于注解版Spring 延迟加载报错问题 “could not initialize proxy - no Session“
- C++ Sockets Library
- MapReduce 编程 系列二 编写简单mapper
- virtual 共享目录
- Java 统计字符个数和分离字符串
- C++ STL
- JavaWeb使用request对象获取请求参数值
- HDU_ACM-2044 一只小蜜蜂
- 设计模式解析
- LINUX系统启动流程 (十个步骤)
- 思想 - 回溯 更新 ing...