reducer里aggregate函数的使用

来源:互联网 发布:一刀流 游戏源码 编辑:程序博客网 时间:2024/06/06 03:33

1.streaming的作用

Haoop支持用其他语言来编程,需要用到名为Streaming的通用API。

Streaming主要用于编写简单,短小的MapReduce程序,可以通过脚本语言编程,开发更快捷,并充分利用非Java库。

HadoopStreaming使用Unix中的流与程序交互,从stdin输入数据,从stdout输出数据。实际上可以用任何命令作为mapper和reducer。数据流示意如下:

cat [intput_file] | [mapper] | sort | [reducer] > [output_file]

2.使用方法

使用如下命令:

hadoop jar contrib/streaming/hadoop-streaming-0.20.203.0.jar \

        >-input cite75_99.txt  \       > -output output  \       >-mapper 'cut -f 2 -d ,'  \       >-reducer 'uniq'

第一行表示使用的StreamingAPI,位于图中位置得jar包中

-input和 -output参数用于设置输入输出文件或目录

-mapper和-reducer通过引号中得参数进行设定,分别进行了截取第二列数据,

uniq进行了排序去重。

注意:每行是完全按照字母方式排序,因为Streaming完全采用文本方式处理数据,而不知道其他得数据类型。输出结果如下:

kqiao@ubuntu:~/hadoop-0.20.203.0$ hadoop fs -cat outputStreaming/part-00000 | head -10
“CITED”
1
10000
100000
1000006
1000007
1000011
1000017
1000026
1000033

……

3.用Streaming处理键值对

默认情况下,Streaming使用\t分离记录中得键和值,当没有\t时,整个记录被视为键,值为空白文本。

不同于AttributeMax.py为每个键寻找最大值,这次我们试着为每个国家找到专利声明数的平均值。(Hadoop包含得名为Aggregate包,可以为每个键寻找最大值)

(1)Streaming中得mapper通过STDIN读取一个 分片,并将每一行提取为一个记录。Mapper可以选择是把每条记录翻译为一个键值对,还是一行文本

        此步从 输入文件到<k1,v1>

(2) 对于mapper输出的每一行,Streaming API将之翻译为用\t分隔的键值对,类似于MapReduce中的划分,可以用pationer来处理键。最终所有键一致的key/value进入相同reducer。

(3)没个reducer以键为基准排序键值对,如同在Java模式中, 相同键的键值对被结组为一个键和一列值。reducer处理这些分组。

(4)在实践中,reducer的输出(STDOUT)被写入到一个文件中(由-output指定)

对AverageByAttributeMaper.py:

<<<<<<<<<<<<<<<<<<>>>>>>>>>>>>>>>>>>

无reducer方式运行时:-D mapred.reducer.tasks=0  输出由行组成:一个国家代码  \t   一个计数值      ,           并且其顺序与输入记录一致以IdentityReducer方式运行,设置-D mapred.reducer.tasks=1(这种方式只要不设置-reducer选项即可)

执行结束可以看到 虽然每行的内容与上一个相同,但是顺序被重排,键相同的“结组”在一起。可以根据这些信息考虑自己的reducer设计:

AverageByAttributeReducer.py——将相同键的值求和计数,在遇到新的键或到文件尾时,计算前一个键的平均值并输出到STDOUT中。

<<<<<<<<<<<<<<<<<<<<<>>>>>>>>>>>>>>>>>>>>>>>>>>>>>

这时可以运行完整的MapReduce作业。会得到真正的平均值文件。

4.通过Aggregate包使用Streaming

Hadoop有一个成为Aggregate软件包,极大简化数据集的汇总统计。尤其在使用Streaming时。

在Streaming中Aggregate包作为Reducer做聚集统计,只需提供一个mapper处理记录并以特定格式输出。输出每行如下:

function:key\tvalue

function为值聚合函数的名称(由Aggregate包中预定义函数获得),接着一组 键值对,值聚合函数列表如下:

如果要计算每年授权的专利数,考虑编写MapReduce程序的方法:

可以使mapper的输出将年设置为key,而value的值恒为1。这样reducer只需要对所有的1求和即可。使用基于Aggregate包的Streaming来实现:AttributeCount.py
1
2
3
4
5
6

#!/usr/bin/env pythonimport sysindex = int(sys.argv[1])for line in sys.stdin:    fields = line.split(",")    print "LongValueSum:" + fields[index] + "\t" + "1"

关键语句:print “LongValueSum:” + fields[index] + “\t” + “1”。。按指定格式( function:key\tvalue) 打印到输出!

运行如下:
1
2
3
4
5
6

hadoop jar contrib/streaming/hadoop-streaming-0.20.203.jar  \-file  AttributeCount.py    \-input  apat63_99.txt    \-output  output   \-mapper 'AttributeCount.py 1'   \-reducer aggregate
0 0