Hive、MapReduce、Spark分布式生成唯一数值型ID

来源:互联网 发布:js下载图片保存到本地 编辑:程序博客网 时间:2024/06/08 00:57

在实际业务场景下,经常会遇到在Hive、MapReduce、Spark中需要生成唯一的数值型ID。

一般常用的做法有:

MapReduce中使用1个Reduce来生成;

Hive中使用row_number分析函数来生成,其实也是1个Reduce;

借助HBase或Redis或Zookeeper等其它框架的计数器来生成;

数据量不大的情况下,可以直接使用1和2方法来生成,但如果数据量巨大,1个Reduce处理起来就非常慢。

在数据量非常大的情况下,如果你仅仅需要唯一的数值型ID,注意:不是需要”连续的唯一的数值型ID”,那么可以考虑采用本文中介绍的方法,否则,请使用第3种方法来完成。

Spark中生成这样的非连续唯一数值型ID,非常简单,直接使用zipWithUniqueId即可。

参考zipWithUniqueId的方法,在MapReduce和Hive中,实现如下:

Hive、MapReduce、Spark分布式生成唯一数值型ID

在Spark中,zipWithUniqueId是通过使用分区Index作为每个分区ID的开始值,在每个分区内,ID增长的步长为该RDD的分区数,那么在MapReduce和Hive中,也可以照此思路实现,Spark中的分区数,即为MapReduce中的Map数,Spark分区的Index,即为Map Task的ID。Map数,可以通过JobConf的getNumMapTasks,而Map Task ID,可以通过参数mapred.task.id获取,格式如:attempt_1478926768563_0537_m_000004_0,截取m_000004_0中的4,再加1,作为该Map Task的ID起始值。注意:这两个只均需要在Job运行时才能获取。另外,从图中也可以看出,每个分区/Map Task中的数据量不是绝对一致的,因此,生成的ID不是连续的。

下面的UDF可以在Hive中直接使用:

  1. package com.lxw1234.hive.udf;
  2. import org.apache.hadoop.hive.ql.exec.MapredContext;
  3. import org.apache.hadoop.hive.ql.exec.UDFArgumentException;
  4. import org.apache.hadoop.hive.ql.metadata.HiveException;
  5. import org.apache.hadoop.hive.ql.udf.UDFType;
  6. import org.apache.hadoop.hive.ql.udf.generic.GenericUDF;
  7. import org.apache.hadoop.hive.serde2.objectinspector.ObjectInspector;
  8. import org.apache.hadoop.hive.serde2.objectinspector.primitive.PrimitiveObjectInspectorFactory;
  9. import org.apache.hadoop.io.LongWritable;
  10. @UDFType(deterministic = false, stateful = true)
  11. public class RowSeq2 extends GenericUDF {
  12. private static LongWritable result = new LongWritable;
  13. private static final char SEPARATOR = '_';
  14. private static final String ATTEMPT = "attempt";
  15. private long initID = 0l;
  16. private int increment = 0;
  17. @Override
  18. public void configure(MapredContext context) {
  19. increment = context.getJobConf.getNumMapTasks;
  20. if(increment == 0) {
  21. throw new IllegalArgumentException("mapred.map.tasks is zero");
  22. }
  23. initID = getInitId(context.getJobConf.get("mapred.task.id"),increment);
  24. if(initID == 0l) {
  25. throw new IllegalArgumentException("mapred.task.id");
  26. }
  27. System.out.println("initID : " + initID + " increment : " + increment);
  28. }
  29. @Override
  30. public ObjectInspector initialize(ObjectInspector[] arguments)
  31. throws UDFArgumentException {
  32. return PrimitiveObjectInspectorFactory.writableLongObjectInspector;
  33. }
  34. @Override
  35. public Object evaluate(DeferredObject[] arguments) throws HiveException {
  36. result.set(getValue);
  37. increment(increment);
  38. return result;
  39. }
  40. @Override
  41. public String getDisplayString(String[] children) {
  42. return "RowSeq-func";
  43. }
  44. private synchronized void increment(int incr) {
  45. initID += incr;
  46. }
  47. private synchronized long getValue {
  48. return initID;
  49. }
  50. //attempt_1478926768563_0537_m_000004_0 // return 0+1
  51. private long getInitId (String taskAttemptIDstr,int numTasks)
  52. throws IllegalArgumentException {
  53. try {
  54. String parts = taskAttemptIDstr.split(Character.toString(SEPARATOR));
  55. if(parts.length == 6) {
  56. if(parts[0].equals(ATTEMPT)) {
  57. if(!parts[3].equals("m") && !parts[3].equals("r")) {
  58. throw new Exception;
  59. }
  60. long result = Long.parseLong(parts[4]);
  61. if(result >= numTasks) { //if taskid >= numtasks
  62. throw new Exception("TaskAttemptId string : " + taskAttemptIDstr
  63. + " parse ID [" + result + "] >= numTasks[" + numTasks + "] ..");
  64. }
  65. return result + 1;
  66. }
  67. }
  68. } catch (Exception e) {}
  69. throw new IllegalArgumentException("TaskAttemptId string : " + taskAttemptIDstr
  70. + " is not properly formed");
  71. }
  72. }

有一张去重后的用户id(字符串类型)表,需要位每个用户id生成一个唯一的数值型seq:

  1. ADD jar file:///tmp/udf.jar;
  2. CREATE temporary function seq2 as 'com.lxw1234.hive.udf.RowSeq2';
  3. hive>> desc lxw_all_ids;
  4. OK
  5. id string
  6. Time taken: 0.074 seconds, Fetched: 1 row(s)
  7. hive> select * from lxw_all_ids limit 5;
  8. OK
  9. 01779E7A06ABF5565A4982_cookie
  10. 031E2D2408C29556420255_cookie
  11. 03371ADA0B6E405806FFCD_cookie
  12. 0517C4B701BC1256BFF6EC_cookie
  13. 05F12ADE0E880455931C1A_cookie
  14. Time taken: 0.215 seconds, Fetched: 5 row(s)
  15. hive> select count(1) from lxw_all_ids;
  16. 253402337
  17. hive> create table lxw_all_ids2 as select id,seq2 as seq from lxw_all_ids;
  18. Hadoop job information for Stage-1: number of mappers: 27; number of reducers: 0

该Job使用了27个Map Task,没有使用Reduce,那么将会产生27个结果文件。

再看结果表中的数据:

  1. hive> select * from lxw_all_ids2 limit 10;
  2. OK
  3. 766CA2770527B257D332AA_cookie 1
  4. 5A0492DB0000C557A81383_cookie 28
  5. 8C06A5770F176E58301EEF_cookie 55
  6. 6498F47B0BCAFE5842B83A_cookie 82
  7. 6DA33CB709A23758428A44_cookie 109
  8. B766347B0D27925842AC2D_cookie 136
  9. 5794357B050C99584251AC_cookie 163
  10. 81D67A7B011BEA5842776C_cookie 190
  11. 9D2F8EB40AEA525792347D_cookie 217
  12. BD21077B09F9E25844D2C1_cookie 244
  13. hive> select count(1),count(distinct seq) from lxw_all_ids2;
  14. 253402337 253402337

limit 10只从第一个结果文件,即MapTaskId为0的结果文件中拿了10条,这个Map中,start=1,increment=27,因此生成的ID如上所示。

count(1),count(distinct seq)的值相同,说明seq没有重复值,你可以试试max(seq),结果必然大于253402337,说明seq是”非连续唯一数值型ID“.

0 0