【算法总结-top K】堆--查找最小(大)的k个元素

来源:互联网 发布:python 对象调用函数 编辑:程序博客网 时间:2024/06/05 20:39

    top K问题是一个经典的问题。

    该问题描述为:输入n个整数,输出其中最小的k个元素,例如,输入  1,2,3,4,5,6,7,8 那么最小的4个元素就是1,2,3,4.

    除了这个,top K问题还指:常遇到的一类问题是,在海量数据中找出出现频率最高的前K个数,或者从海量数据中找出最大的前K个数,这类问题通常称为“top K”问题,如:在搜索引擎中,统计搜索最热门的10个查询词;在歌曲库中统计下载率最高的前10首歌等等。

    说到top K(第一类)问题,脑袋中经常闪现的两个概念是:快速排序和堆。为什么是这两个概念呢?原因有:

    1.快速排序的思路:

       给定一个枢轴元素,可以将数组按照这个元素分为两个部分。这个思路对于top K问题有什么作用?答案就是,根据partition的结果(返回的是枢轴的索引),可以轻松得到元素的个数。根据这个数字与K的关系递归划分,最后一定可以得出前面元素个数为k个的划分。

    该思路的实现部分可见:http://blog.csdn.net/ohmygirl/article/details/7846544  快速排序求数组的第K个元素。

    2.堆。

      堆其实是一棵完全二叉树,堆对于两类问题有着很好的解决方案:a.排序问题:由于堆是一棵完全二叉树,所以采用堆堆n元数组进行排序,时间复杂度不会超过O(nlgn),而且只需要几个额外的空间。b.优先级队列。通过插入新元素和调整堆结构来维护堆的性质,每个操作所需要的时间都是O(lgn).

    堆的常见实现是采用一个大小为n的数组存储元素,并且0号单元舍弃不用。对堆中的元素按照层次从上到下,从左到右的顺序依次编号。那么对于一个编号为i的元素:

    a:如果左孩子存在,那么左孩子的编号为2i    b:如果右孩子存在,那么右孩子的编号为2*i + 1    c:如果有父节点,那么父节点的编号为 i/2    d:节点为叶节点的条件是左孩子且右孩子都为空,为空节点的条件是i<1或者i>n

    堆的设计对于处理top K问题十分方便。首先设置一个大小为K的堆(如果求最大top K,那么用最小堆,如果求最小top K,那么用最大堆),然后扫描数组。并将数组的每个元素与堆的根比较,符合条件的就插入堆中,同时调整堆使之符合堆的特性,扫描完成后,堆中保留的元素就是最终的结果。说到调整堆,不得不提的是调整的算法,分为两类:

 向下调整(shiftdown) 和 向上调整(shiftup)。

    以最小堆为例:

    向上调整算法 对应的代码如下:

void shiftUp(int *heap,int n){int i = n;for(;;){if(i == 1){break;}int p = i/2;if(heap[p] <= heap[i]){break;}swap(&heap[p],&heap[i]);i = p;}}

    向下调整对应的代码如下:

void shiftDown(int * heap,int n){ int i = 1; for(;;){int c = 2*i;if(c > n){break;}if(c+1 <= n){if(heap[c+1] <= heap[c]){c++;}}if(heap[i] <= heap[c]){break;}swap(&heap[c],&heap[i]);i = c;}}
    有了堆的基本操作,top K问题就有了一个基础(当然也可以完全不用堆解决top K问题)。以最小top K问题为例(此时需要建立大小为k的最大堆),top K的求解过程是:扫描原数组,将数组的前K个元素扔到堆中,调整使之保持堆的特性。对于k之后的元素,如果比堆顶元素小,那么替换堆顶元素并调整堆,扫描是数组完成后,堆中保存的元素就是最终的结果。

    进一步思考,对于海量数据的处理,top K问题如何实现呢,当然堆算法还是可行的。有没有其他的思路呢。

    关于海量数据的处理,推荐july的博客:http://blog.csdn.net/v_july_v/article/details/7382693 如何秒杀99% 的海量数据处理题

    另外一个可以参考的博客:http://dongxicheng.org/big-data/select-ten-from-billions/

    最近在研究hadoop,所以我的想法是,用hadoop的MapReduce算法实现top K问题,是不是效率更高一些,毕竟,hadoop在海量数据处理,并行计算方面还是蛮有优势的。

MapReduce的思路也很简单。所以编码的话,只需要定义任务类,然后再定义内部的Mapper和Reducer静态类就可以了。

转载一段mapReduce的top K代码(代码未经测试,原文地址:http://www.linuxidc.com/Linux/2012-05/60234.htm):

    package jtlyuan.csdn;      import java.io.IOException;      import org.apache.Hadoop.conf.Configuration;      import org.apache.Hadoop.conf.Configured;      import org.apache.Hadoop.fs.Path;      import org.apache.Hadoop.io.IntWritable;      import org.apache.Hadoop.io.LongWritable;      import org.apache.Hadoop.io.Text;      import org.apache.Hadoop.mapreduce.Job;      import org.apache.Hadoop.mapreduce.Mapper;      import org.apache.Hadoop.mapreduce.Reducer;      import org.apache.Hadoop.mapreduce.lib.input.FileInputFormat;      import org.apache.Hadoop.mapreduce.lib.input.TextInputFormat;      import org.apache.Hadoop.mapreduce.lib.output.FileOutputFormat;      import org.apache.Hadoop.mapreduce.lib.output.TextOutputFormat;      import org.apache.Hadoop.util.Tool;      import org.apache.Hadoop.util.ToolRunner;      //利用MapReduce求最大值海量数据中的K个数       public class TopKNum extends Configured implements Tool {      public static class MapClass extends Mapper<LongWritable, Text, IntWritable, IntWritable> {      public static final int K = 100;      private int[] top = new int[K];      public void map(LongWritable key, Text value, Context context)      throws IOException, InterruptedException {          String[] str = value.toString().split(",", -2);      try {// 对于非数字字符我们忽略掉       int temp = Integer.parseInt(str[8]);      add(temp);      } catch (NumberFormatException e) {     //    }      }      private void add(int temp) {//实现插入       if(temp>top[0]){      top[0]=temp;      int i=0;      for(;i<99&&temp>top[i+1];i++){      top[i]=top[i+1];      }      top[i]=temp;      }      }          @Override      protected void cleanup(Context context) throws IOException,  InterruptedException {      for(int i=0;i<100;i++){      context.write(new IntWritable(top[i]), new IntWritable(top[i]));      }      }      }          public static class Reduce extends Reducer<IntWritable, IntWritable, IntWritable, IntWritable> {      public static final int K = 100;      private int[] top = new int[K];      public void reduce(IntWritable key, Iterable<IntWritable> values, Context context)      throws IOException, InterruptedException {      for (IntWritable val : values) {      add(val.get());      }      }      private void add(int temp) {//实现插入    if(temp>top[0]){       top[0]=temp;      int i=0;      for(;i<99&&temp>top[i+1];i++){      top[i]=top[i+1];      }      top[i]=temp;      }      }      @Override      protected void cleanup(Context context) throws IOException,  InterruptedException {      for(int i=0;i<100;i++){      context.write(new IntWritable(top[i]), new IntWritable(top[i]));      }      }         public int run(String[] args) throws Exception {      Configuration conf = getConf();      Job job = new Job(conf, "TopKNum");      job.setJarByClass(TopKNum.class);      FileInputFormat.setInputPaths(job, new Path(args[0]));      FileOutputFormat.setOutputPath(job, new Path(args[1]));      job.setMapperClass(MapClass.class);      job.setCombinerClass(Reduce.class);      job.setReducerClass(Reduce.class);      job.setInputFormatClass(TextInputFormat.class);      job.setOutputFormatClass(TextOutputFormat.class);      job.setOutputKeyClass(IntWritable.class);      job.setOutputValueClass(IntWritable.class);      System.exit(job.waitForCompletion(true) ? 0 : 1);      return 0;      }      public static void main(String[] args) throws Exception {      int res = ToolRunner.run(new Configuration(), new TopKNum(), args);      System.exit(res);      }     }  }    /*     * 列举一部分出来:     * 306 306     307 307     309 309     313 313     320 320     346 346     348 348     393 393     394 394     472 472     642 642     706 706     868 868     */  

至此,处理海量数据我们有了新的思路:MapReduce + hadoop

再次感慨,mapReduce真是海量数据处理的神器~



原创粉丝点击