寻找最大的K个数

来源:互联网 发布:吉本芭娜娜 知乎 编辑:程序博客网 时间:2024/05/17 04:20

方法一:

    改进的快速排序: 分区时,根据数P将数组分为两部分,设大于P的数个数为a,小于P的数的个数为b。如果,a>=k,则从这a个数取最大的k个数,若a<k,则从b个数取最大的k-a-1个。时间复杂度是O(nlogk)。

#include<stdio.h>#include<iostream.h>void swap(float &a,float &b){float tmp=a;a=b;b=tmp;}int fun(float n[],int left,int right){int k;k=left;while(left<right){if(n[k]<n[right])right--;else if(n[k]>n[left])left++;else if(n[k]>n[right]){swap(n[k],n[right]);k=right;}else if(n[k]<n[left]){            swap(n[k],n[left]);k=left;}}return k;}void quicksort(float n[],int flag,int left,int right){int tmp;if(left<right){tmp=fun(n,left,right);if((right-tmp)>flag)    quicksort(n,flag,tmp+1,right);else if((right-tmp+1)<flag)quicksort(n,flag-(right-tmp+1),left,tmp-1);//else if((right-tmp)==flag||(right-tmp+1)==flag)//return ;}}int main(){int num;float a[100];int flag;cout<<"The number of array: "<<endl;cin>>num;cout<<"The array is: "<<endl;for(int i=0;i<num;i++)//cin>>a[i];scanf("%f",&a[i]);cout<<"K is:"<<endl;cin>>flag;quicksort(a,flag,0,num-1);for(int j=num-1;j>(num-1-flag);j--)cout<<a[j]<<"\t";cout<<endl;return 0;}

方法二:

   构建容量为K的最小堆,遍历一遍数组,剩下的K个即为所求。时间复杂度是O(nlogk)。其中堆进行调整时间为O(logk)

比较:

方法二当数据量比较大的时候,比较方便。因为对所有的数据只会遍历一次。方法一则会多次遍历数组,且N个数全部装入内存,当数据量很大比如100亿,则方法不适合。

扩展:

1.如果需要找出N个数中最大的K个不同的浮点数呢?比如,含有10个浮点数的数组(1.5,1.5,2.5,3.5,3.5,5,0,- 1.5,3.5)中最大的3个不同的浮点数是(5,3.5,2.5)。
     个人觉得除了最后一种方法不行,其他的都可以。因为最后一种需要是正数。

还要注意的是,浮点数的相同应该用fabsf(a-b)<0.00001等类似的方法来判断。


2. 如果是找第k到第m(0<k<=m<=n)大的数呢?
     个人觉得可以用小根堆来先求出m个最大的,然后从中输出k到m个。


3. 在搜索引擎中,网络上的每个网页都有“权威性”权重,如page rank。如果我们需要寻找权重最大的K个网页,而网页的权重会不断地更新,那么算法要如何变动以达到快速更新(incremental update)并及时返回权重最大的K个网页?
提示:堆排序?当每一个网页权重更新的时候,更新堆。还有更好的方法吗?
     网上答案:可以采用小顶堆来实现,使用映射二分堆,可以使更新的操作达到O(logn)。


4. 在实际应用中,还有一个“精确度”的问题。我们可能并不需要返回严格意义上的最大的K个元素,在边界位置允许出现一些误差。当用户输入一个query的时候,对于每一个文档d来说,它跟这个query之间都有一个相关性衡量权重f (query, d)。搜索引擎需要返回给用户的就是相关性权重最大的K个网页。如果每页10个网页,用户不会关心第1000页开外搜索结果的“精确度”,稍有误差是可以接受的。比如我们可以返回相关性第10 001大的网页,而不是第9999大的。在这种情况下,算法该如何改进才能更快更有效率呢?网页的数目可能大到一台机器无法容纳得下,这时怎么办呢?
提示:归并排序?如果每台机器都返回最相关的K个文档,那么所有机器上最相关K个文档的并集肯定包含全集中最相关的K个文档。由于边界情况并不需要非常精确,如果每台机器返回最好的K’个文档,那么K’应该如何取值,以达到我们返回最相关的90%*K个文档是完全精确的,或者最终返回的最相关的K个文档精确度超过90%(最相关的K个文档中90%以上在全集中相关性的确排在前K),或者最终返回的最相关的K个文档最差的相关性排序没有超出110%*K。
     网上答案:答:正如提示中所说,可以让每台机器返回最相关的K'个文档,然后利用归并排序的思想,得到所有文档中最相关的K个。 最好的情况是这K个文档在所有机器中平均分布,这时每台机器只要K' = K / n (n为所有机器总数);最坏情况,所有最相关的K个文档只出现在其中的某一台机器上,这时K'需近似等于K了。我觉得比较好的做法可以在每台机器上维护一个堆,然后对堆顶元素实行归并排序。


5. 如第4点所说,对于每个文档d,相对于不同的关键字q1, q2, …, qm,分别有相关性权重f(d, q1),f(d, q2), …, f(d, qm)。如果用户输入关键字qi之后,我们已经获得了最相关的K个文档,而已知关键字qj跟关键字qi相似,文档跟这两个关键字的权重大小比较靠近,那么关键字qi的最相关的K个文档,对寻找qj最相关的K个文档有没有帮助呢?
    解答:肯定是有帮助的。 qi最相关的K个文档可能就是qj的最相关的K个文档,可以先假设这K个就是,然后根据问题四的解法获得K',分别和这K个比较,可以用堆进行比较,从而获得qj最相关的K个文档。由于最开始的K个文档极有可能是最终的K个文档,所以K'和K比较的次数可能并不多。


参考:
http://blog.csdn.net/rein07/article/details/6742933

原创粉丝点击