算法研究(二) bitmap在排序中的妙用

来源:互联网 发布:恒腾网络十大股东 编辑:程序博客网 时间:2024/05/09 12:10

题目:在一个文件中存放着几百万个非负整形数据,它们最大不超过7位,且无重复数据,现将该文件中的数据按升序进行排序。

对于排序,相信没人会陌生,已知的通用排序算法对于这个题目都显得有些力不从心,昂贵的内存开销(如果采用硬盘排序倒是可以减少内存开销,但时间上将耗费更多),巨大的时间耗费(这点是最不能接受的)。所谓的巧妙算法实际上都是分析问题的特点,针对它的特殊性而得出的。对于这个问题,有两个条件必须注意:一是数据非负且最大不超过7位;二是数据无重复。有了这两个条件,位图就可以派上用场了。

可以设置一个大小为1000万的位图,差不多相当于二十多万个整形的大小,它的每一位对应着一个最大不超过7位的数据,先清空该位图,然后从文件中读数据,将相应位置1。然后扫描位图,将非0位的对应数据输出到文件中去,整个过程便己完成,具体算法如下:

[cpp] view plaincopy
  1. #define SIZEBIT 10000000  
  2. #define SIZE SIZEBIT/32 + 1  
  3.   
  4. void cleanAll(unsigned int* bitmap) {  
  5.   
  6.     int i;  
  7.     for (i = 0; i < SIZE; ++i)  
  8.         bitmap =0;   
  9. }  
  10.   
  11. void set(unsigned int* bitmap, unsigned int index) {  
  12.     bitmap[index/32] |= 1 << index%32;  
  13. }  
  14.   
  15. void clean(unsigned int* bitmap, unsigned int index) {  
  16.     bitmap[index/32] &= ~(1 << index%32);  
  17. }  
  18.   
  19. int get(unsigned int* bitmap, unsigned int index) {  
  20.     return bitmap[index/32] & (1 << index%32);  
  21. }  
  22.   
  23. void sort() {  
  24.         unsigned int bitmap[SIZE];  
  25.         cleanAll(bitmap);  
  26.   
  27.         FILE *fp = fopen("sortFile.txt""r");  
  28.         unsigned int data;  
  29.         while (EOF != fscanf(fp, "%d", &data)) {  
  30.             set(bitmap, data);  
  31.         }  
  32.         fclose(fp);  
  33.   
  34.         fp = fopen("sorted.txt""w");  
  35.         int i;  
  36.         for (i = 0; i < SIZEBIT; ++i) {  
  37.             if (get(bitmap, i))  
  38.                 fprintf(fp, "%d\n", i);  
  39.         }  
  40.         fclose(fp);  
  41. }  

实际上这种思想有点类似于哈希,只不过哈希算法简单的成了VALUE=KEY而已。如果条件中允许重复,我们就需要额外弄一个count数组用于计算重复数据。而如果数据没有几百万那么大,但它分部的很均匀,我们仍可以使用这种算法,可以将哈希桶的大小弄得小一点,以减小内存开销,不过我们恐怕还得花费额外的精力去处理哈希冲突,可以考虑使用链表,然后使用插入排序算法。而如果数据的分部不是那么均匀,而是存在着大量的局部收敛,那么哈希冲突所带来的巨大的时间耗费便不是我们可以接受的了,就应该考虑其它算法思想了。

参考文献

《编程珠玑》(美)本特利(Bentley,J.)