Android 对HashMap深度分析和应用

来源:互联网 发布:小加索尔数据 编辑:程序博客网 时间:2024/06/05 01:06
原文见:http://blog.sina.com.cn/s/blog_4ca9ceef01010cn7.html
HashMap的初始过程 

java.util.HashMap是很常见的类,前段时间公司系统由于对HashMap使用不当,导致cpu百分之百,在并发环境下使用HashMap 而没有做同步,可能会引起死循环,关于这一点,sun的官方网站上已有阐述,这并非是bug。
HashMap的数据结构 
         HashMap主要是用数组来存储数据的,我们都知道它会对key进行哈希运算,哈系运算会有重复的哈希值,对于哈希值的冲突,HashMap采用链表来解决的。在HashMap里有这样的一句属性声明:
transient Entry[] table; 
Entry就是HashMap存储数据所用的类,它拥有的属性如下
final K key;
V value;
final int hash;
Entry<K,V> next;
 
看 到next了吗?next就是为了哈希冲突而存在的。比如通过哈希运算,一个新元素应该在数组的第10个位置,但是第10个位置已经有Entry,那么好 吧,将新加的元素也放到第10个位置,将第10个位置的原有Entry赋值给当前新加的 Entry的next属性。数组存储的是链表,链表是为了解决哈希冲突的,这一点要注意。
几个关键的属性 
存储数据的数组
transient Entry[] table; 这个上面已经讲到了
默认容量
static final int DEFAULT_INITIAL_CAPACITY = 16; 
最大容量
static final int MAXIMUM_CAPACITY = 1 << 30; 
默认加载因子,加载因子是一个比例,当HashMap的数据大小>=容量*加载因子时,HashMap会将容量扩容
static final float DEFAULT_LOAD_FACTOR = 0.75f; 
当实际数据大小超过threshold时,HashMap会将容量扩容,threshold=容量*加载因子
int threshold; 
加载因子
final float loadFactor;

 

构造函数1

Java代码  MAXIMUM_CAPACITY) initialCapacity = MAXIMUM_CAPACITY; if (loadFactor <= 0 || Float.isNaN(loadFactor)) throw new IllegalArgumentException("Illegal load factor: " + loadFactor); // Find a power of 2 >= initialCapacity int capacity = 1; while (capacity < initialCapacity) capacity <<= 1; this.loadFactor = loadFactor; threshold = (int)(capacity * loadFactor); table = new Entry[capacity]; init(); }" quality="high" type="application/x-shockwave-flash" pluginspage="http://www.macromedia.com/go/getflashplayer"> 收藏代码
  1. public HashMap(int initialCapacity, float loadFactor)  
  2.     if (initialCapacity 0 
  3.         throw new IllegalArgumentException("Illegal initial capacity: "  
  4.                                            initialCapacity);  
  5.     if (initialCapacity MAXIMUM_CAPACITY)  
  6.         initialCapacity MAXIMUM_CAPACITY;  
  7.     if (loadFactor <= 0 || Float.isNaN(loadFactor))  
  8.         throw new IllegalArgumentException("Illegal load factor: "  
  9.                                            loadFactor);  
  10.   
  11.     // Find power of >= initialCapacity  
  12.     int capacity 1 
  13.     while (capacity initialCapacity)  
  14.         capacity <<= 1 
  15.   
  16.     this.loadFactor loadFactor;  
  17.     threshold (int)(capacity loadFactor);  
  18.     table new Entry[capacity];  
  19.     init();  
  20.  

 重点注意这里

Java代码  收藏代码
  1. while (capacity initialCapacity)  
  2.             capacity <<= 1 

capacity才是初始容量,而不是initialCapacity,这个要特别注意,如果执行new HashMap(9,0.75);那么HashMap的初始容量是16,而不是9,想想为什么吧。

构造函数2

Java代码  收藏代码
  1. public HashMap(int initialCapacity)  
  2.         this(initialCapacity, DEFAULT_LOAD_FACTOR);  
  3.      

 构造函数3,全部都是默认值

Java代码  收藏代码
  1. public HashMap()  
  2.      this.loadFactor DEFAULT_LOAD_FACTOR;  
  3.      threshold (int)(DEFAULT_INITIAL_CAPACITY DEFAULT_LOAD_FACTOR);  
  4.      table new Entry[DEFAULT_INITIAL_CAPACITY];  
  5.      init();  
  6.   

 构造函数4

Java代码  收藏代码
  1. public HashMap(Map<? extends K, extends V> m)  
  2.       this(Math.max((int(m.size() DEFAULT_LOAD_FACTOR) 1 
  3.                     DEFAULT_INITIAL_CAPACITY), DEFAULT_LOAD_FACTOR);  
  4.       putAllForCreate(m);  
  5.    

 如何哈希 
        HashMap并不是直接将对象的hashcode作为哈希值的,而是要把key的hashcode作一些运算以得到最终的哈希值,并且得到的哈希值也不是在数组中的位置哦,无论是get还是put还是别的方法,计算哈希值都是这一句:
int hash = hash(key.hashCode()); 
hash函数如下:

Java代码  收藏代码
  1. static int hash(int h)  
  2.   return useNewHash newHash(h) oldHash(h);  
  3.    

 useNewHash声明如下:

Java代码  收藏代码
  1. private static final boolean useNewHash;  
  2.    static useNewHash false 

 这说明useNewHash其实一直为false且不可改变的,hash函数里对 useNewHash的判断真是多余的。

Java代码  收藏代码
  1. private static int oldHash(int h)  
  2.     += ~(h << 9);  
  3.     ^=  (h >>> 14);  
  4.     +=  (h << 4);  
  5.     ^=  (h >>> 10);  
  6.     return h;  
  7.  
  8.   
  9. private static int newHash(int h)  
  10.     // This function ensures that hashCodes that differ only by  
  11.     // constant multiples at each bit position have bounded  
  12.     // number of collisions (approximately at default load factor).  
  13.     ^= (h >>> 20(h >>> 12);  
  14.     return (h >>> 7(h >>> 4);  
  15.  

 其实HashMap的哈希函数会一直都是oldHash。


如果确定数据的位置 
看下面两行

Java代码  收藏代码
  1. int hash hash(k.hashCode());  
  2. int indexFor(hash, table.length);  

第一行,上面讲过了,是得到哈希值,第二行,则是根据哈希指计算元素在数组中的位置了,位置的计算是将哈希值和数组长度按位与运算。

Java代码  收藏代码
  1. static int indexFor(int h, int length)  
  2.      return (length-1);  
  3.   
 

“h & (length-1)” 其实这里是很有讲究的,为什么是和(length-1)进行按位与运算呢?这样做是为了提高HashMap的效率。什么?这样能提高效率?且听我细细道来。

首先我们要确定一下,HashMap的数组长度永远都是偶数,即使你在初始化的时候是这样的new HashMap(15,0.75);因为在构造函数内部,上面也讲过,有这样的一段代码:

Java代码  收藏代码
  1. while (capacity initialCapacity)  
  2.             capacity <<= 1 

所以length-1一定是个奇数,假设现在长度为16,减去1后就是15,对应的二进制是:1111。

假设有两个元素,一个哈希值是8,二进制是1000,一个哈希值是9,二进制是1001。和1111与运算后,分别还是1000和1001,它们被分配在了数组的不同位置,这样,哈希的分布非常均匀。

那么,如果数组长度是奇数,减去1后就是偶数了,偶数对应的二进制最低位一定是 0了,例如14二进制1110。对上面两个数子分别与运算,得到1000和1000。看到了吗?都是一样的值,哈希值8和9的元素多被存储在数组同一个位 置的链表中。在操作的时候,链表中的元素越多,效率越低,因为要不停的对链表循环比较。所以,一定要哈希均匀分布,尽量减少哈希冲突,减少了哈希冲突,就 减少了链表循环,就提高了效率。

 

 

put方法到底作了什么?

Java代码  收藏代码
  1. public put(K key, value)  
  2.  if (key == null 
  3.      return putForNullKey(value);  
  4.      int hash hash(key.hashCode());  
  5.      int indexFor(hash, table.length);  
  6.      for (Entry<K,V> table[i]; != nulle.next)  
  7.          Object k;  
  8.          if (e.hash == hash && ((k e.key) == key || key.equals(k)))  
  9.              oldValue e.value;  
  10.              e.value value;  
  11.              e.recordAccess(this);  
  12.              return oldValue;  
  13.           
  14.       
  15.   
  16.      modCount++;  
  17.      addEntry(hash, key, value, i);  
  18.      return null 
  19.   

  如果key为NULL,则是单独处理的,看看putForNullKey方法:

Java代码  收藏代码
  1. private putForNullKey(V value)  
  2.       int hash hash(NULL_KEY.hashCode());  
  3.       int indexFor(hash, table.length);  
  4.   
  5.       for (Entry<K,V> table[i]; != nulle.next)  
  6.           if (e.key == NULL_KEY)  
  7.               oldValue e.value;  
  8.               e.value value;  
  9.               e.recordAccess(this);  
  10.               return oldValue;  
  11.            
  12.        
  13.   
  14.       modCount++;  
  15.       addEntry(hash, (K) NULL_KEY, value, i);  
  16.       return null 
  17.    

 NULL_KEY的声明:static final Object NULL_KEY = new Object();
这一段代码是处理哈希冲突的,就是说,在数组某个位置的对象可能并不是唯一的,它是一个链表结构,根据哈希值找到链表后,还要对链表遍历,找出key相等的对象,替换它,并且返回旧的值。

Java代码  收藏代码
  1. for (Entry<K,V> table[i]; != nulle.next)  
  2.          if (e.key == NULL_KEY)  
  3.              oldValue e.value;  
  4.              e.value value;  
  5.              e.recordAccess(this);  
  6.              return oldValue;  
  7.           
  8.       

 如果遍历完了该位置的链表都没有找到有key相等的,那么将当前对象增加到链表里面去

Java代码  收藏代码
  1. modCount++;  
  2. addEntry(hash, (K) NULL_KEY, value, i);  
  3. return null 

 且看看addEntry方法

Java代码  收藏代码
  1. void addEntry(int hash, key, value, int bucketIndex)  
  2. Entry<K,V> table[bucketIndex];  
  3.     table[bucketIndex] new Entry<K,V>(hash, key, value, e);  
  4.     if (size++ >= threshold)  
  5.         resize(2 table.length);  
  6.  

 table[bucketIndex] = new Entry<K,V>(hash, key, value, e);新建一个Entry对象,并放在当前位置的Entry链表的头部,看看下面的 Entry构造函数就知道了,注意红色部分。

Java代码  收藏代码
  1. Entry(int h, k, v, Entry<K,V> n)  
  2.        value v;  
  3.        next n;  
  4.        key k;  
  5.        hash h;  
  6.     

 如何扩容? 
        当put一个元素时,如果达到了容量限制,HashMap就会扩容,新的容量永远是原来的2倍。
上面的put方法里有这样的一段:

Java代码  收藏代码
  1. if (size++ >= threshold)  
  2.             resize(2 table.length);  

 这是扩容判断,要注意,并不是数据尺寸达到HashMap的最大容量时才扩容,而是达到 threshold指定的值时就开始扩容, threshold=最大容量*加载因子。 看看resize方法

Java代码  收藏代码
  1. void resize(int newCapacity)  
  2.       Entry[] oldTable table;  
  3.       int oldCapacity oldTable.length;  
  4.       if (oldCapacity == MAXIMUM_CAPACITY)  
  5.           threshold Integer.MAX_VALUE;  
  6.           return 
  7.        
  8.   
  9.       Entry[] newTable new Entry[newCapacity];  
  10.       transfer(newTable);  
  11.       table newTable;  
  12.       threshold (int)(newCapacity loadFactor);  
  13.    

 重点看看红色部分的 transfer方法

Java代码  收藏代码
  1. void transfer(Entry[] newTable)  
  2.       Entry[] src table;  
  3.       int newCapacity newTable.length;  
  4.       for (int 0src.length; j++)  
  5.           Entry<K,V> src[j];  
  6.           if (e != null 
  7.               src[j] null 
  8.               do  
  9.                   Entry<K,V> next e.next;  
  10.                   int indexFor(e.hash, newCapacity);  
  11.                   e.next newTable[i];  
  12.                   newTable[i] e;  
  13.                   next;  
  14.               while (e != null);  
  15.            
  16.        
  17.    

 tranfer方法将所有的元素重新哈希,因为新的容量变大,所以每个元素的哈希值和位置都是不一样的。

 

如何寻找元素

       通 过上面代码的分析,应该可以很清楚的看到,HashMap的元素查找大致分为三步:

根据key的hasocde()得到哈希值

根据哈希值确定 元素在数组中的位置

找到指定位置 的链表,循环比较,先“==”比较,如果不等,再“equals”比较,如果有一个比较相等,就说明找到元素了。

所以说到这里,我想大家也明白了,为什么要把一个对象放进HashMap的时候,最好是重写hashcode()方法和equals 方法呢?根据前面的分析,hashcode()可以确定元素在数组中的位置,而equals方法在链表的比较时要用到。 

 

正确的使用HashMap 
1:不要在并发场景中使用HashMap
           HashMap是线程不安全的,如果被多个线程共享的操作,将会引发不可预知的问题,据sun的说法,在扩容时,会引起链表的闭环,在get元素时,就会无限循环,后果是cpu100%。
看看get方法的红色部分

Java代码  收藏代码
  1. public get(Object key)  
  2.     if (key == null 
  3.         return getForNullKey();  
  4.         int hash hash(key.hashCode());  
  5.         for (Entry<K,V> table[indexFor(hash, table.length)];  
  6.              != null 
  7.              e.next)  
  8.             Object k;  
  9.             if (e.hash == hash && ((k e.key) == key || key.equals(k)))  
  10.                 return e.value;  
  11.          
  12.         return null 
  13.      

 2:如果数据大小是固定的,那么最好给HashMap设定一个合理的容量值
        根据上面的分析,HashMap的初始默认容量是16,默认加载因子是0.75,也就是说,如果采用HashMap的默认构造函数,当增加数据时,数据实 际容量超过10*0.75=12时,HashMap就扩容,扩容带来一系列的运算,新建一个是原来容量2倍的数组,对原有元素全部重新哈希,如果你的数据 有几千几万个,而用默认的HashMap构造函数,那结果是非常悲剧的,因为HashMap不断扩容,不断哈希,在使用HashMap的场景里,不会是多 个线程共享一个HashMap,除非对HashMap包装并同步,由此产生的内存开销和cpu开销在某些情况下可能是致命的。

0 0
原创粉丝点击