Jdk1.8 HashMap解读

来源:互联网 发布:js regexp 编辑:程序博客网 时间:2024/06/16 16:23

jdk1.8中HashMap重要属性

  1. Node

关键函数

hash

static final int hash(Object key) {        int h;        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);    }

在这里(h = key.hashCode()) ^ (h >>> 16)主要分为了三步
1.取key的hashCode值key.hashCode()
2.h ^ (h >>> 16) 通过无符号右移保证高低16位同时参与运算

这是性能和效果的角度来考虑,这么做可以在数组table的length比较小的时候考虑高低位Bit都参与到Hash计算中

put

put函数流程图如下

image

//onlyIfAbsent是否替换相同的value值如果为true表示不替换//evict如果为false表示数组是新增模式final V putVal(int hash, K key, V value, boolean onlyIfAbsent,                   boolean evict) {        Node<K,V>[] tab; Node<K,V> p; int n, i;        //tab为空的时候        if ((tab = table) == null || (n = tab.length) == 0)            n = (tab = resize()).length;        //计算index并对null处理        if ((p = tab[i = (n - 1) & hash]) == null)            tab[i] = newNode(hash, key, value, null);        else {            Node<K,V> e; K k;            //节点key存在直接覆盖value            if (p.hash == hash &&                ((k = p.key) == key || (key != null && key.equals(k))))                e = p;            //如果该链是红黑树            else if (p instanceof TreeNode)                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);            //如果该链是链表            else {                for (int binCount = 0; ; ++binCount) {                    if ((e = p.next) == null) {                        p.next = newNode(hash, key, value, null);                        //链表长度大于8转换为红黑树进行处理                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st                            treeifyBin(tab, hash);                        break;                    }                    //key已经存在直接覆盖value                    if (e.hash == hash &&                        ((k = e.key) == key || (key != null && key.equals(k))))                        break;                    p = e;                }            }            if (e != null) { // existing mapping for key                V oldValue = e.value;                if (!onlyIfAbsent || oldValue == null)                    e.value = value;                afterNodeAccess(e);                return oldValue;            }        }        ++modCount;        //超过最大容量就扩容        if (++size > threshold)            resize();        afterNodeInsertion(evict);        return null;    }

resize扩容

HashMap对象内部的数组无法装载更多的元素的时候,HashMap对象需要扩容

使用长度为2次幂的扩展,元素的新位置要么在原位置,要么再移动2次幂的位置。所以在jdk1.8上不需要像jdk1.7那样重新计算hash,只需要看看原来的hash值新增的那个bit是0还是1,如果是0的话索引没变,是1的话索引的值变成【原索引+oldCap】

下面是jdk1.8的代码

    final Node<K,V>[] resize() {        //引用旧表        Node<K,V>[] oldTab = table;        int oldCap = (oldTab == null) ? 0 : oldTab.length;        int oldThr = threshold;        int newCap, newThr = 0;        if (oldCap > 0) {            //如果旧容量已经大于等于最大容量了修改threshold为最大值(2^31-1)并取消扩容            if (oldCap >= MAXIMUM_CAPACITY) {                threshold = Integer.MAX_VALUE;                return oldTab;            }            //否则将容量扩大为原来的两倍            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&                     oldCap >= DEFAULT_INITIAL_CAPACITY)                newThr = oldThr << 1; // double threshold        }        //        else if (oldThr > 0) // initial capacity was placed in threshold            newCap = oldThr;        else {               // zero initial threshold signifies using defaults            newCap = DEFAULT_INITIAL_CAPACITY;            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);        }        //计算新的threshold        if (newThr == 0) {            float ft = (float)newCap * loadFactor;            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?                      (int)ft : Integer.MAX_VALUE);        }        threshold = newThr;        @SuppressWarnings({"rawtypes","unchecked"})            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];        table = newTab;        if (oldTab != null) {            //将每个bucket都移动到新的buckets中            for (int j = 0; j < oldCap; ++j) {                Node<K,V> e;                if ((e = oldTab[j]) != null) {                    oldTab[j] = null;                    if (e.next == null)                        //hash & (newCap - 1)这样取模的性能比%性能好很多,但是按这样方法取模的前提是length必须是2的n次方                        newTab[e.hash & (newCap - 1)] = e;                    else if (e instanceof TreeNode)                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);                    else {                         // 优化链表的重hash                        Node<K,V> loHead = null, loTail = null;                        Node<K,V> hiHead = null, hiTail = null;                        Node<K,V> next;                        do {                            next = e.next;                            //原索引                            if ((e.hash & oldCap) == 0) {                                if (loTail == null)                                    loHead = e;                                else                                    loTail.next = e;                                loTail = e;                            }                            //原索引+oldCap                            else {                                if (hiTail == null)                                    hiHead = e;                                else                                    hiTail.next = e;                                hiTail = e;                            }                        } while ((e = next) != null);                        //原索引放到bucket里                        if (loTail != null) {                            loTail.next = null;                            newTab[j] = loHead;                        }                        //原索引+oldCap放大bucket中                        if (hiTail != null) {                            hiTail.next = null;                            newTab[j + oldCap] = hiHead;                        }                    }                }            }        }        return newTab;    }

在Hash极不均匀情况下jdk1.7和jdk1.8在get时性能对比

image

HashMap通常使用一个指针数组table[i]来分散所有的key,当一个key被加入时会通过Hash算法通过key算出这个下标,如果有两个不同的key的hash值相同在table[j]所在位置发生冲突,那么在table[j]这个位置会形成一个链表

HashMap存在的问题

哈希碰撞

1.如果Hashtable的尺寸很小,那么hash碰撞会非常的频繁对于一个O(1)的查找算法变成O(n)

线程安全问题

在并发环境下HashMap是线程不安全的,可能会出现环形链表死循环的问题

参考http://www.importnew.com/20386.html

原创粉丝点击