java并发编程——ConcurrentHashMap(1.8)
来源:互联网 发布:淘宝红包链接转手机端 编辑:程序博客网 时间:2024/06/05 04:38
请先阅读ConcurrentHashMap1.7源码阅读,对JDK1.7(1.6中也基本一致)中的ConcurrentHashMap有个大致了解。
前言
本文通过阅读源码,借助debug方式对费解的地方尝试逐句分析.透彻的讲解1.8版本ConcurrentHashMap
我们阅读源码的思路是从一个使用样例入手,一步步debug去分析:
public class ConcurrentHashMapTest { public static void main(String[] args) throws InterruptedException { //阅读初始化源码 Map<String, String> cm = new ConcurrentHashMap<String, String>(); for (int i = 0; i < 10; i++) { //阅读put操作源码 cm.put("key_" + i, "value_" + i); } for (int i = 0; i < 12; i++) { //阅读get操作源码 System.out.println(cm.get("key_" + i)); } //others operations ...... }}
初始化ConcurrentHashMap
重要成员变量:
/** * 负数(hash buckets正在初始化或者重新扩容): * -1:表示初始化;-|n|表示n-1个线程正在执行resize。 * * 正数或0: * 0:表示hash buckets表还没有被初始化; * 正数:初始化hash buckets之前,表示hash buckets的数组size(capacity). * 初始化之后,表示下一次扩容的阈值, * 它的值始终是当前ConcurrentHashMap容量的0.75倍 * (使用位运算提高效率:n - (n >>> 2)==n*0.75), * 这与loadfactor是对应的. * * 可以看到,与之前版本实现比较,一个volatile int sizeCtl变量充当了多种身份. */ private transient volatile int sizeCtl; /** * 数组桶.在第一次插入操作(即put)时候完成初始化(lazy init). * 思考?这里volatile的意义是什么(volatile修饰一个数组声明): * volatitle只能对数组的引用产生作用,而数组内的具体元素则没有 * volatile语义作用。所以这里只是保证table能指向最新的内存地址。 * * 由于数组被volatile关键字修饰,因此不用担心数组的可见性问题。 * 同时每个元素是一个Node实例它的Key值和hash值都由final修饰, * 不可变更,无须关心它们 * 被修改后的可见性问题。而其Value及对下一个元素的引用由volatile修饰,可见性也有保障 */ transient volatile Node<K, V>[] table;
/** * @param initialCapacity 初始化的容量,通过位运算根据这个值计算出一个2的N次幂的值,来作为 hash buckets数组的size. * 默认16 * @param loadFactor hash buckets的密度,根据这个值来确定是否需要扩容.默认0.75 * @param concurrencyLevel 并发更新线程的预估数量.默认1. */ public ConcurrentHashMap8(int initialCapacity, float loadFactor, int concurrencyLevel) { if (!(loadFactor > 0.0f) || initialCapacity < 0 || concurrencyLevel <= 0) throw new IllegalArgumentException(); if (initialCapacity < concurrencyLevel) // Use at least as many bins initialCapacity = concurrencyLevel; // as estimated threads long size = (long) (1.0 + (long) initialCapacity / loadFactor); int cap = (size >= (long) MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : tableSizeFor((int) size); this.sizeCtl = cap;//初始化为cap }
/** * 根据预期的capacity参数,返回一个2的N次幂 */ private static final int tableSizeFor(int c) { int n = c - 1; n |= n >>> 1; n |= n >>> 2; n |= n >>> 4; n |= n >>> 8; n |= n >>> 16; return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1; }
关于这个talbeSizeFor(int c)所用的算法,详情参考:
tableSizeFor取数算法
ConcurrentHashMap底层数据结构
ConcurrentHashMap通过组合一个 Node<K, V>[] table
数组+Node单向链表,来作为底层数据储存的结构。
static class Node<K, V> implements Map.Entry<K, V> { final int hash;//key的hashcode执行了hash函数后的值 final K key; volatile V val;//volatile保证其可见性,下同 volatile Node<K, V> next; Node(int hash, K key, V val, Node<K, V> next) { this.hash = hash; this.key = key; this.val = val; this.next = next; } ....
Put
与HashMap不同(允许key、value为null),ConcurrentHashMap中key、value都不允许为null,否则会报NPE。
put
public V put(K key, V value) { return putVal(key, value, false); }
putVal
// onlyIfAbsent默认为false,允许key相同的value被覆盖 final V putVal(K key, V value, boolean onlyIfAbsent) { if (key == null || value == null) throw new NullPointerException(); // hash=(h ^(h >>>16))& HASH_BITS:移位运算使高位参与运算,尽可能分布以便减少哈希冲突 //这个int hash将作为key对应的结点Node中的成员变量hash使用 int hash = spread(key.hashCode()); int binCount = 0; for (Node<K, V>[] tab = table;;) { Node<K, V> f; int n, i, fh; if (tab == null || (n = tab.length) == 0) tab = initTable();//1.数组桶初始化(延迟初始化hash桶,第一次put操作),并计算下一次rehash的阈值 else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {//i = (n -1) & hash:hash数组桶的index,非常类似hashMap的key计算方法 //2.如果这个key对应的数组f位置没有元素,则CAS初始化这个f数组元素(单向链表Node对象) if (casTabAt(tab, i, null, new Node<K, V>(hash, key, value, null))) break; } else if ((fh = f.hash) == MOVED)//3.f结点已经转换为ForwardingNode,表示有其他线程正在扩容 tab = helpTransfer(tab, f); else { V oldVal = null; synchronized (f) {//4.锁住链表f(或者红黑树) if (tabAt(tab, i) == f) {//再次判断,如果失败则释放锁 if (fh >= 0) { binCount = 1;//记录当前数组桶中的链表Node个数. //5.遍历链表,新增或者覆盖 for (Node<K, V> e = f;; ++binCount) { K ek; //5.1:查找是否有重复的key,尝试覆盖(默认覆盖) if (e.hash == hash && ((ek = e.key) == key || (ek != null && key.equals(ek)))) {//当前节点,key.hash&&key匹配 oldVal = e.val;//记录原有value if (!onlyIfAbsent)//是否允许覆盖 默认允许 e.val = value;//覆盖 break; } //5.2:链表末端上新增一个结点 Node<K, V> pred = e; if ((e = e.next) == null) {//移动到下个结点,直到尾部 pred.next = new Node<K, V>(hash, key, value, null);//为null表示到达链表尾部,此时在尾部插入新的结点。否则继续遍历这个链表 break; } } } else if (f instanceof TreeBin) {//6.红黑树则使用红黑树插入 Node<K, V> p; binCount = 2; if ((p = ((TreeBin<K, V>) f).putTreeVal(hash, key, value)) != null) { oldVal = p.val; if (!onlyIfAbsent) p.val = value; } } } } //7.通过binCount判断链表上结点个数,是否需要链表转红黑树 if (binCount != 0) { if (binCount >= TREEIFY_THRESHOLD) treeifyBin(tab, i); if (oldVal != null) return oldVal;//当同一个key覆盖value的情况下,直接返回oldVal,无需执行后续计数代码 break; } } } addCount(1L, binCount);//8 return null; }
接着对put方法中用到的几个方法做进一步解析:
initTable
/** * 1.初始化数组桶 * 2.确认下次扩容阈值(sizeCtl使用CAS设置) */ private final Node<K, V>[] initTable() { Node<K, V>[] tab; int sc; while ((tab = table) == null || tab.length == 0) { if ((sc = sizeCtl) < 0)//当sizeCtl<0表示当前对象正在初始化,尝试yield cpu时间以避免不必要的竞争 Thread.yield(); // lost initialization race; just spin else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {// CAS设置为-1表示正在初始化 try { if ((tab = table) == null || tab.length == 0) {//再次判断 int n = (sc > 0) ? sc : DEFAULT_CAPACITY;//设置初始数组桶的size.默认数组个数16 @SuppressWarnings("unchecked") Node<K, V>[] nt = (Node<K, V>[]) new Node<?, ?>[n];// 数组桶生成 table = tab = nt; sc = n - (n >>> 2);//计算下一次扩容阈值,等价于sc=n*0.75 } } finally { sizeCtl = sc;// resize 阈值 } break; } } return tab; }
addCount
private final void addCount(long x, int check) {//put方法调用:x默认为1;binCount表示链表遍历的当前个数 CounterCell[] as; long b, s; if ((as = counterCells) != null || !U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {//当前k\v元素总数,加1 CounterCell a; long v; int m; boolean uncontended = true;//默认假设不存在竞争 if (as == null || (m = as.length - 1) < 0 || (a = as[ThreadLocalRandom.getProbe() & m]) == null || !(uncontended = U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) { fullAddCount(x, uncontended); return; } if (check <= 1) return; s = sumCount(); } if (check >= 0) {//下边这段逻辑,会在数量达到阈值时做resize: Node<K, V>[] tab, nt; int n, sc; //当前总数(+1后)>=阈值(sc) && table数组不为null && 数组个数不超标 while (s >= (long) (sc = sizeCtl) && (tab = table) != null && (n = tab.length) < MAXIMUM_CAPACITY) { int rs = resizeStamp(n); if (sc < 0) {//-1:表示初始化;-|n|表示n-1个线程正在执行resize. if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 || sc == rs + MAX_RESIZERS || (nt = nextTable) == null || transferIndex <= 0) break; if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1)) transfer(tab, nt); } else if (U.compareAndSwapInt(this, SIZECTL, sc, (rs << RESIZE_STAMP_SHIFT) + 2))//将sizectl设置为一个很大的负数,然后进行transfer扩容,结束transfer后设置为下一次扩容的阈值 transfer(tab, null);//首次执行 s = sumCount(); } } }
待续
阅读全文
1 0
- java并发编程——ConcurrentHashMap(1.8)
- java并发编程——ConcurrentHashMap
- Java并发容器—ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- java并发编程之ConcurrentHashMap
- Java并发编程之ConcurrentHashMap
- 解惑 spring 嵌套事务
- 预编译之条件编译指令#if /#ifdef/#if defined
- 深度学习概述
- java入门基础编-5-逻辑判断语句
- AR 广告大屏虚拟礼物模块功能一
- java并发编程——ConcurrentHashMap(1.8)
- left jion on条件与where条件的区别
- Android
- Java中的线程池原理
- 凸包之Graham扫描法
- CSDN如何关注好友
- android非正常关掉应用操作--最近任务列表,应用管理
- 初识Jpa
- 用自己创建的镜像run一个节点,连接有问题