HashMap与ConcurrentHashMap的区别
来源:互联网 发布:抽数字软件在线 编辑:程序博客网 时间:2024/05/16 10:00
从JDK1.2起,就有了HashMap,正如前一篇文章所说,HashMap不是线程安全的,因此多线程操作时需要格外小心。
在JDK1.5中,伟大的Doug Lea给我们带来了concurrent包,从此Map也有安全的了。
ConcurrentHashMap具体是怎么实现线程安全的呢,肯定不可能是每个方法加synchronized,那样就变成了HashTable。
从ConcurrentHashMap代码中可以看出,它引入了一个“分段锁”的概念,具体可以理解为把一个大的Map拆分成N个小的HashTable,根据key.hashCode()来决定把key放到哪个HashTable中。
在ConcurrentHashMap中,就是把Map分成了N个Segment,put和get的时候,都是现根据key.hashCode()算出放到哪个Segment中:
测试程序:
- import java.util.concurrent.ConcurrentHashMap;
- public class ConcurrentHashMapTest {
- private static ConcurrentHashMap<Integer, Integer> map = new ConcurrentHashMap<Integer, Integer>();
- public static void main(String[] args) {
- new Thread("Thread1"){
- @Override
- public void run() {
- map.put(3, 33);
- }
- };
- new Thread("Thread2"){
- @Override
- public void run() {
- map.put(4, 44);
- }
- };
- new Thread("Thread3"){
- @Override
- public void run() {
- map.put(7, 77);
- }
- };
- System.out.println(map);
- }
- }
ConcurrentHashMap中默认是把segments初始化为长度为16的数组。
根据ConcurrentHashMap.segmentFor的算法,3、4对应的Segment都是segments[1],7对应的Segment是segments[12]。
(1)Thread1和Thread2先后进入Segment.put方法时,Thread1会首先获取到锁,可以进入,而Thread2则会阻塞在锁上:
(2)切换到Thread3,也走到Segment.put方法,因为7所存储的Segment和3、4不同,因此,不会阻塞在lock():
以上就是ConcurrentHashMap的工作机制,通过把整个Map分为N个Segment(类似HashTable),可以提供相同的线程安全,但是效率提升N倍,默认提升16倍。
concurrenthashmap是一个非常好的map实现,在高并发操作的场景下会有非常好的效率。实现的目的主要是为了避免同步操作时对整个map对象进行锁定从而提高并发访问能力。
ConcurrentHashMap 类中包含两个静态内部类 HashEntry 和 Segment。HashEntry 用来封装映射表的键 / 值对;Segment 用来充当锁的角色,每个 Segment 对象守护整个散列映射表的若干个桶。每个桶是由若干个 HashEntry 对象链接起来的链表。一个 ConcurrentHashMap 实例中包含由若干个 Segment 对象组成的数组。
- static final class HashEntry<K,V> {
- final K key; // 声明 key 为 final 型
- final int hash; // 声明 hash 值为 final 型
- volatile V value; // 声明 value 为 volatile 型
- final HashEntry<K,V> next; // 声明 next 为 final 型
- HashEntry(K key, int hash, HashEntry<K,V> next, V value) {
- this.key = key;
- this.hash = hash;
- this.next = next;
- this.value = value;
- }
- }
- static final class Segment<K,V> extends ReentrantLock implements Serializable {
- transient volatile int count; //在本 segment 范围内,包含的 HashEntry 元素的个数
- //volatile 型
- transient int modCount; //table 被更新的次数
- transient int threshold; //默认容量
- final float loadFactor; //装载因子
- /**
- * table 是由 HashEntry 对象组成的数组
- * 如果散列时发生碰撞,碰撞的 HashEntry 对象就以链表的形式链接成一个链表
- * table 数组的数组成员代表散列映射表的一个桶
- */
- transient volatile HashEntry<K,V>[] table;
- /**
- * 根据 key 的散列值,找到 table 中对应的那个桶(table 数组的某个数组成员)
- * 把散列值与 table 数组长度减 1 的值相“与”,得到散列值对应的 table 数组的下标
- * 然后返回 table 数组中此下标对应的 HashEntry 元素
- * 即这个段中链表的第一个元素
- */
- HashEntry<K,V> getFirst(int hash) {
- HashEntry<K,V>[] tab = table;
- return tab[hash & (tab.length - 1)];
- }
- Segment(int initialCapacity, float lf) {
- loadFactor = lf;
- setTable(HashEntry.<K,V>newArray(initialCapacity));
- }
- /**
- * 设置 table 引用到这个新生成的 HashEntry 数组
- * 只能在持有锁或构造函数中调用本方法
- */
- void setTable(HashEntry<K,V>[] newTable) {
- threshold = (int)(newTable.length * loadFactor);
- table = newTable;
- }
- }
注意Segment继承了ReentrantLock 锁
get操作不需要锁。第一步是访问count变量,这是一个volatile变量,由于所有的修改操作在进行结构修改时都会在最后一步写count变量,通过这种机制保证get操作能够得到几乎最新的结构更新。对于非结构更新,也就是结点值的改变,由于HashEntry的value变量是volatile的,也能保证读取到最新的值。接下来就是对hash链进行遍历找到要获取的结点,如果没有找到,直接访回null。对hash链进行遍历不需要加锁的原因在于链指针next是final的。但是头指针却不是final的,这是通过getFirst(hash)方法返回,也就是存在table数组中的值。这使得getFirst(hash)可能返回过时的头结点,例如,当执行get方法时,刚执行完getFirst(hash)之后,另一个线程执行了删除操作并更新头结点,这就导致get方法中返回的头结点不是最新的。这是可以允许,通过对count变量的协调机制,get能读取到几乎最新的数据,虽然可能不是最新的。要得到最新的数据,只有采用完全的同步。
- V get(Object key, int hash) {
- if (count != 0) { // read-volatile
- HashEntry e = getFirst(hash);
- while (e != null) {
- if (e.hash == hash && key.equals(e.key)) {
- V v = e.value;
- if (v != null)
- return v;
- return readValueUnderLock(e); // recheck
- }
- e = e.next;
- }
- }
- return null;
- }
- V readValueUnderLock(HashEntry e) {
- lock();
- try {
- return e.value;
- } finally {
- unlock();
- }
- }
put操作一上来就锁定了整个segment,这当然是为了并发的安全,修改数据是不能并发进行的,必须得有个判断是否超限的语句以确保容量不足时能够rehash,而比较难懂的是这句int index = hash & (tab.length - 1),原来segment里面才是真正的hashtable,即每个segment是一个传统意义上的hashtable,如上图,从两者的结构就可以看出区别,这里就是找出需要的entry在table的哪一个位置,之后得到的entry就是这个链的第一个节点,如果e!=null,说明找到了,这是就要替换节点的值(onlyIfAbsent == false),否则,我们需要new一个entry,它的后继是first,而让tab[index]指向它,什么意思呢?实际上就是将这个新entry插入到链头,剩下的就非常容易理解了。
- V put(K key, int hash, V value, boolean onlyIfAbsent) {
- lock();
- try {
- int c = count;
- if (c++ > threshold) // ensure capacity
- rehash();
- HashEntry[] tab = table;
- int index = hash & (tab.length - 1);
- HashEntry first = (HashEntry) tab[index];
- HashEntry e = first;
- while (e != null && (e.hash != hash || !key.equals(e.key)))
- e = e.next;
- V oldValue;
- if (e != null) {
- oldValue = e.value;
- if (!onlyIfAbsent)
- e.value = value;
- }
- else {
- oldValue = null;
- ++modCount;
- tab[index] = new HashEntry(key, hash, first, value);
- count = c; // write-volatile
- }
- return oldValue;
- } finally {
- unlock();
- }
- }
remove操作非常类似put,但要注意一点区别,中间那个for循环是做什么用的呢?(*号标记)从代码来看,就是将定位之后的所有entry克隆并拼回前面去,但有必要吗?每次删除一个元素就要将那之前的元素克隆一遍?这点其实是由entry 的不变性来决定的,仔细观察entry定义,发现除了value,其他所有属性都是用final来修饰的,这意味着在第一次设置了next域之后便不能再 改变它,取而代之的是将它之前的节点全都克隆一次。至于entry为什么要设置为不变性,这跟不变性的访问不需要同步从而节省时间有关,关于不变性的更多 内容,请参阅之前的文章《线程高级---线程的一些编程技巧》
- V remove(Object key, int hash, Object value) {
- lock();
- try {
- int c = count - 1;
- HashEntry[] tab = table;
- int index = hash & (tab.length - 1);
- HashEntry first = (HashEntry)tab[index];
- HashEntry e = first;
- while (e != null && (e.hash != hash || !key.equals(e.key)))
- e = e.next;
- V oldValue = null;
- if (e != null) {
- V v = e.value;
- if (value == null || value.equals(v)) {
- oldValue = v;
- // All entries following removed node can stay
- // in list, but all preceding ones need to be
- // cloned.
- ++modCount;
- HashEntry newFirst = e.next;
- * for (HashEntry p = first; p != e; p = p.next)
- * newFirst = new HashEntry(p.key, p.hash,
- newFirst, p.value);
- tab[index] = newFirst;
- count = c; // write-volatile
- }
- }
- return oldValue;
- } finally {
- unlock();
- }
- }
探索 ConcurrentHashMap 高并发性的实现机制:
http://www.ibm.com/developerworks/cn/java/java-lo-concurrenthashmap/
ConcurrentHashMap之实现细节
http://www.iteye.com/topic/344876
Map的并发处理(ConcurrentHashMap)
http://zl198751.iteye.com/blog/907927
集合框架 Map篇(4)----ConcurrentHashMap
http://hi.baidu.com/yao1111yao/blog/item/232f2dfc55fbcd5ad7887d9f.html
Java ConcurrentHashMap中的一点点迷惑
http://icanfly.iteye.com/blog/1450165
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- HashMap与ConcurrentHashMap的区别
- 无重边无向连通图的割点和桥
- CoreAnimation
- hadoop safemode 的设置
- La2678
- 无重边有向连通图的强连通分量
- HashMap与ConcurrentHashMap的区别
- 扯扯淡
- C#使用SqlBulkCopy批量更新数据
- 3】Hanoi汉诺塔问题
- java引用webRoot下的文件
- 【Hibernate】——悲观锁和乐观锁
- Java日期转换SimpleDateFormat格式大全
- Dubbo-redis集群搭建
- 解决Maven 默认jre1.5