并发环境下的缓存容器性能优化

来源:互联网 发布:淘宝客流量来源 编辑:程序博客网 时间:2024/05/20 21:59

我们在项目中经常会遇到这样的场景:一些信息读取开销较大,但只需要生成一次便可反复使用,因此我们会将其永久地缓存起来。例如在ASP.NET MVC中,系统会根据Controller的名称来缓存对应的元数据。这些缓存容器都有一些共同的特点,便是存储的对象数量有限(少则几十,多不过数千),但都需要在并发环境下被大量地读取,因此必须是线程安全的。那么,我们该如何设计这样的容器呢?

一个非常常见的做法是使用字典(System.Collections.Generic.Dictionary<TKey, TValue>)进行存储。字典使用了“哈希表”这个数据结构,其读取和写入的时间复杂度几乎都是O(1),性能可谓非常之高。只不过,字典不是线程安全的,例如它在添加元素的时候可能会对内部的bucket数组进行动态调整,这显然不是一个原子操作。因此,它无法直接用户并行环境的读写,我们对它的操作必须加锁。

说起加锁,最简单的方式便是在读和写方法中使用同一个互斥体(mutex)进行lock:

object mutex = new object();Dictionary<int, int> dict = new Dictionary<int, int>();// read with locklock (mutex){    var value = dict[1];}// write with locklock(mutex){    dict[1] = 1;}

这么做可以保证在任意时刻只有单个线程在访问字典,无论读写,这自然做到了线程安全。但是,这么做的话对于并发环境并不友好。因为一个字典是完全可以同时被多个线程“读”的,也就是说,如果我们简单使用lock便会大大降低“读”操作的可并发性,从而对性能产生负面影响。

那么我们能否对“写”操作进行lock,而让“读”操作完全自由呢?例如:

object mutex = new object();Dictionary<int, int> dict = new Dictionary<int, int>();// read directlyvar value = dict[1];// write with locklock(mutex){    dict[1] = 1;}

这也是不允许的。因为这样做无法避免在某个线程读取字典的同时,另一个线程正在修改字典。一旦出现读写操作同时进行的情况,字典就很可能被破坏了。因此,其实我们的要求有两点:

  • 只能由单个线程写,但可以由多个线程同时读。
  • 在进行读操作时,不可同时进行写操作。反之亦然。

这便是“读写锁”使用场景。只要使用“写”锁来保护修改操作,而使用“读”锁来保护读取操作,便可以让字典正确并高效地工作在并发环境下。“读写锁”在.NET框架中有着两个实现:ReaderWriterLock和ReaderWriterLockSlim。前者出现在.NET 1.x中,而后者随.NET 2.0发布。两者的区别在于前者性能低,后者性能高,因此在目前,基本上需要读写锁的场景都会建议使用ReaderWriterLockSlim(除了稍后会提到的情况)。

但是,ReaderWriterLockSlim并非不会带来开销,我们接下来的试验便要来验证这一点。首先,我们准备1000个数字,它们便是我们使用的测试数据源:

var source = Enumerable.Range(1, 1000).ToArray();var dict = source.ToDictionary(i => i);

然后,我们使用CodeTimer测试它在三种情况下的性能:

int iteration = 10000;CodeTimer.Initialize();CodeTimer.Time("Read Free", iteration, () =>{    foreach (var i in source)    {        var ignore = dict[i];    }});var rwLockSlim = new ReaderWriterLockSlim();CodeTimer.Time("ReaderWriterLockSlim", iteration, () =>{    foreach (var i in source)    {        rwLockSlim.EnterReadLock();        var ignore = dict[i];        rwLockSlim.ExitReadLock();    }});var rwLock = new ReaderWriterLock();CodeTimer.Time("ReaderWriterLock", iteration, () =>{    foreach (var i in source)    {        rwLock.AcquireReaderLock(0);        var ignore = dict[i];        rwLock.ReleaseReaderLock();    }});

最后一种方式使用了性能较差的ReaderWriterLock,我的目的除了表现出它与ReaderWriterLockSlim的性能差距之外,还有一个原因在于.NET 3.5的ReaderWriterLockSlim类会在某些时候读取Environment.ProcesserCount,这在Medium Trust的环境下会引发SecurityException。因此您会发现,在目前的ASP.NET MVC框架中,所有需要读写锁的地方都使用了ReaderWriterLock而不是Slim组件。

试验结果如下:

Read Free        Time Elapsed:   228ms        CPU Cycles:     538,190,052        Gen 0:          0        Gen 1:          0        Gen 2:          0ReaderWriterLockSlim        Time Elapsed:   1,161ms        CPU Cycles:     2,783,025,072        Gen 0:          0        Gen 1:          0        Gen 2:          0ReaderWriterLock        Time Elapsed:   2,792ms        CPU Cycles:     6,682,368,396        Gen 0:          0        Gen 1:          0        Gen 2:          0

可见,尽管ReaderWriterLockSlim的性能比ReaderWriterLock要高出许多,但相对于无锁的读取还是有明显差距。这让我感到很不合算,因为这是由缓存容器的使用性质决定的。在一般情况下,这种容器都是“有限次地修改”,而几近“无限次地读取”,尤其到了程序运行后期,所以该使用的对象都已经缓存下来,字典内容更不会产生任何改变——但是,每一次读取还要继续承受ReaderWriterLockSlim的开销,这笔帐相信人人会算。那么,我们又如何能够做到“无锁”地读取呢?既然我们“锁”的目的是因为需要“修改”,那么我们使用“不可变(Immutable)”的容器是否就能有所帮助呢?为此,我向F#借来了Immutable Map。

F#中的Map类定义在Microsoft.FSharp.Core.dll中,这需要安装F# SDK for Visual Studio 2008,当然如果您直接安装了VS 2010自然也就有了相应的程序集——不过一些辅助类库(如Microsoft.FSharp.PowerPack),以及源文件(F#是个开源的语言)还是需要去之前的链接里下载一个压缩包。在项目中引用了程序集后,便可以使用Microsoft.FSharp.Collections命名空间下的FSharpMap类型了。我们也为它准备了同样的试验代码:

var map = source.Aggregate(FSharpMap<int, int>.Empty, (m, i) => m.Add(i, i));CodeTimer.Time("Immutable Map", iteration, () =>{    foreach (var i in source)    {        var ignore = map[i];    }});

把它和ReaderWriterLockSlim相比,结果如下:

ReaderWriterLockSlim        Time Elapsed:   1,232ms        CPU Cycles:     2,963,830,380        Gen 0:          0        Gen 1:          0        Gen 2:          0Immutable Map        Time Elapsed:   2,055ms        CPU Cycles:     4,956,894,996        Gen 0:          0        Gen 1:          0        Gen 2:          0

嗯?为什么使用Immutable Map之后,即便没有锁,性能还是不如ReaderWriterLockSlim的版本呢?阅读代码(fsharp\FSharp.Core\map.fs)之后发现,其原因在于数据结构的选取上。FSharpMap的数据结构是“AVL树”,即自平衡(self-balancing)的二叉搜索树,它的Get操作时间复杂度是O(logN),N为节点个数——这自然比不过字典的O(1)时间复杂度了。那么,我们能否得到一个Get操作时间复杂度为O(1)的Immutable Map呢?

我在推特上提出这个问题之后不多久,许式伟大牛谈了他的看法:

我的理解中,FP中线性数据结构如数组,Hash等都会失效,所以没有O(1)的Immutable Map。

我同意这个看法。字典的高性能,在于求得key的Hash之后,可以通过数组下标“瞬间”定位到元素所在的bucket,但是在FP中无法做到这一点。不过幸好,我们用的C#并非是FP,我们有自己的“保底”方案:添加元素时将现有的元素完整复制到新的字典中,最后返回的是新的字典。例如:

public static class DictionaryExtensions{    public static Dictionary<TKey, TValue> AddImmutably<TKey, TValue>(        this Dictionary<TKey, TValue> source, TKey key, TValue value)    {        var result = source.ToDictionary(p => p.Key, p => p.Value);        result.Add(key, value);        return result;    }}

这不就是一个“不可变的哈希表”吗?当然,对于真正可应用的缓存容器来说,还需要考虑更多一些东西。我在这里准备了两个缓存容器的基类,可用于此类容器的实现。其中ReadWriteCache类基于ReaderWriterLockSlim,而ReadFreeCache类则基于不可变的字典。那么,这两种做法的性能究竟如何,又分别适合什么样的场景,我们还有没有其他的做法呢?

关于这些问题,就留到下次再讨论吧。


并发环境下的缓存容器性能优化(下):性能测试

2009-11-16 00:29 by 老赵, 16700 visits

上一篇文章里,我谈到对于某些场景中的缓存容器,其写操作非常少,到了程序后期甚至为零,而对它的读操作却几乎是密集连续且无穷无尽的。对于这样的容器,如果使用ReaderWriterLockSlim去进行保护每个“读”操作,这开销是在有些多余。因此我提出了“不可变”的哈希表,目的是在保持读操作的时间复杂度为O(1)的情况下,尽可能避免多余的开销。现在我们便将它和其他几种时间进行一个性能的对比。

需要强调一点的是,我们这里讨论的仅仅是符合我提出的特定场景的缓存容器,而不是一个“线程安全的字典”。或者说,其实我这里更强调的是“并发环境下”的“读”性能,而不涉及IDictionary<TKey, TValue>的其他操作(如Count),更不会关心如CopyTo、Remove这类功能的性能。

上一篇文章结束时,我给出了两个缓存容器的基类,可用于此类容器的实现。其中ReadWriteCache类基于ReaderWriterLockSlim,而ReadFreeCache类则基于不可变的字典。不过这两种做法不太适合进行性能测试,因此我这里的实验使用了这样的接口:

public interface IConcurrentCache<TKey, TValue>{    TValue Get(TKey key);    void Set(TKey key, TValue value);}

我为这个接口提供了几种最基本实现,无论是“读”还是“写”,都是最直接的,并不对任何特殊的情况(如key缺失,key重复)进行处理。例如ImmutableMapCache:

public class ImmutableMapCache<TKey, TValue> : IConcurrentCache<TKey, TValue>{    private object m_writeLock = new object();    private FSharpMap<TKey, TValue> m_map = FSharpMap<TKey, TValue>.Empty;    public TValue Get(TKey key)    {        return this.m_map[key];    }    public void Set(TKey key, TValue value)    {        lock (this.m_writeLock)        {            this.m_map = this.m_map.Add(key, value);        }    }}

ImmutableMapCache是基于F#中的Map而实现的读写操作。由于是Immutable的集合,因此对它的读操作不需要任何并发方面的保护——而写操作理论上也是线程安全的,但是我这里还是使用了lock。这是因为如果没有lock的话,在实际并发的场景中容易出现“摇摆”的情况出现。试想,同时有2个线程正在添加元素,它们同时读取了集合的当前状态,但是在写回的时候只后一个线程的操作生效,先写回的线程的修改丢失了。当并发程度高的情况下,“摇摆”会更加严重。因此,无论是ImmutableMapCache,还是基于Immutable Dictionary的实现,在Set操作中都使用lock进行保护。

测试代码如下:

static void CacheBenchmark<TCache>()    where TCache : IConcurrentCache<int, int>, new(){    var typeName = typeof(TCache).Name;    var index = typeName.IndexOf('`');    var cacheName = typeName.Substring(0, index);    // warm up    TCache cache = new TCache();    cache.Set(1, 1);    cache.Get(1);    for (int n = 100; n <= 1000; n += 100)    {        cache = new TCache();        CodeTimer.Time(cacheName + " (Set " + n + " elements)", 100, () =>        {            for (var i = 0; i < n; i++)            {                cache.Set(i, i);            }        });        CodeTimer.Time(cacheName + " (Get from " + n + " elements)", 1, () =>        {            var key = 0;            for (int i = 0; i < 1000 * 1000 * 5; i++)            {                cache.Get(key);                key = (key + 1) % n;            }        });    }}

请注意,这里的测试都是在单线程环境下的。严格来说,这并不表示每种容器在多线程环境下的表现。事实上,即便是多线程环境下,不同实现随并发程度的高低也会有所变化。因此,除了进行实验和观察结果之外,也必须结合实际情况进行思考,而不能简单的“采纳”这次实验的结果。在这里我们总共测试5种不同的实现:

CacheBenchmark<RwLockSlimDictionaryCache<int, int>>();CacheBenchmark<RwLockDictionaryCache<int, int>>();CacheBenchmark<ImmutableMapCache<int, int>>();CacheBenchmark<ImmutableDictionaryCache<int, int>>();CacheBenchmark<ConcurrentDictionaryCache<int, int>>();

它们分别是:

  1. RwLockSlimDictionary:基于Dictionary,使用ReaderWriterLockSlim进行保护的缓存容器。
  2. RwLockDictionary:基于Dictionary,使用ReaderWriterLock进行保护的缓存容器。
  3. Immutable Map:基于F#中Map实现的缓存容器。
  4. Immutable Dictionary:基于不可变的哈希表实现的缓存容器。
  5. Concurrent Dictionary:基于.NET 4.0中提供的Concurrent Dictionary实现的缓存容器。

运行环境是.NET 4.0 Beta 2,实验进行三次。我们首先关注“写”操作的结果,如下:

取平均值作为最后结果,并绘制成图表:

在这结果里我并没有包含基于Immutable Dictionary的实现,因为它的结果实在太惨,如果一并放入的话,其他实现方式就几乎看不出来了。我们在来看一下我们的测试代码,它是统计向一个空容器内添加n个元素所花的时间(n等于100、200、...、1000)。对于基于字典的实现来说,添加1个元素的时间复杂度是O(1),因此添加n个元素的时间复杂度是O(n)。而基于Immutable Map的实现,其添加1个元素的时间复杂度是O(log(n)),于是添加n个元素的时间复杂度是O(n * log(n))。这两种时间复杂度都可以从图表中表现出来——当然,这个表现形式是“趋势”也就是“形状”,同样的时间复杂度的常数还是不一样的。

那么Immutable Dictionary又是什么样的呢?我们为其单独进行一番实验,减小实验粒度,希望可以得到更清晰的结果:

for (int n = 100; n <= 10000; n += 100){    CodeTimer.Time(String.Format("add {0} elements", n), 1, () =>    {        var cache = new ImmutableDictionaryCache<int, int>();        for (int i = 0; i < n; i++)        {            cache.Set(i, i);        }    });}

将其结果绘制成图表:

向Immutable Dictionary中添加1个元素的时间复杂度是O(n),于是添加n个元素的时间复杂度则是O(n2),从图表上看,这趋势也是相当明显的。而且,与基于Dictionary的实现方式不同,由于Immutable Dictionary每次都要重新复制元素,它对于GC的压力也是非常可观的,如下:

从图中可以看到一个有趣的结果,那就是GC的频率在n为8000到9000的某一个时刻的收集频率突然开始加快了,莫非这就是传说中GC的自我调节能力吗?不过这并非是本次实验的关键,我们只需要发现说,Immutable Dictionary与Dictionary相比,前者对GC的消耗较大,而后者则几乎没有GC方面的压力。

在写方面,Immutable Dictionary的表现可谓残不忍睹,但如果是“读”的话,一切就都不一样了:

将结果绘制成图表:

与“写”操作的测试方式不同,“读”操作测试的是“从包含n个元素的容器中读取元素”所需要的时间。除了Immutable Map是O(logN)的时间复杂度外,其余4种容器都是基于Get操作时间复杂度为O(1)的哈希表。换句话说,基于Immutable Map的容器会随着元素数量而耗时增加,而其他4种容器,它们“读”操作的耗时和其中有多少元素并没有关系。

从结果上我们可以得出一些有趣的结论。首先,ReaderWriterLockSlim似乎会进行“自我调节”,一开始它的Write Lock开销较大,但是随着实验的进行,它的开销变小了很多。其次,基于Immutable Dictionary的实现自然因为其“Read Free”而表现最好,但是.NET中Concurrent Dictionary的表现也相当出色,可谓遥遥领先于基于ReaderWriterLockSlim的实现。而在“写”操作测试时,它的表现也可圈可点,仅次于RwLockSlimDictionary。我并不清楚Concurrent Dictionary的实现方式,有人说是Lock Free,也有人说是小粒度的锁。这点可以通过阅读代码来得知,在这里就不多作展开了。

http://blog.zhaojie.me/2009/11/concurrent-cache-performance-improvement-2-benchmark.html

0 0