缓存算法

来源:互联网 发布:剪力弯矩图软件 编辑:程序博客网 时间:2024/06/11 17:41

缓存算法

1)        LFU (LeastFrequently Used)

会计算为每个缓存对象计算他们被使用的频率。把最不常用的缓存对象踢走。

2)        LRU (LeastRecently User)

把最近最少使用的缓存对象给踢走。

浏览器就是使用了我(LRU)作为缓存算法。新的对象会被放在缓存的顶部,当缓存达到了容量极限,我会把底部的对象踢走,而技巧就是:我会把最新被访问的缓存对象,放到缓存池的顶部。

所以,经常被读取的缓存对象就会一直呆在缓存池中。有两种方法可以实现我,array 或者是 linked list。

速度很快,也可以被数据访问模式适配。其中包括 LRU2 和 2Q在内的缓存算法就是为了完善 LRU 而存在的。

3)        LRU2 (LeastRecently Used 2)

我是 Least Recently Used 2,有人叫我最近最少使用 twice,我更喜欢这个叫法。我会把被两次访问过的对象放入缓存池,当缓存池满了之后,我会把有两次最少使用的缓存对象踢走。因为需要跟踪对象2次,访问负载就会随着缓存池的增加而增加。如果把我用在大容量的缓存池中,就会有问题。另外,我还需要跟踪那么不在缓存的对象,因为他们还没有被第二次读取。我比LRU好,而且是 adoptive to access 模式。

4)        2Q (Two Queues)

我把被访问的数据放到 LRU 的缓存中,如果这个对象再一次被访问,我就把他转移到第二个、更大的 LRU 缓存。

我踢走缓存对象是为了保持第一个缓存池是第二个缓存池的1/3。当缓存的访问负载是固定的时候,把 LRU 换成 LRU2,就比增加缓存的容量更好。这种机制使得我比 LRU2 更好,我也是 LRU 家族中的一员,而且是 adoptive to access 模式。

5)        Adaptive Replacement Cache(ARC):

我是 ARC,有人说我是介于 LRU 和 LFU 之间,为了提高效果,我是由2个 LRU 组成,第一个,也就是 L1,包含的条目是最近只被使用过一次的,而第二个 LRU,也就是 L2,包含的是最近被使用过两次的条目。因此, L1 放的是新的对象,而 L2 放的是常用的对象。所以,别人才会认为我是介于 LRU 和 LFU 之间的,不过没关系,我不介意。

我被认为是性能最好的缓存算法之一,能够自调,并且是低负载的。我也保存着历史对象,这样,我就可以记住那些被移除的对象,同时,也让我可以看到被移除的对象是否可以留下,取而代之的是踢走别的对象。我的记忆力很差,但是我很快,适用性也强。

6)        Most Recently Used(MRU)

我是 MRU,和 LRU 是对应的。我会移除最近最多被使用的对象,你一定会问我为什么。好吧,让我告诉你,当一次访问过来的时候,有些事情是无法预测的,并且在缓存系统中找出最少最近使用的对象是一项时间复杂度非常高的运算,这就是为什么我是最好的选择。

我是数据库内存缓存中是多么的常见!每当一次缓存记录的使用,我会把它放到栈的顶端。当栈满了的时候,你猜怎么着?我会把栈顶的对象给换成新进来的对象!

7)        First in First out(FIFO):

我是先进先出,我是一个低负载的算法,并且对缓存对象的管理要求不高。我通过一个队列去跟踪所有的缓存对象,最近最常用的缓存对象放在后面,而更早的缓存对象放在前面,当缓存容量满时,排在前面的缓存对象会被踢走,然后把新的缓存对象加进去。我很快,但是我并不适用。

8)        Second Chance:

大家好,我是 second chance,我是通过 FIFO 修改而来的,被大家叫做 second chance 缓存算法,我比 FIFO 好的地方是我改善了 FIFO 的成本。我是 FIFO 一样也是在观察队列的前端,但是很FIFO的立刻踢出不同,我会检查即将要被踢出的对象有没有之前被使用过的标志(1一个 bit 表示),没有被使用过,我就把他踢出;否则,我会把这个标志位清除,然后把这个缓存对象当做新增缓存对象加入队列。你可以想象就这就像一个环队列。当我再一次在队头碰到这个对象时,由于他已经没有这个标志位了,所以我立刻就把他踢开了。我在速度上比 FIFO 快。

9)        CLock:

我是 Clock,一个更好的 FIFO,也比 second chance 更好。因为我不会像 second chance 那样把有标志的缓存对象放到队列的尾部,但是也可以达到 second chance 的效果。

我持有一个装有缓存对象的环形列表,头指针指向列表中最老的缓存对象。当缓存 miss 发生并且没有新的缓存空间时,我会问问指针指向的缓存对象的标志位去决定我应该怎么做。如果标志是0,我会直接用新的缓存对象替代这个缓存对象;如果标志位是1,我会把头指针递增,然后重复这个过程,知道新的缓存对象能够被放入。我比 second chance 更快。

10)     Simple time-based:

我是 simple time-based 缓存算法,我通过绝对的时间周期去失效那些缓存对象。对于新增的对象,我会保存特定的时间。我很快,但是我并不适用。

11)     Extended time-based expiration:

我是 extended time-based expiration 缓存算法,我是通过相对时间去失效缓存对象的;对于新增的缓存对象,我会保存特定的时间,比如是每5分钟,每天的12点。

12)     Sliding time-based expiration:

我是 sliding time-based expiration,与前面不同的是,被我管理的缓存对象的生命起点是在这个缓存的最后被访问时间算起的。我很快,但是我也不太适用。

 

 

其他的缓存算法还考虑到了下面几点:

成本:如果缓存对象有不同的成本,应该把那些难以获得的对象保存下来。

容量:如果缓存对象有不同的大小,应该把那些大的缓存对象清除,这样就可以让更多的小缓存对象进来了。

时间:一些缓存还保存着缓存的过期时间。电脑会失效他们,因为他们已经过期了。

根据缓存对象的大小而不管其他的缓存算法可能是有必要的。

缓存算法的实现

Random Cache

我是随机缓存,我随意的替换缓存实体,没人敢抱怨。你可以说那个被替换的实体很倒霉。通过这些行为,我随意的去处缓存实体。我比 FIFO 机制好,在某些情况下,我甚至比 LRU 好,但是,通常LRU都会比我好。

 

看看缓存元素(缓存实体)

public class CacheElement

 {

    private Object objectValue;

    private Object objectKey;

    private int index;

    private int hitCount; // getters and setters

 }

这个缓存实体拥有缓存的key和value,这个实体的数据结构会被以下所有缓存算法用到。

 

缓存算法的公用代码

public final synchronized voidaddElement(Object key, Object value)

{

   int index;

   Object obj;

   // get the entry from the table

   obj = table.get(key);

   // If we have the entry already in our table

   // then get it and replace only its value.

   obj = table.get(key);

 

   if (obj != null)

    {

       CacheElement element;

       element = (CacheElement) obj;

       element.setObjectValue(value);

       element.setObjectKey(key);

       return;

    }

上面的代码会被所有的缓存算法实现用到。这段代码是用来检查缓存元素是否在缓存中了,如果是,我们就替换它,但是如果我们找不到这个 key 对应的缓存,我们会怎么做呢?那我们就来深入的看看会发生什么吧!

 

,。让我们从 Random Cache开始。

 

看看随机缓存的实现(Random)

public final synchronized voidaddElement(Object key, Object value)

{

   int index;

   Object obj;

   obj = table.get(key);

   if (obj != null)

    {

       CacheElement element;// Just replace the value.

       element = (CacheElement) obj;

       element.setObjectValue(value);

       element.setObjectKey(key);

       return;

   }// If we haven't filled the cache yet, put it at the end.

   if (!isFull())

    {

       index = numEntries;

       ++numEntries;

    }

   else { // Otherwise, replace a random entry.

       index = (int) (cache.length * random.nextFloat());

       table.remove(cache[index].getObjectKey());

    }

   cache[index].setObjectValue(value);

   cache[index].setObjectKey(key);

   table.put(key, cache[index]);

}

看看FIFO缓算法的实现(FIFO)

public final synchronized voidaddElement(Objectkey, Object value)

{

   int index;

   Object obj;

   obj = table.get(key);

   if (obj != null)

    {

       CacheElement element; // Just replace the value.

       element = (CacheElement) obj;

       element.setObjectValue(value);

       element.setObjectKey(key);

       return;

    }

   // If we haven't filled the cache yet, put it at the end.

   if (!isFull())

    {

       index = numEntries;

       ++numEntries;

    }

   else { // Otherwise, replace the current pointer,

          // entry with the new one.

       index = current;

       // in order to make Circular FIFO

       if (++current >= cache.length)

           current = 0;

       table.remove(cache[index].getObjectKey());

    }

   cache[index].setObjectValue(value);

   cache[index].setObjectKey(key);

   table.put(key, cache[index]);

}

看看LFU缓存算法的实现(LFU)

public synchronized ObjectgetElement(Object key)

{

   Object obj;

   obj = table.get(key);

   if (obj != null)

    {

       CacheElement element = (CacheElement) obj;

       element.setHitCount(element.getHitCount() + 1);

       return element.getObjectValue();

    }

   return null;

}

public final synchronized voidaddElement(Object key, Object value)

{

   Object obj;

   obj = table.get(key);

   if (obj != null)

    {

       CacheElement element; // Just replace the value.

       element = (CacheElement) obj;

       element.setObjectValue(value);

       element.setObjectKey(key);

       return;

    }

   if (!isFull())

    {

       index = numEntries;

       ++numEntries;

    }

   else

    {

       CacheElement element = removeLfuElement();

       index = element.getIndex();

       table.remove(element.getObjectKey());

    }

   cache[index].setObjectValue(value);

   cache[index].setObjectKey(key);

   cache[index].setIndex(index);

   table.put(key, cache[index]);

}

public CacheElement removeLfuElement()

{

   CacheElement[] elements = getElementsFromTable();

   CacheElement leastElement = leastHit(elements);

   return leastElement;

}

public static CacheElementleastHit(CacheElement[] elements)

{

   CacheElement lowestElement = null;

   for (int i = 0; i < elements.length; i++)

    {

       CacheElement element = elements[i];

       if (lowestElement == null)

       {

           lowestElement = element;

       }

       else {

           if (element.getHitCount() < lowestElement.getHitCount())

           {

                lowestElement = element;

           }

       }

    }

   return lowestElement;

}

 

最重点的代码,就应该是 leastHit 这个方法,这段代码就是把hitCount 最低的元素找出来,然后删除,给新进的缓存元素留位置。

 

看看LRU缓存算法实现(LRU)

private void moveToFront(int index)

{

   int nextIndex, prevIndex;

   if(head != index)

    {

       nextIndex = next[index];

       prevIndex = prev[index];

       // Only the head has a prev entrythat is an invalid index

       // so we don't check.

       next[prevIndex] = nextIndex;

       // Make sure index is valid. If it isn't, we're at the tail

       // and don't set prev[next].

       if(nextIndex >= 0)

           prev[nextIndex] = prevIndex;

       else

           tail = prevIndex;

       prev[index] = -1;

       next[index] = head;

       prev[head] = index;

       head = index;

    }

}

public final synchronized voidaddElement(Object key, Object value)

{

   int index;Object obj;

   obj = table.get(key);

   if(obj != null)

    {

       CacheElement entry;

       // Just replace the value, but move it to the front.

       entry = (CacheElement)obj;

       entry.setObjectValue(value);

        entry.setObjectKey(key);

       moveToFront(entry.getIndex());

       return;

    }

   // If we haven't filled the cache yet, place in next available

   // spot and move to front.

   if(!isFull())

    {

       if(_numEntries > 0)

       {

           prev[_numEntries] = tail;

           next[_numEntries] = -1;

           moveToFront(numEntries);

       }

       ++numEntries;

    }

   else { // We replace the tail of the list.

       table.remove(cache[tail].getObjectKey());

       moveToFront(tail);

    }

   cache[head].setObjectValue(value);

   cache[head].setObjectKey(key);

   table.put(key, cache[head]);

}

这段代码的逻辑如 LRU算法 的描述一样,把再次用到的缓存提取到最前面,而每次删除的都是最后面的元素。

 

结论

我们已经看到 LFU缓存算法 和 LRU缓存算法的实现方式,至于如何实现,采用数组还是 LinkedHashMap,都由你决定,不够我一般是小的缓存容量用数组,大的用 LinkedHashMap。

0 0