memcached源码分析-----item锁级别与item引用计数

来源:互联网 发布:2017网络流行歌曲歌名 编辑:程序博客网 时间:2024/05/18 03:18



        转载请注明出处:http://blog.csdn.net/luotuo44/article/details/42913549



锁级别:

        从前面的《扩展哈希表》知道:哈希表进行扩展时,有一个专门的线程负责将item数据从旧哈希表迁移到新哈希表(因此,也称这个线程为迁移线程)。此外,还有一些worker线程会时不时访问item(包括插入、删除和获取)。这些线程的对item所做的操作基本上都是互斥的,必须加锁控制。

        如果只使用一个锁,抢到锁能使用哈希表,抢不到则不能使用。那么memcached的效率将变得相当低。为此,memcached采用类似数据库的策略:使用不同级别的锁。memcached定义了两个级别的锁:段级别和全局级别。在平时(不进行哈希表扩展时),使用段级别的锁。在扩展哈希表时,使用全局级别的锁。

        段级别是什么级别?将哈希表按照几个桶一段几个桶一段地平均分,一个段对应有多个桶,每一个段对应有一个锁。所以整个哈希表有多个段级别锁。由于段级别锁的数量在程序的一开始就已经确定了,不会再变的了。而随着哈希表的扩展,桶的数量是会增加的。所以随着哈希表的扩展,越来越多的桶对应一个段,也就是说越来越多的桶对应一个锁。


        在哈希表扩展阶段,迁移线程和workers线程都使用全局锁。这些线程竞争全局锁,抢到锁才允许对哈希表的item进行操作。在非扩展阶段,迁移线程处于休眠状态,workers线程使用段级别锁,抢到了某个段锁就允许访问对应的多个桶。因此如果不同的worker线程访问不同的段,那么就可以同时访问了,增加了并发量。

      

        下面看一下段级别锁和全局级别锁的定义。thread_init函数分配并初始化段级别锁。

static pthread_mutex_t *item_locks;//指向段锁数组的指针/* size of the item lock hash table */static uint32_t item_lock_count;//段锁的数量static unsigned int item_lock_hashpower;static pthread_mutex_t item_global_lock;//全局锁#define hashsize(n) ((unsigned long int)1<<(n))void thread_init(int nthreads, struct event_base *main_base) {    int         i;    int         power;    pthread_mutex_init(&cache_lock, NULL);    pthread_mutex_init(&init_lock, NULL);    pthread_cond_init(&init_cond, NULL);//nthreads是workers线程的数量,由main函数调用时传入来    if (nthreads < 3) {        power = 10;    } else if (nthreads < 4) {        power = 11;    } else if (nthreads < 5) {        power = 12;    } else {//最大为13        /* 8192 buckets, and central locks don't scale much past 5 threads */        power = 13;    }//power是2的幂    item_lock_count = hashsize(power);    item_lock_hashpower = power;//哈希表中段级别的锁。并不是一个桶就对应有一个锁。而是多个桶共用一个锁    item_locks = calloc(item_lock_count, sizeof(pthread_mutex_t));    if (! item_locks) {        perror("Can't allocate item locks");        exit(1);    }    for (i = 0; i < item_lock_count; i++) {        pthread_mutex_init(&item_locks[i], NULL);    }    pthread_mutex_init(&item_global_lock, NULL);    ...}


切换锁级别:

        现在看一下怎么使用段级别锁和全局级别锁。迁移线程并不会使用段级别锁,在assoc.c的assoc_maintenance_thread函数中,迁移线程只会调用item_lock_global()函数锁上全局锁item_global_lock。这里主要是看workers线程是怎么使用段级别锁和全局级别锁的。


worker线程的锁级别:

        workers线程如果要访问哈希表的item,会先调用item_lock函数进行加锁。item_lock函数会根据需要自动选择使用段级别锁还是全局级别锁。下面是具体的代码。

//memcached.h文件//item锁级别enum item_lock_types {    ITEM_LOCK_GRANULAR = 0, //段级别    ITEM_LOCK_GLOBAL //全局级别};//thread.c文件static pthread_key_t item_lock_type_key;//线程私有数据的键值void item_lock(uint32_t hv) {//获取线程私有变量    uint8_t *lock_type = pthread_getspecific(item_lock_type_key);//likely这个宏定义用于代码指令优化//likely(*lock_type == ITEM_LOCK_GRANULAR)用来告诉编译器//*lock_type等于ITEM_LOCK_GRANULAR的可能性很大if (likely(*lock_type == ITEM_LOCK_GRANULAR)) {//使用段级别锁的概率很大//对某些桶的item加锁        mutex_lock(&item_locks[hv & hashmask(item_lock_hashpower)]);    } else {    //对所有item加锁        mutex_lock(&item_global_lock);    }}void item_unlock(uint32_t hv) {    uint8_t *lock_type = pthread_getspecific(item_lock_type_key);    if (likely(*lock_type == ITEM_LOCK_GRANULAR)) {        mutex_unlock(&item_locks[hv & hashmask(item_lock_hashpower)]);    } else {        mutex_unlock(&item_global_lock);    }}

        可以看到memcached根据线程私有变量(对应的键值为item_lock_type_key)确定当前要使用哪个锁。只要为每一个worker线程都设置键值为item_lock_type_key的线程私有数据。要切换锁,直接修改线程的私有数据即可。接着看一下workers线程私有数据的初始化。

static LIBEVENT_THREAD *threads;void thread_init(int nthreads, struct event_base *main_base) {...pthread_key_create(&item_lock_type_key, NULL);    for (i = 0; i < nthreads; i++) {//创建worker线程,线程函数为worker_libevent, 线程参数为&threads[i]        create_worker(worker_libevent, &threads[i]);    }...}static void *worker_libevent(void *arg) {//这个函数也是在初始化时调用的    LIBEVENT_THREAD *me = arg;    me->item_lock_type = ITEM_LOCK_GRANULAR;//初试状态使用段级别锁//为workers线程设置线程私有数据//因为所有的workers线程都会调用这个函数,所以所有的workers线程都设置了相同键值的//线程私有数据    pthread_setspecific(item_lock_type_key, &me->item_lock_type);...}


实现切换:

        可以看到每个线程的线程私有数据是每个线程都独有的LIBEVENT_THREAD结构体的成员变量item_lock_type。只要根据需要把workers线程的item_lock_type变量修改就可以完成锁的切换。哈希表迁移线程会在assoc.c文件中的assoc_maintenance_thread函数调用switch_item_lock_type函数,让所有的workers线程都切换到段级别锁或者全局级别锁。现在来看一下具体是怎么实现的。

void switch_item_lock_type(enum item_lock_types type) {    char buf[1];    int i;    switch (type) {        case ITEM_LOCK_GRANULAR:            buf[0] = 'l';//用l表示ITEM_LOCK_GRANULAR 段级别锁            break;        case ITEM_LOCK_GLOBAL:            buf[0] = 'g';//用g表示ITEM_LOCK_GLOBAL 全局级别锁            break;        default:            fprintf(stderr, "Unknown lock type: %d\n", type);            assert(1 == 0);            break;    }    pthread_mutex_lock(&init_lock);    init_count = 0;    for (i = 0; i < settings.num_threads; i++) {//通过向worker监听的管道写入一个字符通知worker线程        if (write(threads[i].notify_send_fd, buf, 1) != 1) {            perror("Failed writing to notify pipe");            /* TODO: This is a fatal problem. Can it ever happen temporarily? */        }    }//等待所有的workers线程都把锁切换到type指明的锁类型    wait_for_thread_registration(settings.num_threads);    pthread_mutex_unlock(&init_lock);}static void wait_for_thread_registration(int nthreads) {    while (init_count < nthreads) {        pthread_cond_wait(&init_cond, &init_lock);    }}

        因为所有的workers线程都在处于event_base循环中,可以直接往workers线程监听的管道中写入一个字节就能通知workers线程了。

        迁移线程为什么要这么迂回曲折地切换workers线程的锁类型呢?直接修改所有线程的LIBEVENT_THREAD结构的item_lock_type成员变量不就行了吗?

        这主要是因为迁移线程不知道worker线程此刻在干些什么。如果worker线程正在访问item,并抢占了段级别锁。此时你把worker线程的锁切换到全局锁,等worker线程解锁的时候就会解全局锁(参考前面的item_lock和item_unlock代码),这样程序就崩溃了。所以不能迁移线程去切换,只能迁移线程通知worker线程,然后worker线程自己去切换。当然是要worker线程忙完了手头上的事情后,才会去修改切换的。所以迁移线程在通知完所有的worker线程后,会调用wait_for_thread_registration函数休眠等待所有的worker线程都切换到指定的锁类型后才醒来。

 

        现在来看一下workers线程是怎么切换的。因为前面迁移线程往workers线程监听的管道写入了一个字符,所以我们直接看workers线程设置的管道event监听函数thread_libevent_process。

static void thread_libevent_process(int fd, short which, void *arg) {    LIBEVENT_THREAD *me = arg;    char buf[1];    if (read(fd, buf, 1) != 1)        if (settings.verbose > 0)            fprintf(stderr, "Can't read from libevent pipe\n");    switch (buf[0]) {  ...     case 'l':    me->item_lock_type = ITEM_LOCK_GRANULAR;//切换item到段级别//唤醒睡眠在init_cond条件变量上的迁移线程    register_thread_initialized();        break;    case 'g':    me->item_lock_type = ITEM_LOCK_GLOBAL;//切换item锁到全局级别    register_thread_initialized();        break;    }}static void register_thread_initialized(void) {    pthread_mutex_lock(&init_lock);    init_count++;    pthread_cond_signal(&init_cond);    pthread_mutex_unlock(&init_lock);}


按需切换:

        现在已经看完了基础设施的构建,来看回迁移线程是怎么调控一切的吧。

void item_lock_global(void) {    mutex_lock(&item_global_lock);}void item_unlock_global(void) {    mutex_unlock(&item_global_lock);}static void *assoc_maintenance_thread(void *arg) {//do_run_maintenance_thread是全局变量,初始值为1,在stop_assoc_maintenance_thread//函数中会被赋值0,终止迁移线程    while (do_run_maintenance_thread) {        int ii = 0;        /* Lock the cache, and bulk move multiple buckets to the new         * hash table. */        item_lock_global();//锁上全局级别的锁,全部的item都在全局锁的控制之下//锁住哈希表里面的item。不然别的线程对哈希表进行增删操作时,会出现//数据不一致的情况.在item.c的do_item_link和do_item_unlink可以看到//其内部也会锁住cache_lock锁.        mutex_lock(&cache_lock);...//这里是迁移一个桶的数据到新哈希表//遍历完一个桶的所有item后,就释放锁        mutex_unlock(&cache_lock);        item_unlock_global();//释放全局锁        if (!expanding) {//不再需要迁移数据了。            /* finished expanding. tell all threads to use fine-grained(细粒度的) locks *///进入到这里,说明已经不需要迁移数据(停止扩展了)。//告诉所有的workers线程,访问item时,切换到段级别的锁。//会阻塞到所有workers线程都切换到段级别的锁            switch_item_lock_type(ITEM_LOCK_GRANULAR);            slabs_rebalancer_resume();            /* We are done expanding.. just wait for next invocation */            mutex_lock(&cache_lock);            started_expanding = false; //重置//挂起扩展线程,直到别的线程插入数据后发现item数量已经到了1.5倍哈希表大小,//此时调用别的线程调用assoc_start_expand函数,该函数会调用pthread_cond_signal//唤醒扩展线程            pthread_cond_wait(&maintenance_cond, &cache_lock);            /* Before doing anything, tell threads to use a global lock */            mutex_unlock(&cache_lock);            slabs_rebalancer_pause();//从maintenance_cond条件变量中醒来,说明又要开始扩展哈希表和迁移数据了。//迁移线程在迁移一个桶的数据时是锁上全局级别的锁.//此时workers线程不能使用段级别的锁,而是要使用全局级别的锁,//所有的workers线程和迁移线程一起,争抢全局级别的锁.//哪个线程抢到了,才有权利访问item.//下面一行代码就是通知所有的workers线程,把你们访问item的锁切换//到全局级别的锁。switch_item_lock_type会通过条件变量休眠等待,//直到,所有的workers线程都切换到全局级别的锁,才会醒来过            switch_item_lock_type(ITEM_LOCK_GLOBAL);            mutex_lock(&cache_lock);            assoc_expand();//申请更大的哈希表,并将expanding设置为true            mutex_unlock(&cache_lock);        }    }    return NULL;}

        眼尖的读者可能还看到了mutex_lock(&cache_lock)和slabs_rebalancer_resume()。不错,这又是对两个锁进行加锁处理。为什么要加这两个锁呢?是因为除了worker线程外还有其他一些线程,这些线程会操作LRU队列和哈希表。但这些线程没有像worker线程那样,可以被通知。所以只能再使用另外的大锁。当然这些线程大部分时间都是在休眠,对性能不会影响太大。由于涉及其他线程,本篇博文也是不会进一步进行讲解这两个锁。




引用计数:


为何需要引用计数:

        读者如果对C++的shared_ptr有所了解,那会更容易看懂接下来的内容。因为shared_ptr也用到引用计数的概念。

        为了保证线程安全,在访问和操作一个item时就必须加锁。而加锁就必然会导致性能的下降。如果在处理读操作的一开始就加锁,直到处理完读操作才解锁(即全程加锁),那么对于一些热门数据将难于进行更新操作(也就是写操作)。这是因为对于热门数据有读操作会相当频繁,写操作将迟迟得不到执行。如果不全程加锁,那么又会出现一个worker线程在读一个item,而另外一个worker线程在删除这个item。如果这个item被删除了,那么正在读的item就操作一个非法的item。为了性能和处理这种情况,memcached使用引用计数技术。这里的引用计数C++的智能指针shared_ptr原理是一样的。当没有线程在引用这个item后,就会删除这个item(实际是将内存归还给slab分配器)。

 

        memcached为了使用引用计数技术,在item结构体定义了一个refcount成员,用于记录这个item被引用(被worker线程占用)的总数。当然增加和减少item的引用计数都必须是原子操作。为此,memcached定义了两个函数。

unsigned short refcount_incr(unsigned short *refcount) {#ifdef HAVE_GCC_ATOMICS    return __sync_add_and_fetch(refcount, 1);#elif defined(__sun)    return atomic_inc_ushort_nv(refcount);#else    unsigned short res;    mutex_lock(&atomics_mutex);    (*refcount)++;    res = *refcount;    mutex_unlock(&atomics_mutex);    return res;#endif}unsigned short refcount_decr(unsigned short *refcount) {#ifdef HAVE_GCC_ATOMICS    return __sync_sub_and_fetch(refcount, 1);#elif defined(__sun)    return atomic_dec_ushort_nv(refcount);#else    unsigned short res;    mutex_lock(&atomics_mutex);    (*refcount)--;    res = *refcount;    mutex_unlock(&atomics_mutex);    return res;#endif}//refcount_incr(&it->refcount);一般是这样调用的// refcount_decr(&it->refcount)

        如果不懂__sync_add_and_fetch和__sync_sub_and_fetch,那么赶紧谷歌之。因为它们是比较重要的函数,可以用来制作无锁队列。这两个函数都会返回操作后的值。


怎么使用引用计数:

        当然即使有了引用计数还是需要加锁的。因为在获取item和增加引用计数这一间隔,可能有其他线程把这个item给删除了。所以一般流程是这样:worker线程先加锁,然后获取item,之后增加这item的引用计数,最后释放锁。此时worker线程就占有了这个item,其他worker线程在执行删除操作时必须检测这个item的引用计数是否为0,也就是检查是否还有其他worker线程在使用(引用)这个item。下面举一个例子。        

item *item_get(const char *key, const size_t nkey) {    item *it;    uint32_t hv;    hv = hash(key, nkey);    item_lock(hv);    it = do_item_get(key, nkey, hv);    item_unlock(hv);    return it;}/** wrapper around assoc_find which does the lazy expiration logic *///调用do_item_get的函数都已经加上了item_lock(hv)段级别锁或者全局锁item *do_item_get(const char *key, const size_t nkey, const uint32_t hv) {    item *it = assoc_find(key, nkey, hv);//assoc_find函数内部没有加锁        if (it != NULL) {//找到了,此时item的引用计数至少为1        refcount_incr(&it->refcount);//线程安全地自增一...    } ...    return it;}

        处理get命令时就会调用上面那些代码。整个流程就像刚才说的那样。当然worker线程最后还需要减少这个item的引用计数。对于get命令来说,最后会调用item_remove命令减少item的引用计数。是不是觉得这里调用一个名为remove函数很奇怪呢?看代码实现吧。

void item_remove(item *item) {    uint32_t hv;    hv = hash(ITEM_key(item), item->nkey);    item_lock(hv);    do_item_remove(item);    item_unlock(hv);}void do_item_remove(item *it) {        assert((it->it_flags & ITEM_SLABBED) == 0);    assert(it->refcount > 0);    if (refcount_decr(&it->refcount) == 0) {//引用计数等于0的时候归还        item_free(it);//归还该item给slab分配器    }}

        可以看到,这是因为减少一个item的引用数可能要删除这个item。为什么呢?考虑这样的情景,线程A因为要读一个item而增加了这个item的引用计数,此时线程B进来了,它要删除这个item。这个删除命令是肯定会执行的,而不是说这个item被别的线程引用了就不执行删除命令。但又肯定不能马上删除,因为线程A还在使用这个item,此时memcached就采用延迟删除的做法。线程B执行删除命令时减多一次item的引用数,使得当线程A释放自己对item的引用后,item的引用数变成0。此时item就被释放了(归还给slab分配器)。

 

        有一点要注意:当一个item插入到哈希表和LRU队列后,那么这个item就被哈希表和LRU队列所引用了。此时,如果没有其他线程在引用这个item的话,那么这个item的引用数为1(哈希表和LRU队列看作一个引用)。所以一个worker线程要删除一个item(当然在删除前这个worker线程要占有这个item),那么需要减少两次item的引用数,一次是减少哈希表和LRU队列的引用,另外一次是减少自己的引用。所以经常能在代码中看到删除一个item需要调用函数do_item_unlink (it, hv)和do_item_remove(it)这两个函数。


tail_repair_time:

        考虑这样的情况:某个worker线程通过refcount_incr增加了一个item的引用数。但由于某种原因(可能是内核出了问题),这个worker线程还没来得及调用refcount_decr就挂了。此时这个item的引用数就肯定不会等于0,也就是总有worker线程占用着它.但实际上这个worker线程早就挂了。所以对于这种情况需要修复。修复也很多简单:直接把这个item的引用计数赋值为1。

        根据什么判断某一个worker线程挂了呢?首先在memcached里面,一般来说,任何函数都的调用都不会耗时太大的,即使这个函数需要加锁。所以如果这个item的最后一次访问时间距离现在都比较遥远了,但它却还被一个worker线程所引用,那么就几乎可以判断这个worker线程挂了。在1.4.16版本之前,这个时间距离都是固定的为3个小时。从1.4.16开就使用settings.tail_repair_time存储时间距离,可以在启动memcached的时候设置,默认时间距离为1个小时。现在这个版本1.4.21默认都不进行这个修复了,settings.tail_repair_time的默认值为0。因为memcached的作者很少看到这个bug了,估计是因为操作系统的进一步稳定。上面的版本说明来自链接1和链接2。

        上面进行了理论说明,下面看一下memcached实现吧。

item *do_item_alloc(char *key, const size_t nkey, const int flags,                    const rel_time_t exptime, const int nbytes,                    const uint32_t cur_hv) {    uint8_t nsuffix;    item *it = NULL;    char suffix[40];//要存储这个item需要的总空间    size_t ntotal = item_make_header(nkey + 1, flags, nbytes, suffix, &nsuffix);    if (settings.use_cas) {        ntotal += sizeof(uint64_t);    }//根据大小判断从属于哪个slab    unsigned int id = slabs_clsid(ntotal);    item *search;    item *next_it;    search = tails[id];    for (;search != NULL; search=next_it) {        next_it = search->prev;        uint32_t hv = hash(ITEM_key(search), search->nkey);        /* Now see if the item is refcount locked */        if (refcount_incr(&search->refcount) != 2) {            refcount_decr(&search->refcount);            /* Old rare bug could cause a refcount leak. We haven't seen             * it in years, but we leave this code in to prevent failures             * just in case */            if (settings.tail_repair_time &&//启动了检测                    search->time + settings.tail_repair_time < current_time) {//在这个时间距离内都没有访问过                search->refcount = 1;//释放线程对item的引用                do_item_unlink_nolock(search, hv);//这里会把item从哈希表和LRU队列中删除并将引用计数减一            }            continue;        }...    }...}

        代码中的settings.tail_repair_time指明有没有开启这种检测,默认是没有开启的(默认值等于0)。可以在启动memcached的时候通过-o tail_repair_time选项开启。具体可以参考《memcached启动参数详解以及关键配置的默认值》。







2 0