Twitter实时搜索系统EarlyBird的总结

来源:互联网 发布:单片机433接收程序 编辑:程序博客网 时间:2024/05/16 08:00

由于一些原因需要了解twitter的EarlyBird系统,至于对我们有什么作用...看看bloomfilter-chains就清楚了一个很好的移植,各处搜集加上自己的理解,现在作为一个总结放到这里:

EarlyBird是Twitter的实时搜索引擎,它目前服务于Twitter的tweet的搜索。建立之初,Twitter的工程师就为它定下几大目标:

(1)低延迟高吞吐的检索能力。
(2)低延迟高处理能力的索引构建。
(3)能够处理突发峰值。支持并发读写。
(4)突出时效性。时间越近权值越高。

Earlybird还有一个特点,每个用户得到的搜索结果都是“个性化”的。结果排序会根据用户的本地关系图等特征进行调整。总的来看,earlybird需要处理如下3种数据(Twitter的工程师称之为信号,signal):

  1. 静态信号(Static Signals):在初次建立索引的时候被建入,例如:tweet的语言
  2. 共鸣信号(Resonance Signals):随着时间的推移,需要不断动态更新的信息,例如:tweet被转发的次数
  3. 搜索用户的信息:和用户相关的信息,在发起搜索时被用来进行个性化排序。例如,本地关系图等

下面是从网上找到的一个架构图:

注:

twitter对存档tweet使用lucene做全量索引。

tweet的实时索引(10秒之内索引)EarlyBird完成。




  • 图的上半部分是tweet的索引构建阶段,下半部分是检索阶段。Earlybird服务是整个系统的核心,它负责建立、检索并维护着倒排索引数据。
  • 索引构建过程如下:
    1. 用户发布的新tweet会被发送到一个队列(Ingestion Pipeline)里面。在这里,tweet的文本被分词,并被加上静态信号。
    2. 按照hash分割,tweet被分发到各个Earlybird服务上。Earlybird将tweet实时地建立索引
    3. 同时,另外有个一个Updater服务,它推送共鸣信号到Earlybird服务,动态地更新索引。
  • 查询过程如下:
    1. 用户搜索请求搜先到达Blender服务(搜索前端服务器),Blender解析请求,并将搜索用户的本地社交图谱(Local Social Graph)合并到搜索请求中,往下发送到Earlybird服务。
    2. Earlybird服务执行相关性计算并排序。并将排序好的tweet列表返回给Blender。
    3. Blender合并各个Earlybird返回的列表,并执行一些重排序(Reranking),然后返回给用户



下面,我们主要关注一下Earlybird的索引结构。其中最主要的2个部分: Term字典 和 倒排索引 。

-->Term字典:
Term字典一般是Hash-based或者Tree-based的。Earlybird不需要支持计算query中term的偏移prefix等复杂查询,所以用哈希表就足够了。term字典就是一个大的hashtable。由于Java默认的Hashmap使用的是拉链法,不是gc友好的数据结构,所以Earlybird自己实现了开放链址法实现,避免大量小对象gc开销。为了节约空间,每个Term被分配了一个唯一且单调递增的id做为key,value的数据包含:

  1、Term对应的倒排索引数据长度 2、指向位置倒排索引数据末尾的指针

这里保存倒排索引长度的目的是为了在多Term的拉链归并的时候,能按照索引长度进行排序,使得长度小的先先被合并,减少不必要的索引扫描。


这里有2个小问题:

  1. Q: 保存倒排索引长度的目的?
    • A: 在多Term的拉链归并的时候,能按照索引长度进行排序,使得长度小的先先被合并,减少不必要的索引扫描
  2. Q: 为什么保存的是倒排索引末尾的指针,而不是头部?
    • A: 如初识Earlybird中提到,Earlybird有对发布时间做优化,即,新的tweet有较高权值,那么它理应被先遍历到。


-->倒排索引

为了实现高吞吐、低延时地并发索引更新和检索服务,Earlybird采取了将分离索引的读和写的策略:每个实例维护了多个索引分段(目前是12个1),每个分段保存相对较少量的tweet(目前是223~840万1)。新增加的tweet首先被放到同一个索引分段中。这样,在任意时间,只有一个分段是在发生写操作的(我们称之为“活动分段”),而其它分段处于只读状态(称之为“只读分段”)。当一个活动分段写满之后,它就会被转换成一个只读分段,转换过程中,一系列优化会被执行,以提高效率:一份新的索引数据会被创建,原数据不会发生改变。当新数据创建完毕之后,原数据会被优化过的新数据替换掉。 postinglist会以1000为阈值划分为“长”和“短”的两类。短的,posting保持原样(24-bit文档id加上8-bit的位置信息),但是posting会按照时间逆序排列。对于长的postinglist,引入基于块(block-based)的来源于PForDelta2和Simple93的压缩算法。postings数据被存放在256字节定长的block中。block的最开头4个字节是未压缩的,接下来的4个字节存储了block的头信息,剩下248字节(1984bits)用来存储编码过后的变长的posting数据。原始的posting数据被转换成{d-gap, position}的对。头信息中保存着,后面的变长数据中存储了多少个{d-gap, position}对。这个n的计算方法如下:

n((log2gapmax)+(log2posmax))1984
因为上面n的取值范围在一个相对较小的区间,可以使用预先定义好的bit操作来加速编码解码。

下面是具体的数据结构



索引结构包括4pool每个pool里面有若干个slice每个slice保存一个termpostinglist每个postinglist里面存储着一个termposting信息,每个posting是一个32-bit的整数:24-bit用作文档id8-bit用作位置id保存termtweet中出现的位置。因为tweet140字符限制,所以8-bit足够用。
slice的大小由所在pool的级别决定,4pool分别对应212427211。建立索引时,先尝试填满21pool中的slice如果填满,就转到24poolslice以此类推。termdict中保存term对应的最后一个pool的中postinglist尾部指针,而不是首部。这样做的目的是,Twitter的检索顺序是按照时间顺序,数据的新旧程度在排序算法中占了很大比重。


在这样的索引结构下,一般的查询的步骤是这样的:

1、对Query进行分词成term。对每个term,查询Term dict中对应的postlinglist的指针。

2、通过指针,最多遍历4个pool中的slice数据,获得整个postinglist。

3、通过针对用户的特色处理之后返给用户结果。

为了加快处理速度,处于活动状态的分段数据是不会被压缩的。

为了实现高吞吐、低延时地并发索引更新和检索服务,Earlybird采取了将分离索引的读和写的策略:每个实例维护了多个索引分段(目前是12个),每个分段保存相对较少量的tweet。新增加的tweet首先被放到同一个索引分段中。这样,在任意时间,只有一个分段是在发生写操作的(称之为“活动分段”),而其它分段处于只读状态(称之为“只读分段”)。
11个只读段并发读不需要锁,唯一的可读可写段使用volatile关键字实现高效同步(jvm memory barrier)一个segment中tweet数量超过8.4m时,segment经过optimize(不是lucene中的段合并,而是做压缩)变为read only。11个只读段并发读不需要锁,唯一的可读可写段使用volatile关键字实现高效同步(jvm memory barrier)。twitter全量和增量分开的设计中,全量可以只有删除操作,禁止段合并,避免了段合并的问题,new generation和old generation的大小可以在整个运行阶段保持稳定,有利于系统性能的平稳高效。




0 0