多region下的hbase写入问题

来源:互联网 发布:jquery展示表单数据 编辑:程序博客网 时间:2024/05/16 14:05
最近在集群上发现hbase写入性能受到较大下降,测试环境下没有该问题产生。而生产环境和测试环境的区别之一是生产环境的region数量远远多于测试环境,单台regionserver服务了约3500个region。 
    通过jstack工具检查到大半写入线程BLOCKED状态在"public synchronized void reclaimMemStoreMemory() {"这一行,这是在put之前的一个检查过程。 
    hbase在每次put以前,需要检查当前regionserver上的memstore是否超过总memstore阀值,如果超过,需要block住当前的写入,防止OOM,代码片段见下: 
Java代码  收藏代码
  1. /** 
  2.    * Check if the regionserver's memstore memory usage is greater than the 
  3.    * limit. If so, flush regions with the biggest memstores until we're down 
  4.    * to the lower limit. This method blocks callers until we're down to a safe 
  5.    * amount of memstore consumption. 
  6.    */  
  7.   public synchronized void reclaimMemStoreMemory() {  
  8.     if (isAboveHighWaterMark()) {  
  9.       lock.lock();  
  10.       try {  
  11.         while (isAboveHighWaterMark() && !server.isStopped()) {  
  12.           wakeupFlushThread();  
  13.           try {  
  14.             // we should be able to wait forever, but we've seen a bug where  
  15.             // we miss a notify, so put a 5 second bound on it at least.  
  16.             flushOccurred.await(5, TimeUnit.SECONDS);  
  17.           } catch (InterruptedException ie) {  
  18.             Thread.currentThread().interrupt();  
  19.           }  
  20.         }  
  21.       } finally {  
  22.         lock.unlock();  
  23.       }  
  24.     } else if (isAboveLowWaterMark()) {  
  25.       wakeupFlushThread();  
  26.     }  
  27.   }  

    这是一个同步操作,其中isAboveHighWaterMark()的代码如下: 
Java代码  收藏代码
  1. private boolean isAboveHighWaterMark() {  
  2.   return server.getGlobalMemStoreSize() >= globalMemStoreLimit;  
  3. }  

    getGlobalMemStoreSize()里面的操作是遍历所有region,拿到每个region的memstore大小: 
Java代码  收藏代码
  1. public long getGlobalMemStoreSize() {  
  2.   long total = 0;  
  3.   for (HRegion region : onlineRegions.values()) {  
  4.     total += region.memstoreSize.get();  
  5.   }  
  6.   return total;  
  7. }  

    如果region数量很多就比较杯具了,在单台服务器3500个region的环境下通过btrace跟踪到这一步需要耗时0.4ms,也就是每一个put会block所有线程0.4ms,这样无法发挥出server端并行处理能力,同时可以计算出无论如何配置,写tps无法超过1000/0.4=2500! 
    产生这个问题的根本原因是在0.90.x版本中,region无法拿到regionserver的信息,因此只能通过实时计算来得到rs上总的memstore大小。在0.92.0或trunk版本中修改了HRegion的数据结构,让HRegion在初始化时得到regionserver的信息,因此可以实时记录memstore的总大小,并让每个region对象能拿到该值,于是这个isAboveHighWaterMark()就不再block住所有线程了,在region较多的场景下写性能得到较大提升。 
    参照https://issues.apache.org/jira/browse/HBASE-3694,可以以此patch为参考生成相应的0.90.x版本的patch
原创粉丝点击