系统吞度量评估

来源:互联网 发布:qq购物号网络名称 编辑:程序博客网 时间:2024/05/02 00:03

一.系统吞度量要素:

   一个系统的吞度量(承压能力)与requestCPU的消耗、外部接口、IO等等紧密关联。

单个reqeust CPU消耗越高,外部系统接口、IO影响速度越慢,系统吞吐能力越低,反之越高。

 

系统吞吐量几个重要参数:QPSTPS)、并发数、响应时间

         QPSTPS     每秒钟request/事务 数量

         并发数:          系统同时处理的request/事务数

         响应时间:      一般取平均响应时间

(很多人经常会把并发数和TPS理解混淆)

 

理解了上面三个要素的意义之后,就能推算出它们之间的关系:

QPSTPS= 并发数/平均响应时间

 

         一个系统吞吐量通常由QPSTPS)、并发数两个因素决定,每套系统这两个值都有一个相对极限值,在应用场景访问压力下,只要某一项达到系统最高值,系统的吞吐量就上不去了,如果压力继续增大,系统的吞吐量反而会下降,原因是系统超负荷工作,上下文切换、内存等等其它消耗导致系统性能下降。

 

 

决定系统响应时间要素

我们做项目要排计划,可以多人同时并发做多项任务,也可以一个人或者多个人串行工作,始终会有一条关键路径,这条路径就是项目的工期。

系统一次调用的响应时间跟项目计划一样,也有一条关键路径,这个关键路径是就是系统影响时间;

关键路径是有CPU运算、IO、外部系统响应等等组成。

 

二.系统吞吐量评估:

我们在做系统设计的时候就需要考虑CPU运算、IO、外部系统响应因素造成的影响以及对系统性能的初步预估。

而通常境况下,我们面对需求,我们评估出来的出来QPS、并发数之外,还有另外一个维度:日PV

通过观察系统的访问日志发现,在用户量很大的情况下,各个时间周期内的同一时间段的访问流量几乎一样。比如工作日的每天早上。只要能拿到日流量图和QPS我们就可以推算日流量。

通常的技术方法:

         1. 找出系统的最高TPS和日PV,这两个要素有相对比较稳定的关系(除了放假、季节性因素影响之外)

         2. 通过压力测试或者经验预估,得出最高TPS,然后跟进1的关系,计算出系统最高的日吞吐量

 

B2B中文和淘宝面对的客户群不一样,这两个客户群的网络行为不应用,他们之间的TPSPV关系比例也不一样。

A)       淘宝

 

 淘宝流量图:

 

 

淘宝的TPSPV之间的关系通常为  最高TPSPV大约为 1 : 11*3600 (相当于按最高TPS访问11个小时,这个是商品详情的场景,不同的应用场景会有一些不同)

 

B) B2B中文站

B2BTPSPV之间的关系不同的系统不同的应用场景比例变化比较大,粗略估计在1 : 8个小时左右的关系(09年对offerdetail的流量分析数据)。旺铺和offerdetail这两个比例相差很大,可能是因为爬虫暂的比例较高的原因导致。

 

 

 

在淘宝环境下,假设我们压力测试出的TPS100,那么这个系统的日吞吐量=100*11*3600=396

这个是在简单(单一url)的情况下,有些页面,一个页面有多个request,系统的实际吞吐量还要小




淘宝前台系统优化实践“吞吐量优化”-Qcon2011

宝前台系统优化实践“吞吐量优化”-Qcon2011 - Presentation Transcript

  1. 淘宝前台系统优化实践 “吞吐量优化” —— 淘宝网,蒋江伟 —— xiaoxie@taobao.com 1
  2. 淘 宝业务增加迅猛 pv1,400,000,0001,200,000,0001,000,000,000 800,000,000 600,000,000 pv 400,000,000 200,000,000 0 2007-05-08 2008-5-8 2009-5-8 2010-5-8 uv 40,000,000 35,000,000 30,000,000 25,000,000 20,000,000 uv 15,000,000 10,000,000 5,000,000 0 2007-05-08 2008-5-8 2009-5-8 2010-5-8 2
  3. 某前台系统服务器 数量300250200 100000150 服务器100 50 服务器总量超过15000 0 2009-1-X 2009-3-x 2009-6-x 2010-2-x 2010-5-x 3
  4. Choice 持续增加的服务器数量 VS 持续提升单机吞吐量 运维、管理 成本持续增加 增加单机吞吐量1倍,服务器数量减少1倍 在服务器数量达到一定级别的时候,非常合算 4
  5. • 目的 – 控制服务器增长数量• 主题 – 提升淘宝前台系统单服务器的QPS 5
  6. 主 要内容• QPS(吞吐量)三要素• 优化模板 – 至少提升50%• 优化大数据的处理 – 至少提升5%• 优化jvm参数 – 合理配置young区的大小(0%~100%) – 减少GC的总时间• 保持优化的成果 – Daily load running – Daily hotspot code analysis 6
  7. QPS的3要素• 线程• 响应时间• 瓶颈资源 7
  8. 线 程• 设置多少线程合适? – 设置过少 1、对象生命周期 – 设置过多 2、内存占用总量 • 线程过多导致QPS下降 有个系统:线程数量在12~20之间的时候QPS几乎稳定在120左 右,但是一旦线程数量超过30时候,FGC开始频繁,由于FGC导致 的线程被挂起时间变成了整个系统的瓶颈,QPS下降,随着线程数 量的增加,QPS下降非常明显,线程数量在100的时候,QPS只有 60左右 8
  9. 设置多少线程合适?• CPU+1• CPU-1 有这样一个模块 •cpu计算时间18ms(running) •查询数据库,网络io时间80ms(waiting) •解析结果2ms 如果服务器2CPU,大家看看这里多少线程合适? 18 80 2 充分利用CPU资源: 线程数量=100/20 * 2 =10 9
  10. • 所以从CPU角度而言 线程数量=((CPU时间+CPU等待时间) / CPU时间) * CPU数量• 线程数量的设置就是由CPU决定的? 有这样一个模块: •线程同步锁(数据库事务锁)50ms •cpu时间18ms •查询数据库,网络io时间80ms •解析结果2ms 如果服务器有2个CPU,这个模块线程多少 合适? 50 18 80 2 lock unlock 10
  11. 50 18 80 2 lock unlock• 以CPU计算为瓶颈,计算线程数量 – 线程数=(18 + 2 + 50 + 80) / 20 * 2 = 15• 以线程同步锁为瓶颈,计算线程数 – 线程数=(50 + 18 + 2 + 80) / 50 * 1/1 = 3公式1: 线程数量=(线程总时间/瓶颈资源时间) * 瓶颈资源的线程并行数 准确的讲 瓶颈资源的线程并行数=瓶颈资源的总份数/单次请求占用瓶颈资源的份数约束: 在计算的时候,对同一类资源的消耗时间进行合幵 11
  12. QPS的3要素2 • 响应时间 – QPS = 1000/响应时间 – QPS = 1000/响应时间 * 线程数量 – 响应时间决定QPS?分析数据(10) 搜索商城 (50) 搜索产品(25) 搜索商品(100) 处理结果(15) cpu waiting waiting waiting cpu 线程数量=线程总时间/瓶颈资源时间 * 瓶颈资源幵行数 线程数量=(10 + 50 + 25 + 100 + 15 )/ (10 + 15) * 4 = 32 QPS = 线程数量 * 1000/响应总时间 QPS = 32 * 1000/(10 + 50 + 25 + 100 + 15 ) = 160 12
  13. 改进 分析数据(10) 搜索商城 (50) 搜索产品(25) 搜索商品(100) 处理结果(15) cpu waiting waiting waiting cpu 分析数据(10) 搜索商城 (50) 总体响应时间变化 搜索产品(25) 200ms—125ms 搜索商品(100) 处理结果(15)线程数量=线程总时间/瓶颈资源时间 瓶颈资源幵行数线程数量=(10 + 100 + 15)/ (10 + 15) * 4= 20QPS = 20 * 1000 / (10 + 100 + 15) = 160 13
  14. 线程数量=线程总时间/瓶颈资源时间 * 瓶颈资源幵行数QPS = 线程数量 * 1000/线程总时间公式2: QPS = 1000/瓶颈资源时间 * 瓶颈资源并行数 14
  15. 汇 总• 公式1: 线程数量= 线程必须总时间/瓶颈资源时间 * 瓶颈资源幵行数• 约束: 在计算的时候,对同一类资源的消耗时间进行合幵• 公式2: QPS = 1000/瓶颈资源时间 * 瓶颈资源幵行数 15
  16. QPS的3要素3• 瓶颈资源 – 淘宝的前台系统的瓶颈资源是什么? CPU 16
  17. • 淘宝前台系统特点 – 劢态页面渲染输出 – 页面非常大 – 数据来自多个远程服务 – 除了日志几乎没有对磁盘的读写 搜索 引擎 – 相对一些后台服务QPS低 商品 系统 中心 交易 中心 用户 DB 中心 数据 渲染 模板 17
  18. 影响系统QPS的瓶颈 Net IO Disk IO CPU Thread Syn lock 内存GC hold Remoting Sys QPS limit Threads limit 18
  19. • AB 压测系统,系统的CPU基本上都跑到了85%以上 搜索结果解析18% 模板渲染65% 19
  20. 优 化模板2式• 第1式:char to byte 测试例子1: private static String content = “…94k…”; protected doGet(…){ response.getWrite().print(content); } 测试例子2: private static String content = “…94k…”; Private static byte[] bytes = content.getBytes(); protected doGet(…){ response.getOutputStream().write(bytes); } 20
  21. • 压测结果: 系统 页面大小(K) 最高QPS 测试例子1 94 1800 Servlet print 测试例子2 94 3500 Servlet byte 21
  22. String csn = (charsetName == null) ? "ISO-8859-1" : charsetName; if ((se == null) || !(csn.equals(se.requestedCharsetName()) || csn.equals(se.charsetName()))) {Char to byte se = null; try { Charset cs = lookupCharset(csn); if (cs != null) se = new StringEncoder(cs, csn); } catch (IllegalCharsetNameException x) {} if (se == null)• Why? throw new UnsupportedEncodingException (csn); set(encoder, se); } return se.encode(ca, off, len); – 1、通过,java.lang. StringCoding进行encode } – 2、找到挃定的编码Charset ,默认ISO8859-1 ------------StringEncoder.class byte[] encode(char[] ca, int off, int len) { – 3、 利用CharsetEncoder的实现类,对每个Char转成byte int en = scale(len, ce.maxBytesPerChar()); byte[] ba = new byte[en]; if (len == 0) return ba; ce.reset(); ByteBuffer bb = ByteBuffer.wrap(ba); CharBuffer cb = CharBuffer.wrap(ca, off, len); try { CoderResult cr = ce.encode(cb, bb, true); if (!cr.isUnderflow()) cr.throwException(); cr = ce.flush(bb); ”只 做 一 次 的 事 情 丌 要 每 次 都 做 , 可 以 预 先 if (!cr.isUnderflow()) cr.throwException(); } catch (CharacterCodingException x) { 做 的 事 情 , 预 先 处 理 ”,一旦底层代码没有遵 // Substitution is always enabled, // so this shouldnt happen throw new Error(x); 循这个原则,那么影响是多么的深远 } return safeTrim(ba, bb.position(), cs); } } ISO_8859_1.java private CoderResult encodeArrayLoop(CharBuffer src, ByteBuffer dst) { char[] sa = src.array(); int sp = src.arrayOffset() + src.position(); int sl = src.arrayOffset() + src.limit(); assert (sp <= sl); sp = (sp <= sl ? sp : sl); byte[] da = dst.array(); 22 int dp = dst.arrayOffset() + dst.position(); int dl = dst.arrayOffset() + dst.limit(); assert (dp <= dl);
  23. 淘宝对Velocity进行了重构• 利用 char to byte (100%)• 解析执行改成了编译后执行 (10% ) 50% 23
  24. 疑 问• 解析执行转编译后执行的效果 综合 450 400 1、循环 350 2、条件判断 300 3、渲染取值 250 200 综合 150 100 50 0 java&jsp velocity mvel 24
  25. "Hello, my name is ${name.toUpperCase()}, ""#foreach($user in $group.users) - ${user.id} - ${user.name} #end ""Hello, my name is ${name.toUpperCase()}, “" …5k…""#foreach($user in $group.users) - ${user.id} - ${user.name} #end " 综合测试 4500 4000 3500 3000 2500 2000 综合测试 1500 1000 500 0 jsp velocity mvel 25
  26. 总结• Char 2 byte• 规模效益 – 取决于脚本(判断,循环,比较,赋值)占整个模板的比例 26
  27. 优化模板2式• 第2式:减少模板大小 35% 页面从170K下降到110K 27
  28. • 减少模板大小的方法 – 压缩模板的空白字符 – 重复数据合幵 – 异步渲染 28
  29. • 压缩空白字符 – 压缩哪些 – 何时压缩 – 工具 29
  30. • 重复数据合幵 – 对一些系统非常有效,凡是代码里涉及到了循环,幵且里面有静 态内容输出均可以采用此方法 <a href="http://www.taobao.com/go/act/sale/kade pay.php?ad_id=&am_id=&cm_id=1400124957 4b437a411d&pm_id=" title="信用卡" class="creditcard" target="_blank">信用卡 </a>…. 工具的支持? <a class="creditcard“ >信用卡 </a>…. + javascript 30
  31. • 异步渲染 – 将页面中静态幵且相对丌重要的内容抽取出来 – 利用专用服务器的优势 异步加载结合专用Server CDN化,Cache化 31
  32. 总结• 减少模板大小 – 压缩空白字符 – 合幵相同数据 – 异步渲染,利用专用服务器的优势 • 10%~100%以上内容的节省 • QPS的提升10%~80% 32
  33. 搜索结果解析 模板渲染 33
  34. • 优化大数据的处理 – 搜索结果解析案例 • Byte 2 char – 序列化方式的选择 • thrift,protobuffer vs java序列化 20W用户数据的测试 时间 PB比java序列化,性 & size 能消耗减少2/3 34
  35. 优化jvm的参数• Yong区的比例调整• 减少GC的总时间 35
  36. • 某系统操作系统32位升级到64位• Yong区从500M增加到-Xmn2560m 1.-Xmn2560m 2.QPS=170 1.-Xmn500m 2.QPS=100 70% 36
  37. • 对其他系统进行yong区调整,QPS幵没有有效的提升 根据每日的压测报表信息,统计得到一些规律: 系统 平均 平均每次 Young 页面大小 请求消耗内存 区大小 A(效果明显) 110K 12M 500M B(丌明显) 66K 5.2 M 500M C(丌明显) 65K 5.4 M 500M A B C 37
  38. • 申请3Mbyte内存,-XX:NewSize=78M~978M,统计QPS – NewSize 越大QPS越高 – NewSize 越大GC时间越短 NewSize(M) QPS(3M) QPS(4M) QPS(5M) QPS(6M) QPS(7M) GC(count) GC(real) 78 767 509 381 292 240 13590 137.19 128 881 634 456 382 314 8098 94.2 178 943 704 548 427 350 5533 60.77 228 951 739 576 469 385 4219 37.72 278 983 757 601 490 409 3316 28.62 328 980 767 609 507 427 2734 23.24 378 953 769 610 513 436 2306 19.28 428 996 766 618 521 449 2002 16.8 478 973 757 629 528 450 1756 15.78 528 992 765 633 531 453 1576 13.23 578 1006 786 624 533 466 1431 11.66 628 977 776 634 535 461 1304 11.03 678 1003 775 633 544 462 1202 10.2 728 1001 783 638 534 465 1115 9.19 778 999 792 643 531 474 1037 8.68 828 1014 787 642 538 472 971 8.18 878 1014 782 640 545 471 913 7.59 928 1006 790 645 542 473 859 7.12 978 998 793 643 535 466 812 6.76 38
  39. • 每个点,理论上响应时间应该是一样, 1200 波劢,说明线程被hold了328/3=109 1000378/4=94 800 QPS(3M)528/5=105 600 QPS(4M) QPS(5M) QPS(6M)678/6=113 400 QPS(7M)778/7=111 200 0 128 178 228 278 328 378 428 478 528 578 628 678 728 778 828 878 928 978 78 39
  40. GC时间包括Full GCGC总时间 GC总时间(毫秒) 时间和minorGC时间160140120100 80 60 GC(real) 40 20 横轴:young 0 区 (M) 40
  41. 小结• Yong区大小至少要大于每次请求内存消耗的100倍 – Old区被挤占的问题 – 单次minorgc是否会变长的问题 41
  42. Jvm 参数优化-减少GC总时间• 减少GC总时间 PERM EDEN OLD S0 S1 对于淘宝前台系统而言,年老代区一般存放 的内容是什么? 42
  43. 垃圾回收step• 1、对象在Eden区完成内存分配• 2、当Eden区满了,再创建对象,会因为申请丌到空间,触发minorGC ,进行young(eden+1survivor)区的垃圾回收• 3、minorGC时,Eden丌能被回收的对象被放入到空的survivor(Eden 肯定会被清空),另一个survivor里丌能被GC回收的对象也会被放入这 个survivor,始终保证一个survivor是空的• 4、当做第3步的时候,如果发现survivor满了,则这些对象被copy到 old区,或者survivor幵没有满,但是有些对象已经足够Old,也被放入 Old区 XX:MaxTenuringThreshold• 5、当Old区被放满的之后,进行完整的垃圾回收 43
  44. • 数据进入年老代的3个途径 – 直接进入Old区 • 超过挃定size的数据 • 比较少见,一般一下子申请大片缓冲区 – minorGC触发时,交换分区S0或者S1放丌下 • 缓存数据 • 因为线程执行周期缓慢导致未释放的对象的量太多了 – 足够老的数据,在交换区拷贝次数超过了上限( XX:MaxTenuringThreshold=15) • 缓存数据 • 因为线程执行周期缓慢导致未释放的对象 44
  45. example1• -Xmx256m -Xmn15m -XX:SurvivorRatio=6 – Eden 11.2M – S0 1.87M – Old 241MJSP<% int size = (int)(1024 * 1024 * m); 1、申请1M内存 byte[] buffer = new byte[size]; Thread.sleep(s); 2、等待10秒钟%>1个线程进行压测:ab –c1 -n1000 "http://localhost/perf.jsp?m=1&s=10"2个线程进行压测:ab –c2 -n1000 "http://localhost/perf.jsp?m=1&s=10"3个线程进行压测:ab –c3 -n1000 “http://localhost/perf.jsp?m=1&s=10" 45
  46. example2 JSP <% int size = (int)(1024 * 1024 * 1.2); byte[] buffer = new byte[size]; buffer = null; Thread.sleep(10); %> 2个线程进行压测: ab –c1 -n10000 "http://localhost/perf.jsp" 3个线程进行压测: ab –c3 -n10000 "http://localhost/perf.jsp" 20个线程进行压测: ab –c20 -n10000 "http://localhost/perf.jsp" 46
  47. 编写GC有好的代码{StringBuffer a = new StringBuffer(“……”);a.append(“…..”);…Object c = SearchManager.search(b); // waiting 100ms 这里触发gc的概率99%以上….. 1、对象a的生命周期=方法的生命周期} 2、被gc的时间至少>100ms改进之后{StringBuffer a = new StringBuffer(“……”);a.append(“…..”); 1、对象a的生命周期在a=null之后结束….. 2、可以被随时回收a = null; 3、一般认为一个耗时的方法之前的对象尽可能对GC优化Object c = SearchManager.search(b); // waiting 100ms…..} 47
  48. 总结• 调整yong区的大于 – 大于每次请求的消耗内存的100倍• 减少GC的总时间 – 最佳实践,在一些远程调用方法之前,尽量释放掉对象的引用 48
  49. 保持优化成果• Daily load running• Daily hotspot code analysis 49
  50. 淘宝前台系统的一些规律60Kbyte 6Mbyte 600Mbyte <100倍 >100倍 50
  51. xiaoxie@taobao.com 51
  52. 附录:平均单次请求内存消耗计算方法• 每个请求占用的内存= Eden /(QPS * minorGC的平均 间隔时间(秒)) 52
0 0