moosefs快速结论
来源:互联网 发布:supreme高仿淘宝店家 编辑:程序博客网 时间:2024/04/28 17:16
Siege是一个压力测试和评测工具,设计用于WEB开发这评估应用在压力下的承受能力:可以根据配置对一个WEB站点进行多用户的并发访问,记录每个用户所有请求过程的相应时间,并在一定数量的并发访问下重复进行。
下载:
wget ftp://sid.joedog.org/pub/siege/siege-latest.tar.gz
安装:
%./configure ; make
#make install
siege包含了一组压力测试工具:
SIEGE (1) Siege是一个HTTP压力测试和评测工具.
使用样例:
任务列表:www.murray.cn.url文件
http://www.murray.cn/tech/
http://www..murray.cn/tech/acdsee.html
….
siege -c 20 -r 2 -f www.murray.cn.url
参数说明:
-c 20 并发20个用户
-r 2 重复循环2次
-f www.murray.cn.url 任务列表:URL列表
=============================================================
1.1. 测试过程
测试1 Java_Write_15w_100K
MogileFS和MooseFS启动15个进程进行写数据,对比执行所需时间;
测试2 Siege_Read_c100_60mins_1storage
在192.168.80.15上使用Siege模拟100个并发用户通过http访问前端Nginx,持续60分钟随机访问50万个文件,这50万个文件均只存储在同一个Storage(Chunk)节点下;
测试3 Siege_Read_c200_60mins_1storage
在192.168.80.15上使用Siege模拟200个并发用户通过http访问前端Nginx,持续60分钟随机访问50万个文件,这50万个文件均只存储在同一个Storage(Chunk)节点下;
测试4 Siege_Read_c300_60mins_1storage
在192.168.80.15上使用Siege模拟300个并发用户通过http访问前端Nginx,持续60分钟随机访问50万个文件,这50万个文件均只存储在同一个Storage(Chunk)节点下;
=============================================================
结果分析
写操作测试:
同样Replication份数的情况下,MooseFS比MogileFS要慢较多。
读操作测试:
1, 当读的并发加大时,请求的成功率mooseFS比mogileFS要低,当超过200个并发,mooseFS的成功率降到较低水平;
2, mooseFS的反应时间比mogileFS要慢很多,从而处理请求的效率比mogileFS要低很多;
3, mooseFS所能达到的磁盘tps以及磁盘读速度比mogileFS要低,且从结果上看似乎存在瓶颈;
测试小结:
1,MooseFS从使用的逻辑上和NFS比较类似,使用MooseFS的时候都需要先在使用的客户端手动mount挂载点,然后再如使用本地磁盘一样使用其网络存储空间。
2,根据测试结果对比看出,MooseFS比MogileFS的读写性能、I/O表现差很多。
3,在测试过程中发现每次网络断开后,哪怕网络恢复了,都需要先手动umount一次,然后再重新mount回来才可以继续使用,如果网络出现经常中断不稳定的情况的话,就需要每次都umount,然后mount,如下:
umount /mnt/mfs
/usr/local/mfs/bin/mfsmount /mnt/mfs/ -H 192.168.80.9
还有,如果umount前有进程在对磁盘进行读写操作,则需要先手动把相关的程序找出来并杀死,否则umount的时候会提示“device is busy”。
4,当手工改变Replication份数后,会马上自动进行复制,但复制的速度极其缓慢。
写操作(Replication份数均为3),通过15个并发写15万数据只需要140分钟
没做HA最好,断电什么都白搭了。失望。。。
下载:
wget ftp://sid.joedog.org/pub/siege/siege-latest.tar.gz
安装:
%./configure ; make
#make install
siege包含了一组压力测试工具:
SIEGE (1) Siege是一个HTTP压力测试和评测工具.
使用样例:
任务列表:www.murray.cn.url文件
http://www.murray.cn/tech/
http://www..murray.cn/tech/acdsee.html
….
siege -c 20 -r 2 -f www.murray.cn.url
参数说明:
-c 20 并发20个用户
-r 2 重复循环2次
-f www.murray.cn.url 任务列表:URL列表
=============================================================
1.1. 测试过程
测试1 Java_Write_15w_100K
MogileFS和MooseFS启动15个进程进行写数据,对比执行所需时间;
测试2 Siege_Read_c100_60mins_1storage
在192.168.80.15上使用Siege模拟100个并发用户通过http访问前端Nginx,持续60分钟随机访问50万个文件,这50万个文件均只存储在同一个Storage(Chunk)节点下;
测试3 Siege_Read_c200_60mins_1storage
在192.168.80.15上使用Siege模拟200个并发用户通过http访问前端Nginx,持续60分钟随机访问50万个文件,这50万个文件均只存储在同一个Storage(Chunk)节点下;
测试4 Siege_Read_c300_60mins_1storage
在192.168.80.15上使用Siege模拟300个并发用户通过http访问前端Nginx,持续60分钟随机访问50万个文件,这50万个文件均只存储在同一个Storage(Chunk)节点下;
=============================================================
结果分析
写操作测试:
同样Replication份数的情况下,MooseFS比MogileFS要慢较多。
读操作测试:
1, 当读的并发加大时,请求的成功率mooseFS比mogileFS要低,当超过200个并发,mooseFS的成功率降到较低水平;
2, mooseFS的反应时间比mogileFS要慢很多,从而处理请求的效率比mogileFS要低很多;
3, mooseFS所能达到的磁盘tps以及磁盘读速度比mogileFS要低,且从结果上看似乎存在瓶颈;
测试小结:
1,MooseFS从使用的逻辑上和NFS比较类似,使用MooseFS的时候都需要先在使用的客户端手动mount挂载点,然后再如使用本地磁盘一样使用其网络存储空间。
2,根据测试结果对比看出,MooseFS比MogileFS的读写性能、I/O表现差很多。
3,在测试过程中发现每次网络断开后,哪怕网络恢复了,都需要先手动umount一次,然后再重新mount回来才可以继续使用,如果网络出现经常中断不稳定的情况的话,就需要每次都umount,然后mount,如下:
umount /mnt/mfs
/usr/local/mfs/bin/mfsmount /mnt/mfs/ -H 192.168.80.9
还有,如果umount前有进程在对磁盘进行读写操作,则需要先手动把相关的程序找出来并杀死,否则umount的时候会提示“device is busy”。
4,当手工改变Replication份数后,会马上自动进行复制,但复制的速度极其缓慢。
写操作(Replication份数均为3),通过15个并发写15万数据只需要140分钟
若MooseFS设置的Replication份数为1,通过15个并发写15万数据只需要48分钟
======================================
最近有一套moosefs要上线,于是也在加急测试一下高可用的方案,如drbd+heartbeat 和 drbd+keepalive,实现起来真的不是那么容易。线下测试各种故障。请教一下大家生产环境下的如何做。
moosefs服务是个高危服务,不能强杀,如果资源脚本控制没能正常的停止,后续如果网络恢复后切换回来后面启动的mfsmaster进程会与之前进程冲突,导致服务失败。这个问题是致命的,直接就导致drbd没有意义。moosefs做ha的代价大家懂的,耗钱,耗时,耗神。
没做HA最好,断电什么都白搭了。失望。。。
0 0
- moosefs快速结论
- 【结论】二分快速幂
- moosefs
- 结论
- moosefs安装
- moosefs相关
- moosefs相关
- 存储--Moosefs
- MooseFS文件系统
- MooseFS 备忘
- [mooseFS] mfs(mooseFS)文件系统
- NZAU 1202: GCD 矩阵快速幂 gcd和fib数列一些结论
- MooseFS安装笔记
- 分布式文件系统介绍(MooseFS)
- install moosefs-master --chunkserver
- 分布式文件系统moosefs --master
- 分布式文件系统moosefs--chunkserver
- 分布式文件系统moosefs--client
- 软件工程之软件需求
- Android监听未接来电
- NYOJ 266 字符串逆序输出
- ant编译java工程总结
- 利用SecureCRT上传、下载文件(使用sz与rz命令)
- moosefs快速结论
- 数据库_jdbc_分页案例
- 用SAX 解析XML文件
- 我常犯的几个小错误
- Blocks:Writable Variables
- NYOJ 263 精 挑 细 选
- 添加组视图并对视图每一行的具体操作
- 简约至上-交互设计四策略-《话说简单》
- ASMB的BUG(ORA-04030 kfmditer)导致数据库宕机