关于双控阵列的实现原理的讨论

来源:互联网 发布:redis同步到mysql 编辑:程序博客网 时间:2024/05/01 22:37


http://bbs.chinaunix.net/forum-viewthread-tid-4140392.html

对于一个支持FC SAN的双控存储阵列,对外号称active-active,实现内存镜像
一个lun通过两个路径连接到服务器,服务器用多路径软件访问这个lun,如下图

1、双控中一个宕机后,服务器的多路径软件会检测到有一条路径不通,会自动把io转到另外一个路径上,保证任务不中断,请问这个功能和双控有啥关系?我没发现双控制器切换的必要啊,如果发生了切换,那么切换过程中发生了什么事情

2、每个控制器是否都能看到阵列的所有磁盘,我认为是可以看到的,不然接管后没法访问。这样的话,每个控制器启动的时候都要枚举一遍所有磁盘,不会发生冲突吗?

3、最后一个问题是关于内存mirror的,这里的内存是指用于高速读写的缓存吧,不是整个内存条都mirror吧?这个内存mirror模块和操作系统中的高速缓存模块没有关系吧


(您的意见是对我的莫大帮助,谢谢)


===============================

通常的双控器 AA 方式工作, 都不是象楼主这图一样简单的直连在一起的, 而是中间经过交换机, 有的可能还有几层的交换机. 为了保证全路径的可靠性, 所以, 才会有AA的双控. 也才会有multipath. 当然, multipath 还有一个功能是增加带宽.

2. 必须能看到所有的磁盘. 枚举磁盘这事未必真的会发生. 因为在控制器的后面, 可能还有更低一层的管理, 但只管理, 不跑数据.
3. 内存的 mirror 应该是与操作系统无关的. 很可能是更底层的通过 PCIe总线的 mirror.

以上为自己猜测, 更 准确的信息, 坐等大神出现.

===============================

传统中端双控存储;一个控制器坏 另一个控制器接管

双控A-A   是叫 active-active

目前在中端存储能够做到的厂商不多,真正在用的 厂商 更少(具体哪家几不说了 省的帮他做广告了,大家都知道)

好处是什么  是对于同一个LUN,双控同时参与了LUN的工作(工作并非说同时计算一个LUN)

使用了A-A的对称式双控存储;在升级微码的时候 无需切换路径,没有业务停止、宕机的风险。

当然一般A-A存储里也配套了硬件的负载均衡,后台会自动均摊性能;使得存储使用率均衡

同时带来了 管理开销的减少,5个LUN 属于CTL0 CTL1 好管 ;50个人为管管也OK;100个的时候人为就不行了,业务也一直在变化中。。。

A-A的存储 创建LUN的时候是不需要设置属于CTL0 还是CTL1;完全是后台自动控制,省去了许多的管理开销,充分提高了存储的利用率!

===============================

现在基本的存储产品都号称A-A,如果不能同时访问一个LNU,那他们是怎么实现的?

 控制器A收到读写命令后再转发给控制器B去处理?真是这样吗?

===============================

转一些vmware官方 vsphere 对存储的认知


光纤通道存储阵列类型
ESXi 可支持不同的存储系统和阵列。
主机支持的存储类型包括主动-主动、主动-被动和 ALUA 合规。


主动-主动存储系统 允许通过所有可用的存储器端口同时访问多个 LUN,而不会明显降低性能。所有路径始终保持活动状态,除非路径发生故障。

主动-被动存储系统 存储处理器在其中主动提供对给定 LUN 的访问权限的系统。其他处理器用作备用 LUN,并且可以主动提供对其他 LUN I/O 的访问权限。只能向给定 LUN 的主动端口成功发送 I/O。如果通过主动存储器端口访问失败,则其中一个被动存储处理器可通过服务器对其进行访问而激活。

非对称存储系统 支持非对称逻辑单元访问 (ALUA)。ALUA 合规存储系统对每个端口提供不同级别的访问。ALUA 允许主机确定目标端口的状态,并区分路径的优先级。主机会将某些活动路径用作主路径,其他用作辅助路径。


而 主动-主动 的中端双控存储 目前没几家能做到 关键是简化了管理

===============================

总结一下:
主动-主动模式:lun不用指出owner是谁,现在没有几家能够做到
主动-被动模式:A、B控制器都跑业务,假设lun0归属A控制器,一旦A控制器故障,B控制器接管lun0,接着执行A的业务,B控制器本身的业务不影响
ALUA:?

===============================

百度一下 很多ALUA

给你一个连接 (非本人,只是搜到的一个内容 供参考)
http://blog.csdn.net/kinges/article/details/8568271

===============================


1 0
原创粉丝点击