双活数据中心建设中存储虚拟化网关平台如何选型?

talkwithtrend
各企业建设双活数据中心之间距离一般都在几十公里。由于距离的时延大致可以通过光纤距离 / 光速获得,存储时延一般在 ms 级别,距离越远,距离时延就会在 IO 总时延中更加明显。

一、数据中心双活架构相关问题

问题一:目前双数据中心架构中,双活和主备的比例多少?

答:针对目前的情况,还是主备相对多,双活的架构少。不过也有部分具备双活的能力,需要看领导决策是否启用双活。

问题二:双活数据中心对距离上支持的最远距离是多少?时延会有多少?

答:通常双活存储集群之间光纤距离一般要求小于 100KM 。各企业建设双活数据中心之间距离一般都在几十公里。由于距离的时延大致可以通过光纤距离 / 光速获得,存储时延一般在 ms 级别,距离越远,距离时延就会在 IO 总时延中更加明显。

问题三:同城双活中,如何实现主机仲裁与存储仲裁的一致性?

答:主机仲裁与存储仲裁本身保障两种技术对象的双活,在单一故障场景下,主机仲裁与存储仲裁的结果应该是不一致的,两者之间不存在一致性。两者的仲裁机制都是为了保证自身结构出现链路中断时,有正确的节点支撑业务,避免脑裂的发生。

问题四:异地双活数据中心,如何实现自动切换,需要注意哪些问题 ?

答:VPLEX Geo 提供了一种异地远距离的存储双活的方案,但是本身的代价也较高,异地双活数据中心的实现更多的还是要依赖上层应用的支持,由于延时的影响,简单的将集群拉远距离是很难成功的。

问题五:Netapp 双控是主备模式,还是主主模式?

答:NETAPP 存储的双控制器是双 A 主主模式。

问题六:对于双活业务如何保证业务会话能够转移过去,确保业务数据不丢失?

答:存储双活只是双活业务的一个必要条件,还需要实现应用集群双活,网络双活,数据库双活等才能真正去做到业务的连续性。

问题七:双活数据中心存储层出现性能问题的话,有哪些排查方法?如何进行快速排查?

双活存储层面性能问题可以按照数据流自上而下开始排查,从主机,中间光纤链路,存储网关,中间光纤链路,双活存储 逐层判断排查。

本文方案采用以 EMC VPLEX 技术为核心的双活虚拟化数据中心解决方案。EMC VPLEX 产品能够打破数据中心间的物理壁垒,提供不同站点间对同一数据副本的共享、访问及在线移动的能力,提供双 A ( Active-Active )高可用服务,结合虚拟化技术及 DWDM (密集型光波复用)网络扩展技术,能够实现业务及数据在站点间的透明在线移动,使用户能够在两个站点间动态平衡业务负载,最大限度利用资源,并提供零 RTO 的高可用能力,是真正意义上的云计算基础架构。

二、 VPLEX 应用相关问题

由于活动分享的实践中采用了EMC VPLEX 作为双活数据中心的重要解决方案,在交流中也涉及了一些 VPLEX 问题:

问题一:Vplex 在设计双活存储高可用如何进行 IO 读写拆分和防止仲裁防脑裂?

答:VPLEX 只有读缓存,优先从本地缓存读取数据;写是透写, VPLEX 的写操作需要得到双活存储写返回后才确认。对于仲裁,一般建议是第三方站点仲裁,采用 VPLEX witness 仲裁机仲裁。

问题二:如何进行 vplex 的高可用测试?需要测试哪些内容呢?

答:针对 vplex 的高可用测试可以从几个层面来做, vplex 本身设备的高可用测试,然后是 vplex 集群方面的测试,其次是存储方面的双活测试,最后是主机方面的存储链路测试等。

问题三:vplex 的兼容性如何?在闪存上,除了自家存储,还兼容其他哪些常用的存储品牌?

答:可以通过查看对应 vplex 微码版本的兼容性列表,里面会包括第三方品牌存储的型号和微码要求。常用的 EMC,IBM,HDS,NETAPP 等品牌型号存储都有兼容,但实际接入到 vplex 中会发现异构品牌存储的管理还是有细微的差异。

问题四:通过 vplex 部署设备进行历史数据迁移主要需要考虑哪些成本?主要来自哪些方面?

答:VPLEX 在做部署迁移之前需要确认与主机,存储, SAN 交换机的兼容性,再根据现有的系统架构制定出改造方案,确认主机,存储, SAN 交换机等各方面的改造的工作量,制定合理的数据备份方案,确认变更批次,变更时长以及停机窗口。

问题五:老设备迁移后, vplex 对于新老设备是如何统一进行双活管理的?

答:VPLEX 需要对接入的存储设备先进行 claim ,可以给每个存储 lun 按照自定义的格式命名,然后是对这些 lun 做封装,逐步封装为 extent,device,virtual volume ,在 virtual volume 层面才是主机能够访问的级别。对于做本地双活的 local mirror ,分布在两台存储上的 lun ,需要一个封装到 virtual volume 层次,一个封装到 extent 层次,在 extent 层面去添加 mirror ;对于同城双活的 metro mirror ,分布在两台存储上的 lun ,需要一个封装到 virtual volume 层次,一个封装到 device 层次,在 device 层面去添加 mirror 。在完成镜像同步数据之后,即能保证两台存储的双活。

问题六:vplex 是如何解决异构存储数据迁移的?vplex 和 svc 对比?存储网关选型主要需要考虑哪些参数?

答:VPLEX 本身具有对异构存储的纳管能力,在数据迁移方面,如果主机以上层面不容易做数据迁移,则可以考虑通过改变原有存储的映射关系,让原存储通过 VPLEX 做封装之后再重新映射,由于在封装过程中磁盘中的数据保持不变,从而能完成数据迁移。

VPLEX 和 SVC 作为存储网关,都能做异构存储管理和实现存储双活。SVC 相比于 VPLEX 会有更多的高级存储功能,更加突出其异构存储管理功能,可以在 SVC 上做存储快照等。

存储网关选型方面重点是需要考虑存储网关的缓存,带宽,处理性能以及扩展性等,存储网关在整个存储架构中的地位很高,需要避免性能瓶颈。

问题七:存储网关双活和存储自身双活,他们的优缺点怎样?

答:网关双活和阵列源生双活的应用场景不完全一致,当然他们都提供双活数据中心的高可用性,网关双活方案还提供一个存储虚拟化池化管理异构存储的功能,使得数据能够在网关统一管理下的异构存储阵列之间自由流动,这给很多客户提供了阵列源生双活无法带来的灵活性,客户可以不停机在线随时把数据从一个阵列挪到另一个阵列,把数据从一个数据中心挪到另一个数据中心,这大大提升客户数据迁移,数据中心搬家,存储阵列设备更新的效率,能够充分利用旧设备也是一个好处。

总体来讲阵列源生双活适合简单拓扑比较独立的新建环境,通常环境中厂商单一,网关式双活适合需要兼顾不同厂商异构存储,新旧存储并存的相对复杂的数据中心环境。

THEEND

最新评论(评论仅代表用户观点)

更多
暂无评论