数据存储系统中的容错主题始终是相关的,因为在我们广泛虚拟化和资源整合的时代,存储系统是一个环节,其故障不仅会导致普通事故,还会导致服务长期停机。 因此,现代存储系统包含许多重复的组件(甚至控制器)。 但这样的保护就足够了吗?
绝对所有供应商在列出存储系统的特性时,总是提到其解决方案的高容错性,并且总是添加“无单点故障”一词。 让我们仔细看看典型的存储系统。 为了避免维护停机,存储系统复制了电源、冷却模块、输入/输出端口、驱动器(我们指的是 RAID),当然还有控制器。 如果您仔细观察此架构,您会发现至少有两个潜在的故障点,这些故障点被适度地保持沉默:
- 单个背板的可用性
- 拥有一份数据副本
背板是一种技术复杂的设备,在生产过程中必须经过严格的测试。 因此,完全失败的情况极为罕见。 然而,即使出现部分问题,例如驱动器插槽无法工作,也需要通过完全关闭存储系统来更换。
乍一看,创建数据的多个副本也不是问题。 例如,存储系统中的克隆功能非常普遍,它允许您以一定的时间间隔更新数据的完整副本。 然而,如果相同的回放出现问题,副本将与原始版本一样不可用。
克服这些缺点的一个完全显而易见的解决方案是复制到另一个存储系统。 如果我们对预期的硬件成本翻倍视而不见(我们仍然假设选择这种决定的人们充分思考并提前接受这一事实),那么以许可证、额外费用的形式组织复制仍然可能产生成本。软硬件。 最重要的是,您需要以某种方式确保复制数据的一致性。 那些。 构建存储虚拟器/vSAN/等,这也需要金钱和时间资源。
概念
从物理上讲,AccelStor 的双节点解决方案可以通过两种模型实施:
基于Twin服务器的型号H510
基于单个服务器的型号 H710
使用不同的外形规格是因为需要不同数量的 SSD 来实现给定的容量和性能。 此外,Twin 平台更便宜,可以让您提供更实惠的解决方案,尽管单背板存在一些有条件的“缺点”。 两种型号的其他所有内容(包括操作原理)完全相同。
每个节点的数据集有两组
前面提到,数据集通过InfiniBand 56G接口实时同步,具有高吞吐量和低延迟的特点。 为了在传输小数据包时最有效地利用通信信道。 因为只有一个通信通道;专用的 1GbE 链路用于额外的心率检查。 通过它传输的只是心跳,因此对速度特性没有要求。
如果由于以下原因增加系统容量(高达 400+TB)
为了提供额外的数据保护(除了 AccelStor 已经拥有两个副本的事实之外),在任何 SSD 发生故障时,都会使用特殊的行为算法。 如果 SSD 发生故障,节点将开始将数据重建到其中一个热备用驱动器上。 处于降级状态的 FlexiRemap 组将切换到只读模式。 这样做是为了消除备份磁盘上的写入和重建操作之间的干扰,从而最终加快恢复过程并减少系统可能受到攻击的时间。 重建完成后,节点返回正常读写模式。
当然,与其他系统一样,在重建过程中整体性能会下降(毕竟,FlexiRemap 组之一不能用于记录)。 但恢复过程本身会尽快发生,这正是 AccelStor 系统与其他供应商解决方案的区别所在。
Nothing Shared 架构技术的另一个有用特性是节点以所谓的真正主动-主动模式运行。 与“经典”架构不同,系统中只有一个控制器拥有特定卷/池,第二个控制器仅执行 I/O 操作
如果我们将Nothing Shared架构技术与成熟的存储系统复制进行比较,那么乍一看,它在灵活性上会略逊于全面实施的灾难恢复。 对于组织存储系统之间的通信线路尤其如此。 因此,在 H710 型号中,可以通过使用不太便宜的 InfiniBand 有源光缆将节点分散到长达 100m 的距离。 但即使与其他供应商通过可用光纤通道同步复制的通常实现相比,即使距离更长,AccelStor 的解决方案也将更便宜且更易于安装/操作,因为无需安装存储虚拟器和/或与软件集成(原则上这并不总是可行)。 另外,不要忘记 AccelStor 解决方案是全闪存阵列,其性能高于仅采用 SSD 的“经典”存储系统。
当使用AccelStor的Nothing Shared架构时,可以以非常合理的成本实现99.9999%的存储系统可用性。 解决方案的高可靠性(包括通过使用两个数据副本)以及专有算法带来的令人印象深刻的性能
灵活重映射 ,解决方案来自速腾 是构建现代数据中心时担任关键职位的优秀候选人。
来源: habr.com