数据中心建设被认为是增长最快的行业之一。 这一领域的进展是巨大的,但在不久的将来市场上是否会出现任何突破性的技术解决方案是一个大问题。 今天我们将尝试思考全球数据中心建设发展的主要创新趋势,以期给出答案。
超大规模课程
信息技术的发展导致需要建设超大型数据中心。 基本上,云服务提供商和社交网络需要超大规模基础设施:亚马逊、微软、IBM、谷歌和其他大型企业。 2017年XNUMX月全球
所有超大规模数据中心都是企业数据中心,不出租机架空间。 它们用于创建与物联网和人工智能技术、服务以及需要处理大量数据的其他领域相关的公共云。 业主正在积极尝试增加每个机架的功率密度、裸机服务器、液体冷却、提高机房温度以及各种专业解决方案。 鉴于云服务的日益普及,超大规模将在可预见的未来成为行业增长的主要驱动力:在这里您可以期待来自领先的IT设备和工程系统制造商的有趣的技术解决方案的出现。
边缘计算
另一个值得注意的趋势恰恰相反:近年来,建立了大量的微型数据中心。 根据研究和市场预测,这个市场
PUE 之战
大型数据中心消耗大量电力并产生热量,必须以某种方式回收这些热量。 传统冷却系统占设施能耗的 40%,在降低能源成本的斗争中,制冷压缩机被认为是主要敌人。 允许您完全或部分拒绝使用它们的解决方案越来越受欢迎。 自然冷却。 在经典方案中,冷却系统用水或多元醇(二醇)水溶液作为冷却剂。 在寒冷季节,冷水机组的压缩机冷凝机组不会开启,从而显着降低能源成本。 更有趣的解决方案基于带或不带旋转热交换器和绝热冷却部分的双回路空气对空气回路。 还进行了利用外部空气直接冷却的实验,但这些解决方案很难被称为创新。 与经典系统一样,它们涉及IT设备的空气冷却,并且这种方案的效率几乎已经达到技术极限。
PUE(总能耗与IT设备能耗之比)的进一步降低将来自越来越受欢迎的液冷方案。 这里值得回顾一下微软推出的一款
在接触冷却过程中,设备中安装了特殊的散热器,液体在其中循环。 浸入式冷却系统使用介电工作流体(通常是矿物油),可以作为通用密封容器或计算模块的单独外壳来实现。 乍一看,沸腾(两相)系统与潜水系统类似。 它们还使用介电液体与电子设备接触,但有一个根本区别 - 工作流体在约 34 °C(或稍高)的温度下开始沸腾。 从物理课程中我们知道,该过程随着能量的吸收而发生,温度停止上升,并且随着进一步加热,液体蒸发,即发生相变。 在密封容器的顶部,蒸气与散热器接触并冷凝,液滴返回到公共储液器。 液冷系统可以实现梦幻般的PUE值(1,03左右),但需要对计算设备进行认真修改以及制造商之间的合作。 如今,它们被认为是最具创新性和最有前途的。
结果
为了创建现代数据中心,发明了许多有趣的技术方法。 制造商正在提供集成的超融合解决方案,软件定义的网络正在构建,甚至数据中心本身也正在变得软件定义。 为了提高设施的效率,他们不仅安装了创新的冷却系统,还安装了 DCIM 级硬件和软件解决方案,从而可以根据多个传感器的数据优化工程基础设施的运行。 有些创新并没有兑现其承诺。 例如,模块化集装箱解决方案尚未能够取代由混凝土或预制金属结构制成的传统数据中心,尽管它们在需要快速部署计算能力的地方被积极使用。 与此同时,传统数据中心本身也变得模块化,但处于完全不同的水平。 尽管没有技术飞跃,但该行业的进步非常快——我们提到的创新几年前首次出现在市场上。 2019年在这个意义上不会例外,不会带来明显的突破。 在数字时代,即使是最奇妙的发明也会很快成为一种常见的技术解决方案。
来源: habr.com