数据中心的建设被认为是发展最快的行业之一。 这个领域的进步是巨大的,但是在不久的将来是否会在市场上出现任何突破性的技术解决方案是一个很大的问题。 今天,我们将尝试考虑世界数据中心建设发展中的主要创新趋势,以便对此做出回应。
超大规模课程
信息技术的发展导致需要建立非常大的数据中心。 云服务提供商和社交网络通常需要超大规模基础架构:亚马逊,微软,IBM,谷歌和其他主要参与者。 据Synergy Research专家预测,到2017年4月, 全球有 320个这样的数据中心,而到了12月,已经有390个。到2020年,超可扩展数据中心的数量应增加到500个。 思科系统公司的分析师指出 ,尽管亚太地区的建设速度很快,但大多数数据中心都位于美国,而且这种趋势还在持续。
所有超可扩展的数据中心都是公司的,不会出租机架空间。 它们用于创建与物联网和服务人工智能技术有关的公共云,以及用于需要处理大量数据的其他细分市场。 业主正在积极尝试增加每个机架的功率密度,未包装的服务器,液体冷却,提高室温和各种专用解决方案。 鉴于云服务的日益普及,Hyperscale在可预见的将来将成为行业增长的主要驱动力:在这里您可以期望来自领先的IT设备和工程系统制造商的有趣技术解决方案的出现。
边界计算
另一个明显的趋势正好相反:近年来,已经建立了大量的微数据中心。 Research and Markets预测,这个市场将从 2017年的20亿美元增长到2022年的80亿美元。 他们将其与物联网和工业物联网的发展联系在一起。 大型数据中心距离现场自动化系统太远。 他们从事的任务不需要数百万个传感器的读数。 数据的主要处理最好在生成数据的地方进行,然后才将有用的信息沿长途发送到云。 为了指定这种现象,他们提出了一个特殊的术语-边界计算或边缘计算。 我们认为,这是数据中心建设发展中的第二个最重要的趋势,这导致了市场上创新产品的出现。
为PUE而战
大型数据中心消耗大量电能并产生热量,必须以某种方式进行处理。 传统的冷却系统最多占工厂能耗的40%,制冷压缩机被认为是降低能源成本的主要敌人。 越来越受欢迎,使您可以完全或部分放弃所谓的使用解决方案。 自然冷却。 在经典方案中,用水或多元醇(乙二醇)水溶液的冷却系统用作热载体。 在寒冷季节,冷却器的压缩机-冷凝器单元不会打开,从而大大降低了能耗。 更有趣的解决方案是基于带有旋转式热交换器,带或不带绝热冷却段的双回路空对空回路。 还通过外部空气直接冷却进行了实验,但是这些解决方案几乎没有创新性。 像传统系统一样,它们假定IT设备采用空气冷却,并且实际上已经达到了该方案有效性的技术极限。
PUE(总能耗与IT设备能耗之比)的进一步降低将得益于液体冷却方案的日益普及。 这里值得回顾一下微软发起的创建模块化水下数据中心的项目,以及Google浮动数据中心的概念。 技术巨头的想法还远远没有实现工业应用,但是不太理想的液体冷却系统已经在从Top500到超级数据中心的超级计算机等各种设施中运行。
通过接触式冷却,设备中会安装特殊的散热器,使液体在内部流通。 浸入式冷却系统使用电介质工作流体(通常是矿物油),可以制成普通密封容器的形式,也可以制成用于计算模块的个别情况。 乍一看,沸腾(两相)系统类似于潜水系统。 他们还使用介电液与电子设备接触,但是存在根本的区别-工作液在34°C(或稍高)的温度下开始沸腾。 从物理学的过程中,我们知道该过程伴随能量的吸收,温度停止增长,并且随着进一步的加热,液体蒸发,即发生相变。 在密闭容器的上部,蒸气与散热器接触并凝结,液滴返回到共用容器中。 液体冷却系统可以实现出色的PUE值(约1.03),但需要对计算设备进行认真的修改以及制造商之间的合作。 今天,它们被认为是最具创新性和前途的。
总结
已经发明了许多有趣的技术方法来创建现代数据中心。 制造商提供集成的超融合解决方案,构建软件定义的网络,甚至数据中心本身也变成软件定义的。 为了提高设施的效率,不仅安装了创新的冷却系统,而且还安装了DCIM类的硬件和软件解决方案,这些解决方案允许基于来自许多传感器的数据来优化工程基础架构的运行。 一些创新达不到他们的期望。 例如,模块化容器解决方案无法替代由混凝土或预制金属结构制成的传统数据中心,尽管它们在需要快速部署计算能力的地方得到了积极使用。 同时,传统的数据中心本身成为模块化的,但是处于完全不同的水平。 尽管没有技术上的飞跃,该行业的进步还是非常快的-我们提到的创新是几年前首次出现在市场上的。 从这个意义上讲,2019年将不会例外,也不会带来明显的突破。 在数字时代,即使是最神奇的发明也迅速成为一种常见的技术解决方案。