数据中心冷却技术以可持续性为目标

数据中心行业正以超乎你想象的方式变得越来越热。电力系统公司日立能源(Hitachi Energy)的数据中心战略客户经理戴夫·斯特莱斯(Dave Sterlace)指出:“冷却可能需要高达数据中心总电力负荷的近40%。”“这为更可持续的方法提供了一个很好的目标。”

大多数数据中心依赖于机械空气冷却,如风扇、制冷系统和除湿机,以防止硬件资源过热。“从环境、成本和性能的角度来看,这是不可持续的,”冷却系统开发商LiquidStack的首席执行官乔·凯普斯(Joe Capes)说。

凯普斯指出,一个数据中心的总耗电量有一半来自空气冷却。“不断上涨的能源成本使这种方法越来越昂贵,而当今数据密集型技术所需的强大处理器……产生的热量太多,空气冷却无法处理。”

斯特莱斯说,强制空气在散热方面并不是特别有效,而且每个机架的功率限制在25千瓦左右。到目前为止,这种方法运行良好,但随着人工智能和其他高性能计算技术的到来,每个机架的设计负载高达75千瓦,考虑更好的热导体是有意义的。他说:“我们在冷却领域看到的最大进步是采用液体冷却介质。”

凯普斯预测,液体浸没式冷却,通过浸入导热介质液体来降低硬件热量,将在许多数据中心取代空气冷却。“这将显著减少碳排放和水的使用,同时实现数字社会所需的高性能计算,而且成本更低。”

让数据中心冷静下来的其他方法

液体浸泡并不是唯一的替代冷却选择。根据数据中心的大小、负载和位置,可选择的冷却方法包括直接蒸发冷却技术和直接对芯片冷却技术。工程公司Syska Hennessy的副主管肖恩·奥谢(Sean O’shea)说,这两种技术通常比传统冷却系统产生更低的年化电力使用效率(PUE)。

直接蒸发冷却系统最常用于大型数据中心。奥谢解释说:“他们控制空气供应的温度和湿度,通过使用蒸发垫网和供水系统为IT设备机柜提供服务。”

直接对芯片冷却技术通过附着在芯片顶部的金属板在每个服务器的CPU上吸收热量。奥谢说:“热量通过热材料从芯片转移到平板上。”水或电介质流体在金属板中循环,吸收芯片的热量,并通过冷却塔、干式冷却器或其他方式将其喷射到大气中。“由于这种方法只冷却芯片,剩余的热量需要额外的空气冷却。”

可持续性与数据中心温度控制

网络内容软件管理公司Zengenti的主机运营工程师Nic Kilby说,减少冷却数据中心设备所需的能源是推进环境可持续性的关键。

Zengenti复杂的web内容管理系统需要存储大量的数据。Kilby说:“就在最近,我们在位于英国勒德洛(Ludlow)总部的数据中心开展了一个面向未来的项目,以使其在现在和未来都能最高效地运行。”“通过有效地冷却我们的现场数据中心,到目前为止,我们已经节省了25%的电力——我们希望随着技术的发展继续改进。”

Kilby指出,企业可以通过各种手段达到类似的效果,包括使用高效的冷却系统,实施冷热通道密封,以及利用外部空气进行自然冷却。他解释说:“这一切都是为了找到最适合你的数据中心的方案,同时考虑到位置和温度。”“我们充分利用了什罗普郡凉爽多风的天气。”

数据中心热度上升

Sterlace说,这听起来违反直觉,但越来越多的数据中心运营商已经认识到,简单地提高数据大厅的温度可以在不影响It性能的情况下降低能源使用。

工程公司Black & Veatch负责数据中心和关键任务设施解决方案的副总裁德鲁·s·汤普森(Drew S. Thompson)指出,数据中心社区正开始超过美国供暖、制冷和空调工程师协会(ASHRAE)推荐的工作温度。

汤普森举例说,Facebook的母公司Meta已经将其入口冷却供应温度提高到95华氏度。他说:“delta操作温度(冷却供应温度和返回温度之间的差值)越大,节省的能源就越多。”汤普森补充说,IT服务器制造商正准备提供耐高温服务器,因为对这类硬件的需求在增加。

数据中心的美好未来

在选择有效的数据中心冷却技术时,没有什么灵丹妙药。汤普森说:“每个数据中心和客户都是不同的。“此外,通常情况下,当一种冷却技术节省能源时,它(通常)会使用更多的水,所以真正的可持续性需要考虑所使用的所有资源。”

Thompson说,当企业设计下一代节能数据中心时,他们将需要涉及所有相关利益相关者,包括数据中心IT管理团队、设施团队、设计工程师和总承包商。