返回上一页  首页 | cnbeta报时: 11:29:03
SC19:我们再次见到了两相浸入式液冷方案
发布日期:2019-11-30 09:16:58  稿源:cnBeta.COM

在去年的超算大会上,我们见到了许多浸入式散热方案。没想到在今年的超算大会上,我们又看到了更进一步的展示。所谓“两相浸入式液体冷却(2PILC)”系统,主要包含了一台几乎没有主动式散热的服务器,并将其完全浸没在低沸点的液体中 —— 通常是与硅直接接触的有机化合物,而不是水或油。

1.jpg

(题图 via AnandTech

芯片在使用时发热,然后导致周围的散热液沸腾。常见的有 3M Novec of Fluorinert 的变体(沸点在 59 ℃ 左右)。

液体气化过程会上升并带走热量,使得散热液在两种相态之间进行对流、冷凝(通过冷却板或水管)、循环。

2.jpg

这些非离子液体不会导电、粘度和相对适中,能够有效促进自然的对流。如果芯片的热设计功耗太高,亦可加入促进对流的主动式散热方案。

厂家显然希望让这套方案在服务器或高性能 PC 领域实现广泛的运用,在将所有配件保持在合理温度下的同时,还支持超密集的设计。

3.jpg

比如外媒 AnandTech 报道过的 TMGcore 的 OTTO 系统,就采用了 2PILC 技术。其能够在 16 平方英尺(约 1.5 ㎡)的空间内,放置高达 60kW 的数据中心单元。

客户只需为设备供电、供水和网络连接,在需要维护的时候,这套方案还支持自动取放功能。该公司称,在受控环境下,2PILC 技术能够有效延长硬件的使用寿命。

4.jpg

去年,这项技术的主要方向之一,是用于加密系统或超密集协处理器。不过在 SC19 上,我们并没有见到那么多,更别提任何面向 5G 边缘计算的 2PILC 服务器了。

有趣的是,一些组件公司(比如 VRM 制造商),正在验证其用于 2PILC 环境的硬件。通常数据中心会根据电源使用效率(PUE)来讨论能效,比如 1.50 就意味着耗电 1.5 兆瓦,实际功效 1 兆瓦。

0.gif

标准的风冷数据中心,其 PUE 在 1.3 ~ 1.5 之间。一些专有的风冷数据中心,可能会低至 1.07 。液冷的数据中心,也在 1.05 ~ 1.10 PUE 左右(具体取决于不同的构造)。

我们今年在超算环境中见到的独立 2PILC 单元的最低 PUE 值为 1.028,但若成本仅为标准风冷机架的 1 / 10,相信还是有不少企业愿意去采用的。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看网友评论   返回完整版观看

返回上一页  首页 | cnbeta报时: 11:29:03

文字版  标准版  电脑端

© 2003-2025