AI服务器之散热:渗透率加速,AIGC需求旺,液冷站上新风口 ,服务器散热公式

8624人浏览 2024-11-19 提问网友:153****1395 IP归属地:五莲县

1个回答

  • 金茹师傅
    金茹师傅
    最佳回答

    大家好,我是小胡。这期内容我们聊一下数据中心液冷散热,并分享几家A股液冷产业重要的公司。

    随着三大电信运营商发布《电信运营液冷技术白皮书》以及生成式AI对算力需求的提升,液冷散热将加速渗透并迎来新增量。

    风冷与液冷

    一个完整的数据中心由IT设备和基础设施构成,基础设施是支撑数据中心正常运行的各类系统的统称,包括土建、配电、制冷、机柜、布线、消防等,成本约占数据中心投资成本的13%。

    根据施耐德的数据,制冷系统(传统风冷,包含冷冻水机组、精密空调和冷却塔)在基础设施建设成本中占比超过20%。

    数据中心的冷却方式可分为传统风冷和液冷,风冷是通过冷/热空气通道的交替排列实现换热,冷空气进入数据中心后,扩散经过服务器,吸收服务器产生的热量后进入热风通道。

    液冷是以液体作为媒介,利用液体流动将数据中心IT设备内部元器件产生的热量传递到设备外,使IT设备的发热部件冷却,以保障IT设备在安全温度范围内运行,液冷主要有冷板式、浸没式、喷淋式三种。

    相比液冷,风冷具有低密度、低散热能力、高能耗的劣势,特别是对于AI服务器等高性能计算应用,劣势尤为明显。

    通过风冷要达到冷却效果,数据中心通常需要大量的空间来放置制冷设备和服务器机架。

    当散热风机转速超过4000转时,转速增加只能改善与空气的导热传热,散热效果明显降低。另外,由于缺乏合适的空气流量控制系统,风冷散热还容易在服务器机架之间和服务器内部产生局部热点。

    而液体的导热率更高、比热容更大,单位体积的热容量更大,吸热能力更强。

    在能耗方面,传统风冷系统在数据中心的电力能耗占比达到40%,仅次于IT设备,不利于节能。

    虽然液冷设备前期投入成本较高,但可以通过去掉冷冻水机组、减少机架、减少数据中心占地面积等降低整体建设成本。

    机构测算,当服务器机架功率密度提升,采用液冷技术可降低数据中心基建成本,比如提升4倍功率密度,可节省13%的成本,同时还能提升制冷系统在基建中的价值量,由原来的14%,提升至30%。

    在后期数据中心运行成本中,液冷数据中心优势更为明显,可明显降低能耗,节省电费支出,以10MW的数据中心为例,液冷数据中心PUE(数据中心总能耗/IT设备能耗)可降至1.2以下,达到1.15,而风冷方案则为1.35。

    随着服务器芯片功耗的大幅度提升,单位密度发热量同步增加,对导热、散热提出了更高的要求。

    服务器2U空间下,250W大约是风冷的极限,4U以上风冷可以解到400-600W,但对AI芯片来说,单颗普遍超过400W(一台服务器配置4-8颗),英伟达H100单颗最高功耗可达700W,远超风冷的散热极限。

    另外,数据中心单机柜的平均功率密度逐年提升,AI集群算力密度普遍达到50KW/柜,预计到25年,全球数据中心单机柜平均功率将突破25KW。

    而风冷数据中心单机柜密度一般只支持8-10kW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降,液冷数据中心在散热能力与经济性上的优势逐步凸显。

    除此之外,在绿色低碳目标下,国内多地明确提出加大数据中心节能技术改造力度,新建数据中心PUE限制在 1.3 以下,存量数据中心PUE不高于1.4。

    随着算力需求、芯片功耗、功率密度的

    剩余50%未读立即解锁专栏,阅读全文

    东方羽航清洗维修为您整理关于本文的清洗维修热搜话题

    服务器散热系统

    服务器散热公式

    服务器机房散热

    服务器散热原理

    服务器散热器评测

    服务器散热技术

    服务器散热设计

    服务器散热公式

相关推荐

更多

免费获取咨询

今日已有1243人获取咨询

最新问答

更多

热门问答

更多