(报告出品方/作者:国泰君安证券,徐乔威、张越)
1. 温度控制:工业生产稳定器,应用场景众多
温度控制系统可用于监测和自动调节对象温度。温度控制系统的基本原理是 利用传感器实现对环境温度的检测,再根据实际温度与设定温度之间的差值 控制加热或降温设备的运行,从而使环境温度保持在理想范围内。 典型的温度控制系统主要由传感器、控制器和执行器组成。传感器将环境温 度值转化为电信号,并传输给控制器进行处理,常用的温度传感器包括热电 偶、热敏电阻等;控制器根据传感器输入的温度值与预先设定的温度值进行 比较,由此产生控制信号并控制执行器的操作,常用的控制器包括 PID 控制 器、神经网络控制器等;执行器(温度加载单元)通常是加热器或制冷器等 设备负责执行控制器的指令,控制信号设备的开关状态调节环境温度,常用 的执行器包括继电器、可控硅和晶体管等。
温控下游应用行业众多。温控设备上游行业集中在电气机械和器材制造业、 金属冶炼和压延加工业,也涉及包装材料、耗材等其他原材料行业;中游行 业包括单一设备生产商和系统解决方案提供商,且目前温控系统系统化、集 成化趋势明显;下游产业链应用广泛,工业领域占比较大(包括电子制造、 通信行业、服务器、储能、新能源汽车等),也包括冷链物流、检测分析等 服务业以及科研和检测行业。 在工业领域,温度控制扮演重要角色,如在电子设备中,保持芯片温度在安 全范围内防止过热烧毁;在服务器中,防止服务器温度过高导致性能下降; 在储能系统中,控制温度水平以提高存储效率、避免能源浪费;在新能源车 电池中,为三电系统和舱内供热提供适宜的工作环境,实现有效的热管理并 保证安全性。
温控设备可分为精密温控与舒适空调。精密节能设备能够满足运行环境的 高要求,主要用于工作环境,能够将主设备所处环境的温度、湿度、洁净 度等指标严格控制在标定范围内,从而提升设备运行稳定性、可靠性及使 用寿命,在降低能耗的同时兼顾节能环保。因此,精密温控节能设备可广 泛运用于通信、互联网、智能电网、轨道交通、金融、云计算、物联网、 智慧城市等对主设备运行环境有着较高要求的行业。
分场景来看,温控设备的使用场景通常可分为工业、机房类、电池热管理及 电子芯片级别。不同场景对温控技术的具体要求也存在差异,其中工业级别 例如电力、冷链等,对环境要求较高,以传统风冷/水冷等温控技术为主;机 房类级别例如数据中心 IDC,主要满足降温和节能需求,由传统风冷向液冷、 间接蒸发等发展;电池热管理级别例如储能电池、动力电池等,首要考虑安 全性和降温效果,由传统风冷向液冷发展;电子芯片级别例如服务器芯片、 手机芯片等,散热空间有限,对工艺水平要求较高,由传统风冷向液冷、热 管冷却、相变储热散热等发展。
2. 下游多场景驱动,温控市场未来可期
2.1. 数据中心温控:算力需求爆发增长,温控系统不可或缺
2.1.1. 数据中心市场扩容,功耗持续增长
数据中心由 IT 设备与基础设施组成。数据中心(DC/IDC)是用于在网络上 传递、加速、展示、计算和存储数据信息的物理场所,主要应用于对数据计 算和储存有较大需求的场景。数据中心是一整套复杂的设施,完整的数据中 心由数据中心 IT 设备和数据中心基础设施构成,包含了服务器、储存系统、 制冷系统、配电系统等全套设施。
数据中心可按规模大小分为三类,大型数据中心占比不断提升。根据机架规 模的不同,数据中心可被划分为超大型、大型和中小型数据中心。工信部数 据显示,截至 2023 年年底全国在用数据中心机架总规模超过 810 万标准机 架,2017-2023 年 CAGR 高达 30.24%。其中大型以上数据中心成为增长主 力,由 2017年的 83万架增长至 2022年的 540万架,期间 CAGR达到 45.43%, 大型规模以上占比由 50.00%增长至 83.08%,表明数据中心规模化趋势明显。 据中国通服数字基建产业研究院预测,到 2025 年“十四五”规划期末,我 国数据中心机架规模将增长至 1400 万架,总增量投资将达 7000 亿元。
数据中心市场持续扩容,IT 投资规模逐年上升。据 IDC 数据,中国 IDC 市 场规模增长迅速,由 2007 年的 34.6 亿元增长至 2023 年的 5078.3 亿元,期 间 CAGR 高达 36.59%,我国数据中心行业始终保持高速发展趋势。据 CCID 数据,中国数据中心 IT 设备的投资规模处于稳步扩展通道,已由 2015 年的 2063 亿元增长至 2019 年的 4167 亿元,期间同比增速始终保持在 13%以上, 2020 年数据中心 IT 投资规模约为 4167 亿元,同比增长 12.7%,预计将延续 高水平增长。其中,IT 硬件产品的投资规模占比最大,2019 达到 45.4%,主 要受益于 AI 基础设施行业的快速发展,而服务和软件产品的投资规模占比 分别为 38.9%、15.7%。
数据中心基础设施市场增速可观,温控相关成本占比超 18%。据 CCID 于 2019 年发布的《中国液冷数据中心发展白皮书》,当年我国数据中心基础设 施的市场规模达到 161.9 亿元,且预计将在未来 6 年内保持较高增速,并于 2025 年达到 461.2 亿元,2019-2025 年内 CAGR 将达 19.06%。在数据中心基 础建设中,占比前三的分别为柴油发电机组、电力用户站和 UPS(不间断电 源),而温度控制相关成本(冷水机组、精密空调、冷却塔等)占比合计超 过 18%。
数字经济产业稳步增长,产业数字化趋势逐渐显现。2017-2023 年,我国数 字经济规模由 27.2 万亿增长至 56.1 万亿,期间 CAGR 为 12.82%,总量稳居 世界第二,已经成为构建我国现代化经济体系的重要支撑,数字经济增加值 占 GDP 比重由 32.90%提升至 44.50%。同时,数字技术与实体经济融合日益 深化,产业数字化在数字经济中的占比持续上升,由 2015 年的 74.30%提升 至 2022 年的 81.67%,而数字产业化的占比略有下降,从 2015 年的 25.7%下 降至 2022 年的 18.33%。
数字经济高质量发展推动算力由 1.0 向 2.0 演进。算力 1.0 中的传统数据中 心可被视为“算力仓库”,主要提供数据存储和分发服务,但对大规模数据 提供处理和高性能计算(智算/超算)的能力相对有限,无法满足数字经济的 高质量发展需求。2020 年后国家开始着重开展规划算力 2.0,以新型数据中 心为基底,提供大规模的数据处理能力和高性能计算能力,具有互通性、智 能性、融合性、绿色性和安全中立性等五大特征,更加符合数字经济时代的 快速发展趋势。
我国算力规模持续扩大,未来仍将保持高速增长。据 IDC 与浪潮信息联合 发布的《2023-2024 中国人工智能计算力发展评估报告》,我国算力规模已步 入快速发展通道。我国通用算力由 2020 年的 39.6 EFlops 增长至 2022 年的 54.5 EFlops,预计 2027 年通用算力规模将达到 117.3 EFlops。同时,我国智 能算力由 2020 年的 75 EFlops 增长至 2022 年的 259.7 EFlops,预计 2027 年 智能算力规模将达到 1117.4 EFlops。2022-2027 年期间,我国通用算力规模 CAGR 将达到 16.6%,同期智能算力规模 CAGR 将达到 33.9%。
我国算力规模与先进国家差距进一步缩小,智能算力占比迅速提升。据中国 信通院历年《中国算力发展指数白皮书》数据,2022 年我国算力规模全球占 比约 33%,相比于 2020 年的 31%同比提升了 2 个百分点,并缩小与美国的 差距,规模占比之差由 5%缩减至 1%,未来有望成为世界第一算力规模大 国。同时,我国算力结构得到改善,通用算力占总算力比重由 2016 年的 95% 下降至 2022 年的 40%,智能算力占总算力比重则由 2016 年的 3%跃升至 2022 年的 59%,并超越通用算力成为我国最主要的算力类型。在超算方面, 2022 年我国超算算力规模为 3.9 EFlops,连续两年增速超过 30%,其中 2022 年中国高性能计算机 TOP 100 居首位的性能是 2021 年的 1.66 倍,算力达到208.26 PFlops。综上所述,我国算力行业实现了规模和质量的同步发展。
CPU、GPU 等芯片功耗水平持续增长,算力异构化成为重要发展趋势。面 对人工智能、云计算等行业的快速发展,芯片性能的提升成为解决海量算力 需求的重要途径,Intel、ADM 等主要芯片制造商持续提高芯片的散热设计 功耗 TDP(Thermal Design Power),目前主流系列处理器功耗已达 350-400 TDP/W,GPU 功耗密度更是远高于 CPU,NVIDIA 推出的新一代 H100/H800 单卡功率密度峰值已经达到 700 TDP/W,预计未来在后摩尔定律时代下,芯 片算力与功耗仍将大幅提升。随着云计算向智能计算发展,以 GPU、FPGA、 ASIC 等专用加速芯片为代表的异构加速计算需求正蓬勃兴起,CPU+GPU、 CPU+FPGA、CPU+DSA 等异构并行形式已逐渐成为数据中心的主流计算系 统,未来仍会出现由 CPU、GPU、FPGA、DSA、ASIC 以及其他各种加速引 擎组成的超异构系统。因此,未来的数据中心不仅需要提高单核心的主频, 还需要叠加不同类型处理器,用以提高计算密度,满足高算力负载的需求, 并提供多元化算力供应格局,满足智能计算、超级计算等算力需求。
通用算力及智能算力高密应用场景增加,IT 部署密度提升。在通用算力场 景中,高算力部署场景集中在公有云及互联网领域,据科智咨询数据,公有 云短期内仍将保持 40%以上的快速增长且需要通过高密部署实现降本增效, 而以云游戏为代表的主流高性能计算场景已达 1kW/U 的功率密度;在智能 算力场景中,代表性的场景包括 ChatGPT 的商业化落地,国内百度、阿里、 腾讯、华为等互联网大厂发布的 AIGC 算力模型等,基于 GPU 的智能算力 部署将持续提升,据 IDC 等机构统计,GPU 为主的智算服务商在算力比例 中已达 20%,未来有望加快提升。 高密部署场景驱动下,数据中心机架与机柜功率显著增长。据 ASHARE 于 2018 年的数据预测,用于电信/通讯的服务器单机架功率将保持在 5kW 左 右,云计算、数据分析数据中心等用途的服务器单机架功率将普遍上升至 10kW~15kW。在机柜方面,据 Colocation America 预测,2020 年全球数据 中心单机柜平均功率将达 16.5kW,而 CCID 在《中国液冷数据中心发展白 皮书》中预测,2025 年全球数据中心单机柜平均功率有望达到 25kW,数据 中心未来的功耗仍将处于持续上升趋势。
2.1.2. 温控保驾机房运作,节能改造空间广阔
高温会对数据中心产生不利影响,制冷系统为第二大故障来源。数据中心的 过热会导致性能表现下降、寿命缩短等问题,不仅会导致高昂的维修成本, 甚至可能导致火灾等安全事故,引发数据中心瘫痪,从而给 24 小时连续性 的业务造成不可逆的损失。据 ASHRAE TC 9.9 发布的《数据处理环境热指 南》,当数据中心机房温度分别处于 15~20℃、20~25℃、25~30℃和 30~35℃ 时,数据中心服务器的故障率分别为 0.865%、1.130%、1.335%和 1.482%。 另外,Uptime Institute 2023 年调查数据显示,造成数据中心事故或中断的原 因构成中,制冷系统占比达 19%,是仅次于供配电的第二大故障来源。因此, 从减少高温负面影响、提高运行稳定性的角度来看,数据中心故障率的散热 “革命”势在必行。
散热在数据中心能耗中扮演重要角色,机房空调市场规模稳步增长。据 CCID 统计,2019 年中国数据中心能耗结构中,散热能耗占比高达 43%,与 45%的 IT 设备自身能耗基本持平,减少散热功率已成为控制数据中心运营 成本的不可避免的问题。在此背景下,我国数据中心机房空调市场规模增长 得到有力驱动,由 2015 年的 39.77 亿元增长至 2023 年的 87.5 亿元,期间 CAGR 为 10.36%,而后续几年预计仍将保持良好的增长趋势,2026 年有望 增长至 127.4 亿元,2023-2026 年 CAGR 预计将达 13.34%。
用电量与碳排放量增长,加之老旧小数据中心能效水平低,数据中心节能改 造迫在眉睫。据 CDCC 数据,2021 年全国数据中心耗电量达到 937 亿度, 占全社会用电量的 1.13%,二氧化碳排放量达 7830 万吨,占全国二氧化碳 排放量的 0.77%。预计到 2025 年,数据中心总耗电量将增长至 1200 亿度, 占比将达到 1.23%,而二氧化碳排放量将达到 10000 万吨,占比将达到 0.93%。 另外,我国数据中心 PUE 平均值为 1.49,且仍存在数量较多的老、旧、小 数据中心,其制冷设备耗能占比高达 30%-50%,PUE 维持在 2.0 以上。总体 而言,我国数据中心能源利用效率仍有提升空间,节能改造需求较高。
存量数据中心节能改造需求市场规模较大,需求主体主要为运营商、第三方 IDC 服务商及金融机构。据 CDCC 数据,2023-2025 年我国数据中心节能改 造市场空间超过 340 亿元,运营商、第三方 IDC 服务商和金融机构的改造 规模占比分别为 80%、15%和 5%,运营商数据中心改造规模达到 270 亿元。 运营商数据中心改造场景中以大中型数据中心、综合枢纽楼、边缘及接入局 所为主,对应市场规模分别达到 56 亿元、70 亿元和 17 亿元,而改造支出主 要面向空调、电源、机柜搬迁、机房整改等方向,其中空调改造规模占比最 大,达到 72%,对应的市场规模可达 194.4 亿元。因此,存量市场的节能改造将大力拉动数据中心的温控系统(空调)行业需求,推动行业快速发展。
数字化绿色化协同转型取得初步成效,绿色数据中心数量大幅提升。相比普 通数据中心,绿色数据中心采用了一系列环保、节能的技术措施,具备能源 利用率高、环境友好、可持续发展和安全可靠的特点。“双碳”背景下,数 据中心绿色转型发展已是大势所趋。截止至 2024 年 4 月工信部等 6 部门公 布 2023 年度国家绿色数据中心名单后,我国已创建共计 246 家国家绿色数 据中心。在绿色数据中心的设计、建设及运维中,高效的冷却方式是贯穿全 周期的重要环节,IDC 温控行业有望搭乘绿色数据中心的发展快车,实现自 身的飞跃式进步。
政策明确引导,数据中心步入绿色低碳提升阶段。我国数据中心是数字地产、 数字能源、数字科技的三重载体,一方面具有强政策属性,产业建设发展走 势与政策紧密相关;另一方面,载体内容也对其低碳化路径产生了相应影响, 集约高效、绿色低碳的新型数据中心成为未来发展的必然方向。因此,IDC 温控行业有望得到强力助推。
2.2. 储能温控:电化学储能趋向主流,温控需求日益提升
2.2.1. 电化学储能增长迅速,前景广阔
储能成为能源转型助推器。储能(电力储能)能够通过化学或物理的方法将 电能储存并在需要时释放的相关技术和措施。在碳达峰、碳中和的目标背景 下,储能的重要性日益增长,成为实现“双碳”目标的重要支撑技术之一。 抽水蓄能较为成熟,电化学储能将成未来主流。按储存方式,储能可分为机 械储能、电磁储能、电化学储能、热储能和化学储能五类,目前机械储能中的抽水蓄能是商业化应用最为成熟的储能方式,装机规模占比常年超过 90%, 但其存在地理位置限制大、电站建设周期长、前期投资大等缺陷。相比而言, 电化学储能地理位置限制小、建设周期短、成本持续下降等优势,已成为近 年来装机规模增长最快的储能技术路线。据 CNESA《储能产业研究白皮书》 数据,2019 年全球电化学储能规模占比仅为 3.7%,2023 年全球以电化学储 能为主的新型储能占比达到 31.6%(其中电化学储能占比在 95%以上),抽 水蓄能累计装机规模占比首次低于 70%。2023 年我国以电化学储能为主的 新型储能占比达到 39.9%,其中电化学储能占比在 97.3%,其他储能方式如 电磁储能中的超级电容储能等仍处于初步阶段,尚未得到产业化应用。
电化学储能高速增长,规模占比稳步扩大。据 CNESA 历年的《储能产业研 究白皮书》数据测算,全球电化学储能规模由 2015 年的 1134.6MW 增长至 2023 年的 90674.4MW,期间 CAGR 高达 72.91%,规模占比由 0.7%增长至 31.4%,中国电化学储能规模由 2015 年的 141.3MW 增长至 2023 年的 34301.0MW,期间 CAGR 高达 85.66%,规模占比由 0.6%增长至 39.7%。据 CNESA《储能产业研究白皮书 2024》预测,保守场景下,预计 2028 年以电 化学储能为主的新型储能累计规模将达到 168.7GW,2024-2028 年 CAGR 为 37.4%;理想场景下,预计 2028 年新型储能累计规模将达到 220.9GW,2024- 2028 年 CAGR 为 45.0%。
锂电池储能优势凸显,应用规模及占比同步提升。相比于其他储能技术路线, 锂电池储能具有循环寿命长(循环次数达 1000~10000 次)、能量密度高 (200~400Wh/l)、效率水平佳(85~98%)等优点,现已运用于各类便携式电 子产品、电动汽车电池装机、行动装置等。据 CNESA 数据,全球锂离子电 池装机规模由2015年的608.7MW增长至2023年的88494.7MW,期间CAGR 高达 86.34%,占电化学储能比例由 54%增长至 98%,中国锂离子电池装机 规模由 2015 年的 80.5MW 增长至 2023 年的 33577.4MW,期间 CAGR 高达 112.57%,占电化学储能比例由 57%增长至 98%。高涨的市场需求及电化学 储能的快速发展将推动锂电池持续的大规模量产以及更加广泛的商业化开 发运用。
2.2.2. 温控保障电池安全,储能温控规模快速增长
温度会影响锂离子电池在容量、功率和安全性等方面的性能表现。锂电储能 系统中有大量电池紧密排列在有限空间内,且运行工况复杂多变,易导致产 热不均匀、温度分布不均匀、电池间温差较大等问题,进而影响电池的充放电性能,导致容量和寿命下降。具体而言,不当的工作环境温度会导致锂离 子电池容量衰减、出现热失控等问题。
锂电池存在一定安全隐患,近年来安全事故多发。2021 年 7 月,全球最大 电池储能项目之一,采用特斯拉 Megapack 系统的的澳大利亚 Victorian Big Battery 储能电站内一块重达 13 吨的锂电池爆燃,并迅速蔓延至相邻电池包, 引发火灾。特斯拉事后的火灾调查报告显示,Megapack 储能系统的冷却系 统内泄漏导致电池短路,并引发电子元件起火,而局部过热造成了电池热失 控,进而导致火灾发生。2024 年 5 月 15 日,美国加利福尼亚州圣地亚哥市 南部的 OTAY MESA Gateway 储能电站发生火灾,该电站于 2020 年 8 月建 成投运,规模达 250MW,是当时世界上规模最大的电池储能项目,该电站 采用 LG Chem 的电芯为三元锂电池,三元锂电池虽然有着更高的能量密度, 但也极易发生电池热失控等风险。据头豹研究院数据,自 2011-2022 年底, 全球共发生电化学储能事故 36 起,其中三元锂电池和锂离子电池事故数量 分别为 26 起和 6 起,占总数的 88.9%。锂电储能具有能量密度高、转换效 率高等优点,但安全隐患不容忽视。
热失控为事故主要诱因,温度控制必不可少。热失控主要由机械滥用、电滥 用和热滥用等引发,当电池受到挤压/针刺、电池过充/过放、工作环境温度 过高/过低等均会引起内短路,从而引发热失控。在温度过高时,电池 SEI 膜 分解,负极材料与电解液发生反应,可能导致短路,并发生一系列放热副反 应,如果热量无法及时发散,电池进入热失控状态将引起燃烧、爆炸等事故。 研究表明,锂离子电池的电化学特性在 10℃~35℃时最佳,需尽可能将锂电 池工作温度保持在该区间内,在-20℃~45℃时寿命会有小幅衰减,若超出该 温度区间则会导致电池容量的大幅下降和安全事故。因此,温度控制的重要 性大大凸显。
风冷和液冷为最常见,液冷功耗相对较低。目前锂电池可采用的热管理技术 包括空冷(以空气为介质)、液冷(以液体为介质)、热管冷却(给予热管) 和相变冷却(基于相变材料),其中热管和相变冷却在电池系统中的应用研 究仍处实验室阶段且成本更高,因此市场上最为常见的温控方案是风冷和液 冷。据 GGII 数据,风冷系统产品市占率为 55%,主要原因是已投运储能项 目对温控效率要求相对较低,且风冷初期投资更低。在功耗方面,液冷方案 表现更佳、热管理效率更高。研究表明,在进口温度相同时,液冷功耗低于 风冷,能够大大降低热失控风险概率,更加符合未来能耗管理的趋势要求, 未来市占率有望超过风冷。
储能温控市场快速增长,热管理环节占比较小。据 GGII 数据,2021 年储能 温控市场规模为 24.7 亿元,液冷储能市场价值量为 3.0 亿元,市场渗透率为 12.15%;GGII 预测到 2025 年,储能温控市场规模将增长至 164.6 亿元,期 间 CAGR 将达 60.67%,而作为中长期技术方案趋势的液冷储能市场价值量 将迅速增长至 74.1 亿元,期间 CAGR 将达 122.93%,市场渗透率将增长至 45.02%。据 GGII 数据,储能温控部分价值量占整体储能系统价值量的 3-5%, 其中电芯模组占比居首,达 55%,PCS 和变压、BMS 和 EMS、设计施工、 热管理占比分别为 14%、12%、6%、3%。
政策东风频吹,储能温控发展可期。近年来,我国出台多项政策支持储能行 业发展,从推进商业化进程、加强技术研发、设定发展目标等方面对储能进 行助推。同时,国家亦陆续出台注重于储能电站安全性的政策,从完善电池 管理系统技术细则、规定电池选用类型、保障安全生产等方面加强储能电站 的安全管理,从而推动实现电站安全运行的重要手段——温控系统的快速发 展。
2.3. 5G 基站温控:站点功耗大幅增加,温控升级加强节能
信息化和工业化深入融合,5G 基站建设不断深化。据工信部数据,我国移 动电话基站数总数已由 2018 年的 667.2 万个增长至 2023 年的 1162 万个, 其中 4G 基站达 629.5 万个。自 2019 年工信部向三大运营商发放 5G 商用网 牌照以来,我国 5G 基站数迅速增长至 2023 年的 337.7 万个,占移动基站总 数的 29.1%。2024 年 3 月 26 日,工信部表示为促进加快形成新质生产力, 将进一步推动信息化和工业化深度融合,并适度超前建设 5G 等基础设施, 加强 5G 应用在工业领域的深入推广,实现工业互联网规模应用及制造业数 字化转型,5G 基站的建设速度有望进一步提升。
5G 基站功耗相比 4G 大幅增长。据华为《5G 电源白皮书》,预计 64T4R AAU 最大功耗将会达到 1000~1400W,BBU 最大功耗将达到 2000W 左右。同时, 低/高频混合组网将为5G网络典型特征,5G基站相应表现为一站多频配置, 5 频以上站点占比预计将在 2023 年增长至 45%,且一站多频将大幅提升基 站功耗,整站功耗将超 10kW,10 频及以上站点功耗将超 20kW,多运营商 共享场景下还将翻倍。
5G 通信基站功耗较大,平均达到 4G 基站的 3 倍左右。据中国通信标准化 协会的数据,目前运营商的 5G 基站主设备空载功耗约为 2.2~2.3 kW,满载 功耗约为 3.7~3.9 kW,是 4G 基站的 3~4 倍。就具体数据而言,运营商 2019 年在我国两地的测算显示,5G 基站单站满载功率接近 3700W,约为 4G 基 站的 3.5 倍,即使在空载情况下 5G 单站功耗仍超过 2000W,约为 4G 单站 的 2.5 倍。 5G 基站由BBU+AAU 组成,其中 AAU 是功耗的主要来源。在 5G 基站功 耗中,负责处理信号编解码的基带处理单元(BBU)的功耗相对较小,而有 源天线单元(AAU)是功耗的主要来源。随着 5G 基站工作负荷的增加,BBU 功耗变化幅度较小,而 AAU 功耗则上升加快。
在功耗提升背景下,温控扮演重要角色。5G 站点功耗翻倍带来热耗大幅增 加,且通信基站基本为全封闭机房,机房内的电源设备、发射设备、传输设 备等均为较大的发热体。为了保障设备在恒定温度范围内运行,机房需要保 持一定的工作环境温度(工信部于 2018 年发布的 YD/T 1821-2018《通信局 (站)机房环境条件要求与检测方法》对五类通信局(站)机房分别提出机 房环境温度、湿度范围要求),而这主要通过制冷系统(空调)不间断地为 基站降温来实现。据华为 2021 年发布的《绿色 5G 白皮书》,空调能耗在站 点能耗中占比达到 30%,仅次于主设备能耗。
能耗管理提上日程,政策推动低碳发展。2022 年 8 月,工信部等 7 部门联 合发布《信息通信行业绿色低碳发展行动计划(2022-2025 年)》,5G 基站等 基础设施建设规模将保持较快增长,预计到 2025 年每万人拥有 5G 基站数 将从 2020 年的 5 个增加至 26 个,行业用能需求也将保持刚性增长,绿色低 碳管理势在必行。《行动计划》提出到 2025 年,信息通信行业绿色低碳发展 管理机制基本完善,节能减排取得重点突破,单位信息流量综合能耗比“十 三五”期末下降 20%,单位电信业务总量综合能耗比“十三五”期末下降 15%,且新建 5G 基站站址共享率不低于 80%,5G 基站能效提升 20%以上, 改建核心机房 PUE(电能利用效率)降到 1.5 以下。在明确的政策指引下, 5G 基站温控发展前景可期。
3. 温度控制技术路线多样,液冷成为未来发展重点
3.1. 数据中心冷却方式多元,风冷难以应对较高功率密度
按冷却介质的不同,数据中心的冷却方式可划分为风冷和液冷。风冷的冷却 介质为空气,外部空气经冷却处理后进入服务器机架冷通道,冷却完成后的 空气经热通道排出并返回空气处理机。风冷可按是否采用自然冷源划分为机 械制冷和自然冷却,机械制冷可分为直膨式制冷和冷冻水制冷,自然冷却可 按换热介质的不同分为为风侧、水侧,包含直接/间接蒸发冷却、热管等形 式。液冷则采用高比热容液体作为热量传输媒介,通过直接或间接的方式接 触发热器件,满足散热需求。
风侧自然冷却利用室外冷风来对数据中心进行冷却,空气质量和地域环境 是主要制约因素。风侧直接自然冷却技术是将室外空气经过处理后直接送入 数据中心机房环境,从而利用室外自然冷源的冷却技术。该冷却技术工艺简 便、成本较低,且送风过程中无换热环节,具有初始投资低、效率回报高的 特点,但由于数据中心机房对空气洁净度有较高要求,因此需对引入的空气 进行除硫、除尘、过滤净化、湿度控制等处理,从而带来较高的运维成本, 在实际建设中很少采用。风侧间接冷却将室外空气进行一定处理后,通过热 交换器与机房内空气换热直至达到温度要求,从而实现对自然冷源的利用。 相比于直接风冷,间接风冷与室外冷源只有热交换而无质交换,很大程度上 减少了室外空气中水汽、粉尘等带来的不利影响,能够保证室内相对稳定的 湿度和洁净度,但热交换器的加装会降低换热效率、提高设备成本,且随着 使用时间增加,污染物和颗粒物会再热交换器上累积,进一步导致换热效率 降低和维护成本增加,因此在实际建设中的应用也较为稀少。
液体(水)的吸热能力天然高于空气。相比于空气,水的密度和每单位体积 的热容量更高,在 25℃的条件下,水的热导率能够达到空气的 23 倍以上, 且能够吸收的热量远远高于空气,按单位体积计算高达 3243 倍。综合比较 下,水的传热系数约 3000 W/(m2·K),超出空气的 30 倍以上,且水的比热 容是空气的 4 倍有余,因此在从 IT 设备传递相同的热量时,液体所需流速 远低于空气,从而能够节省大量能源。由此可见,液体冷却比空气冷却有更 高的散热效率和更好的空间利用率,符合当今时代数据中心冷却系统的发展 趋势。
传统风冷技术无法满足数据中心日益增长的散热需求。随着数字经济、5G、 人工智能等新型行业的发展,数据中心机柜均朝着高功率密度的方向转型, 主流数据中心单机柜功率密度在 15kW 以下,而 AI 和大模型对应的数据中 心机柜功率密度普遍在 20kW 以上,高密部署的智算中心单机柜功率则在 30kW 以上,广州超算中心定制的超级计算机单机柜功率密度甚至高达 80kW。当数据中心单机柜功率密度超过 15kW 时,传统风冷技术的制冷效 率将大幅下降,无法满足稳定运行的要求,而 50kW 的单机柜功率则超出风 冷方案的冷却极限,已经难以实现产热和移热速率的匹配,会导致算力下降 甚至损害设备。相比之下,液冷方案具有高比热容的热点和对流传热的能力, 能够有效解决超高热流密度的散热问题,未来可广泛应用于单机柜功率密度 20kW 以上(甚至 100kW)的数据中心的散热,是未来数据中心散热的主流 发展趋势。
相比风冷,液冷能够更有效降低数据中心 PUE。PUE(Power Usage Effectiveness)即电源使用效率,是数据中心总能耗与IT设备能耗间的比值。 PUE 是评价数据中心能耗水平的重要指标,较低的 PUE 代表着较低的非 IT 设备耗能,即能效表现越好。传统风冷方案的数据中心 PUE 通常在 1.5 左 右,极限值为 1.25。相比而言,液冷技术可以通过更短的传热路径(将低温 液体由冷量分配单元直接供给 IT 设备)和更高的换热效率将数据中心 PUE 降至 1.05-1.2 左右。在碳中和的节能背景下,液冷是更加具有发展前景、符 合绿色发展趋势的数据中心冷却方案。
液冷技术在高密部署趋势下拥有显著的规模成本优势。据施耐德电气数据, 对于一个单机架功率密度为 10kW、总容量为 2 兆瓦的数据中心,采用传统 的风冷技术(风冷冷冻水机组)和液冷技术(基于 IT 机箱的浸没式液冷技 术)的数据中心的每瓦投资成本为分别为$7.02 和$6.98,投资成本大致相等。 当单机架功率密度提升 2 倍(每机架 20kW)和 4 倍(每机架 40kW)时, 初投资可分别降低 10%和 14%,成本的节省主要得益于液冷技术能够压缩 IT 设备容量并节省空间的优势,同时这种压缩还能够减少 IT 机架和机架 PDU(电源分配单元)的数量,从而使得液冷方案实施所需的机架分液器减 少、机架所需的管道和阀门单位成本降低及 IT 空间的建设成本缩减(包括 建筑围护结构的节省、机架上用于支持布线的结构减少、消防和照明相关成本降低等)。因此,在数据中心 IT 设备与机架大规模部署的发展趋势下,液 冷技术规模效应能够有效节省投资成本。
液冷数据中心相比风冷仍有其他优势。除了散热效果、能效水平和运营成本 以外,液冷系统相比风冷仍具有多种优势,包括但不限于能够有效减少空间 限制以适应数据中心未来的高密部署、降低用水限制以提高用水效率、削减 噪音污染以提供优质的工作环境、支持余热回收以降低等效 PUE、减少地理 环境依赖以提供标准化优势等。
3.2. 液冷技术:冷板式应用最为广泛,浸没式发展前景广阔
3.2.1. 我国液冷起步较晚,后续发展迅速
液冷可分为间接和直接冷却两种方式,冷板式和浸没式应用较为广泛。液冷 技术以液体取代空气作为冷媒,与发热部件进行热量交换并带走热量,使得 服务器在安全的温度范围内持续工作。按冷却介质和服务器接触方式的不同, 液冷可分为间接液冷和直接液冷两类,间接液冷一般为冷板式液冷,直接液 冷包括浸没式液冷和喷淋式液冷,其中冷板式和浸没式又可根据冷却介质是 否发生相变可分为单相和两相。目前数据中心市场中冷板式液冷和单相浸没 式液冷的应用较为主流,冷板式液冷主要用于标准化、通用化的高密度数据 中心,而浸没式液冷集中应用于超高密度数据中心领域。
液冷系统架构中包括室外侧(一次侧)和室内侧(二次侧)。室外侧(一次 侧)即为室外制冷系统,主要包括冷却塔、一次侧管网、一次侧冷却液;室 内侧(二次侧)则包含 CDU、液冷机柜、ICT 设备、二次侧管网和二次侧冷 却液。室外冷却塔中的冷却液通过室内流量分配单元提供循环动力,经 CDU 二次侧输出并进入液冷机柜,与发热部件进行热交换,吸收热量的高温冷却 液经 CDU 输出到室外冷却塔,冷却后开始再循环。其中 CDU 能够隔离一 次侧和二次侧回路,用于在液体回路之间进行热交换,并提供二次侧流量分 配、压力控制、物理隔离、防凝露等功能。
我国液冷技术起步稍晚,后续发展迅速。液冷计算机最早可追溯到 1964 年 IBM 推出的冷冻水冷却计算机 System 360,但由于成本、部署等原因,在随 后几十年内液冷并未得到实质发展。2008 年 IBM 对外发布液冷超级计算机, 2009 年 Intel 推出矿物油浸没技术。2018 年,谷歌由于 TPU 3.0 pod 庞大的 算力消耗而首次在数据中心采用液冷技术,在后续几年,微软、Meta、Intel 均陆续将液冷技术运用于数据中心冷却。国内液冷技术在节能政策初步出台 后得到了迅速发展,中科曙光于 2015 年推出标准化量产的冷板液冷服务器, 在 2017-2018 年,华为、浪潮、阿里、联想陆续推出和建设 Fusion Server 板 级液冷方案、冷板液冷服务器、液冷解决方案和浸没式液冷数据中心。2019 年,中科曙光实现全球首个“高效刀片式高效全浸式液体相变冷却技术”的 大规模部署。2022 年,浪潮和华为分别发布液冷全线产品和全液冷“天成” 整机柜服务器。随着国内主流服务器厂商加快推出液冷产品,我国液冷技术 发展进程与国际基本同步,逐步走向成熟并开始批量化、规模化使用,在液 冷规模试点应用方面积累了丰富经验。
3.2.2. 冷板式液冷:应用最为广泛的液冷散热方式
(1)技术原理:冷板式液冷技术将工作液体与被冷却对象(如 CPU 等)隔 离而不产生直接接触,而是通过冷板等高效热传导部件将冷却对象的热量传 递给在封闭的循环管路中的冷却液体,从而实现散热。
(2)基础设施系统工作原理:冷板套件吸收主要热源产生的热量并传导至 套件内冷却液,吸热升温后的冷却液经由机柜内分集液器(VCDU/Manifold) 至 CDU,在 CDU 中进行与一次侧常温冷却水的换热,冷却后的冷却液通过 分集液器再次输送回服务器侧,完成二次侧循环。在一次侧中,低温冷却水 通过 CDU 内部换热器传递至室外冷源,再通过室外冷却设备将热量排至室 外环境中,散热后的低温冷却水再次被输送回 CDU 内的换热器中,完成一 次侧循环。
(3)关键技术与设备: ①机柜与服务器形态:冷板式液冷技术不要求对服务器形态进行大的改动, 仅需预留冷板、连接管路等冷板组件、将原风冷散热片替换为液冷散热套件, 并将冷媒管路引出机箱即可,使用、维护等方面与现有服务器较为接近,对 传统空冷服务器进行改造也具备可行性。 ②冷板:冷板主要部件有冷板基板、流道盖板、流体通道:冷板基板与发热 器件直接接触,应选择导热性强、不易腐蚀的金属或合金材料,通常选择铜 或铝合金材质;流道盖板为置于顶层,与基板密封形成封闭的腔体;流体通 道为散热核心部件,供冷却液流通与流体通道进行接触实现换热。根据不同 的需求,冷板内部流道还可设计为不同形态,如面对高热密度元器件会采用 微通道、射流结构等较为复杂的内部结构设计。③冷却液:冷板式液冷冷却液需与所有直接接触的材料相互兼容,并具备长 期可靠性、导热性、防腐蚀性、抑菌性等功能。目前业内常用的冷却液主要 包括去离子配方水溶液、乙二醇水溶液和丙二醇水溶液,其中去离子配方水 溶液具有较好的防腐蚀和抑菌性能,但无防冻功能;乙二醇/丙二醇水溶液 浓度在 20%~30%,具备防冻和抑制微生物的功能,但同等条件下换热性能 弱于去离子配方水溶液,且乙二醇/丙二醇浓度越高使溶液传热系数衰减程 度越大。
④CDU(冷量分配单元):CDU 是指用于二次侧高温液态冷却介质与一次侧 冷源进行换热,并对液冷 IT 设备提供冷量分配和智能管理的模块,其功能 包括提供循环动力、监控运行状态、净化并储存冷却液等。冷板式液冷 CDU 由换热器、循环泵、过滤器、储液罐、定压补液系统,以及附件(阀门、管 路、接头、传感器等)组成。在 CDU 的二次侧,冷却液被循环泵输送至散 热器中吸收热量,而后进入板式换热器将热量交换到一次侧冷却液中,被冷 却后的二次侧冷却液再被泵送至散热器中完成循环。在 CDU 的一次侧,参 与热交换升温后的冷却水从板式换热器流出并泵送至室外冷却塔,冷却后变 为低温冷却液再次进入板式换热器中,与二次侧高温冷却液进行热量交换, 完成一次侧循环。
冷板式液冷接头可分为集中式 CDU 与分布式 CDU 两种布置形式。分布式 CDU 无需二次管路部署,适应不同机柜功率场景,易与机柜功耗匹配,根 据业务上架情况随启随用,在实际工程中优先采用。
(4)技术特点: ①高效散热:通过冷却板在冷板中的强制对流,大幅提升散热效率。 ②精确制冷:冷板套件直达发热部件,有效应对局部热点问题,芯片级精确 制冷使得服务器可靠性更高,CPU 核温可低至 65℃左右。 ③支持高热流密度散热和高密度部署:可满足芯片热流密度 50W/cm2~ 100W/cm2的散热需求和单机柜功率高达 60kW 的部署需求。 ④节能:可充分利用自然冷源,大幅降低能耗,冷板液冷 CLF 可低至 0.1 以 下,比传统空气冷却机房节能 20%以上。 ⑤总体 TCO(总体拥有成本)低:初始投资与传统风冷数据中心接近持平, 且系统能耗更低,整体 TCO 随运行时间增长而显著优于传统风冷。另外, 冷板式液冷所需冷却液要求较低,多种冷却介质均可。 ⑥具有改造传统数据中心优势:可在风冷服务器基础上改造,保持传统机柜 方式部署,部署密度较高,相比其他液冷技术更具改造优势。 ⑦维护简便:服务器与机柜的连接采用快速接头,服务器上下架可实现冷却 系统在线插拔,不影响其他服务器正常运行。另外,保留了原有服务器的形 态及维护方式,不影响用户使用习惯。 ⑧智能化运行管理:CDU 设备具有进出液温度、流量等智能监控功能。
(5)适用范围: ①适用于全年全地域环境条件:以液体作为传热介质散热,利用室外侧常温 冷却水即可完成热交换,因此无需压缩机等高能耗设备。 ②适用于中高热流密度芯片散热:可实现部件级精准散热,解决方案 PUE 低至 1.2 以下,尤其适用于区块链、人工智能、云计算等对算力和绿色节能 要求较高的新建大型数据中心。 ③适用于各类型数据中心的新建和节能改造:对机房基础条件要求和服务器 整体结构形式要求与传统风冷系统基本相同,可支持对现有风冷服务器进行 风改液改造,也适用于各类型数据中心的新建和扩建。
(6)存在的问题 :①非 100%液冷:只对服务器中的高发热元件采用液冷散热,仍需少量风扇 对服务器中的非液冷元件进行风冷散热,且存在液体泄露风险。 ②工程标准化程度不足:液冷系统工程化主要参考原有暖通行业标准,并结 合液冷数据中心安全可靠性要求,由供应商和用户制定工程标准,目前液冷 工程标准化领域尚属空白。
3.2.3. 单相浸没式液冷:采用液冷机柜散热,冷却液成本较高
(1)技术原理:单相浸没式液冷将发热电子元件直接浸没于冷却液中,通 过冷却液与电子元件的直接接触进行热交换的液冷技术。热交换过程中冷却 液不存在相态转变,完全依靠物质的显热变化传递热量。
(2)基础设施系统工作原理:服务器所有发热电子器件均浸没在腔体的冷 却介质中,运行过程中产生的热量会被冷却介质吸收并导致其升温,在底部 低温冷却介质的注入和对流现象的影响下,高温冷却介质会向上流动并被收 集,而后输送至 CDU 中进行换热,使冷却介质恢复低温状态并被再次注入 浸没腔中,为服务器提供高效的持续冷却。
(3)关键技术与设备: ①液冷机柜(Tank):服务器浸没在 Tank 内的绝缘冷却液中,因此 Tank 通 常采用优质冷板焊接成型并采用旋开式顶盖设计、设可视透明窗,整体牢固 可靠且观察便捷;进/回液管采用特殊设计以保证冷却剂的分配与汇流均匀。 ②冷量分配单元(CDU):通常为柜式结构,内设循环泵、过滤器和换热器 等,充注有绝缘冷却液。CDU 可考量整系统设计进行功能性适配,可采用 小型化适配设计(一拖一、一拖二),或使用性能较强的 CDU 适配多个 Tank (一拖 N),通常 CDU 的每个分配单元可支持 1~4 个 Tank,且内置断路器 以防止电气过载。在泵方面,CDU 内有主用泵和备用泵,可实现 2N 冗余运 行(备用泵水系统可承担主泵全部负荷),且两者间采用电气隔离设计,可 独立运行。另外,CDU 进出口采用软管宝塔接头,方便使用与后续维护。 在单相浸没式液冷服务器产品中,液冷服务器置于 Tank 内部,CDU 通过管道与 Tank 连接。CDU 通过下部管道向 Tank 输送低温冷却介质,冷却液吸 收热量、温度上升后流回 CDU,热量由 CDU 带走。
③冷却液:为确保冷却液在升温状态下始终处于液相状态并减少挥发,需要 选择较高沸点的液体介质,且需尽可能选择粘度值低的冷却液以增加流动性 和减少对泵的压力。对于单相浸没式液冷,碳氢及有机硅类化合物和碳氟类 化合物均可作为冷却液。
④水平分液集气单元(HCDU)与竖直分液单元(VCDU):HCDU 包括集 气器和水平分液器,集气器收集吸收完热量的制冷剂蒸汽并将其通过回气管 输送至 CDU,水平分液器将 CDU送入的冷却剂均分给各个计算刀片。HCDU 一般部署于计算刀箱后部,通过快速连接器与浸没腔体的气相和液相相连。 在工作时,由制冷模块送来的液态冷却介质经设备机箱的输入主冷却介质连 接器进入 HCDU 液仓后,平均分配进入浸没腔体内;浸没腔体内产生的气 态冷却介质送到 HCDU 汽仓,集中后经由 VCDU 送至制冷模块中进行冷凝。 VCDU 又称分集液器(Manifold),负责将将经过 CDM 换热后的低温冷却介 质均匀地分配到计算柜前舱的 HCDU 与各个后舱网络模块冷板中,流体吸 热后再通过 VCDU 汇集进入 CDM 中。
(4)技术特点: ①散热效率更高:冷却液与发热部件直接接触,热阻减少;相比风冷,使用 的冷却介质相同体积下的散热效率提升 1000 倍以上。 ②设备可靠性更高:被冷却对象运行温度低、温度场均匀,且密闭浸没腔体 可使内部设备免遭外部环境(温湿度、盐度、灰尘和振动等)影响。 ③节省能耗与空间:无空调与湿度控制器、压缩机、冷冻水机组,无需架空 地板,且无需装载风扇,可减载 10%~20%;PUE 值低至 1.09 以下,单机架功率可提升至 80kW 以上。 ④环境依赖性弱:可接受不同形式水源,运行环境要求低。 ⑤噪音影响低:由于无风扇部件,噪音可低至 45dB,机房环境优良。
(5)适用范围: 适用范围较广,基本不受地域限制。
(6)存在的问题: ①成本高:单相浸没式液冷的冷却液成本较高。随着应用规模的扩大,冷却 液成本有望逐步下降。 ②存在改造难度:一般需要改为箱式部署,部署密度一般低于冷板式液冷, 机房配套和服务器改造难度和成本也较大。 ③器件选型局限性:由于冷却液的渗入,需将普通机械硬盘替换为固态盘或 氦气硬盘,且需要选用全密封处理的光模块。为了防止导热硅脂在液冷环境 下被冲刷溶解,需使用固态界面材料。 ④维护局限性:浸没式液冷设备维护时需要打开 Tank 上盖,并配备可移动 机械吊臂或专业维护车实现设备的竖直插拔,维护复杂度高,耗时长;且开 盖维护过程有一定的冷却液挥发问题,增加运行成本。 ⑤机房环境特殊性:因浸没式液冷系统 Tank 内充满冷却液,整柜重量大幅 增加,对机房有特殊承重要求,普遍要求浸没式液冷机房地板承重应大于 1500kg/m2。 ⑥产业链成熟度不足:与冷板式液冷技术类似,单相浸没式液冷系统架构及 产品标准化程度不足。
3.2.4. 两相浸没式液冷:可应对超高热流密度,总体成本较高
(1)技术原理:两相浸没式液冷使发热部件与冷却液体直接接触进行散热, 即将服务器的主板、CPU、内存等发热器件完全浸没在冷却液体中,通过低 沸点冷却液体相变换热实现热量转移。
(2)基础设施系统工作原理:冷却介质和发热部件放置于特制的密闭腔体 中,低沸点冷却介质吸收发热部件热量后升温汽化,从而通过相变换热带走 热量,冷却介质蒸汽经分液单元进入 CDM(冷量分配模块),在内部冷凝器 与一次侧室外能源换热,而后降温液化并重新经分液单元输送回刀片中;一 次侧常温冷却水吸收后被泵送至室外冷却装置,实现向室外的热量传输。
(3)关键技术与设备: ①机柜与服务器形态:两相浸没式液冷对服务器有较高设计要求,目前主流 应用的是刀片式服务器系统,系统中的计算机主板及所有电子元器件全部密 封浸没在液体冷媒中,实现冷却液零泄漏,另外,密封刀片腔体内设有多种 感应传感器和控制装置,保证系统的稳定运行和实时监测。同时,密封腔体 内部的计算节点通过快速接头将服务器与 HCDU(水平分液集气单元)相连, 从而实现热插拔需求,提供可维护性,并保证系统安装或维护过程中冷却介 质不泄漏。
②冷却液:沸点较低、沸程适宜,便于吸热汽化和散热液化的碳氟化合物是 适用于两相浸没式液冷技术的最佳冷却工质,其具有良好的化学稳定性、热 稳定性、绝缘性、电气特性和材料兼容性,同时具有较低的介电常数,能够 保证高频信号在冷媒中的可靠传输,且 ODP(臭氧破坏潜能)为 0,大气寿 命较短,对臭氧层无破坏性。 ③CDM(冷量分配模块):CDM 是指用于二次侧冷却液蒸汽与一次侧冷源 换热并对液冷 IT 设备实施冷量分配和智能管理的模块去,其功能包括提供 循环动力、监控运行状态、支持刀片服务器的独立排液下架等。相变浸没式 液冷 CDM 冷凝器、循环泵、过滤器、储液罐,以及附件(阀门、管路、接 头、传感器等)组成。在 CDM 的二次侧,低温液态冷却液经分集液器均分至各个浸没刀壳,在刀壳内部吸收热量并升温、沸腾,通过相变实现热量转 移,而后冷却液气体再回到 CDM 并通过内部换热器与一次侧冷却水换热, 液化为低温冷却液后回到分集液器完成循环。在 CDM 的一次侧,在 CDM 换热器中升温后的高温水被泵送到室外冷却塔中,通过鼓风或喷淋将热量转 移到大气中并变为低温冷却水,再回到 CDM 换热器中与二次侧冷却液进行 换热,完成一次侧循环。
(4)技术特点: ①高效散热:利用冷却液相变潜热大的优势实现高效散热。 ②精确制冷:全部发热器件浸没与冷却液中,可实现芯片级精确制冷。通过 对芯片封装表面进行强化沸腾处理,增加表面气化核心,降低电子元器件封 装罩表面的温度,使得电子元器件表面的温度场均匀分布。 ③支持高热流密度散热和高密度部署:可满足芯片热流密度 100W/c 成立三 河同飞制冷股份有限公司北京分公司~150W/cm2 的散热需求和单机柜功率 高达 168kW 的部署需求,大幅缩短节点间通信距离并突破大系统高速网络 通信延时问题。得益于高效散热性能,可以调整芯片运行频率提高计算性能 和系统资源利用效率,并能提升机房空间利用率,节省占地和建设成本。 ④节能:无需压缩机制冷,可充分利用自然冷源,大幅降低能耗,冷板液冷 CLF 可低至 0.04 以下,比传统空气冷却机房节能 30%以上。 ⑤总体 TCO 随运行时间增长更凸显优势:初始投资高于风冷方案,但得益 于优异的节能效果,3 年后 TCO 将低于风冷方案,且随运行时间增长而显 著优于风冷。 ⑥机房噪声低:无需配置风扇,噪音低至 45dB。 ⑦自动排液设计,运维操作简便:冷却液沸点低,开箱维护难度大,但密封 刀片式服务器支持热插拔,可实现单个刀片独立下架维护;回收冷却液时需 专业设备开箱维护,成本略高,但实际运维操作简便。 ⑧智能化运行管理:服务器系统可监控刀片服务器刀壳内气体压力、液体温 度和液位,并与 CDM 联动控制供液温度、压力等参数,具备漏液故障告警 和定位功能,保障服务器系统可靠性。
(5)适用范围: ①适用于全年全地域环境条件:以液体作为传热介质散热,利用室外侧常温 冷却水即可完成热交换,因此无需压缩机、风扇等高能耗设备。②适用于超高热流密度芯片散热:可实现芯片级精准散热,解决方案 PUE 低至 1.1 以下,尤其适用于高密度计算、区块链、人工智能、云计算等对算 力和绿色节能要求较高的新建大型、超大型数据中心。
(6)存在的问题: ①成本高:在冷却液方面,碳氟化合物成本较高,且面对愈发严格的环境保 护要求,目前的碳氟化合物正朝超低温室效应方向发展,3M、科慕、霍尼韦 尔等企业均有涉及。随着技术发展与国产化替代,冷却液成本有望逐步下降。 在系统设计及建设方面,两相浸没式液冷系统对密闭性要求较高,同时为实 现单刀片独立自动排液及下架维护,服务器系统的结构设计要求较高,从而 带来较高的整体成本。 ②器件选型局限性、维护局限性、机房环境特殊性:局限性与单相浸没式液 冷系统相同。 ③产业链成熟度不足:与上述两类液冷技术类似,相变浸没式液冷系统架构 及产品标准化程度不足。
3.2.5. 喷淋式液冷:造价成本具有优势,但应用范围相对有限
(1)技术原理:喷淋式液冷是依靠泵压或重力驱动,自上而下将冷却液精 准喷淋到服务器发热部件(如 CPU、存储)件或与之连接的导热元件表面, 从而吸收并带走热量。排走的热流体与外部环境冷源进行换热,冷却液则不 会发生相变。
(2)基础设施系统工作原理:喷淋式液冷系统主要由冷却塔、CDU、一次 侧和二次侧液冷管路、冷却介质和喷淋式液冷机柜组成,其中喷淋式液冷机 柜通常包含管路系统、布液系统、喷淋模块、回液系统等。在 CDU 内冷却 后的冷却液被泵送至喷淋机柜内部,并对内部的发热器件或与之相连的导热 材料进行喷淋制冷,吸热升温后的冷却液将被收集,并通过泵输送至冷 CDU 进行下一个制冷循环。
(3)关键技术与设备: ①喷淋式液冷机柜:喷淋式直接液冷机柜是整个系统中实现液冷过程的核心 部件,包含布液、喷淋和回液等功能。被 CDU 冷却之后的冷媒进入机柜内 部后,通过分液支管进入布液装置,或被输送至进液箱以提供固定大小的重 力势能,以驱动冷媒进行喷淋,对发热部件或导热材料(如金属散热器、树 脂(VC)、热管等)进行喷淋制冷,被加热后的冷媒通过集液装置(回液管、 集液箱等)被收集并回到 CDU。
②冷却液:喷淋式直接液冷技术的冷却液直接与电子设备接触并进行热交换, 冷却液的性质直接影响系统的传热效率及运行可靠性。喷淋式直接液冷系统 的冷却液一般具有以下特性:安全性(无腐蚀性、无毒、不易燃等)、良好 的热力学性能(高导热率、大比热容、低粘度等)、稳定性(不易挥发、正 常使用寿命大于 10 年)、绝缘性(在实际使用的工况下击穿电压应不低于 15kV/2.5mm)、材料兼容性(不应对 IT 设备材料造成不良影响)。 ③CDU:与冷板式液冷系统内 CDU 功能基本相同,主要功能包括提供并调 节冷却液的流量或供液压力、调节冷却液温度、对冷却液进行在线过滤或旁 路过滤等。
(4)技术特点: ①精准散热:能够对喷淋板上的液孔进行精准化开孔设计,以满足不同功率发热器件的散热需求。 ②具有改造优势:相比于浸没式液冷,喷淋式液冷的每台服务器独立化液冷 设计,不需要改变现有的机架式服务器部署形态。 ③冷却液成本较低:喷淋式液冷所需冷却液总量较少,且采用较多的是硅油、 矿物油和植物油等,相比浸没式液冷用电子氟化液成本较低。
(5)适用范围: 目前整体应用较少,相对更适合小型设备或者不需要高精度冷却的应用场景, 但不适合高密度服务器和超大规模数据中心。
(6)存在的问题: ①冷却液利用存在浪费:喷淋式液冷技术在喷淋过程中存在液体飘逸和挥发 问题,应用成本较高。 ②产业链成熟度不足:与上述几类液冷技术类似,喷淋式液冷系统架构及产 品标准化程度不足。
3.2.6. 液冷技术路线各有优劣,冷板式与浸没式应用较多
冷板式液冷应用范围最广,浸没式液冷发展前景广阔。对比来看,三类液冷 技术各有优劣,其中喷淋式液冷技术仍处于发展初期,尚未出现大规模的部 署案例,冷板式液冷和单相浸没式液冷是主流推进的技术路线,未来一定时 间内将齐头并进。冷板式液冷具有改造优势,能够实现从传统风冷向液冷的 平滑过渡,且行业较为成熟,现阶段市占率较高(据 CCID《2023 中国液冷 应用市场研究报告》数据,2020~2022 年冷板式液冷在液冷市场中市占率保 持 90%以上),但浸没式液冷具备更高能效优势,符合数据中心高密部署的 时代趋势和低碳节能的宏观要求,因此拥有更加广阔的发展前景。随着国内 厂商技术水平不断提升、产业链整体更加成熟,液冷技术生态得到逐步完善。
3.3. 液冷替代趋势明显,数据中心规模发展迅速
3.3.1. 液冷替代成本降低,液冷数据中心规模高增
液冷数据中心替代比例将持续增长。液冷数据中心将在未来对传统市场实现 持续的替代,包括传统风冷的机房空调市场、服务器市场及数据中心基础设 施(机柜、CDU、冷却塔等)市场。据 CCID 对华为、阿里巴巴和中科曙光等中国液冷数据中心主流厂商,以及部委直属科研单位的液冷专家调研结果 总结,2019 年的液冷数据中心的替代比例已经达到 20%,预计未来仍会持 续增长,2025 年的替代比例有望达到 25%。
我国数据中心产业正步入快速发展时期,冷板式液冷市占率较高。据科智咨 询数据,近年来我国液冷数据中心市场规模由 2019 年的 36.9 亿元增长至 2022 年的 100.5 亿元,期间 CAGR 达到 39.65%,同比增速保持在 30%以上。 其中液冷板液冷数据中心贡献了主要增长值,其市场规模由 2019 年的 34.9 亿元增长至 2022 年的 90.5 亿元,期间 CAGR 达到 37.39%,市场规模占整 体液冷数据中心市场规模均在 90%以上,但随浸没式液冷等其他液冷技术 逐步推进部署,冷板式液冷市占率有所下降,由 2019 年的 94.58%降至 2022 年的 90.05%。在市场需求与数据中心节能政策的共同驱动,以及液冷技术 标准化进程的推进下,我国液冷数据中心规模有望保持较高增速。
我国液冷服务器及液冷服务器市场规模增长较快。在头部互联网企业及三大 电信运营商推动液冷项目试点以及主流服务器厂商加快布局液冷领域的趋势下,我国液冷服务器出货量得到实质性增长,市场规模由 2019 年的 29.8 亿元增长至 2023 年的 122.5 亿元,期间 CAGR 达到 42.40%,是液冷数据中 心市场的主要组成部分。IDC 预计,2023-2028 年,中国液冷服务器市场年 CAGR 将达到 45.8%,2028 年市场规模将达到 102 亿美元。液冷数据中心基 础设施需根据服务器材质、型号以及项目实际情况进行适配生产以提供稳定 运行环境,市场由 2019 年的 7.1 亿元增长至 2022 年的 20.2 亿元,期间 CAGR 为 41.70%。随液冷技术渗透率逐步提升,液冷服务器及液冷数据中心基础 设施市场规模将得到有力驱动。
我国液冷数据中心单位功率散热成本降低,液冷温控市场规模不断提升。得 益于液冷技术路线逐步得到成功验证,在我国数据中心基础设施规模市场规 模的大规模部署趋势下(由 2020 年的 31MW 增长至 2022 年的 139.2MW), 每 1kW 的散热成本已经得到显著下降,2022 年已降至 6500 元/kW,相比 2020 年同比下降超 50%,预计 2023 年将进一步下降至 5000 元左右,已基 本追平传统风冷建设成本。同时液冷温控也得到更高关注度,市场规模预计 将由 2021 年的 3 亿元增长至 2025 年的 74.1 亿元。
3.3.2. 液冷数据中心用户稳定,下游需求空间广阔
液冷数据中心用户集中在泛互联网、电信及泛政府行业。云和互联网行业对 液冷数据中心的需求规模占比最大,达到 32%,其中主要包括以公有云为代 表的高密场景和头部企业对自有数据中心的液冷技术验证,2023 年增加至 46.3%的市场份额。泛政府领域需求占比为 27%,主要应用场景为政府主导 的超算、智算中心及相关企事业单位试点项目。电信行业液冷需求居于第三, 占比为 18.5%,主要应用场景为电信运营商自有数据中心的液冷试点项目, 目前数量已超 200 个且未来仍将大规模推进。金融行业需求占比为 10.8%, 此外在教育、能源、制造等领域,液冷数据中心的部署应用也在逐步开展。
高效散热和能耗优化是各行业用户部署液冷数据中心的主要原因。泛互联 网用户主要需求是利用液冷技术实现对高密计算业务的高效散热,降低综合 成本,并积极推动节能降耗以响应碳中和目标。泛政府行业主要利用液冷技 术支撑智算、超算等高密场景,并起到创新技术引领作用。电信运营商数据 中心基数大且老旧比例较高,主要需求为降低能耗和技术引领。金融行业则 主要为金融科技业务发展作提前部署。
泛互联网和泛政府行业用户是液冷数据中心需求主要来源。泛互联网行业 数据中心需求规模大,其中主要来自于高密化属性业务(如公有云),在降 低 PUE 的同时平衡 TCO 收益,另一部分需求则来自头部企业为适配海量算 力需求而进行的液冷技术中心试点,2022 年总体需求规模达到 27.8MW, AIGC和 ESG将推动市场规模在 2027年升到 332.9MW(CAGR将达 64.31%)。 泛政府行业需求少量来自于政务云、政府公共服务等相关单位业务,主要来自于国家政策大力推动的超算和智算中心领域,用液冷技术支撑高密部署场 景并形成积极引导示范作用,2022 年总体需求规模达到 23.5MW,预计在智 慧城市、智慧安防等细分场景的驱动下,将在 2027 年达到 194.7MW 的规模 (CAGR 将达 52.64%)。
电信和金融行业用户对液冷数据中心需求增长较快。基础电信运营商拥有全 国 30%以上的数据中心资源且早在 2017 年开始液冷技术验证与试点,其中 云数据中心部署、枢纽节点算力建设贡献较高增长,2022 年总体需求规模达 到 16.1MW,在高密、绿色的建设要求下,液冷数据中心需求规模将在 2027 年增长至 177.0 亿元(CAGR 将达 61.52%)。金融行业对液冷数据中心的需 求主要来自于大型银行机构 OA 系统部署以作为新兴技术应用示,2022 年 总体需求规模为 9.4MW,未来随着与 AI、区块链等新兴技术的结合以及金 融科技应用的快速发展,液冷技术将逐步成为金融科技 IT 部署的刚需,预 计总体需求降至 2027 年增长至 95.2MW(CAGR 将达 58.89%)。
3.4. 低碳节能政策指引明确,驱动液冷技术发展
液冷数据中心政策陆续出台,低碳节能为主要风向。近年来,我国液冷数据 中心得到各级政府的高度重视,并收获国家产业政策的大力支持,在节能降 碳的强烈需求下,液冷数据中心的发展将得到有力驱动。
PUE 发展目标有望推动液冷数据中心加速普及。在节绿色能发展的背景下, 国家政策对数据中心的能耗要求更加具体,PUE 指标则是最为重要的节能 指标之一。工信部《新型数据中心发展三年行动计划(2021-2023 年)》中提 出要求,到 2021 和 2023 年底全国新建大型及以上数据中心 PUE 降至 1.35 和 1.3 以下,严寒和寒冷地区力争降低到 1.25 以下(2023 年底)。另外,“东 数西算”政策明确要求到 2025 年,东部和西部枢纽节点数据中心 PUE 低 于 1.25 和 1.2,很多省份数据中心项目可研审批均要求在设计 PUE 在 1.2 以 下。在各大节点绿色节能示范工程实施推动下,数据中心建设低碳化进程有 望进一步加快,液冷技术作为降低 PUE 最有效的技术路线,其普及速度将 得到更快提升。
华北地区 PUE 较低,东数西算区域 PUE 仍有优化空间。据 CDCC 及中国 通服数字基建产业研究院数据,2021 年我国数据中心 PUE 有所提升,其中 华北、华东地区数据中心 PUE 接近 1.40,处于相对较优水平,华中、华南 地区 PUE 接近 1.6,主要受地理位置、上架率及其他多种因素影响,相比政 策要求仍有较大提升空间。据科智咨询数据,在“东数西算”区域中,京津 冀区域数据中心平均 PUE 表现最好,为 1.48,长三角区域次之,为 1.56, 而大湾区和成渝地区数据中心 PUE 表现较差,为 1.66 和 1.68,相比于“东 部枢纽节点数据中心 PUE<1.25,西部枢纽节点数据中心 PUE<1.2”的政 策要求,各个区域的数据中心 PUE 仍有优化空间。
全国及一线城市 PUE 水平相比政策要求存在较大差距,液冷技术有望大放 异彩。据科智咨询数据,2022 年全国数据中心平均运行 PUE 为 1.57,相对 于 2023 年底的目标(1.3)仍有较大差距。北京、上海及广东 2022 年数据中 心平均运行 PUE 分别为 1.48、1.56 和 1.66,而当地政策目标对应的 PUE 水 平分别为 1.2、1.25 和 1.3,可提升空间相对全国水平较大。在“双碳”目标 的要求下,全国数据中心能效水平亟需提升,而关键则在于采用更加高效绿 色的制冷方案,传统风冷技术 PUE 极限值为 1.25,液冷技术能够实现数据 中心能耗低于 1.1,可有效解决 PUE 难题。因此,各项液冷技术及液冷数据 中心有望得到长足发展。
3.5. 液冷标准化程度不足,运营商积极推动标准统一
液冷产品标准化程度不足,交付模式可分为一体化交付与解耦交付。在冷却 液方面,目前关于运维过程中抽测周期、水质标准等尚无一致标准约束,主 要通过供应商、运营商的经验操作,欠缺科学试验验证。在系统架构及产品 方面,机柜、服务器、液冷产品的接口缺乏统一规范标准,不同厂家的产品 存在兼容性问题,限制了行业发展。目前行业内产品的交付模式包括一体化 交付和解耦交付,一体化交付是厂商集成设计开发液冷整机柜并交付,解耦 交付是液冷机柜与液冷服务器之间遵循用户统一制定的接口设计规范,机柜 与服务器解耦,可由不同厂商交付。解耦交付模式有利于实现多厂家适配及 后续灵活部署。
电信运营商提出三年愿景,推动标准统一发展。在《电信运营商液冷技术白 皮书(2023 年)》中,三大运营商共同提出并明确“三年愿景”,即在 2023 年开展技术验证,降低 PUE 并提升规划、建设及维护能力,引领行业解耦 标准;2024 年开展规模测试,新建数据中心项目中 10%规模试点应用液冷 技术,推进产业生态成熟并降低 TCO(全生命周期成本);2025 年对 50%以 上项目开启规模应用,推进形成标准统一、生态完善、成本最优、规模应用 的高质量发展格局。分技术来看,冷板式液冷将在 2023 年底形成《冷板式 液冷技术标准》并推动冷板式液冷机柜测试,2024 年年中完成规模验证; (单相)浸没式液冷争取在 2023 年年底形成统一技术标准,2024 年开展系 统兼容性、服务器定制、冷却液国产替代等研发与试点验证。预计 2025 年 电信行业将开展液冷技术规模应用。
液冷数据中心市场竞争包括服务器厂商与基础设施厂商竞争。服务器厂商 主要提供服务器产品及解决方案,同时可联合基础设施厂商提供一体化的液 冷解决方案。液冷基础设施服务商提供接头、CDU、电磁阀、机柜、分集液 器等产品零部件,并提供基础设施解决方案。根据具体项目情况,服务器厂 商与基础设施厂商进行产品适配与耦合,但在在一次侧及二次侧的液冷基础 设施产品方面,双方在一定程度上存在竞争,两者之间存在一定的竞合关系。
服务器厂商积极探索。目前国内主流服务器厂商对液冷产品已有布局,浪潮 信息、超聚变、宁畅信息处于第一梯队,在技术水平、生态能力及资源能力 等方面处于行业领先位置。据 IDC 数据, 浪潮信息、宁畅信息与超聚变为 2023 年中国液冷服务器市场份额排名前三,合计市占率超过 70%,其中浪 潮信息互联网行业客户占比较多,超聚变则深耕运营商与政企领域,宁畅信 息以及行业其他竞争者,包括新华三、联想、中兴等,主要面对企业数字化、 通信解决方案以及互联网、运营商、金融、教育、医疗等领域。 各服务器厂商均积极布局液冷整体解决方案。中科曙光、华为、阿里和联想 为综合性厂商,其中阿里巴巴仁和液冷数据中心可部署约 3 万台液冷服务 器,平均 PUE 达到 1.09,中科曙光已在北京、南京等多个省市建设应用, 华为云乌兰察布数据中心是全球首个批量部署 Fusion POD 液冷服务器的云 数据中心,年平均 PUE 不超过 1.2,联想则为北京大学打造国内首套温水液 冷服务器高性能计算系统,PUE 值为 1.08;广东合一、绿色云图、浪潮发展 较快,其中广东合一是喷淋式液冷领军企业,开发出具有完全自主知识产权 的“芯片级喷淋液冷技术”,绿色云图在单相浸没式液冷方面拥有众多成熟 技术实践,业务发展速度迅速,浪潮信息在液冷服务器产品方面具有优势, 且高举“All in 液冷”旗帜大力推动液冷解决方案发展。
液冷基础设施市场进入壁垒较高,主流厂商竞争力差异较小。液冷基础设施 市场竞争较为激烈,主要厂商在技术及产品方面各有侧重,曙光数创、英维 克、申菱环境、同飞股份布局全面,具有一定竞争优势。曙光数创聚焦浸没 式液冷,其硅立方相变液冷计算机整体产品力较强,第二代产品计算密度得 到数量级提升,节能属性行业领先(PUE 低至 1.04);英维克、申菱环境及 同飞股份深耕温控领域多年,具有较高的品牌辨识度,液冷产品线布局已愈 发完善。其他厂商如云酷智能提供浸没式液冷整体方案,实现冷却液自研且 与电信运营商开展项目试点;绿色云图和安徽星载目前液冷产品多用于自有 数据中心,打造示范项目;纯均在冷却液产品方面基础深厚并能提供基础设 施;科华数据在 UPS 和智慧运维方面能力较强,深耕数据中心业务,目前 正大力推动液冷项目落地。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。
东方羽航清洗维修为您整理关于本文的清洗维修热搜话题
●液冷温控系统
●idc温控概念股
●温控概念股
●温控技术的当前现状
●温控算法
●温控行业市场前景
●温控系统龙头股
●idc温控概念股
●温控市场
●温控设备概念股
(报告出品方/作者:国泰君安证券,徐乔威、张越)
1. 温度控制:工业生产稳定器,应用场景众多温度控制系统可用于监测和自动调节对象温度。温度控制系统的基本原理是 利用传感器实现对环境温度的检测,再根据实际温度与设定温度之间的差值 控制加热或降温设备的运行,从而使环境温度保持在理想范围内。 典型的温度控制系统主要由传感器、控制器和执行器组成。传感器将环境温 度值转化为电信号,并传输给控制器进行处理,常用的温度传感器包括热电 偶、热敏电阻等;控制器根据传感器输入的温度值与预先设定的温度值进行 比较,由此产生控制信号并控制执行器的操作,常用的控制器包括 PID 控制 器、神经网络控制器等;执行器(温度加载单元)通常是加热器或制冷器等 设备负责执行控制器的指令,控制信号设备的开关状态调节环境温度,常用 的执行器包括继电器、可控硅和晶体管等。
温控下游应用行业众多。温控设备上游行业集中在电气机械和器材制造业、 金属冶炼和压延加工业,也涉及包装材料、耗材等其他原材料行业;中游行 业包括单一设备生产商和系统解决方案提供商,且目前温控系统系统化、集 成化趋势明显;下游产业链应用广泛,工业领域占比较大(包括电子制造、 通信行业、服务器、储能、新能源汽车等),也包括冷链物流、检测分析等 服务业以及科研和检测行业。 在工业领域,温度控制扮演重要角色,如在电子设备中,保持芯片温度在安 全范围内防止过热烧毁;在服务器中,防止服务器温度过高导致性能下降; 在储能系统中,控制温度水平以提高存储效率、避免能源浪费;在新能源车 电池中,为三电系统和舱内供热提供适宜的工作环境,实现有效的热管理并 保证安全性。
温控设备可分为精密温控与舒适空调。精密节能设备能够满足运行环境的 高要求,主要用于工作环境,能够将主设备所处环境的温度、湿度、洁净 度等指标严格控制在标定范围内,从而提升设备运行稳定性、可靠性及使 用寿命,在降低能耗的同时兼顾节能环保。因此,精密温控节能设备可广 泛运用于通信、互联网、智能电网、轨道交通、金融、云计算、物联网、 智慧城市等对主设备运行环境有着较高要求的行业。
分场景来看,温控设备的使用场景通常可分为工业、机房类、电池热管理及 电子芯片级别。不同场景对温控技术的具体要求也存在差异,其中工业级别 例如电力、冷链等,对环境要求较高,以传统风冷/水冷等温控技术为主;机 房类级别例如数据中心 IDC,主要满足降温和节能需求,由传统风冷向液冷、 间接蒸发等发展;电池热管理级别例如储能电池、动力电池等,首要考虑安 全性和降温效果,由传统风冷向液冷发展;电子芯片级别例如服务器芯片、 手机芯片等,散热空间有限,对工艺水平要求较高,由传统风冷向液冷、热 管冷却、相变储热散热等发展。
2. 下游多场景驱动,温控市场未来可期2.1. 数据中心温控:算力需求爆发增长,温控系统不可或缺
2.1.1. 数据中心市场扩容,功耗持续增长
数据中心由 IT 设备与基础设施组成。数据中心(DC/IDC)是用于在网络上 传递、加速、展示、计算和存储数据信息的物理场所,主要应用于对数据计 算和储存有较大需求的场景。数据中心是一整套复杂的设施,完整的数据中 心由数据中心 IT 设备和数据中心基础设施构成,包含了服务器、储存系统、 制冷系统、配电系统等全套设施。
数据中心可按规模大小分为三类,大型数据中心占比不断提升。根据机架规 模的不同,数据中心可被划分为超大型、大型和中小型数据中心。工信部数 据显示,截至 2023 年年底全国在用数据中心机架总规模超过 810 万标准机 架,2017-2023 年 CAGR 高达 30.24%。其中大型以上数据中心成为增长主 力,由 2017年的 83万架增长至 2022年的 540万架,期间 CAGR达到 45.43%, 大型规模以上占比由 50.00%增长至 83.08%,表明数据中心规模化趋势明显。 据中国通服数字基建产业研究院预测,到 2025 年“十四五”规划期末,我 国数据中心机架规模将增长至 1400 万架,总增量投资将达 7000 亿元。
数据中心市场持续扩容,IT 投资规模逐年上升。据 IDC 数据,中国 IDC 市 场规模增长迅速,由 2007 年的 34.6 亿元增长至 2023 年的 5078.3 亿元,期 间 CAGR 高达 36.59%,我国数据中心行业始终保持高速发展趋势。据 CCID 数据,中国数据中心 IT 设备的投资规模处于稳步扩展通道,已由 2015 年的 2063 亿元增长至 2019 年的 4167 亿元,期间同比增速始终保持在 13%以上, 2020 年数据中心 IT 投资规模约为 4167 亿元,同比增长 12.7%,预计将延续 高水平增长。其中,IT 硬件产品的投资规模占比最大,2019 达到 45.4%,主 要受益于 AI 基础设施行业的快速发展,而服务和软件产品的投资规模占比 分别为 38.9%、15.7%。
数据中心基础设施市场增速可观,温控相关成本占比超 18%。据 CCID 于 2019 年发布的《中国液冷数据中心发展白皮书》,当年我国数据中心基础设 施的市场规模达到 161.9 亿元,且预计将在未来 6 年内保持较高增速,并于 2025 年达到 461.2 亿元,2019-2025 年内 CAGR 将达 19.06%。在数据中心基 础建设中,占比前三的分别为柴油发电机组、电力用户站和 UPS(不间断电 源),而温度控制相关成本(冷水机组、精密空调、冷却塔等)占比合计超 过 18%。
数字经济产业稳步增长,产业数字化趋势逐渐显现。2017-2023 年,我国数 字经济规模由 27.2 万亿增长至 56.1 万亿,期间 CAGR 为 12.82%,总量稳居 世界第二,已经成为构建我国现代化经济体系的重要支撑,数字经济增加值 占 GDP 比重由 32.90%提升至 44.50%。同时,数字技术与实体经济融合日益 深化,产业数字化在数字经济中的占比持续上升,由 2015 年的 74.30%提升 至 2022 年的 81.67%,而数字产业化的占比略有下降,从 2015 年的 25.7%下 降至 2022 年的 18.33%。
数字经济高质量发展推动算力由 1.0 向 2.0 演进。算力 1.0 中的传统数据中 心可被视为“算力仓库”,主要提供数据存储和分发服务,但对大规模数据 提供处理和高性能计算(智算/超算)的能力相对有限,无法满足数字经济的 高质量发展需求。2020 年后国家开始着重开展规划算力 2.0,以新型数据中 心为基底,提供大规模的数据处理能力和高性能计算能力,具有互通性、智 能性、融合性、绿色性和安全中立性等五大特征,更加符合数字经济时代的 快速发展趋势。
我国算力规模持续扩大,未来仍将保持高速增长。据 IDC 与浪潮信息联合 发布的《2023-2024 中国人工智能计算力发展评估报告》,我国算力规模已步 入快速发展通道。我国通用算力由 2020 年的 39.6 EFlops 增长至 2022 年的 54.5 EFlops,预计 2027 年通用算力规模将达到 117.3 EFlops。同时,我国智 能算力由 2020 年的 75 EFlops 增长至 2022 年的 259.7 EFlops,预计 2027 年 智能算力规模将达到 1117.4 EFlops。2022-2027 年期间,我国通用算力规模 CAGR 将达到 16.6%,同期智能算力规模 CAGR 将达到 33.9%。
我国算力规模与先进国家差距进一步缩小,智能算力占比迅速提升。据中国 信通院历年《中国算力发展指数白皮书》数据,2022 年我国算力规模全球占 比约 33%,相比于 2020 年的 31%同比提升了 2 个百分点,并缩小与美国的 差距,规模占比之差由 5%缩减至 1%,未来有望成为世界第一算力规模大 国。同时,我国算力结构得到改善,通用算力占总算力比重由 2016 年的 95% 下降至 2022 年的 40%,智能算力占总算力比重则由 2016 年的 3%跃升至 2022 年的 59%,并超越通用算力成为我国最主要的算力类型。在超算方面, 2022 年我国超算算力规模为 3.9 EFlops,连续两年增速超过 30%,其中 2022 年中国高性能计算机 TOP 100 居首位的性能是 2021 年的 1.66 倍,算力达到208.26 PFlops。综上所述,我国算力行业实现了规模和质量的同步发展。
CPU、GPU 等芯片功耗水平持续增长,算力异构化成为重要发展趋势。面 对人工智能、云计算等行业的快速发展,芯片性能的提升成为解决海量算力 需求的重要途径,Intel、ADM 等主要芯片制造商持续提高芯片的散热设计 功耗 TDP(Thermal Design Power),目前主流系列处理器功耗已达 350-400 TDP/W,GPU 功耗密度更是远高于 CPU,NVIDIA 推出的新一代 H100/H800 单卡功率密度峰值已经达到 700 TDP/W,预计未来在后摩尔定律时代下,芯 片算力与功耗仍将大幅提升。随着云计算向智能计算发展,以 GPU、FPGA、 ASIC 等专用加速芯片为代表的异构加速计算需求正蓬勃兴起,CPU+GPU、 CPU+FPGA、CPU+DSA 等异构并行形式已逐渐成为数据中心的主流计算系 统,未来仍会出现由 CPU、GPU、FPGA、DSA、ASIC 以及其他各种加速引 擎组成的超异构系统。因此,未来的数据中心不仅需要提高单核心的主频, 还需要叠加不同类型处理器,用以提高计算密度,满足高算力负载的需求, 并提供多元化算力供应格局,满足智能计算、超级计算等算力需求。
通用算力及智能算力高密应用场景增加,IT 部署密度提升。在通用算力场 景中,高算力部署场景集中在公有云及互联网领域,据科智咨询数据,公有 云短期内仍将保持 40%以上的快速增长且需要通过高密部署实现降本增效, 而以云游戏为代表的主流高性能计算场景已达 1kW/U 的功率密度;在智能 算力场景中,代表性的场景包括 ChatGPT 的商业化落地,国内百度、阿里、 腾讯、华为等互联网大厂发布的 AIGC 算力模型等,基于 GPU 的智能算力 部署将持续提升,据 IDC 等机构统计,GPU 为主的智算服务商在算力比例 中已达 20%,未来有望加快提升。 高密部署场景驱动下,数据中心机架与机柜功率显著增长。据 ASHARE 于 2018 年的数据预测,用于电信/通讯的服务器单机架功率将保持在 5kW 左 右,云计算、数据分析数据中心等用途的服务器单机架功率将普遍上升至 10kW~15kW。在机柜方面,据 Colocation America 预测,2020 年全球数据 中心单机柜平均功率将达 16.5kW,而 CCID 在《中国液冷数据中心发展白 皮书》中预测,2025 年全球数据中心单机柜平均功率有望达到 25kW,数据 中心未来的功耗仍将处于持续上升趋势。
2.1.2. 温控保驾机房运作,节能改造空间广阔
高温会对数据中心产生不利影响,制冷系统为第二大故障来源。数据中心的 过热会导致性能表现下降、寿命缩短等问题,不仅会导致高昂的维修成本, 甚至可能导致火灾等安全事故,引发数据中心瘫痪,从而给 24 小时连续性 的业务造成不可逆的损失。据 ASHRAE TC 9.9 发布的《数据处理环境热指 南》,当数据中心机房温度分别处于 15~20℃、20~25℃、25~30℃和 30~35℃ 时,数据中心服务器的故障率分别为 0.865%、1.130%、1.335%和 1.482%。 另外,Uptime Institute 2023 年调查数据显示,造成数据中心事故或中断的原 因构成中,制冷系统占比达 19%,是仅次于供配电的第二大故障来源。因此, 从减少高温负面影响、提高运行稳定性的角度来看,数据中心故障率的散热 “革命”势在必行。
散热在数据中心能耗中扮演重要角色,机房空调市场规模稳步增长。据 CCID 统计,2019 年中国数据中心能耗结构中,散热能耗占比高达 43%,与 45%的 IT 设备自身能耗基本持平,减少散热功率已成为控制数据中心运营 成本的不可避免的问题。在此背景下,我国数据中心机房空调市场规模增长 得到有力驱动,由 2015 年的 39.77 亿元增长至 2023 年的 87.5 亿元,期间 CAGR 为 10.36%,而后续几年预计仍将保持良好的增长趋势,2026 年有望 增长至 127.4 亿元,2023-2026 年 CAGR 预计将达 13.34%。
用电量与碳排放量增长,加之老旧小数据中心能效水平低,数据中心节能改 造迫在眉睫。据 CDCC 数据,2021 年全国数据中心耗电量达到 937 亿度, 占全社会用电量的 1.13%,二氧化碳排放量达 7830 万吨,占全国二氧化碳 排放量的 0.77%。预计到 2025 年,数据中心总耗电量将增长至 1200 亿度, 占比将达到 1.23%,而二氧化碳排放量将达到 10000 万吨,占比将达到 0.93%。 另外,我国数据中心 PUE 平均值为 1.49,且仍存在数量较多的老、旧、小 数据中心,其制冷设备耗能占比高达 30%-50%,PUE 维持在 2.0 以上。总体 而言,我国数据中心能源利用效率仍有提升空间,节能改造需求较高。
存量数据中心节能改造需求市场规模较大,需求主体主要为运营商、第三方 IDC 服务商及金融机构。据 CDCC 数据,2023-2025 年我国数据中心节能改 造市场空间超过 340 亿元,运营商、第三方 IDC 服务商和金融机构的改造 规模占比分别为 80%、15%和 5%,运营商数据中心改造规模达到 270 亿元。 运营商数据中心改造场景中以大中型数据中心、综合枢纽楼、边缘及接入局 所为主,对应市场规模分别达到 56 亿元、70 亿元和 17 亿元,而改造支出主 要面向空调、电源、机柜搬迁、机房整改等方向,其中空调改造规模占比最 大,达到 72%,对应的市场规模可达 194.4 亿元。因此,存量市场的节能改造将大力拉动数据中心的温控系统(空调)行业需求,推动行业快速发展。
数字化绿色化协同转型取得初步成效,绿色数据中心数量大幅提升。相比普 通数据中心,绿色数据中心采用了一系列环保、节能的技术措施,具备能源 利用率高、环境友好、可持续发展和安全可靠的特点。“双碳”背景下,数 据中心绿色转型发展已是大势所趋。截止至 2024 年 4 月工信部等 6 部门公 布 2023 年度国家绿色数据中心名单后,我国已创建共计 246 家国家绿色数 据中心。在绿色数据中心的设计、建设及运维中,高效的冷却方式是贯穿全 周期的重要环节,IDC 温控行业有望搭乘绿色数据中心的发展快车,实现自 身的飞跃式进步。
政策明确引导,数据中心步入绿色低碳提升阶段。我国数据中心是数字地产、 数字能源、数字科技的三重载体,一方面具有强政策属性,产业建设发展走 势与政策紧密相关;另一方面,载体内容也对其低碳化路径产生了相应影响, 集约高效、绿色低碳的新型数据中心成为未来发展的必然方向。因此,IDC 温控行业有望得到强力助推。
2.2. 储能温控:电化学储能趋向主流,温控需求日益提升
2.2.1. 电化学储能增长迅速,前景广阔
储能成为能源转型助推器。储能(电力储能)能够通过化学或物理的方法将 电能储存并在需要时释放的相关技术和措施。在碳达峰、碳中和的目标背景 下,储能的重要性日益增长,成为实现“双碳”目标的重要支撑技术之一。 抽水蓄能较为成熟,电化学储能将成未来主流。按储存方式,储能可分为机 械储能、电磁储能、电化学储能、热储能和化学储能五类,目前机械储能中的抽水蓄能是商业化应用最为成熟的储能方式,装机规模占比常年超过 90%, 但其存在地理位置限制大、电站建设周期长、前期投资大等缺陷。相比而言, 电化学储能地理位置限制小、建设周期短、成本持续下降等优势,已成为近 年来装机规模增长最快的储能技术路线。据 CNESA《储能产业研究白皮书》 数据,2019 年全球电化学储能规模占比仅为 3.7%,2023 年全球以电化学储 能为主的新型储能占比达到 31.6%(其中电化学储能占比在 95%以上),抽 水蓄能累计装机规模占比首次低于 70%。2023 年我国以电化学储能为主的 新型储能占比达到 39.9%,其中电化学储能占比在 97.3%,其他储能方式如 电磁储能中的超级电容储能等仍处于初步阶段,尚未得到产业化应用。
电化学储能高速增长,规模占比稳步扩大。据 CNESA 历年的《储能产业研 究白皮书》数据测算,全球电化学储能规模由 2015 年的 1134.6MW 增长至 2023 年的 90674.4MW,期间 CAGR 高达 72.91%,规模占比由 0.7%增长至 31.4%,中国电化学储能规模由 2015 年的 141.3MW 增长至 2023 年的 34301.0MW,期间 CAGR 高达 85.66%,规模占比由 0.6%增长至 39.7%。据 CNESA《储能产业研究白皮书 2024》预测,保守场景下,预计 2028 年以电 化学储能为主的新型储能累计规模将达到 168.7GW,2024-2028 年 CAGR 为 37.4%;理想场景下,预计 2028 年新型储能累计规模将达到 220.9GW,2024- 2028 年 CAGR 为 45.0%。
锂电池储能优势凸显,应用规模及占比同步提升。相比于其他储能技术路线, 锂电池储能具有循环寿命长(循环次数达 1000~10000 次)、能量密度高 (200~400Wh/l)、效率水平佳(85~98%)等优点,现已运用于各类便携式电 子产品、电动汽车电池装机、行动装置等。据 CNESA 数据,全球锂离子电 池装机规模由2015年的608.7MW增长至2023年的88494.7MW,期间CAGR 高达 86.34%,占电化学储能比例由 54%增长至 98%,中国锂离子电池装机 规模由 2015 年的 80.5MW 增长至 2023 年的 33577.4MW,期间 CAGR 高达 112.57%,占电化学储能比例由 57%增长至 98%。高涨的市场需求及电化学 储能的快速发展将推动锂电池持续的大规模量产以及更加广泛的商业化开 发运用。
2.2.2. 温控保障电池安全,储能温控规模快速增长
温度会影响锂离子电池在容量、功率和安全性等方面的性能表现。锂电储能 系统中有大量电池紧密排列在有限空间内,且运行工况复杂多变,易导致产 热不均匀、温度分布不均匀、电池间温差较大等问题,进而影响电池的充放电性能,导致容量和寿命下降。具体而言,不当的工作环境温度会导致锂离 子电池容量衰减、出现热失控等问题。
锂电池存在一定安全隐患,近年来安全事故多发。2021 年 7 月,全球最大 电池储能项目之一,采用特斯拉 Megapack 系统的的澳大利亚 Victorian Big Battery 储能电站内一块重达 13 吨的锂电池爆燃,并迅速蔓延至相邻电池包, 引发火灾。特斯拉事后的火灾调查报告显示,Megapack 储能系统的冷却系 统内泄漏导致电池短路,并引发电子元件起火,而局部过热造成了电池热失 控,进而导致火灾发生。2024 年 5 月 15 日,美国加利福尼亚州圣地亚哥市 南部的 OTAY MESA Gateway 储能电站发生火灾,该电站于 2020 年 8 月建 成投运,规模达 250MW,是当时世界上规模最大的电池储能项目,该电站 采用 LG Chem 的电芯为三元锂电池,三元锂电池虽然有着更高的能量密度, 但也极易发生电池热失控等风险。据头豹研究院数据,自 2011-2022 年底, 全球共发生电化学储能事故 36 起,其中三元锂电池和锂离子电池事故数量 分别为 26 起和 6 起,占总数的 88.9%。锂电储能具有能量密度高、转换效 率高等优点,但安全隐患不容忽视。
热失控为事故主要诱因,温度控制必不可少。热失控主要由机械滥用、电滥 用和热滥用等引发,当电池受到挤压/针刺、电池过充/过放、工作环境温度 过高/过低等均会引起内短路,从而引发热失控。在温度过高时,电池 SEI 膜 分解,负极材料与电解液发生反应,可能导致短路,并发生一系列放热副反 应,如果热量无法及时发散,电池进入热失控状态将引起燃烧、爆炸等事故。 研究表明,锂离子电池的电化学特性在 10℃~35℃时最佳,需尽可能将锂电 池工作温度保持在该区间内,在-20℃~45℃时寿命会有小幅衰减,若超出该 温度区间则会导致电池容量的大幅下降和安全事故。因此,温度控制的重要 性大大凸显。
风冷和液冷为最常见,液冷功耗相对较低。目前锂电池可采用的热管理技术 包括空冷(以空气为介质)、液冷(以液体为介质)、热管冷却(给予热管) 和相变冷却(基于相变材料),其中热管和相变冷却在电池系统中的应用研 究仍处实验室阶段且成本更高,因此市场上最为常见的温控方案是风冷和液 冷。据 GGII 数据,风冷系统产品市占率为 55%,主要原因是已投运储能项 目对温控效率要求相对较低,且风冷初期投资更低。在功耗方面,液冷方案 表现更佳、热管理效率更高。研究表明,在进口温度相同时,液冷功耗低于 风冷,能够大大降低热失控风险概率,更加符合未来能耗管理的趋势要求, 未来市占率有望超过风冷。
储能温控市场快速增长,热管理环节占比较小。据 GGII 数据,2021 年储能 温控市场规模为 24.7 亿元,液冷储能市场价值量为 3.0 亿元,市场渗透率为 12.15%;GGII 预测到 2025 年,储能温控市场规模将增长至 164.6 亿元,期 间 CAGR 将达 60.67%,而作为中长期技术方案趋势的液冷储能市场价值量 将迅速增长至 74.1 亿元,期间 CAGR 将达 122.93%,市场渗透率将增长至 45.02%。据 GGII 数据,储能温控部分价值量占整体储能系统价值量的 3-5%, 其中电芯模组占比居首,达 55%,PCS 和变压、BMS 和 EMS、设计施工、 热管理占比分别为 14%、12%、6%、3%。
政策东风频吹,储能温控发展可期。近年来,我国出台多项政策支持储能行 业发展,从推进商业化进程、加强技术研发、设定发展目标等方面对储能进 行助推。同时,国家亦陆续出台注重于储能电站安全性的政策,从完善电池 管理系统技术细则、规定电池选用类型、保障安全生产等方面加强储能电站 的安全管理,从而推动实现电站安全运行的重要手段——温控系统的快速发 展。
2.3. 5G 基站温控:站点功耗大幅增加,温控升级加强节能
信息化和工业化深入融合,5G 基站建设不断深化。据工信部数据,我国移 动电话基站数总数已由 2018 年的 667.2 万个增长至 2023 年的 1162 万个, 其中 4G 基站达 629.5 万个。自 2019 年工信部向三大运营商发放 5G 商用网 牌照以来,我国 5G 基站数迅速增长至 2023 年的 337.7 万个,占移动基站总 数的 29.1%。2024 年 3 月 26 日,工信部表示为促进加快形成新质生产力, 将进一步推动信息化和工业化深度融合,并适度超前建设 5G 等基础设施, 加强 5G 应用在工业领域的深入推广,实现工业互联网规模应用及制造业数 字化转型,5G 基站的建设速度有望进一步提升。
5G 基站功耗相比 4G 大幅增长。据华为《5G 电源白皮书》,预计 64T4R AAU 最大功耗将会达到 1000~1400W,BBU 最大功耗将达到 2000W 左右。同时, 低/高频混合组网将为5G网络典型特征,5G基站相应表现为一站多频配置, 5 频以上站点占比预计将在 2023 年增长至 45%,且一站多频将大幅提升基 站功耗,整站功耗将超 10kW,10 频及以上站点功耗将超 20kW,多运营商 共享场景下还将翻倍。
5G 通信基站功耗较大,平均达到 4G 基站的 3 倍左右。据中国通信标准化 协会的数据,目前运营商的 5G 基站主设备空载功耗约为 2.2~2.3 kW,满载 功耗约为 3.7~3.9 kW,是 4G 基站的 3~4 倍。就具体数据而言,运营商 2019 年在我国两地的测算显示,5G 基站单站满载功率接近 3700W,约为 4G 基 站的 3.5 倍,即使在空载情况下 5G 单站功耗仍超过 2000W,约为 4G 单站 的 2.5 倍。 5G 基站由BBU+AAU 组成,其中 AAU 是功耗的主要来源。在 5G 基站功 耗中,负责处理信号编解码的基带处理单元(BBU)的功耗相对较小,而有 源天线单元(AAU)是功耗的主要来源。随着 5G 基站工作负荷的增加,BBU 功耗变化幅度较小,而 AAU 功耗则上升加快。
在功耗提升背景下,温控扮演重要角色。5G 站点功耗翻倍带来热耗大幅增 加,且通信基站基本为全封闭机房,机房内的电源设备、发射设备、传输设 备等均为较大的发热体。为了保障设备在恒定温度范围内运行,机房需要保 持一定的工作环境温度(工信部于 2018 年发布的 YD/T 1821-2018《通信局 (站)机房环境条件要求与检测方法》对五类通信局(站)机房分别提出机 房环境温度、湿度范围要求),而这主要通过制冷系统(空调)不间断地为 基站降温来实现。据华为 2021 年发布的《绿色 5G 白皮书》,空调能耗在站 点能耗中占比达到 30%,仅次于主设备能耗。
能耗管理提上日程,政策推动低碳发展。2022 年 8 月,工信部等 7 部门联 合发布《信息通信行业绿色低碳发展行动计划(2022-2025 年)》,5G 基站等 基础设施建设规模将保持较快增长,预计到 2025 年每万人拥有 5G 基站数 将从 2020 年的 5 个增加至 26 个,行业用能需求也将保持刚性增长,绿色低 碳管理势在必行。《行动计划》提出到 2025 年,信息通信行业绿色低碳发展 管理机制基本完善,节能减排取得重点突破,单位信息流量综合能耗比“十 三五”期末下降 20%,单位电信业务总量综合能耗比“十三五”期末下降 15%,且新建 5G 基站站址共享率不低于 80%,5G 基站能效提升 20%以上, 改建核心机房 PUE(电能利用效率)降到 1.5 以下。在明确的政策指引下, 5G 基站温控发展前景可期。
3. 温度控制技术路线多样,液冷成为未来发展重点3.1. 数据中心冷却方式多元,风冷难以应对较高功率密度
按冷却介质的不同,数据中心的冷却方式可划分为风冷和液冷。风冷的冷却 介质为空气,外部空气经冷却处理后进入服务器机架冷通道,冷却完成后的 空气经热通道排出并返回空气处理机。风冷可按是否采用自然冷源划分为机 械制冷和自然冷却,机械制冷可分为直膨式制冷和冷冻水制冷,自然冷却可 按换热介质的不同分为为风侧、水侧,包含直接/间接蒸发冷却、热管等形 式。液冷则采用高比热容液体作为热量传输媒介,通过直接或间接的方式接 触发热器件,满足散热需求。
风侧自然冷却利用室外冷风来对数据中心进行冷却,空气质量和地域环境 是主要制约因素。风侧直接自然冷却技术是将室外空气经过处理后直接送入 数据中心机房环境,从而利用室外自然冷源的冷却技术。该冷却技术工艺简 便、成本较低,且送风过程中无换热环节,具有初始投资低、效率回报高的 特点,但由于数据中心机房对空气洁净度有较高要求,因此需对引入的空气 进行除硫、除尘、过滤净化、湿度控制等处理,从而带来较高的运维成本, 在实际建设中很少采用。风侧间接冷却将室外空气进行一定处理后,通过热 交换器与机房内空气换热直至达到温度要求,从而实现对自然冷源的利用。 相比于直接风冷,间接风冷与室外冷源只有热交换而无质交换,很大程度上 减少了室外空气中水汽、粉尘等带来的不利影响,能够保证室内相对稳定的 湿度和洁净度,但热交换器的加装会降低换热效率、提高设备成本,且随着 使用时间增加,污染物和颗粒物会再热交换器上累积,进一步导致换热效率 降低和维护成本增加,因此在实际建设中的应用也较为稀少。
液体(水)的吸热能力天然高于空气。相比于空气,水的密度和每单位体积 的热容量更高,在 25℃的条件下,水的热导率能够达到空气的 23 倍以上, 且能够吸收的热量远远高于空气,按单位体积计算高达 3243 倍。综合比较 下,水的传热系数约 3000 W/(m2·K),超出空气的 30 倍以上,且水的比热 容是空气的 4 倍有余,因此在从 IT 设备传递相同的热量时,液体所需流速 远低于空气,从而能够节省大量能源。由此可见,液体冷却比空气冷却有更 高的散热效率和更好的空间利用率,符合当今时代数据中心冷却系统的发展 趋势。
传统风冷技术无法满足数据中心日益增长的散热需求。随着数字经济、5G、 人工智能等新型行业的发展,数据中心机柜均朝着高功率密度的方向转型, 主流数据中心单机柜功率密度在 15kW 以下,而 AI 和大模型对应的数据中 心机柜功率密度普遍在 20kW 以上,高密部署的智算中心单机柜功率则在 30kW 以上,广州超算中心定制的超级计算机单机柜功率密度甚至高达 80kW。当数据中心单机柜功率密度超过 15kW 时,传统风冷技术的制冷效 率将大幅下降,无法满足稳定运行的要求,而 50kW 的单机柜功率则超出风 冷方案的冷却极限,已经难以实现产热和移热速率的匹配,会导致算力下降 甚至损害设备。相比之下,液冷方案具有高比热容的热点和对流传热的能力, 能够有效解决超高热流密度的散热问题,未来可广泛应用于单机柜功率密度 20kW 以上(甚至 100kW)的数据中心的散热,是未来数据中心散热的主流 发展趋势。
相比风冷,液冷能够更有效降低数据中心 PUE。PUE(Power Usage Effectiveness)即电源使用效率,是数据中心总能耗与IT设备能耗间的比值。 PUE 是评价数据中心能耗水平的重要指标,较低的 PUE 代表着较低的非 IT 设备耗能,即能效表现越好。传统风冷方案的数据中心 PUE 通常在 1.5 左 右,极限值为 1.25。相比而言,液冷技术可以通过更短的传热路径(将低温 液体由冷量分配单元直接供给 IT 设备)和更高的换热效率将数据中心 PUE 降至 1.05-1.2 左右。在碳中和的节能背景下,液冷是更加具有发展前景、符 合绿色发展趋势的数据中心冷却方案。
液冷技术在高密部署趋势下拥有显著的规模成本优势。据施耐德电气数据, 对于一个单机架功率密度为 10kW、总容量为 2 兆瓦的数据中心,采用传统 的风冷技术(风冷冷冻水机组)和液冷技术(基于 IT 机箱的浸没式液冷技 术)的数据中心的每瓦投资成本为分别为$7.02 和$6.98,投资成本大致相等。 当单机架功率密度提升 2 倍(每机架 20kW)和 4 倍(每机架 40kW)时, 初投资可分别降低 10%和 14%,成本的节省主要得益于液冷技术能够压缩 IT 设备容量并节省空间的优势,同时这种压缩还能够减少 IT 机架和机架 PDU(电源分配单元)的数量,从而使得液冷方案实施所需的机架分液器减 少、机架所需的管道和阀门单位成本降低及 IT 空间的建设成本缩减(包括 建筑围护结构的节省、机架上用于支持布线的结构减少、消防和照明相关成本降低等)。因此,在数据中心 IT 设备与机架大规模部署的发展趋势下,液 冷技术规模效应能够有效节省投资成本。
液冷数据中心相比风冷仍有其他优势。除了散热效果、能效水平和运营成本 以外,液冷系统相比风冷仍具有多种优势,包括但不限于能够有效减少空间 限制以适应数据中心未来的高密部署、降低用水限制以提高用水效率、削减 噪音污染以提供优质的工作环境、支持余热回收以降低等效 PUE、减少地理 环境依赖以提供标准化优势等。
3.2. 液冷技术:冷板式应用最为广泛,浸没式发展前景广阔
3.2.1. 我国液冷起步较晚,后续发展迅速
液冷可分为间接和直接冷却两种方式,冷板式和浸没式应用较为广泛。液冷 技术以液体取代空气作为冷媒,与发热部件进行热量交换并带走热量,使得 服务器在安全的温度范围内持续工作。按冷却介质和服务器接触方式的不同, 液冷可分为间接液冷和直接液冷两类,间接液冷一般为冷板式液冷,直接液 冷包括浸没式液冷和喷淋式液冷,其中冷板式和浸没式又可根据冷却介质是 否发生相变可分为单相和两相。目前数据中心市场中冷板式液冷和单相浸没 式液冷的应用较为主流,冷板式液冷主要用于标准化、通用化的高密度数据 中心,而浸没式液冷集中应用于超高密度数据中心领域。
液冷系统架构中包括室外侧(一次侧)和室内侧(二次侧)。室外侧(一次 侧)即为室外制冷系统,主要包括冷却塔、一次侧管网、一次侧冷却液;室 内侧(二次侧)则包含 CDU、液冷机柜、ICT 设备、二次侧管网和二次侧冷 却液。室外冷却塔中的冷却液通过室内流量分配单元提供循环动力,经 CDU 二次侧输出并进入液冷机柜,与发热部件进行热交换,吸收热量的高温冷却 液经 CDU 输出到室外冷却塔,冷却后开始再循环。其中 CDU 能够隔离一 次侧和二次侧回路,用于在液体回路之间进行热交换,并提供二次侧流量分 配、压力控制、物理隔离、防凝露等功能。
我国液冷技术起步稍晚,后续发展迅速。液冷计算机最早可追溯到 1964 年 IBM 推出的冷冻水冷却计算机 System 360,但由于成本、部署等原因,在随 后几十年内液冷并未得到实质发展。2008 年 IBM 对外发布液冷超级计算机, 2009 年 Intel 推出矿物油浸没技术。2018 年,谷歌由于 TPU 3.0 pod 庞大的 算力消耗而首次在数据中心采用液冷技术,在后续几年,微软、Meta、Intel 均陆续将液冷技术运用于数据中心冷却。国内液冷技术在节能政策初步出台 后得到了迅速发展,中科曙光于 2015 年推出标准化量产的冷板液冷服务器, 在 2017-2018 年,华为、浪潮、阿里、联想陆续推出和建设 Fusion Server 板 级液冷方案、冷板液冷服务器、液冷解决方案和浸没式液冷数据中心。2019 年,中科曙光实现全球首个“高效刀片式高效全浸式液体相变冷却技术”的 大规模部署。2022 年,浪潮和华为分别发布液冷全线产品和全液冷“天成” 整机柜服务器。随着国内主流服务器厂商加快推出液冷产品,我国液冷技术 发展进程与国际基本同步,逐步走向成熟并开始批量化、规模化使用,在液 冷规模试点应用方面积累了丰富经验。
3.2.2. 冷板式液冷:应用最为广泛的液冷散热方式
(1)技术原理:冷板式液冷技术将工作液体与被冷却对象(如 CPU 等)隔 离而不产生直接接触,而是通过冷板等高效热传导部件将冷却对象的热量传 递给在封闭的循环管路中的冷却液体,从而实现散热。
(2)基础设施系统工作原理:冷板套件吸收主要热源产生的热量并传导至 套件内冷却液,吸热升温后的冷却液经由机柜内分集液器(VCDU/Manifold) 至 CDU,在 CDU 中进行与一次侧常温冷却水的换热,冷却后的冷却液通过 分集液器再次输送回服务器侧,完成二次侧循环。在一次侧中,低温冷却水 通过 CDU 内部换热器传递至室外冷源,再通过室外冷却设备将热量排至室 外环境中,散热后的低温冷却水再次被输送回 CDU 内的换热器中,完成一 次侧循环。
(3)关键技术与设备: ①机柜与服务器形态:冷板式液冷技术不要求对服务器形态进行大的改动, 仅需预留冷板、连接管路等冷板组件、将原风冷散热片替换为液冷散热套件, 并将冷媒管路引出机箱即可,使用、维护等方面与现有服务器较为接近,对 传统空冷服务器进行改造也具备可行性。 ②冷板:冷板主要部件有冷板基板、流道盖板、流体通道:冷板基板与发热 器件直接接触,应选择导热性强、不易腐蚀的金属或合金材料,通常选择铜 或铝合金材质;流道盖板为置于顶层,与基板密封形成封闭的腔体;流体通 道为散热核心部件,供冷却液流通与流体通道进行接触实现换热。根据不同 的需求,冷板内部流道还可设计为不同形态,如面对高热密度元器件会采用 微通道、射流结构等较为复杂的内部结构设计。③冷却液:冷板式液冷冷却液需与所有直接接触的材料相互兼容,并具备长 期可靠性、导热性、防腐蚀性、抑菌性等功能。目前业内常用的冷却液主要 包括去离子配方水溶液、乙二醇水溶液和丙二醇水溶液,其中去离子配方水 溶液具有较好的防腐蚀和抑菌性能,但无防冻功能;乙二醇/丙二醇水溶液 浓度在 20%~30%,具备防冻和抑制微生物的功能,但同等条件下换热性能 弱于去离子配方水溶液,且乙二醇/丙二醇浓度越高使溶液传热系数衰减程 度越大。
④CDU(冷量分配单元):CDU 是指用于二次侧高温液态冷却介质与一次侧 冷源进行换热,并对液冷 IT 设备提供冷量分配和智能管理的模块,其功能 包括提供循环动力、监控运行状态、净化并储存冷却液等。冷板式液冷 CDU 由换热器、循环泵、过滤器、储液罐、定压补液系统,以及附件(阀门、管 路、接头、传感器等)组成。在 CDU 的二次侧,冷却液被循环泵输送至散 热器中吸收热量,而后进入板式换热器将热量交换到一次侧冷却液中,被冷 却后的二次侧冷却液再被泵送至散热器中完成循环。在 CDU 的一次侧,参 与热交换升温后的冷却水从板式换热器流出并泵送至室外冷却塔,冷却后变 为低温冷却液再次进入板式换热器中,与二次侧高温冷却液进行热量交换, 完成一次侧循环。
冷板式液冷接头可分为集中式 CDU 与分布式 CDU 两种布置形式。分布式 CDU 无需二次管路部署,适应不同机柜功率场景,易与机柜功耗匹配,根 据业务上架情况随启随用,在实际工程中优先采用。
(4)技术特点: ①高效散热:通过冷却板在冷板中的强制对流,大幅提升散热效率。 ②精确制冷:冷板套件直达发热部件,有效应对局部热点问题,芯片级精确 制冷使得服务器可靠性更高,CPU 核温可低至 65℃左右。 ③支持高热流密度散热和高密度部署:可满足芯片热流密度 50W/cm2~ 100W/cm2的散热需求和单机柜功率高达 60kW 的部署需求。 ④节能:可充分利用自然冷源,大幅降低能耗,冷板液冷 CLF 可低至 0.1 以 下,比传统空气冷却机房节能 20%以上。 ⑤总体 TCO(总体拥有成本)低:初始投资与传统风冷数据中心接近持平, 且系统能耗更低,整体 TCO 随运行时间增长而显著优于传统风冷。另外, 冷板式液冷所需冷却液要求较低,多种冷却介质均可。 ⑥具有改造传统数据中心优势:可在风冷服务器基础上改造,保持传统机柜 方式部署,部署密度较高,相比其他液冷技术更具改造优势。 ⑦维护简便:服务器与机柜的连接采用快速接头,服务器上下架可实现冷却 系统在线插拔,不影响其他服务器正常运行。另外,保留了原有服务器的形 态及维护方式,不影响用户使用习惯。 ⑧智能化运行管理:CDU 设备具有进出液温度、流量等智能监控功能。
(5)适用范围: ①适用于全年全地域环境条件:以液体作为传热介质散热,利用室外侧常温 冷却水即可完成热交换,因此无需压缩机等高能耗设备。 ②适用于中高热流密度芯片散热:可实现部件级精准散热,解决方案 PUE 低至 1.2 以下,尤其适用于区块链、人工智能、云计算等对算力和绿色节能 要求较高的新建大型数据中心。 ③适用于各类型数据中心的新建和节能改造:对机房基础条件要求和服务器 整体结构形式要求与传统风冷系统基本相同,可支持对现有风冷服务器进行 风改液改造,也适用于各类型数据中心的新建和扩建。
(6)存在的问题 :①非 100%液冷:只对服务器中的高发热元件采用液冷散热,仍需少量风扇 对服务器中的非液冷元件进行风冷散热,且存在液体泄露风险。 ②工程标准化程度不足:液冷系统工程化主要参考原有暖通行业标准,并结 合液冷数据中心安全可靠性要求,由供应商和用户制定工程标准,目前液冷 工程标准化领域尚属空白。
3.2.3. 单相浸没式液冷:采用液冷机柜散热,冷却液成本较高
(1)技术原理:单相浸没式液冷将发热电子元件直接浸没于冷却液中,通 过冷却液与电子元件的直接接触进行热交换的液冷技术。热交换过程中冷却 液不存在相态转变,完全依靠物质的显热变化传递热量。
(2)基础设施系统工作原理:服务器所有发热电子器件均浸没在腔体的冷 却介质中,运行过程中产生的热量会被冷却介质吸收并导致其升温,在底部 低温冷却介质的注入和对流现象的影响下,高温冷却介质会向上流动并被收 集,而后输送至 CDU 中进行换热,使冷却介质恢复低温状态并被再次注入 浸没腔中,为服务器提供高效的持续冷却。
(3)关键技术与设备: ①液冷机柜(Tank):服务器浸没在 Tank 内的绝缘冷却液中,因此 Tank 通 常采用优质冷板焊接成型并采用旋开式顶盖设计、设可视透明窗,整体牢固 可靠且观察便捷;进/回液管采用特殊设计以保证冷却剂的分配与汇流均匀。 ②冷量分配单元(CDU):通常为柜式结构,内设循环泵、过滤器和换热器 等,充注有绝缘冷却液。CDU 可考量整系统设计进行功能性适配,可采用 小型化适配设计(一拖一、一拖二),或使用性能较强的 CDU 适配多个 Tank (一拖 N),通常 CDU 的每个分配单元可支持 1~4 个 Tank,且内置断路器 以防止电气过载。在泵方面,CDU 内有主用泵和备用泵,可实现 2N 冗余运 行(备用泵水系统可承担主泵全部负荷),且两者间采用电气隔离设计,可 独立运行。另外,CDU 进出口采用软管宝塔接头,方便使用与后续维护。 在单相浸没式液冷服务器产品中,液冷服务器置于 Tank 内部,CDU 通过管道与 Tank 连接。CDU 通过下部管道向 Tank 输送低温冷却介质,冷却液吸 收热量、温度上升后流回 CDU,热量由 CDU 带走。
③冷却液:为确保冷却液在升温状态下始终处于液相状态并减少挥发,需要 选择较高沸点的液体介质,且需尽可能选择粘度值低的冷却液以增加流动性 和减少对泵的压力。对于单相浸没式液冷,碳氢及有机硅类化合物和碳氟类 化合物均可作为冷却液。
④水平分液集气单元(HCDU)与竖直分液单元(VCDU):HCDU 包括集 气器和水平分液器,集气器收集吸收完热量的制冷剂蒸汽并将其通过回气管 输送至 CDU,水平分液器将 CDU送入的冷却剂均分给各个计算刀片。HCDU 一般部署于计算刀箱后部,通过快速连接器与浸没腔体的气相和液相相连。 在工作时,由制冷模块送来的液态冷却介质经设备机箱的输入主冷却介质连 接器进入 HCDU 液仓后,平均分配进入浸没腔体内;浸没腔体内产生的气 态冷却介质送到 HCDU 汽仓,集中后经由 VCDU 送至制冷模块中进行冷凝。 VCDU 又称分集液器(Manifold),负责将将经过 CDM 换热后的低温冷却介 质均匀地分配到计算柜前舱的 HCDU 与各个后舱网络模块冷板中,流体吸 热后再通过 VCDU 汇集进入 CDM 中。
(4)技术特点: ①散热效率更高:冷却液与发热部件直接接触,热阻减少;相比风冷,使用 的冷却介质相同体积下的散热效率提升 1000 倍以上。 ②设备可靠性更高:被冷却对象运行温度低、温度场均匀,且密闭浸没腔体 可使内部设备免遭外部环境(温湿度、盐度、灰尘和振动等)影响。 ③节省能耗与空间:无空调与湿度控制器、压缩机、冷冻水机组,无需架空 地板,且无需装载风扇,可减载 10%~20%;PUE 值低至 1.09 以下,单机架功率可提升至 80kW 以上。 ④环境依赖性弱:可接受不同形式水源,运行环境要求低。 ⑤噪音影响低:由于无风扇部件,噪音可低至 45dB,机房环境优良。
(5)适用范围: 适用范围较广,基本不受地域限制。
(6)存在的问题: ①成本高:单相浸没式液冷的冷却液成本较高。随着应用规模的扩大,冷却 液成本有望逐步下降。 ②存在改造难度:一般需要改为箱式部署,部署密度一般低于冷板式液冷, 机房配套和服务器改造难度和成本也较大。 ③器件选型局限性:由于冷却液的渗入,需将普通机械硬盘替换为固态盘或 氦气硬盘,且需要选用全密封处理的光模块。为了防止导热硅脂在液冷环境 下被冲刷溶解,需使用固态界面材料。 ④维护局限性:浸没式液冷设备维护时需要打开 Tank 上盖,并配备可移动 机械吊臂或专业维护车实现设备的竖直插拔,维护复杂度高,耗时长;且开 盖维护过程有一定的冷却液挥发问题,增加运行成本。 ⑤机房环境特殊性:因浸没式液冷系统 Tank 内充满冷却液,整柜重量大幅 增加,对机房有特殊承重要求,普遍要求浸没式液冷机房地板承重应大于 1500kg/m2。 ⑥产业链成熟度不足:与冷板式液冷技术类似,单相浸没式液冷系统架构及 产品标准化程度不足。
3.2.4. 两相浸没式液冷:可应对超高热流密度,总体成本较高
(1)技术原理:两相浸没式液冷使发热部件与冷却液体直接接触进行散热, 即将服务器的主板、CPU、内存等发热器件完全浸没在冷却液体中,通过低 沸点冷却液体相变换热实现热量转移。
(2)基础设施系统工作原理:冷却介质和发热部件放置于特制的密闭腔体 中,低沸点冷却介质吸收发热部件热量后升温汽化,从而通过相变换热带走 热量,冷却介质蒸汽经分液单元进入 CDM(冷量分配模块),在内部冷凝器 与一次侧室外能源换热,而后降温液化并重新经分液单元输送回刀片中;一 次侧常温冷却水吸收后被泵送至室外冷却装置,实现向室外的热量传输。
(3)关键技术与设备: ①机柜与服务器形态:两相浸没式液冷对服务器有较高设计要求,目前主流 应用的是刀片式服务器系统,系统中的计算机主板及所有电子元器件全部密 封浸没在液体冷媒中,实现冷却液零泄漏,另外,密封刀片腔体内设有多种 感应传感器和控制装置,保证系统的稳定运行和实时监测。同时,密封腔体 内部的计算节点通过快速接头将服务器与 HCDU(水平分液集气单元)相连, 从而实现热插拔需求,提供可维护性,并保证系统安装或维护过程中冷却介 质不泄漏。
②冷却液:沸点较低、沸程适宜,便于吸热汽化和散热液化的碳氟化合物是 适用于两相浸没式液冷技术的最佳冷却工质,其具有良好的化学稳定性、热 稳定性、绝缘性、电气特性和材料兼容性,同时具有较低的介电常数,能够 保证高频信号在冷媒中的可靠传输,且 ODP(臭氧破坏潜能)为 0,大气寿 命较短,对臭氧层无破坏性。 ③CDM(冷量分配模块):CDM 是指用于二次侧冷却液蒸汽与一次侧冷源 换热并对液冷 IT 设备实施冷量分配和智能管理的模块去,其功能包括提供 循环动力、监控运行状态、支持刀片服务器的独立排液下架等。相变浸没式 液冷 CDM 冷凝器、循环泵、过滤器、储液罐,以及附件(阀门、管路、接 头、传感器等)组成。在 CDM 的二次侧,低温液态冷却液经分集液器均分至各个浸没刀壳,在刀壳内部吸收热量并升温、沸腾,通过相变实现热量转 移,而后冷却液气体再回到 CDM 并通过内部换热器与一次侧冷却水换热, 液化为低温冷却液后回到分集液器完成循环。在 CDM 的一次侧,在 CDM 换热器中升温后的高温水被泵送到室外冷却塔中,通过鼓风或喷淋将热量转 移到大气中并变为低温冷却水,再回到 CDM 换热器中与二次侧冷却液进行 换热,完成一次侧循环。
(4)技术特点: ①高效散热:利用冷却液相变潜热大的优势实现高效散热。 ②精确制冷:全部发热器件浸没与冷却液中,可实现芯片级精确制冷。通过 对芯片封装表面进行强化沸腾处理,增加表面气化核心,降低电子元器件封 装罩表面的温度,使得电子元器件表面的温度场均匀分布。 ③支持高热流密度散热和高密度部署:可满足芯片热流密度 100W/c 成立三 河同飞制冷股份有限公司北京分公司~150W/cm2 的散热需求和单机柜功率 高达 168kW 的部署需求,大幅缩短节点间通信距离并突破大系统高速网络 通信延时问题。得益于高效散热性能,可以调整芯片运行频率提高计算性能 和系统资源利用效率,并能提升机房空间利用率,节省占地和建设成本。 ④节能:无需压缩机制冷,可充分利用自然冷源,大幅降低能耗,冷板液冷 CLF 可低至 0.04 以下,比传统空气冷却机房节能 30%以上。 ⑤总体 TCO 随运行时间增长更凸显优势:初始投资高于风冷方案,但得益 于优异的节能效果,3 年后 TCO 将低于风冷方案,且随运行时间增长而显 著优于风冷。 ⑥机房噪声低:无需配置风扇,噪音低至 45dB。 ⑦自动排液设计,运维操作简便:冷却液沸点低,开箱维护难度大,但密封 刀片式服务器支持热插拔,可实现单个刀片独立下架维护;回收冷却液时需 专业设备开箱维护,成本略高,但实际运维操作简便。 ⑧智能化运行管理:服务器系统可监控刀片服务器刀壳内气体压力、液体温 度和液位,并与 CDM 联动控制供液温度、压力等参数,具备漏液故障告警 和定位功能,保障服务器系统可靠性。
(5)适用范围: ①适用于全年全地域环境条件:以液体作为传热介质散热,利用室外侧常温 冷却水即可完成热交换,因此无需压缩机、风扇等高能耗设备。②适用于超高热流密度芯片散热:可实现芯片级精准散热,解决方案 PUE 低至 1.1 以下,尤其适用于高密度计算、区块链、人工智能、云计算等对算 力和绿色节能要求较高的新建大型、超大型数据中心。
(6)存在的问题: ①成本高:在冷却液方面,碳氟化合物成本较高,且面对愈发严格的环境保 护要求,目前的碳氟化合物正朝超低温室效应方向发展,3M、科慕、霍尼韦 尔等企业均有涉及。随着技术发展与国产化替代,冷却液成本有望逐步下降。 在系统设计及建设方面,两相浸没式液冷系统对密闭性要求较高,同时为实 现单刀片独立自动排液及下架维护,服务器系统的结构设计要求较高,从而 带来较高的整体成本。 ②器件选型局限性、维护局限性、机房环境特殊性:局限性与单相浸没式液 冷系统相同。 ③产业链成熟度不足:与上述两类液冷技术类似,相变浸没式液冷系统架构 及产品标准化程度不足。
3.2.5. 喷淋式液冷:造价成本具有优势,但应用范围相对有限
(1)技术原理:喷淋式液冷是依靠泵压或重力驱动,自上而下将冷却液精 准喷淋到服务器发热部件(如 CPU、存储)件或与之连接的导热元件表面, 从而吸收并带走热量。排走的热流体与外部环境冷源进行换热,冷却液则不 会发生相变。
(2)基础设施系统工作原理:喷淋式液冷系统主要由冷却塔、CDU、一次 侧和二次侧液冷管路、冷却介质和喷淋式液冷机柜组成,其中喷淋式液冷机 柜通常包含管路系统、布液系统、喷淋模块、回液系统等。在 CDU 内冷却 后的冷却液被泵送至喷淋机柜内部,并对内部的发热器件或与之相连的导热 材料进行喷淋制冷,吸热升温后的冷却液将被收集,并通过泵输送至冷 CDU 进行下一个制冷循环。
(3)关键技术与设备: ①喷淋式液冷机柜:喷淋式直接液冷机柜是整个系统中实现液冷过程的核心 部件,包含布液、喷淋和回液等功能。被 CDU 冷却之后的冷媒进入机柜内 部后,通过分液支管进入布液装置,或被输送至进液箱以提供固定大小的重 力势能,以驱动冷媒进行喷淋,对发热部件或导热材料(如金属散热器、树 脂(VC)、热管等)进行喷淋制冷,被加热后的冷媒通过集液装置(回液管、 集液箱等)被收集并回到 CDU。
②冷却液:喷淋式直接液冷技术的冷却液直接与电子设备接触并进行热交换, 冷却液的性质直接影响系统的传热效率及运行可靠性。喷淋式直接液冷系统 的冷却液一般具有以下特性:安全性(无腐蚀性、无毒、不易燃等)、良好 的热力学性能(高导热率、大比热容、低粘度等)、稳定性(不易挥发、正 常使用寿命大于 10 年)、绝缘性(在实际使用的工况下击穿电压应不低于 15kV/2.5mm)、材料兼容性(不应对 IT 设备材料造成不良影响)。 ③CDU:与冷板式液冷系统内 CDU 功能基本相同,主要功能包括提供并调 节冷却液的流量或供液压力、调节冷却液温度、对冷却液进行在线过滤或旁 路过滤等。
(4)技术特点: ①精准散热:能够对喷淋板上的液孔进行精准化开孔设计,以满足不同功率发热器件的散热需求。 ②具有改造优势:相比于浸没式液冷,喷淋式液冷的每台服务器独立化液冷 设计,不需要改变现有的机架式服务器部署形态。 ③冷却液成本较低:喷淋式液冷所需冷却液总量较少,且采用较多的是硅油、 矿物油和植物油等,相比浸没式液冷用电子氟化液成本较低。
(5)适用范围: 目前整体应用较少,相对更适合小型设备或者不需要高精度冷却的应用场景, 但不适合高密度服务器和超大规模数据中心。
(6)存在的问题: ①冷却液利用存在浪费:喷淋式液冷技术在喷淋过程中存在液体飘逸和挥发 问题,应用成本较高。 ②产业链成熟度不足:与上述几类液冷技术类似,喷淋式液冷系统架构及产 品标准化程度不足。
3.2.6. 液冷技术路线各有优劣,冷板式与浸没式应用较多
冷板式液冷应用范围最广,浸没式液冷发展前景广阔。对比来看,三类液冷 技术各有优劣,其中喷淋式液冷技术仍处于发展初期,尚未出现大规模的部 署案例,冷板式液冷和单相浸没式液冷是主流推进的技术路线,未来一定时 间内将齐头并进。冷板式液冷具有改造优势,能够实现从传统风冷向液冷的 平滑过渡,且行业较为成熟,现阶段市占率较高(据 CCID《2023 中国液冷 应用市场研究报告》数据,2020~2022 年冷板式液冷在液冷市场中市占率保 持 90%以上),但浸没式液冷具备更高能效优势,符合数据中心高密部署的 时代趋势和低碳节能的宏观要求,因此拥有更加广阔的发展前景。随着国内 厂商技术水平不断提升、产业链整体更加成熟,液冷技术生态得到逐步完善。
3.3. 液冷替代趋势明显,数据中心规模发展迅速
3.3.1. 液冷替代成本降低,液冷数据中心规模高增
液冷数据中心替代比例将持续增长。液冷数据中心将在未来对传统市场实现 持续的替代,包括传统风冷的机房空调市场、服务器市场及数据中心基础设 施(机柜、CDU、冷却塔等)市场。据 CCID 对华为、阿里巴巴和中科曙光等中国液冷数据中心主流厂商,以及部委直属科研单位的液冷专家调研结果 总结,2019 年的液冷数据中心的替代比例已经达到 20%,预计未来仍会持 续增长,2025 年的替代比例有望达到 25%。
我国数据中心产业正步入快速发展时期,冷板式液冷市占率较高。据科智咨 询数据,近年来我国液冷数据中心市场规模由 2019 年的 36.9 亿元增长至 2022 年的 100.5 亿元,期间 CAGR 达到 39.65%,同比增速保持在 30%以上。 其中液冷板液冷数据中心贡献了主要增长值,其市场规模由 2019 年的 34.9 亿元增长至 2022 年的 90.5 亿元,期间 CAGR 达到 37.39%,市场规模占整 体液冷数据中心市场规模均在 90%以上,但随浸没式液冷等其他液冷技术 逐步推进部署,冷板式液冷市占率有所下降,由 2019 年的 94.58%降至 2022 年的 90.05%。在市场需求与数据中心节能政策的共同驱动,以及液冷技术 标准化进程的推进下,我国液冷数据中心规模有望保持较高增速。
我国液冷服务器及液冷服务器市场规模增长较快。在头部互联网企业及三大 电信运营商推动液冷项目试点以及主流服务器厂商加快布局液冷领域的趋势下,我国液冷服务器出货量得到实质性增长,市场规模由 2019 年的 29.8 亿元增长至 2023 年的 122.5 亿元,期间 CAGR 达到 42.40%,是液冷数据中 心市场的主要组成部分。IDC 预计,2023-2028 年,中国液冷服务器市场年 CAGR 将达到 45.8%,2028 年市场规模将达到 102 亿美元。液冷数据中心基 础设施需根据服务器材质、型号以及项目实际情况进行适配生产以提供稳定 运行环境,市场由 2019 年的 7.1 亿元增长至 2022 年的 20.2 亿元,期间 CAGR 为 41.70%。随液冷技术渗透率逐步提升,液冷服务器及液冷数据中心基础 设施市场规模将得到有力驱动。
我国液冷数据中心单位功率散热成本降低,液冷温控市场规模不断提升。得 益于液冷技术路线逐步得到成功验证,在我国数据中心基础设施规模市场规 模的大规模部署趋势下(由 2020 年的 31MW 增长至 2022 年的 139.2MW), 每 1kW 的散热成本已经得到显著下降,2022 年已降至 6500 元/kW,相比 2020 年同比下降超 50%,预计 2023 年将进一步下降至 5000 元左右,已基 本追平传统风冷建设成本。同时液冷温控也得到更高关注度,市场规模预计 将由 2021 年的 3 亿元增长至 2025 年的 74.1 亿元。
3.3.2. 液冷数据中心用户稳定,下游需求空间广阔
液冷数据中心用户集中在泛互联网、电信及泛政府行业。云和互联网行业对 液冷数据中心的需求规模占比最大,达到 32%,其中主要包括以公有云为代 表的高密场景和头部企业对自有数据中心的液冷技术验证,2023 年增加至 46.3%的市场份额。泛政府领域需求占比为 27%,主要应用场景为政府主导 的超算、智算中心及相关企事业单位试点项目。电信行业液冷需求居于第三, 占比为 18.5%,主要应用场景为电信运营商自有数据中心的液冷试点项目, 目前数量已超 200 个且未来仍将大规模推进。金融行业需求占比为 10.8%, 此外在教育、能源、制造等领域,液冷数据中心的部署应用也在逐步开展。
高效散热和能耗优化是各行业用户部署液冷数据中心的主要原因。泛互联 网用户主要需求是利用液冷技术实现对高密计算业务的高效散热,降低综合 成本,并积极推动节能降耗以响应碳中和目标。泛政府行业主要利用液冷技 术支撑智算、超算等高密场景,并起到创新技术引领作用。电信运营商数据 中心基数大且老旧比例较高,主要需求为降低能耗和技术引领。金融行业则 主要为金融科技业务发展作提前部署。
泛互联网和泛政府行业用户是液冷数据中心需求主要来源。泛互联网行业 数据中心需求规模大,其中主要来自于高密化属性业务(如公有云),在降 低 PUE 的同时平衡 TCO 收益,另一部分需求则来自头部企业为适配海量算 力需求而进行的液冷技术中心试点,2022 年总体需求规模达到 27.8MW, AIGC和 ESG将推动市场规模在 2027年升到 332.9MW(CAGR将达 64.31%)。 泛政府行业需求少量来自于政务云、政府公共服务等相关单位业务,主要来自于国家政策大力推动的超算和智算中心领域,用液冷技术支撑高密部署场 景并形成积极引导示范作用,2022 年总体需求规模达到 23.5MW,预计在智 慧城市、智慧安防等细分场景的驱动下,将在 2027 年达到 194.7MW 的规模 (CAGR 将达 52.64%)。
电信和金融行业用户对液冷数据中心需求增长较快。基础电信运营商拥有全 国 30%以上的数据中心资源且早在 2017 年开始液冷技术验证与试点,其中 云数据中心部署、枢纽节点算力建设贡献较高增长,2022 年总体需求规模达 到 16.1MW,在高密、绿色的建设要求下,液冷数据中心需求规模将在 2027 年增长至 177.0 亿元(CAGR 将达 61.52%)。金融行业对液冷数据中心的需 求主要来自于大型银行机构 OA 系统部署以作为新兴技术应用示,2022 年 总体需求规模为 9.4MW,未来随着与 AI、区块链等新兴技术的结合以及金 融科技应用的快速发展,液冷技术将逐步成为金融科技 IT 部署的刚需,预 计总体需求降至 2027 年增长至 95.2MW(CAGR 将达 58.89%)。
3.4. 低碳节能政策指引明确,驱动液冷技术发展
液冷数据中心政策陆续出台,低碳节能为主要风向。近年来,我国液冷数据 中心得到各级政府的高度重视,并收获国家产业政策的大力支持,在节能降 碳的强烈需求下,液冷数据中心的发展将得到有力驱动。
PUE 发展目标有望推动液冷数据中心加速普及。在节绿色能发展的背景下, 国家政策对数据中心的能耗要求更加具体,PUE 指标则是最为重要的节能 指标之一。工信部《新型数据中心发展三年行动计划(2021-2023 年)》中提 出要求,到 2021 和 2023 年底全国新建大型及以上数据中心 PUE 降至 1.35 和 1.3 以下,严寒和寒冷地区力争降低到 1.25 以下(2023 年底)。另外,“东 数西算”政策明确要求到 2025 年,东部和西部枢纽节点数据中心 PUE 低 于 1.25 和 1.2,很多省份数据中心项目可研审批均要求在设计 PUE 在 1.2 以 下。在各大节点绿色节能示范工程实施推动下,数据中心建设低碳化进程有 望进一步加快,液冷技术作为降低 PUE 最有效的技术路线,其普及速度将 得到更快提升。
华北地区 PUE 较低,东数西算区域 PUE 仍有优化空间。据 CDCC 及中国 通服数字基建产业研究院数据,2021 年我国数据中心 PUE 有所提升,其中 华北、华东地区数据中心 PUE 接近 1.40,处于相对较优水平,华中、华南 地区 PUE 接近 1.6,主要受地理位置、上架率及其他多种因素影响,相比政 策要求仍有较大提升空间。据科智咨询数据,在“东数西算”区域中,京津 冀区域数据中心平均 PUE 表现最好,为 1.48,长三角区域次之,为 1.56, 而大湾区和成渝地区数据中心 PUE 表现较差,为 1.66 和 1.68,相比于“东 部枢纽节点数据中心 PUE<1.25,西部枢纽节点数据中心 PUE<1.2”的政 策要求,各个区域的数据中心 PUE 仍有优化空间。
全国及一线城市 PUE 水平相比政策要求存在较大差距,液冷技术有望大放 异彩。据科智咨询数据,2022 年全国数据中心平均运行 PUE 为 1.57,相对 于 2023 年底的目标(1.3)仍有较大差距。北京、上海及广东 2022 年数据中 心平均运行 PUE 分别为 1.48、1.56 和 1.66,而当地政策目标对应的 PUE 水 平分别为 1.2、1.25 和 1.3,可提升空间相对全国水平较大。在“双碳”目标 的要求下,全国数据中心能效水平亟需提升,而关键则在于采用更加高效绿 色的制冷方案,传统风冷技术 PUE 极限值为 1.25,液冷技术能够实现数据 中心能耗低于 1.1,可有效解决 PUE 难题。因此,各项液冷技术及液冷数据 中心有望得到长足发展。
3.5. 液冷标准化程度不足,运营商积极推动标准统一
液冷产品标准化程度不足,交付模式可分为一体化交付与解耦交付。在冷却 液方面,目前关于运维过程中抽测周期、水质标准等尚无一致标准约束,主 要通过供应商、运营商的经验操作,欠缺科学试验验证。在系统架构及产品 方面,机柜、服务器、液冷产品的接口缺乏统一规范标准,不同厂家的产品 存在兼容性问题,限制了行业发展。目前行业内产品的交付模式包括一体化 交付和解耦交付,一体化交付是厂商集成设计开发液冷整机柜并交付,解耦 交付是液冷机柜与液冷服务器之间遵循用户统一制定的接口设计规范,机柜 与服务器解耦,可由不同厂商交付。解耦交付模式有利于实现多厂家适配及 后续灵活部署。
电信运营商提出三年愿景,推动标准统一发展。在《电信运营商液冷技术白 皮书(2023 年)》中,三大运营商共同提出并明确“三年愿景”,即在 2023 年开展技术验证,降低 PUE 并提升规划、建设及维护能力,引领行业解耦 标准;2024 年开展规模测试,新建数据中心项目中 10%规模试点应用液冷 技术,推进产业生态成熟并降低 TCO(全生命周期成本);2025 年对 50%以 上项目开启规模应用,推进形成标准统一、生态完善、成本最优、规模应用 的高质量发展格局。分技术来看,冷板式液冷将在 2023 年底形成《冷板式 液冷技术标准》并推动冷板式液冷机柜测试,2024 年年中完成规模验证; (单相)浸没式液冷争取在 2023 年年底形成统一技术标准,2024 年开展系 统兼容性、服务器定制、冷却液国产替代等研发与试点验证。预计 2025 年 电信行业将开展液冷技术规模应用。
液冷数据中心市场竞争包括服务器厂商与基础设施厂商竞争。服务器厂商 主要提供服务器产品及解决方案,同时可联合基础设施厂商提供一体化的液 冷解决方案。液冷基础设施服务商提供接头、CDU、电磁阀、机柜、分集液 器等产品零部件,并提供基础设施解决方案。根据具体项目情况,服务器厂 商与基础设施厂商进行产品适配与耦合,但在在一次侧及二次侧的液冷基础 设施产品方面,双方在一定程度上存在竞争,两者之间存在一定的竞合关系。
服务器厂商积极探索。目前国内主流服务器厂商对液冷产品已有布局,浪潮 信息、超聚变、宁畅信息处于第一梯队,在技术水平、生态能力及资源能力 等方面处于行业领先位置。据 IDC 数据, 浪潮信息、宁畅信息与超聚变为 2023 年中国液冷服务器市场份额排名前三,合计市占率超过 70%,其中浪 潮信息互联网行业客户占比较多,超聚变则深耕运营商与政企领域,宁畅信 息以及行业其他竞争者,包括新华三、联想、中兴等,主要面对企业数字化、 通信解决方案以及互联网、运营商、金融、教育、医疗等领域。 各服务器厂商均积极布局液冷整体解决方案。中科曙光、华为、阿里和联想 为综合性厂商,其中阿里巴巴仁和液冷数据中心可部署约 3 万台液冷服务 器,平均 PUE 达到 1.09,中科曙光已在北京、南京等多个省市建设应用, 华为云乌兰察布数据中心是全球首个批量部署 Fusion POD 液冷服务器的云 数据中心,年平均 PUE 不超过 1.2,联想则为北京大学打造国内首套温水液 冷服务器高性能计算系统,PUE 值为 1.08;广东合一、绿色云图、浪潮发展 较快,其中广东合一是喷淋式液冷领军企业,开发出具有完全自主知识产权 的“芯片级喷淋液冷技术”,绿色云图在单相浸没式液冷方面拥有众多成熟 技术实践,业务发展速度迅速,浪潮信息在液冷服务器产品方面具有优势, 且高举“All in 液冷”旗帜大力推动液冷解决方案发展。
液冷基础设施市场进入壁垒较高,主流厂商竞争力差异较小。液冷基础设施 市场竞争较为激烈,主要厂商在技术及产品方面各有侧重,曙光数创、英维 克、申菱环境、同飞股份布局全面,具有一定竞争优势。曙光数创聚焦浸没 式液冷,其硅立方相变液冷计算机整体产品力较强,第二代产品计算密度得 到数量级提升,节能属性行业领先(PUE 低至 1.04);英维克、申菱环境及 同飞股份深耕温控领域多年,具有较高的品牌辨识度,液冷产品线布局已愈 发完善。其他厂商如云酷智能提供浸没式液冷整体方案,实现冷却液自研且 与电信运营商开展项目试点;绿色云图和安徽星载目前液冷产品多用于自有 数据中心,打造示范项目;纯均在冷却液产品方面基础深厚并能提供基础设 施;科华数据在 UPS 和智慧运维方面能力较强,深耕数据中心业务,目前 正大力推动液冷项目落地。
(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)
精选报告来源:【未来智库】。
东方羽航清洗维修为您整理关于本文的清洗维修热搜话题
●液冷温控系统
●idc温控概念股
●温控概念股
●温控技术的当前现状
●温控算法
●温控行业市场前景
●温控系统龙头股
●idc温控概念股
●温控市场
●温控设备概念股