消息面来看,目前热度较高的商业航天题材,周末确实又有新催化,那也就是从国际电信联盟(ITU)官网公开信息获悉,我国 2025 年 12 月向 ITU 申请了超 20 万颗卫星的频轨资源
但是这个方向,目前市场已经重复在发酵,解读的也有很多,这里我就不再做讨论。
另外这周市场有一个方向也有所表现,那就是AI液冷方向。
从消息面上看,2026第四届数据中心液冷&AI芯片热管理供应链千人会,将于1月14日(下周三)在深圳举办。
过去,服务器靠风扇吹风、空气对流带走热量,这套风冷方案曾支撑了互联网时代的算力扩张
但如今,面对AI大模型和高性能计算的爆发,传统风冷已力不从心。

以英伟达最新一代GB200为例:单卡功耗高达1000W,一个72卡机柜总功率冲上132kW,而即将大规模量产的GB300,更是将单机柜功率密度推至120kW以上。
业内普遍认为,2027年Vera Rubin Ultra机架甚至可能突破600kW。
然而,传统风冷的散热上限仅为约20kW/机柜,连GB200的六分之一都不到。
高温不仅降低芯片性能,更严重威胁可靠性:元件温度每升高2℃,可靠性下降10%,温升50℃时,寿命仅为温升25℃时的1/6。
在这样的背景下,液冷不再是“锦上添花”,而是必要选项。
液冷的核心优势,在于液体远超空气的导热与储热能力,导热效率是空气的25倍,储热能力更是高出1000倍以上。
通过让冷却液直接或间接接触发热芯片,热量被高效“搬走”,实现稳定运行。
目前主流液冷技术分为三类:
冷板式(间接接触):像给芯片贴“退热贴”,冷却液在金属冷板内循环,带走热量。改造成本低、兼容性强,成为存量数据中心首选。
浸没式(直接接触):整台服务器“泡澡”在绝缘冷却液中,热量被液体直接吸收,部分方案还利用沸腾相变强化散热。
喷淋式(直接接触):精准“淋浴”式喷洒冷却液到热点区域,吸热后回收再利用,适用于高密度局部散热。

据IDC预测,2026年冷板式液冷将占据超70%市场份额,目前国内已经有企业推出标准化解决方案,加速落地。
大家要知道,AI液冷不是单一部件,而是一套系统级解决方案,这一套方案要做的就是直接坐到有用和好用。
从这方面来看,具备整体集成能力的企业将在竞争中占据先机。
与此同时,上游零部件厂商也在加速认证与量产。
从产业链上发出,核心零部件的冷板、UQD快速接头、Manifold分水器、CDU冷量分配单元、电磁阀、TANK腔体、专用连接器等都是相比比较受益市场需求的放量。
TrendForce预测:2026年AI芯片液冷渗透率将飙升至47%,高于2024年的14%。
英伟达、AMD全面转向液冷,谷歌等云巨头也开始评估部署,全球算力基础设施正在经历一场“冷却革命”。

根据专业咨询机构的预测数据,2027年液冷系统市场规模可能要超过1000亿。
过去市场一部分观点认为,算力的未来在于更快的芯片、更大的模型。
但现实提醒,如果没有有效的散热,就可能没有可持续的智能。
从这方面来看,AI液冷方向或许值得我们持续跟踪。

特别声明:以上内容绝不构成任何投资建议、引导或承诺,仅供学术研讨。
如果觉得资料有用,希望各位能够多多支持,您一次点赞、一次转发、随手分享,都是笔者坚持的动力~
更新时间:2026-01-12
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号