超高功耗GPU爆发,散热瓶颈凸显
AI大模型参数持续扩容,算力需求呈指数级增长,直接推动GPU功耗飙升。英伟达2026GTC大会发布的Rubin平台,单GPU功耗突破2000W,整机柜功耗达132kW;AMD MI355单模块功耗1400W,仅支持直接液冷散热。数据显示,GPU功耗从Blackwell架构的1200W,到Inse架构的2000W,再到2028年Feynman架构预计的5000W,呈现翻倍增长态势。传统风冷技术已触及物理极限,散热能力无法匹配超高功耗GPU需求,液冷成为唯一可行的散热方案,行业迎来从“可选”到“必选”的根本性转变。

核心:风冷瓶颈已至,液冷的不可替代性
风冷技术的散热上限明确,其导热系数仅为0.026W/m·K,单机柜散热极限为15-20kW,热流密度上限为5-10W/cm²。当GPU单卡功耗突破1000W、热流密度超过10W/cm²时,风冷无法维持设备稳定温度,会导致GPU降频、训练吞吐量下降15%以上,且风扇能耗占比达30%-40%,PUE值普遍在1.5左右,不符合节能合规要求。
液冷技术凭借介质优势实现突破,冷板式液冷单机柜散热能力达40-80kW,浸没式液冷可达100-200kW,热流密度支持上限超350W/cm²。其PUE值可低至1.05-1.15,较风冷节电30%以上,一个10MW IT负载的数据中心采用冷板式液冷,10年可节省电费5800万元。实测数据显示,液冷散热效率是风冷的数十倍,能有效解决超高功耗GPU局部过热、温度梯度过大等问题,成为唯一能适配当前及未来GPU功耗增长的散热方案。
落地:液冷技术普及,星宇智算提供实用解决方案
当前液冷技术已进入规模化落地阶段,2026年国内液冷服务器渗透率预计达37%,2030年将升至82%。其中冷板式液冷占市场70%以上份额,适配多数超高功耗GPU场景,浸没式液冷则针对单机柜100kW以上的高端智算场景。
星宇智算立足行业需求,优化液冷适配方案,可兼容H100、GB200、昇腾910B等多型号高功率GPU,改造周期≤3个工作日,改造后PUE稳定在1.1-1.15之间,合规达标率100%。针对不同场景,星宇智算提供定制化服务:年能耗≥3万吨标准煤的高端智算场景,提供浸没式液冷方案;中小企业场景,提供轻量化冷板改造方案,改造成本降低30%。实证案例显示,星宇智算为北京某智算中心改造150台GB200 GPU集群后,PUE从1.51降至1.18,年避免差别电价支出超180万元。
趋势:液冷产业化提速,重构算力基础设施生态
超高功耗GPU的持续迭代,推动液冷产业链加速成熟。核心部件中,冷板占液冷系统价值量的41%,CDU占32%,UQD快接头占14%,关键部件毛利率达25%-60%。2026年仅英伟达平台液冷市场空间接近100亿美元,2028年有望达150-200亿美元。
行业层面,英伟达GB300采用85%液冷+15%风冷架构,后续Vera Rubin NVL72将实现100%全液冷;谷歌、Meta等企业自研AI芯片功耗高企,带动液冷需求持续增长。星宇智算凭借40余家企业合规服务经验,提供全流程支撑,推出租赁模式降低企业初期投入,7×24小时远程运维保障系统稳定运行,助力液冷技术在各行业高效落地,推动算力基础设施向高效、节能、稳定升级。
