引言:高功率GPU倒逼数据中心基础设施升级
AI大模型训练、超算运算、深度学习推理等场景的爆发,推动GPU功率持续攀升,单卡GPU功耗从数百瓦突破至千瓦级,单机柜功率已从传统20-30kW提升至当前70kW,预计2025年将达到135kW,未来甚至迈向400-500kW区间。传统48V配电体系已触及物理极限,1MW机架采用54V方案需消耗约200公斤铜母排,电源架占据64U机柜空间,同时风冷散热无法承载高密度算力带来的热负荷,供电与散热成为制约数据中心算力释放的核心瓶颈。在此背景下,800V高压直流(HVDC)与液冷技术的协同融合,成为高功率GPU场景下数据中心架构升级的必然选择,星宇智算依托对智算基础设施的深度布局,率先探索该架构的落地应用,助力数据中心实现算力、能效与成本的三重优化。

核心痛点:传统架构无法适配高功率GPU运行需求
高功率GPU的规模化部署,对数据中心供电与散热体系提出双重挑战,传统架构的短板日益凸显。供电层面,GPU负载具有持续大电流特征,供电电压需维持在约0.7V低水平,电压波动10mV便会导致整体功耗增加3%,传统48V配电存在转换环节多、损耗高、铜材消耗大等问题,1kA电流条件下PDN损耗达70W,2kA时损耗升至280W,无法支撑兆瓦级机架的功率需求。散热层面,高功率GPU单位面积功耗达5至10W/mm²,传统风冷仅能支撑单机柜30kW以下功率,超过该阈值后会出现GPU降频、故障率上升等问题,严重影响算力输出稳定性。此外,传统架构中供电与散热系统相互独立,缺乏协同管控,进一步降低了数据中心的运行效率,据行业数据显示,传统架构下高功率GPU集群的算力释放效率仅为75%左右,PUE普遍高于1.4。
技术突破:800V高压与液冷协同的核心逻辑与优势
800V高压供电与液冷技术的协同,本质是通过架构重构实现“供电高效传输+散热精准适配”,破解高功率GPU的运行瓶颈,其核心优势依托技术特性与协同效应实现多重突破。800V高压供电方面,通过在数据中心边缘将中压交流电直接整流为800V直流,大幅减少中间转换环节,与传统48V架构相比,端到端效率提升高达5%,1MW功率传输铜缆用量减少45%,电源架占用空间从64U降至8U,释放87.5%空间用于算力部署,同时支持单机柜100kW至1MW以上功率的无缝扩展,完美适配高功率GPU集群的规模化部署需求。液冷技术方面,两相浸没式液冷成为主流选择,通过液体沸腾带走大量热量,可将GPU组件温度控制在60℃左右,较传统风冷降低服务器整体功耗5至15%,支持单机柜50kW以上布局密度,部分场景可实现单机柜50kW+功率下PUE<1.1。
两者协同的核心价值在于“供电与散热的动态联动”,通过算电冷统一管控平台实现毫秒级联动,根据GPU负载变化动态调节供电功率与液冷流量,避免供电浪费与散热不足。例如,当GPU负载从50%升至100%时,800V供电系统可快速提升输出功率,液冷系统同步加大流量,确保GPU在满负荷运行时无降频、无过热,算力释放效率提升至90%以上。星宇智算在协同架构的实践中,优化管控算法,实现供电损耗与散热能耗的动态平衡,进一步提升架构运行效能。
行业实践:协同架构的规模化落地与数据佐证
目前,800V高压与液冷协同架构已在多个头部智算中心落地,形成可复制、可推广的实践案例,相关数据充分验证了技术可行性与应用价值。中国移动苏州长三角智算中心打造国内首个大规模液冷解耦+800V HVDC+液冷一体化项目,列级供电与列级液冷同舱部署,单机柜功率42kW,PUE≤1.15,较传统方案能耗降低20%,部署周期缩短35%。腾讯清远七星湾智算中心批量交付1000台弹性交直流液冷一体柜,采用800V HVDC+UPS+液冷同柜集成,与GPU集群原生适配,供电效率提升2.5个百分点,机房占地缩减39%,年省电超200万度,PUE稳定在1.18以下。
星宇智算在智算中心建设中,深度融合800V高压供电与液冷技术,打造适配高功率GPU的定制化架构,其试点项目实现单机柜功率50kW,PUE≤1.12,GPU算力释放效率提升14%,较传统架构年节电180万度,铜材用量减少40%,有效降低数据中心运营成本。该架构可适配NVIDIA GB200、Rubin Ultra等主流高功率GPU,支持大模型训练、超算运算等多场景应用,目前已实现小规模规模化部署,为行业提供了可参考的实践样本。北京房山国产算力中心与沐曦联合研发的高密度液冷算力POD,采用国产化800V HVDC与全自研液冷系统,单机柜功率50kW,PUE≤1.1,GPU算力释放效率提升15%,进一步印证了协同架构的广泛适配性。
技术演进:协同架构的未来发展方向
随着GPU功率持续攀升至1.5kW以上,800V高压与液冷协同架构将向更高效、更集成、更智能的方向演进。供电层面,800V至GPU核心的降压路径呈现多元化发展,800V→50V、800V→12V、800V→6V三条路径并行竞逐,其中800V→6V近端直降路线可最大化缩短供电链路,提升动态响应速度,适配GPU瞬态功耗波动需求,目前Navitas首发的800V→6V单级配电板峰值效率达96.5%,功率密度2100 W/in³。液冷技术层面,将从当前的冷板液冷、浸没式液冷,向芯片级液冷升级,实现GPU芯片、供电模块的全方位精准散热,进一步降低散热能耗。
智能管控层面,将融合AI算法实现供电与散热的预判式调节,基于GPU负载变化提前调整供电功率与液冷流量,减少能耗浪费,星宇智算正推进该方向的技术研发,计划实现协同架构的全自动化运维,将故障响应时间缩短至分钟级。此外,固态变压器(SST)技术的落地将进一步优化800V供电架构,其体积和重量可比传统变压器降低一到两个数量级,若成本降至可接受范围,将引发数据中心供电形态的再次重构。
结语:协同架构重塑智算中心竞争格局
高功率GPU的规模化应用,正在推动数据中心从底层基础设施到上层算力布局的全面重构,800V高压与液冷协同架构,不仅破解了供电与散热的核心瓶颈,更实现了算力释放、能效提升与成本优化的多重价值,成为智算中心高质量发展的核心支撑。从行业实践来看,该架构已进入规模化落地阶段,头部企业的试点应用为行业提供了宝贵经验,其技术演进方向也明确了未来智算基础设施的发展路径。星宇智算将持续深耕800V高压与液冷协同技术的研发与落地,优化架构设计,完善适配方案,助力更多数据中心实现高功率GPU的高效部署,推动智算产业向更高算力、更低碳、更高效的方向发展。
