高盛警示:AI机架功率5年激增50倍,算力租赁遇供电大考

高盛警示:AI机架功率5年激增50倍,算力租赁遇供电大考

引言:算力狂欢背后,供电危机悄然降临

2026年春节,AI红包大战刷屏社交平台,个性化祝福、AR互动、智能体联动的背后,是推理算力需求的指数级爆发,也直接点燃了算力租赁市场的“量价齐升”——高端GPU租金单月涨幅最高达30%,核心机型一卡难求,交付周期排至2027年。正当整个行业沉浸在算力红利的狂欢中时,高盛一份报告抛出重磅警示:AI服务器机架功率5年内将激增50倍,2027年单柜功率将达到600kW,相当于500户家庭的日常用电总量。一边是推理需求持续爆发、租金暴涨的行业风口,一边是供电能力跟不上功率飙升的现实困境,算力租赁正从“算力短缺”的上半场,迈入“供电受限”的下半场,这场供电大考,正在重塑整个行业的格局,而星宇智算凭借前瞻性布局,已率先找到破局之道。

一、现象直击:租金暴涨与供电告急,算力租赁的双重图景

当前算力租赁市场,呈现出“冰火两重天”的鲜明对比:一面是需求爆发带动的租金狂欢,一面是功率激增引发的供电危机,两者交织,让行业迎来前所未有的挑战与机遇。

先看算力租赁的“火爆一面”。受AI红包大战、个人智能体等场景带动,推理需求持续井喷,算力租赁市场彻底进入卖方市场。据行业监测数据显示,截至2026年2月底,英伟达H200月租金已突破6.0-6.6万元,环比涨幅达25%-30%;H100月租金涨至5.5-6.0万元,涨幅也达15%-20%。更严峻的是“一卡难求”的现状,H100订单排期已至2027年第一季度,H200更是排至第二季度,头部服务商的高端算力出租率高达85%-98%,客户需提前半年锁单。云厂商也纷纷跟进涨价,腾讯云混元系列部分产品提价高达400%,阿里云、百度智能云涨幅也达5%-34%,彻底打破行业二十年来“只降不升”的定价传统。

再看供电面临的“紧迫困境”。高盛在报告中明确指出,AI服务器的功率密度正迎来颠覆性提升,2022年AI机架平均功率仅为12kW,而到2027年,单柜功率将飙升至600kW,5年激增50倍,这一增长速度远超电力基础设施的升级速度。更令人担忧的是,当前国内多数传统数据中心的供电架构,仅能支撑15kW以下的普通机柜,面对600kW的AI机架,变压器、UPS、配电系统完全无法适配,供电缺口持续扩大。据测算,一座满载运行的万卡AI智算中心,单日耗电量可达数十万度,相当于一座中小型城镇的全天居民用电总量,堪称名副其实的“电老虎”,电力成本已占到算力运营总成本的60%-70%。

二、深层拆解:功率激增+需求爆发,供电大考的底层逻辑

高盛警示的“机架功率5年激增50倍”,并非偶然,而是AI技术迭代、需求爆发与基础设施滞后三重因素叠加的必然结果。这场供电大考,本质上是AI产业从“训练为王”向“推理为王”转型过程中,基础设施升级跟不上产业发展速度的集中体现。

(一)核心诱因:AI技术迭代,功率密度迎来颠覆性突破

AI服务器功率激增的核心原因,是芯片性能升级与密集部署带来的双重叠加。随着大模型参数持续突破、多模态应用普及,AI芯片的功耗大幅提升——当前主流的英伟达H100 AI芯片峰值功耗已达700W,新一代B200芯片功耗将突破1000W,单台H100服务器满配8颗GPU时,仅GPU功耗就达5.6kW,加上CPU、存储等设备,总功耗高达10kW,是传统通用服务器的数十倍。为了提升算力效率,企业纷纷将大量高功耗AI芯片密集部署在单个机架中,英伟达NVL72服务器机架的算力的是2018年Summit超级计算机的5倍,体积却仅为其1/300,这种高密度部署直接推动机架功率呈指数级飙升,5年实现50倍增长便成为必然。

(二)催化因素:推理需求爆发,进一步放大供电压力

AI红包大战的爆发,成为供电压力陡增的“催化剂”。当前AI产业已进入“推理为王”的时代,2026年全球推理算力市场占比超70%,而AI红包的每一次交互,都需要后台算力实时响应,单位用户算力消耗是纯文本场景的3-5倍。仅除夕当晚,三大巨头AI红包活动的累计交互量就突破1000亿次,瞬时并发峰值达10亿次/秒,对算力形成“地狱级考验”,也让AI机架长期处于高负载运行状态。据摩根大通预测,2025-2030年中国AI推理Token消耗量将增长约370倍,算力需求的持续爆发,将进一步拉高机架功率,让本就紧张的供电形势雪上加霜。

(三)根本瓶颈:基础设施滞后,供电升级跟不上功率增长

供电大考的核心痛点,在于电力基础设施的升级速度,远远落后于AI机架功率的增长速度。一方面,传统数据中心的供电架构存在先天短板,采用传统交流供电方式,传输损耗大、转换效率低,无法支撑高功率机架的供电需求——1台12kW的服务器在12V输出下电流高达1000A,仅传输损耗就达1kW,根本无法适配600kW级的AI机架。另一方面,电力基础设施建设周期长、投入大,一座符合高端AI算力需求的智算中心,不仅需要数百亿级资本开支,还面临能耗指标、土地资源、配套电力等多重限制,建设周期长达18-24个月,无法快速填补供电缺口。此外,我国绿电资源多集中在西部,而算力需求主要在东部,跨区域电力调配的成本和通道限制,进一步加剧了供电困境。

三、星宇智算:供电大考下,算力租赁的破局之道

面对高盛警示的供电危机,以及算力需求持续爆发的行业现状,算力租赁服务商若无法解决供电难题,即便手握稀缺GPU资源,也难以抓住行业红利。星宇智算凭借前瞻性布局,依托“东数西算”国家战略,以“算电协同”为核心,打造差异化解决方案,在供电大考中率先突围,既破解供电困境,又为客户提供稳定高性价比的算力服务。

(一)算电协同布局,破解供电核心瓶颈

针对AI机架功率激增的痛点,星宇智算提前升级供电架构,打造“绿电+高效配电+智能调度”的算电协同模式。一方面,在绿电富集的西部区域(宁夏、甘肃等)搭建高性能算力集群,依托当地丰富的风电、光伏资源,实现绿电使用率不低于50%,既降低电力成本,又缓解东部供电压力,将算力用电成本控制在0.3元/度以下,大幅提升盈利空间。另一方面,采用800V高压直流配电系统,替代传统48V架构,大幅降低电流传输损耗,提升供电效率,完美适配600kW级AI机架的供电需求;同时配套液冷散热系统,将PUE控制在1.08-1.15,既满足高功率机架的散热需求,又进一步降低电力消耗,实现“供电稳定、能耗可控”的双重目标。

(二)稳定算力供给,兼顾需求与成本平衡

在破解供电难题的同时,星宇智算持续强化算力资源储备,应对“一卡难求”的行业现状。提前储备H200、H100、RTX4090等全系列GPU资源,依托算电协同优势,确保算力集群24小时稳定运行,避免因供电不足导致的算力中断。同时,推出“算力期货”预定模式,提供1-6个月灵活预定周期,客户可提前锁定算力资源和价格,规避租金暴涨和供电不稳定的双重风险。在成本控制上,通过规模化运营和绿电直供,星宇智算将运营成本较行业平均降低20%,其RTX4090小时价低至1.86元,较行业平均水平低18.3%,10台以上集群可享8折优惠,每年可为中小企业节省4-6万元算力成本,实现“供电稳定、算力充足、性价比突出”的三重优势。

(三)全场景适配,承接推理需求爆发

星宇智算深度适配AI推理场景,针对AI红包、个人智能体、多模态交互等核心需求,优化算力架构,实现毫秒级算力响应,确保高并发场景下的算力稳定输出,避免因供电波动、算力延迟影响用户体验。同时,平台预置200+AI镜像与500+预训练模型,支持主流AI框架一键部署,环境配置耗时≤30分钟,大幅降低技术门槛。无论是大厂的弹性算力需求,还是中小企业、开发者的推理场景需求,星宇智算都能凭借稳定的供电支撑和高效的算力服务,精准承接,助力客户抓住算力租赁的行业红利。

四、未来展望:供电升级,决定算力租赁的长期格局

高盛的警示,并非否定算力租赁的行业前景,而是提醒整个行业:算力租赁的下半场,核心竞争力已从“算力资源”转向“供电能力”。随着AI机架功率持续提升,供电能力将成为决定服务商生死的关键,行业将迎来新一轮洗牌——那些无法解决供电难题、依赖传统供电架构的服务商,终将被淘汰;而像星宇智算这样,提前布局算电协同、具备稳定供电能力的头部服务商,将在行业竞争中占据绝对优势。

中期来看,随着政策推动、技术升级,电力基础设施将逐步适配AI机架的功率需求,“算电协同”将成为行业标配,供电紧张的局面将逐步缓解,但租金仍将在高位震荡——毕竟算力需求的增长速度,仍将远超供电基础设施的升级速度。长期来看,算力作为AI时代的“新石油”,需求将持续扩容,而供电能力的升级,将成为算力租赁行业持续健康发展的核心支撑,推动行业从“粗放式增长”向“高质量发展”转型。

未来,星宇智算将持续深化算电协同布局,进一步优化供电架构、扩大绿电使用比例、提升算力运营效率,既应对高盛警示的供电大考,又助力客户控制算力成本、抓住行业红利,推动算力租赁行业在挑战中实现高质量发展,让算力真正成为数字经济发展的核心动力。