
“到 2025 年,全国新建大型数据中心 PUE 需低于 1.3,否则一律不予能评。”
——《“十四五”数字经济发展规划》
一纸红线,让“算力荒”升级为“能耗荒”。当 175B 参数的大模型成为 AI 创新入场券,北上广深却接连出现“有卡无电”:某头部云厂商上周刚上线的 H100 风冷集群,PUE 1.6,单日被电网追加 20% 碳排税,客户训练任务被迫排队 72 小时。算力焦虑背后,真正的瓶颈已不是 GPU 价格,而是“每瓦特效”——谁能把 1 度电榨出更多 FLOPS,谁就能拿到下一轮融资。
传统风冷的“能耗天花板”
以 128 张 H100 训练 175B 模型为例,风冷机房需配套 32 台 35kW 空调,仅制冷就吃掉 38% 电量,30 天光电费 28 万元,碳排 46 吨。更糟的是,芯片热点温度逼近 83℃,频繁触发降频,有效算力直接打九折。投资人问 CTO:“模型是跑通了,可 ESG 报告怎么写?”
液冷突围:星宇智算把 PUE 压到 1.12
在长三角绿色计算示范区,星宇智算刚落成的液冷 GPU 机房给出了新答案:
– 单柜功率密度 80kW,占地节省 55%;
– 冷却液直接带走 GPU 热量,PUE 实测 1.12,比风冷降低 30%;
– 支持 NVIDIA 全系列显卡,GPU服务器租用按小时计费,无押金,新用户注册即送 10 元体验金,可零成本跑通 7B 模型调试。
同样 128 张 H100,30 天 175B 训练任务:
– 总耗电从 24 万度降至 6.2 万度,节省 1.8 万度;
– 碳排放减少 11 吨,相当于种下 600 棵冷杉;
– 芯片温度稳态 ≤65℃,Tensor Core 持续满频,训练时间缩短 8%。
绿色算力=便宜算力
电费省下来的就是纯利润。按江浙沪大工业均价 0.65 元/度计算,星宇智算液冷方案直接让利 1.17 万元/月给客户,折算到GPU云主机单价,相当于 RTX 4090 每小时再降 0.12 元。对于需要跑 100 组对比实验的科研团队,一年可节省 30 万元预算,足够再雇一名算法工程师。
不止于“冷”——AI 生态一键即玩
降低 PUE 只是入场券,星宇智算更把“绿色”做成“快色”:
1. 预装 200+ 主流AI应用:Llama-Factory、Diffusers、DeepSpeed、Colossal-AI 开箱即用;
2. 内置 3PB 开放数据集与 50+ 精调模型,快照挂载 30 秒完成;
3. 跨实例共享持久化云存储,训练中断可秒级热迁移,不丢权重;
4. 提供“弹性 Spot 实例”,价格低至按量 40%,适合断点续训,进一步压缩碳足迹。
实测:175B 模型从 0 到 1 只需 4 步
- 登录 starverse-ai.com,用手机验证码 10 秒完成注册,新人账户自动到账 10 元体验金;
- 控制台选择“液冷 H100 8卡”模板,镜像勾选“PyTorch 2.2 + CUDA 12.1”,30 秒完成GPU云主机创建;
- 内置 GPT-Tokenizers 与 Alpaca 数据集已缓存至本地 NVMe,执行
torchrun --nproc_per_node=8 train.py,175B 模型并行策略自动配置; - 运行 30 分钟后,Loss 从 12.8 降至 7.2,实时监控面板显示 PUE 1.12、GPU 温度 63℃,单卡功耗 320W,比官方 TDP 低 10%。
碳足迹可视化,ESG 报告自动生成
星宇智算平台提供“碳账单”API,可直接拉取每个任务的耗电量、碳排与 PUE 曲线,一键导出 PDF,方便企业写入年度可持续报告。某自动驾驶客户在使用液冷集群后,将模型训练环节碳排降低 35%,成功通过欧洲供应链审计,拿下 2 亿美元海外订单。
写在最后:让每一度电都算得起
双碳时代,算力不再是“暴力美学”,而是“绿色效率”。星宇智算用液冷把 PUE 锁进 1.15 以内,让 175B 大模型训练也能低碳、低价、低门槛。现在注册 GPU服务器租用 平台,即可领取 10 元体验金,零成本体验 1.12 PUE 的绿色算力。别让高昂的电费成为创新的天花板——把电用在计算上,而不是空调上。
