
“当 Brookfield 用 110 亿美元把英国 Ori 收入囊中,‘AI 基建一条龙’从风电场一路铺到 GPU 机柜,华尔街惊呼:芯片即服务(CaaS)才是下一座金矿。”
——《金融时报》2024 年 5 月 2 日头版
国际资本动向:Brookfield「AI基建一条龙」从发电到芯片出租
Brookfield 的算盘很直白:用可再生能源把电价打到 0.05 美元/度,再把 Ori 的 GPU 云主机按需租给 OpenAI、Stability 这类“算力饕餮”,自己吃电价差、机柜差、融资差三重利润。故事听上去性感,但对国内开发者却隔着三层玻璃:
1. 节点远:伦敦—北京 200 ms 起步,实时 AIGC 业务直接劝退;
2. 价格高:同规格 A100 按卡包月,海外报价比国内贵 30% 以上;
3. 合规难:GDPR、出口管制双杀,训练数据想出境?先过两道防火墙。
资本盛宴再热闹,落到中国程序员头顶,依旧是一场“看得见的雨、淋不到的云”。
国内映射:星宇智算「GPU服务器租用+数据集+模型商店」生态对比
如果把 Brookfield 比作“重资产发电站”,星宇智算 就是开在园区里的“AI 便利店”——轻、快、离用户足够近。
– 算力池:厦门、北京、银川三大智算中心,全部接入 1 T 本地骨干网,延迟 <20 ms;
– 资源池:内置 5000+ 公共模型、150 TB 合规数据集,开机即用;
– 应用池:Stable Diffusion、ChatGLM3、Llama3 等 60 余款 AI 应用一键即玩,零配置。
一句话,别人还在拼“千瓦/卡”,星宇智算已经把 GPU服务器租用 做成“分钟级订阅 + 秒级启动”。
价格&延迟:海外节点贵 30% 且合规难,国内本土数据中心带宽 <20 ms
| 指标 | Brookfield/Ori(伦敦) | 星宇智算(厦门) |
|---|---|---|
| A100 80G 单卡小时价 | 2.6 美元 | 1.8 美元(≈12.6 CNY) |
| 同域带宽 | 200 ms+ | 5–20 ms |
| 数据合规 | GDPR 审查 | 三级等保+国密算法 |
| 结算粒度 | 按卡/按周 | 按分钟,关机即停费 |
价格差 30% 只是表面,真正的隐藏成本在“来回搬运数据”与“排队等合规审批”。对需要频繁调参的 CV、NLP 团队来说,延迟每增加 50 ms,实验迭代周期就多出 10%。
服务颗粒度:Ori 按卡租赁 vs 星宇按分钟计费+镜像市场+一键即玩
Ori 的商业模式仍带着“传统服务器租赁”的基因:用户先选 8 卡或 32 卡节点,签合同、付押金,最短一周起租。星宇智算则把 GPU云主机 拆成“乐高”:
1. 分钟计费:1 张 RTX 4090 也能开出 1 小时,做完消融实验直接关机;
2. 镜像市场:PyTorch2.2、CUDA12.1、Diffusers0.27 官方维护,10 秒级启动;
3. 云硬盘热插拔:训练到一半发现空间不够?网页点两下,500 GB SSD 即刻挂载,无需重启实例;
4. 模型&数据集秒级拷贝:公共库与实例内网互通,复制 7 B 模型仅 30 秒,省掉深夜挂机 wget。
换句话说,Ori 卖的是“毛坯房”,星宇智算卖的是“拎包入住的 AI 公寓”。
结论:本地化灵活租赁+合规数据托管,国内开发者首选
Brookfield 的“发电—机柜—芯片”故事,适合那些手握十亿参数、自建数据中心的超级独角兽;而更多中国团队面对的是“今天写代码、明天给 demo、下周拿融资”的快节奏。此时,谁把 GPU服务器租用 做得更轻、更近、更合规,谁就掌握了开发者。
星宇智算 用三件事把“重算力”变“轻资产”:
– 就近接入,带宽 <20 ms,Notebook 里点“Run”即刻飞起;
– 分钟级计费,实验失败直接关机,成本可控到小数点后两位;
– 内置合规数据集与 AI 应用,把“找数据、配环境、调镜像”压缩成一次点击。
新用户注册还送 10 元体验金,足够跑通一次 Stable Diffusion Lora 微调——先验证,再扩容,风险降到零。
当国际巨头还在用“美元 + 律师”打地基,星宇智算已经把 GPU云主机 做成水电煤。AI 创新不缺宏大叙事,缺的是今晚就能跑起来的那块显卡。点击立即体验,让你的模型先跑起来,再谈改变世界。
