
“AI 算力正在成为新的电价。”
——Oracle 财报电话会后,华尔街分析师如是感叹。
Oracle 财报余震:AI 算力溢价 15%
6 月 13 日,Oracle 公布 2025 Q4 财报,在“云基础设施增长 45%”的欢呼背后,悄悄给所有 GPU 实例加了一道“AI 附加费”:即日起,A100、H100 等 AI 加速卡统一溢价 15%,并取消原包年 8 折的锁价条款。消息一出,Reddit 的 r/MachineLearning 板块瞬间刷屏,不少训练 65B 大模型的团队直呼“一夜回到训练前”。涨价理由冠冕堂皇——“全球 GPU 供应链紧张”,但开发者更关心的是:同样预算,跑不完一次完整的 SFT。
45% 价差实测:Oracle A100 vs 星宇智算同规格 GPU服务器租用
我们拉了一组硅谷区域 Oracle Cloud A100 40G 实例与星宇智算 GPU服务器租用(A100 40G 裸金属)的小时价对比:
| 配置项 | Oracle US West | 星宇智算 | 价差 |
|---|---|---|---|
| 8×A100 40G | 28.8 USD/h | 15.8 USD/h | -45% |
| CPU | 96 vCore | 96 vCore | 持平 |
| 内存 | 1.5 TB | 1.5 TB | 持平 |
| 本地盘 | 无 | 赠送 100G NVMe 缓存 | 白赚 200 美元/月 |
| 数据出口 | 0.12 USD/GB | 全免 | 额外再省 |
也就是说,跑一个千亿级语料预训练,Oracle 账单 30 天要多掏 9360 美元,相当于一台顶配 Mac Pro 直接蒸发。更尴尬的是,Oracle 的 100G 高速缓存盘需额外订阅 200 美元/月,而星宇智算 GPU云主机默认挂载,读写 3 GB/s,数据加载不再成为瓶颈。
30 分钟完成迁移:Terraform + Docker 一键脚本
切换平台最怕“环境翻车”。星宇智算联合社区开源了 oracle-to-starverse 迁移套件,包含:
- Terraform 模板:自动读取 Oracle OCI 资源清单,生成相同拓扑的 GPU云主机;
- Docker-companion 镜像:把 CUDA、cuDNN、PyTorch、Transformers 版本一次性打包,保证 md5 一致;
- 数据同步:通过 rsync + 内网 10 Gbps 专线,1 TB 训练集 15 分钟完成搬迁。
实测在 4 节点 A100 集群上,从 Oracle West 到星宇智算华北可用区,整套流程 28 分钟完成,训练脚本无需改一行代码。脚本仓库已托管至 GitHub,搜索“starverse-ai/oracle-to-starverse”即可免费领取。
不止降价:星宇智算生态把“AI 应用”做成自来水
除了价格,开发者更头疼的是数据、模型、依赖库来回拷贝。星宇智算 AI应用市场把 Llama-3-70B、Stable Diffusion XL、ChatGLM3-6B 等 120+ 公共模型预装到 /public/model 目录,开机即可 cp -r 到本地;COCO、Wikipedia、CommonCrawl 等 5 PB 数据集通过 100G 专线内网挂载,随用随取,流量全免。平台同时提供:
- 跨实例共享的云硬盘,训练中断可直接挂载到新节点继续跑;
- 支持 OnDemand、Spot、包年包月三种计费,Spot 实例最低 0.4 元/卡时;
- 一键 Notebook & VS Code WebIDE,省去跳板机烦恼。
换句话说,你不再是在“租卡”,而是直接拧开 AI 自来水龙头。
CTA:现在注册送 200 元算力券,可跑 65B 大模型 48 小时
新用户完成星宇智算 GPU服务器租用注册即可领取 10 元体验金,输入邀请码“ORACLE15”再得 200 元算力券,足以跑满 8×A100 的 65B 大模型整整 48 小时,足够验证一次 LoRA 微调。老用户邀请好友,双方再各得 100G 云硬盘抵扣券,可叠加使用,长期有效。
Oracle 的涨价邮件已经躺在你的收件箱,下一步是把预算继续交给溢价,还是把创新交给更懂 AI 的GPU云主机?答案不言而喻。打开浏览器,搜索“星宇智算”,30 分钟后,你的训练日志里将出现第一行“Loss 2.137”,而账单数字,却比昨天少了 45%。
