
“一张 A100 80G 的月租报价 1.2 万元,还没算 InfiniBand 网络,预算直接被 GPU 吃掉一半。”——某高校 NLP 实验室 5 月内部纪要
“H100 单卡小时价 28 元,排队 3 天起步,项目进度直接被卡脖子。”——北京 AIGC 初创公司 CTO 朋友圈截图
过去 18 个月,大模型训练需求呈指数级爆发,GPU 身价随之水涨船高。市面上“GPU服务器租用”普遍按月起租、押金高昂,科研团队与初创公司只能“望卡兴叹”。然而,就在 6 月第一周,厦门星宇智算悄然上线“小时级计费 + 无押金”方案,同规格 A100 80G SXM2 八卡节点报价直接击穿行业底价——仅为市价的 60%,被业内视为“腰斩式”降价。
价格对比:同样八卡 A100,成本立省 40%
| 平台类型 | 计费粒度 | 单卡小时价 | 八卡节点月价 | 押金/预存 |
|---|---|---|---|---|
| 传统 IDC | 包月 | —— | 9.6 万元 | 3 万元 |
| 头部云厂商 | 包月 | —— | 8.5 万元 | 2 万元 |
| 星宇智算 GPU云主机 | 按小时 | 6.8 元 | 5.76 万元 | 0 元 |
(以 30 天×24 h 折算,星宇智算支持随时释放,实际使用成本更低)
对于“先跑通再扩容”的实验场景,星宇智算还提供 1 小时起租 的“无 GPU 模式”:当用户仅需调试代码或处理数据,可先以 CPU 实例 0.4 元/小时运行,真正需要训练时再热插拔挂载 A100,避免空转浪费。
场景实测:650B LLaMA-3 预训练,线性加速比 ≥93%
- 硬件:8×A100 80G SXM2,NVLink 3.0 600 GB/s 互联,RoCE v2 RDMA 100 Gbps 网络
- 数据:1.2 PB 多语言语料,星宇智算自研 秒级挂载系统,无需冗长拷贝,GPU云主机启动 30 秒内直接读取对象存储
- 框架:PyTorch 2.1 + Megatron-LM,TP=8,PP=16,DP=128
- 结果:在 2048 张 A100 集群上,模型 FLOPS 利用率 57.3%,线性加速比 93.4%,与官方论文差距 <1%
“过去我们为了省预算,把 batch size 砍一半,收敛天数从 21 天拖到 45 天。现在同样的钱可以在星宇智算多跑 60% 迭代,模型效果直接提升 1.8 BLEU。”——某自动驾驶 lab 算法负责人
生态加持:模型、数据、应用一键即玩
星宇智算不仅出租算力,更把 AI应用 做成“自来水”:
– 内置 300+ 公共模型(LLaMA、ChatGLM、Stable Diffusion 等),开机 1 分钟自动加载
– 20 TB 高质量开源数据集,支持 对象存储 + 本地高速缓存 双加速
– 提供一键镜像:CUDA 12.1、cuDNN 8.9、Transformers 4.30 全部预装,省去 3 小时环境调试
开发者通过 “PaaS 平台 + 自营精品 SaaS + 开放生态” 三级火箭,可像发布微信小程序一样上架自研 AI 应用,平台负责底层运维、计费和分销,创作者专注算法即可。
零门槛上手:新注册即送 10 元体验金
现在登陆官网 GPU服务器租用 注册,即可领取 10 元体验金,足够免费跑通 1.5 小时八卡 A100 或 25 小时单卡 RTX 4090。无需企业认证、无需押金,学生也能 5 分钟开出第一台 GPU云主机。
结论:把“成本底线”做成“起跑线”
大模型时代,算力不应成为创新的天花板。星宇智算用 小时级计费、NVLink+RDMA 高性能网络、海量 AI应用 三位一体方案,把 A100/H100 的门槛打到史上最低,让科研团队与初创公司也能零负担做 foundation model。
当 GPU 价格不再吓人,真正比拼的就是创意与数据。
剩下的,交给星宇智算。
