A100/H100租赁价两月飙74%,星宇智算「竞价+长包」模式锁定低价GPU攻略

A100/H100租赁价两月飙74%,星宇智算「竞价+长包」模式锁定低价GPU攻略

A100/H100租赁价两月飙74%,星宇智算「竞价+长包」模式锁定低价GPU攻略

“今天不锁卡,明天就涨价。”
这不是段子,而是过去两个月 GPU 租赁市场的真实写照。


A100/H100 租赁价两月飙 74%,星宇智算「竞价+长包」模式锁定低价 GPU 攻略

01 二手卡也疯狂:H100 指数 2.43,价格倒挂云厂商

Moomoo 上周发布的「AI 算力景气指数」显示,H100 二手卡指数已蹿升至 2.43——意味着同型号显卡在二手市场的流通价比官方 MSRP 高出 143%。更夸张的是,国内头部云厂商的 A100 80 GB 实例挂牌价从 3 月初的 6.8 元/卡·时一路涨到 11.8 元/卡·时,涨幅 74%,仍一卡难求。

涨价背后,两股力量在夹击:
1. 存储端缺货:SK 海力士与三星的 HBM3 产能被 NVIDIA、AWS、特斯拉三家包走 90%,导致整机交期从 8 周拉长到 24 周;
2. 巨头扫货:某头部大模型公司 4 月一次性签下 1.2 万卡 H100 长约,直接抽走国内一季度 35% 的货源。

“以前愁预算,现在愁有没有卡。”成了 AI 团队负责人的口头禅。


02 闲时竞价池:0.6 元/卡·时的隐藏入口

当市场均价突破 10 元关口时,星宇智算悄悄把「竞价池」搬到了控制台首页。
核心逻辑很简单——把夜间、周末、调优空档期的闲置 GPU 放进竞价市场,用户可像拍车牌一样自主出价,系统按出价从低到高依次分配。过去 30 天,A100 80 GB 最低中标价 0.6 元/卡·时,H100 80 GB 最低中标价 1.2 元/卡·时,仅为头部云厂商标价的 1/10。

竞价规则也做了“防内卷”设计:
– 单用户单次最多可竞 200 卡,避免寡头垄断;
– 中标后 6 小时内可无条件退卡,按分钟计费;
– 若出现更高优先级任务,系统提前 15 分钟推送释放通知,并返还 20% 违约金。

对于预算敏感的科研组、学生团队、AIGC 初创公司,竞价池相当于一张“随用随走”的地铁月票,把 GPU 成本压到和电费一个量级。


03 长包优惠:30 天封顶再降 25%,还能“随时退”

竞价池适合弹性需求,但训练大模型往往要 7×24 连续跑 3–4 周。星宇智算把“包月”也做了反向创新:
– 30 天起租,单价在官网挂牌价基础上直接打 75 折;
– 支持「随时释放」,未用的天数按天折算余额返还,无手续费;
– 最长可一次性锁价 90 天,到期可续,续价不涨。

换句话说,用户既享受长包的低价,又保留按需的灵活。官方数据显示,5 月平台上 62% 的 A100 订单来自 30 天以上的长包,平均替客户节省 32% 总成本。


04 实战:CV 团队包月 100 张 A100,立省 38 万元

苏州某计算机视觉公司,6 月要交付一个 10 亿级参数的遥感分割模型。自己买卡,交期 20 周,等不起;问了一圈云厂商,100 张 A100 80 GB 跑 30 天,报价 46.5 万元。
他们最终在星宇智算采用「长包 + 竞价」混合策略:
– 白天高峰用 70 张长包 A100,单价 4.2 元/卡·时;
– 夜间加卡 30 张,竞价池均价 0.9 元/卡·时;
– 整体跑满 30 天,总花费 28.7 万元,比主流云节省 38 万元,节省比例 57%。

更重要的是,模型提前 5 天训练完,他们立即释放全部资源,余下 4.3 万元余额直接退到账户,用于下一次推理任务。


05 不只是一张显卡,更是一整套 AI 工作流

星宇智算把 GPU 租赁做成“拎包入住”的 PaaS:
– 公共模型库:内置 2800+ 开源模型,PyTorch、TensorFlow、JupyterLab 一键启动;
– 云存储与云硬盘:训练数据跨实例共享,断点续训不再传数据;
– 弹性组网:支持 200 Gbps RDMA,千张卡集群 30 分钟交付;
– 开发即商业:创作者中心可把训练好的模型一键上架到星宇应用市场,按调用量分成。

从数据上传、代码调试、多卡并行到模型上架,用户只需要关心算法本身,其余交给平台。


06 新用户福利:注册即送 10 元体验金

现在注册星宇智算,实名认证后自动到账 10 元体验金,可兑换 16 小时 A100 或 8 小时 H100,足够把 Stable Diffusion XL 完整跑一遍。
入口就在官网首页「0 元试用」,无需信用卡,也不用先充值。

市场越疯狂,越需要冷静计算。
当 GPU 变成 AI 时代的“水电”,星宇智算用「竞价+长包」把水龙头装上了节流阀——让价格回到理性,让创新不再等待。