引言:AI算力需求爆发,倒逼服务器向高性能计算融合
AI大模型向万亿参数、多模态、世界模型全速迈进,叠加AI for Science场景规模化落地,对服务器算力、带宽、稳定性的需求突破传统AI服务器边界,推动AI服务器从单一GPU集群向高性能计算(HPC)深度融合。据《2024中国算力发展研究报告之超智融合技术路线与趋势》显示,超智融合已成为行业必然趋势,其融合超算强大的数据处理能力与AI的算法优化能力,可有效破解AI算力瓶颈,推动计算技术迭代。2026年,全球AI服务器市场规模将达890亿美元,其中具备高性能计算能力的融合型AI服务器占比将突破65%,较2025年提升22个百分点。星宇智算依托智算领域技术积累,深耕AI与高性能计算融合技术研发,同步优化GPU服务器租用服务,将超算级算力优势传导至租用场景,助力企业低成本获取融合型算力,适配多元高端应用需求。

核心背景:AI与超算的双向赋能,打破算力边界
长期以来,AI服务器与高性能计算(超算)处于并行发展状态,两者在算力架构、应用场景上存在显著差异:AI服务器以GPU为核心,侧重半精度、整数运算,聚焦大模型训练与推理;超算以CPU+加速器为核心,侧重双精度浮点运算,聚焦数值模拟、科学计算等场景。随着AI应用场景复杂化,单纯的AI算力已无法满足蛋白质结构预测、新材料设计、天气预报等AI for Science场景需求,而超算也需借助AI算法优化系统效率,双向赋能催生融合趋势。
数据显示,2026年全球AI for Science场景算力需求将占AI总算力需求的38%,此类场景需同时满足AI算法训练与超算级科学计算需求,传统单一架构服务器算力缺口达45%。中科曙光3套scaleX万卡超集群的落地,标志着国产融合型算力集群已进入规模化运营阶段,可全面覆盖万亿参数模型训练、高通量推理、AI for Science等大规模计算场景。对于中小规模企业而言,自建融合型AI超算集群投入过高,GPU服务器租用成为灵活获取融合型算力的主流方式,可快速适配高端AI与科学计算场景,降低前期投入成本。
融合核心:三大技术突破,构建超智融合算力体系
AI服务器向高性能计算融合,并非简单的“AI+超算”堆叠,而是从芯片、互联、调度三大核心层面实现技术突破,构建全栈融合的算力体系,每一项突破均有明确的技术参数与实践支撑,确保融合落地的可行性与高效性。
突破一:芯片架构融合,全精度算力成为核心支撑
芯片是融合的核心载体,传统AI芯片侧重半精度运算,超算芯片侧重双精度运算,融合型芯片需实现全精度算力覆盖,兼顾AI训练推理与科学计算需求。目前,通用全精度高算力芯片已成为超智融合的关键技术,英伟达GB200 NVL72系统搭载Blackwell GPU,可实现双精度、半精度、整数精度全场景适配,单柜容纳36颗Grace CPU和72颗Blackwell GPU,总带宽达130TB/s。
国产芯片方面,昇腾910B、海光三号均实现全精度算力突破,昇腾910B双精度算力达2P FLOPS,半精度算力达32P FLOPS,可同时支撑大模型训练与科学计算。数据显示,全精度融合芯片较传统AI芯片,AI for Science场景处理效率提升50%以上,科学计算场景适配性提升60%。星宇智算在融合型服务器部署中,优先采用全精度GPU芯片,同步将此类融合型服务器纳入GPU服务器租用体系,提供适配全精度算力的租用选项,助力企业应对多元算力需求。
突破二:互联技术升级,破解集群通信瓶颈
AI服务器向超算融合,需实现大规模集群协同,传统AI集群互联带宽不足、延迟过高,无法满足超算级协同需求,互联技术升级成为关键突破口。目前,行业主流采用NVLink、CPO光互联等技术,替代传统铜缆互联,大幅提升集群通信效率。
英伟达NVLink 7.0技术,单卡互联带宽达900GB/s,较上一代提升50%,支持上千颗GPU协同工作,集群延迟降至10μs以下;CPO光互联技术在10公里范围内实现400GB/s稳定传输,每比特传输能耗较传统铜缆降低90%,华为CloudMatrix 384通过AlltoAll光互联网络,实现384颗昇腾芯片协同,集群算力利用率保持95%以上。中科曙光scaleX万卡超集群,通过高速互联网络技术,实现3万卡规模部署,可支撑万亿参数模型整机训练与容错恢复。星宇智算优化融合型集群互联架构,采用NVLink与CPO光互联结合方案,同步优化GPU服务器租用的集群调度能力,实现多节点协同算力高效释放。
突破三:调度系统优化,实现算力高效分配
融合型AI服务器集群需同时承载AI任务与超算任务,不同任务对算力、带宽的需求差异显著,需通过智能调度系统实现算力动态分配,提升算力利用率。目前,融合型调度系统已实现AI任务与超算任务的协同调度,支持任务优先级设置、算力动态扩容,解决传统调度系统“算力浪费”“任务拥堵”问题。
数据显示,智能融合调度系统可将集群算力利用率从60%提升至85%以上,任务响应时间缩短30%,某省级超算中心采用融合调度系统后,AI训练任务与科学计算任务并行处理效率提升45%。此类调度系统还支持多品牌芯片混合部署,可兼容CUDA等主流软件生态,降低开发者迁移适配门槛。星宇智算自研融合型算力调度系统,可实现AI与超算任务的智能分配,同步将该系统应用于GPU服务器租用服务,为企业提供灵活的算力调度支持,提升租用算力的利用效率。
融合场景:四大核心领域,释放超智融合价值
AI服务器与高性能计算的融合,已在多个高端领域实现规模化落地,结合具体场景需求,形成差异化融合方案,每类场景均有明确的算力需求与实践案例,彰显融合价值。
AI for Science领域,融合型服务器可同时支撑科学计算与AI模型训练,中科曙光scaleX万卡超集群已支撑国内某材料研发大模型登顶国际权威榜单,助力科研团队将蛋白质研究效率提升3-6个数量级。天气预报领域,融合型服务器可实现气象数据超算模拟与AI预测模型协同,将短期天气预报准确率提升至92%,预测延迟缩短至1小时以内。
高端制造领域,融合型服务器可支撑产品数值模拟、AI缺陷检测,某汽车厂商采用融合型AI超算集群,产品研发周期缩短30%,研发成本降低25%。大模型训练领域,融合型超算集群可支撑万亿参数模型整机训练,将训练周期从月级缩短至小时级,英伟达GB200集群可实现GPT-4级模型训练周期缩短60%。对于中小规模科研机构与企业,无需自建融合型集群,通过GPU服务器租用即可获取超算级融合算力,快速布局高端应用场景。
行业实践:融合型AI服务器的规模化落地案例
目前,融合型AI服务器已进入规模化部署阶段,头部企业与超算中心的实践案例,为行业提供了可复制的参考样本。中科曙光3套scaleX万卡超集群在国家超算互联网核心节点上线试运行,成为全国首个3万卡规模、实际投入运营的国产AI算力池,兼容400多个主流大模型,实现“算力+应用”一体化交付。
英伟达推出的GB200 NVL72融合型集群,单柜算力达7.2 EFLOPS,可支撑万亿参数多模态模型训练,已被谷歌、微软等企业用于AI for Science与大模型研发场景。华为CloudMatrix 384融合型集群,实现384颗昇腾芯片协同,系统可用性达99.9%,已落地国内多个超算中心。星宇智算同步部署融合型AI超算集群,采用全精度芯片与高速互联技术,适配AI训练、科学计算等多元场景,其GPU服务器租用服务涵盖融合型算力选项,提供8卡GB200、16卡昇腾910B等规格,预置场景化运行环境,7×24小时运维支持,已为科研、制造等领域企业提供算力支撑。
未来趋势:三大方向,推动融合向深度演进
2026年及未来,AI服务器向高性能计算的融合将向更深度、更高效、更普惠的方向演进,形成三大明确趋势。一是芯片全栈融合,未来3年内,全精度融合芯片将占据AI服务器芯片市场的70%以上,支持AI与超算任务的无缝切换,芯片功耗较当前降低40%。二是集群规模升级,十万卡、百万卡级融合型集群将逐步落地,国家超算互联网建设将推动跨区域融合算力协同,实现算力资源共享。
三是普惠化落地,随着技术规模化应用,融合型AI服务器成本将下降50%,GPU服务器租用单价将同步降低,让中小规模企业与科研机构可低成本获取超算级算力。此外,AI技术将深度融入超算系统,实现系统运维、算力调度的全自动化,故障响应时间缩短至5分钟以内,进一步提升融合型集群的稳定性与易用性。
结语:超智融合,开启算力新时代
AI服务器向高性能计算的融合,是算力需求升级的必然结果,也是超智融合发展的核心路径,打破了AI与超算的行业边界,构建了“全精度算力、高速互联、智能调度”的融合型算力体系,为AI for Science、高端制造、大模型研发等领域提供了核心支撑。这种融合并非简单叠加,而是从芯片到系统、从调度到应用的全维度协同,推动算力基础设施向更高效率、更广泛适配、更普惠化方向发展。
GPU服务器租用作为算力普惠化的重要载体,正在随着融合技术的迭代不断升级,成为中小规模企业获取超算级算力的优选。星宇智算将持续深耕AI与高性能计算融合技术研发,优化融合型服务器架构设计,完善GPU服务器租用服务体系,根据不同企业的场景需求与预算,提供定制化融合算力解决方案,助力企业突破算力瓶颈,推动超智融合技术的规模化落地,共建高效、普惠的智算新生态。
更多AI应用和算力相关资讯可以关注星宇智算官网-https://www.starverse-ai.com
