NAVIGATE 2026|H3C UniPoD S80000系列超节点重磅发布 构筑万亿参数模型训推一体算力底座

2026-05-12 21:30

近日,紫光股份旗下新华三集团在NAVIGATE 2026领航者峰会上正式发布面向万亿参数模型时代的H3C UniPoD S80000系列超节点,以超高密度、极致互联、全栈软件优化、多元开放架构四大核心能力,打造训推一体的高性能AI算力底座,为大模型训练、推理及行业智能化提供全场景支撑,推动AI基础设施迈入新阶段。

当前,大模型参数规模持续突破万亿级,AI训练与推理对算力密度、互联效率、散热供电、系统稳定性提出极致要求。传统分散式GPU服务器集群,普遍面临卡间通信延迟高、算力调度碎片化、散热供电瓶颈、运维复杂度高等问题,难以满足长时稳训、高效推理、低成本规模化部署的产业需求。新华三依托十余年硬件工程、网络技术与AI基础设施积淀,推出H3C UniPoD S80000系列超节点,实现从32卡到1024卡灵活扩展,最大可扩展至16384卡互联规模,全面适配智算中心、企业专属算力、行业大模型平台等多样场景。

超高算力密度:高密集成与绿色高效,突破算力物理边界

S80000系列超节点以顶尖硬件工程化能力,实现高密算力、高效散热、稳定供电的一体化突破。

单计算节点内部署1颗CPU+4张AI加速卡,高功耗部件采用全液冷散热,风液比高达80%,有效突破高功耗芯片散热瓶颈。更可支持两相冷板液冷、浸没液冷等创新液冷技术,覆盖GPU、CPU、电源等核心部件,搭配800V电源高压直流供电,单柜支撑350kW以上高功率部署的同时,显著降低PUE、实现更优TCO(总拥有成本)。

新华三具备多家权威资质实验室认证与全栈自动化生产测试体系,高速连接器支持可靠盲插,部件实现0.02mm级高精度检测,全面适配OAM/UBB 高密模块,保障集群长期稳定运行。

极致算力互联:无阻塞全交换,算力通信效率倍增

S80000系列超节点构建了从Scale-Up到Scale-Out的统一全互联架构,旨在解决卡间通信拥塞难题。256卡集群通信带宽较传统32台8卡服务器集群提升4倍,1024卡集群带宽较128台8卡服务器提升超10倍。

柜内采用一级Scale-Up交换机,搭载双高性能交换芯片,实现纳秒级时延;搭配102.4Tbps高容量交换芯片,实现无阻塞互联。链路层实现信元级负载均衡,使得链路利用率最大化;物理层采用NPO/CPO光互联技术,降低超大集群通信故障率与成本,有效提升ROI。

全栈软件优化:智能调度与长稳运行,释放算力极致性能

基于全栈软件优化,打通算力调度、业务交付、故障自愈全流程,S80000系列超节点实现“算存网软”的深度融合。产品内置管控平台和业务平台:管控平台实现从芯片到整机柜统一运维,业务平台保障高效可靠交付;基于ADDC智算版,提供AI调优、智能画布、运维助手等能力,实现全场景统一管理。

智能调度层面,支持拓扑感知、故障感知、逻辑切片、训推一体调度,精准匹配业务流量路径,实现昼推夜训分时复用,集群日均利用率大幅提升。一套物理集群可多租户安全共享,支持计算Tray级与GPU级隔离,缩短故障恢复时间,保障模型长稳训练。

推理性能经全栈优化,通过KV Cache多级卸载、算子框架垂直优化、智能PD 分离架构,1024卡超节点单卡推理效率较128台8卡服务器提升3倍,平台支持FlashCheckPoint断点续训,10分钟内完成数据持久化,有效训练时长占比超 96%,实现月级稳定训推不中断。

多元开放架构:生态兼容与灵活扩展,适配全场景需求

新华三坚持开放解耦理念,S80000系列超节点采用标准模块化设计,支持32卡至16384卡的平滑演进,兼容多厂商CPU、GPU、NPU、DPU等异构算力,打破资源壁垒,实现“一云纳百算”。

协议层全面兼容主流Scale-Up互联协议,支持芯粒合封与IP授权,实现不同厂商GPU互通标准化;软件层兼容K8s、主流训推框架与算子库,提供裸金属、容器、MaaS三层服务,面向 AI 应用开发者、云原生工程师、专业底层用户提供匹配底座。

赋能产业智能化,共筑AI新基建

本次峰会同步发布超节点技术白皮书,全景阐释硬件拓扑、供电液冷、Scale-Up 协议、ICT融合互联体系,旨在为用户及合作伙伴提供可落地的技术选型及部署运维方案,为行业提供理论、实践、展望三位一体的技术指南。

S80000系列超节点的发布,标志其在智算基础设施领域实现关键突破。后续,新华三将全力推进产品交付与规模化部署,为政府、互联网、运营商、金融、制造等关键领域提供高性能、低成本可靠算力底座。

未来,新华三也将坚持开放多元的生态理念,持续深化硬件工程、网络互联、软件优化能力,携手产业链伙伴推进AI基础设施的技术演进,释放每一份算力的价值,赋能百行百业的智慧未来。






免责声明:本文观点仅代表作者本人,供参考、交流,不构成任何建议。