9月26日消息,在2025人工智能计算大会上,浪潮信息公布,基于元脑SD200超节点AI服务器,DeepSeek R1大模型token生成速度仅需8.9毫秒,创造国内大模型最快token生成速度;而最新发布的元脑HC1000超扩展AI服务器,实现每百万token成本首次击破1元。浪潮信息对AI计算架构的持续创新,旨在解决智能体产业化面临的交互速度和token成本两大瓶颈,为多智能体协同与复杂任务推理的规模化落地,提供高速度、低成本的算力基础设施。
据介绍,元脑SD200基于创新研发的多主机低延迟内存语义通信架构,在单机内实现了64路本土AI芯片的高速统一互连,单机可承载4万亿参数单体模型,或部署多个万亿参数模型组成的智能体应用,实现多模型协同执行复杂任务。为实现极低的通信延迟,元脑SD200采用精简高效的三层协议栈,原生支持多种内存语义操作,避免冗余数据拷贝,将基础通信延迟降至百纳秒级,硬件化链路层重传与分布式预防式流控进一步适配高吞吐、低延迟的 AI 推理场景。
与此同时,浪潮信息发布元脑HC1000超扩展AI服务器,基于全新开发的全对称DirectCom极速架构,无损超扩展设计聚合海量本土AI芯片、支持极大推理吞吐量,推理成本首次击破1元/每百万token,为智能体突破token成本瓶颈提供极致性能的创新算力系统。
据了解,元脑HC1000通过全面优化降本和软硬协同增效,创新16卡计算模组设计、单卡“计算-显存-互连”均衡设计,大幅降低单卡成本和每卡系统分摊成本。同时,全对称的系统拓扑设计支持超大规模无损扩展。据测算,元脑HC1000通过算网深度协同、全域无损技术,实现推理性能相比传统RoCE提升1.75倍,单卡模型算力利用率最高提升5.7倍。(定西)
本文来自网易科技报道,更多资讯和深度内容,关注我们。