3月26日,中科曙光在2026中关村论坛年会上,正式发布全球首款无线缆箱式超节点scaleX40。中科曙光为该超节点打造算存传一体化协同方案,以先进存力加速释放普惠算力。

图注:中科曙光全球首款无线缆箱式超节点scaleX40
先进存力,破解Token时代存力短板
当前AI产业已全面迈入以推理为核心的Token时代,大模型长上下文推理、多模态数据处理、AI智能体规模化落地,对存储的带宽、时延、吞吐能力提出极致要求。然而算力高速发展、存力支撑不足,成为制约AI商业化落地的核心痛点。
作为scaleX40的“专属存力搭档”,中科曙光自研ParaStor分布式存储历经AI应用场景的针对性优化,核心搭载ParaStor F9000 NVMe全闪存储节点。该节点单节点带宽高达220GB/s、IOPS突破1000万,可同时为scaleX40单节点的40张GPU卡提供单卡超5GB专属带宽,完美匹配大模型训推对存储吞吐量的核心需求。

图注:中科曙光分布式存储ParaStor F9000
同时,ParaStor支持文件、对象、块、HDFS多协议统一承载,可灵活构建弹性存储资源池,覆盖scaleX40的scale-up与scale-out全扩展配置,为AI训推一体化提供稳定、高效的数据底座。
AI数据工厂,从支撑到赋能
依托ParaStor分布式存储,中科曙光为大模型训练、推理、智能体等典型应用量身打造专属AI数据工厂,深度嵌入数据采集、清洗标注、训练推理、迭代优化全业务流程,持续强化scaleX40超节点的系统效能与业务适配性。系统内置向量数据库、AI数据处理与知识提取加速库,实现高价值私域数据的Token化自动生成。
基于以存代算、以存促算的理念,AI数据工厂从根本上打破算力与存力的传统边界,让存力从被动支撑转向主动赋能,全面提升大模型的推理精度与行业适配性,为AI全流程业务提速增效。
“3+5”技术,释放全栈性能
为彻底打通scaleX40超节点的存算协同壁垒,中科曙光创新打造“算、存、传、管”的全栈强协同架构,通过“3+5”算存传加速技术实现了数据全链路极致优化。
计算侧搭建内存池与缓存池,依托XDS技术实现GPU直通存储,消除数据中转损耗;
网络侧借助scaleFabric原生RDMA高速网络,带宽提升2倍以上、时延降低3倍;
存储侧凭借独创超级隧道技术,构建专属IO域,为数据提供无干扰、无竞争传输路径。
实测数据显示,在DeepSeek-R1-70B大模型测试中,结合KV cache卸载与XDS技术,120K Token长文本场景下,推理首字符时延(TTFT)降低97.3%,有效缓解大显存压力,突破长上下文推理性能瓶颈。

图注:曙光信息产业(北京)有限公司总裁助理、分布式存储产品部总经理石静
AI 基础设施竞争已从单纯的峰值算力比拼,迈入以系统效能、存算协同、单位Token成本为核心的全新阶段。算力与存力的一体化交付,成为推动智能算力普惠、降低行业落地门槛的重要路径。
“实现算力与存力的一体化交付,核心在于存储系统能够深度理解并预配置算力平台的需求。”曙光信息产业(北京)有限公司总裁助理、分布式存储产品部总经理石静表示:“ParaStor通过统一协议承载能力、极致高带宽性能与预集成全栈加速能力,将原本复杂的存算适配、性能调优与系统集成,转化为开箱即用的产品体验,极大降低高端智能算力的应用门槛与落地成本,加速AI在千行百业的规模化应用。”



