IBM 扩展了 Storage Scale System 6000 的容量,在引入配备 122TB QLC 闪存盘的全闪存扩展机箱后,其单机柜最大容量可达 47PB。

这一更新比此前的上限提升了三倍,目标是处理海量数据操作的环境。
该系统主要面向从事超级计算、大型 AI 流水线和云计算服务交付的组织。
专为高吞吐任务打造的硬件
IBM 表示,新设计能够承载依赖持续吞吐量和高可用性的繁重工作负载。
公司还称,这一更大的平台简化了大型集群运营者的扩展流程。
全闪存扩展机箱支持更大的缓存,可在集群内部多个层级实现多租户能力。
IBM 表示,运营者可以同时运行多种数据密集型工作负载,而不会在文件系统中产生瓶颈。
该机箱在 2U 空间内可容纳最多四个 Nvidia BlueField-3 DPU 和 26 个双端口 QLC 闪存盘,使系统能够满足 AI 训练、仿真任务和大规模并行处理的需求。
此外还支持 Nvidia 的 Spectrum-X 以太网交换机,可缩短模型训练过程中的检查点(checkpoint)时间。
IBM 将这些硬件互联视为在需要快速数据传输以维持活跃 GPU 集群和复杂调度的环境中至关重要的组件。
为更大容量更新的软件
IBM 已更新 Storage Scale System 软件,以适配更高的总存储能力。
最新的 7.0.0 版本增加了对更大容量模块的支持,并引入了更广泛的 16+2 纠删码配置,以提升效率。
写入性能也随之提高,以匹配吞吐量和 IOPS 的增强。此前四机柜配置的数据为约 2.2PB 容量、最高 1300 万 IOPS 和最高 330GB/s 的读取速度。
2025 年的更新将 IOPS 上限提升到 2800 万,读取吞吐量提升至 340GB/s。
这些调整旨在确保扩展后的硬件在工作负载扩张时不会引入新的延迟。
该扩展机箱为那些以 SSD 层作为主要存储基础、同时继续使用云存储进行数据中心外部分发的运营者提供了高密度解决方案。
IBM 表示,更大的容量使其全局缓存层能够让更大规模的活跃数据集贴近 GPU,从而消除分散的数据孤岛,使数据流水线更加稳定。
其架构旨在为需要节点间可预测数据流的集群服务,特别是在计算高峰期间 CPU 利用率上升的情况下。
IBM 的官方表述将本次更新描述为集更高密度、更佳数据处理能力和更广泛工作负载支持于一体的“三重提升”。
不过,长期影响还将取决于系统在满负载、大规模部署场景下的持续稳定表现。