桑尼维尔, 2026年4月22日 - (亚太商讯) - GPU加速NVMe存储领域的先驱Graid Technology今日宣布推出其Agentic AI存储产品组合:这是一系列专为消除阻碍“始终在线”生产型AI运行的存储瓶颈而设计的键值缓存解决方案。该产品组合涵盖三个部署层级:KV Cache Server、KV Cache Rack 和 KV Cache Platform,均基于 SupremeRAID™ 技术构建。作为产品组合中最高层级的 KV Cache Platform,其设计与 NVIDIA 的 STX 参考架构高度契合,并计划于 2026 年下半年支持原生 BlueField-4 DPU 执行。
随着自主人工智能从实验阶段迈向生产环境,支撑单次推理的基础设施假设已不再成立。运行连续多步骤任务并在数小时运行过程中保持上下文的模型,会产生远超GPU HBM处理能力的KV缓存需求。其结果是:延迟激增至原来的18倍,GPU利用率低至50%,并引发难以检测且恢复成本高昂的模型级故障,包括幻觉和推理能力下降等问题。
SupremeRAID™ 直接解决了这一问题,它可将多达 32 块 NVMe 硬盘聚合为一个 280 GB/s 的虚拟存储池,通过 GPU Direct Storage 绕过 CPU,实现 1.3 毫秒的 KV 缓存读取速度——比标准 NVMe 快 77 倍。其三个产品层级可将这一能力应用于各种部署规模:
KV Cache Server——为单个推理服务器和边缘 AI 部署提供单节点 NVMe 加速。现已上市。
KV Cache Rack——与领先的服务器 OEM 合作伙伴共同设计、经过合作伙伴验证的机架级解决方案,专为企业级多 GPU 集群打造。现已上市。
KV Cache Platform——专为英伟达的STX参考架构打造,支持原生BlueField-4 DPU执行,并计划在未来实现机架级存储扩展。
“一年前,在 GTC 2025 大会上,黄仁勋曾预言存储将首次实现 GPU 加速。今年,NVIDIA 通过 STX 和 CMX 将这一概念转化为架构,”Graid Technology 首席执行官 Leander Yu 表示。“我们的 KV Cache 产品组合正是为这一时刻而打造,能够以存储层的成本效益,提供自主人工智能所需的存储性能。”
对于正在评估代理式人工智能部署的企业和基础设施团队,完整的部署架构、技术规格以及 NVIDIA STX 兼容性详情,请参阅解决方案简介:《Graid Technology 代理式人工智能存储产品组合:专为大规模推理设计的键值缓存解决方案》。
如需进一步了解Graid Technology的AI解决方案,请访问 graidtech.com/ai。
媒体咨询:
Andrea Eaken,美洲及欧洲、中东和非洲地区市场营销高级总监
andrea.eaken@graidtech.com
关于 Graid Technology
Graid Technology 正致力于构建支撑未来人工智能、企业级应用及高性能计算的存储骨干网络。作为全球首款且唯一基于 GPU 的 RAID 技术 SupremeRAID™ 的缔造者,以及英特尔® 虚拟 RAID on CPU(Intel® VROC)的全球技术维护方,Graid Technology 提供灵活的 RAID 解决方案,在最大限度提升 NVMe 性能的同时,为现代数据基础设施提供弹性且可扩展的数据保护。Graid Technology 总部位于硅谷,业务遍及全球,研发中心设在台湾,致力于推动 RAID 技术创新,以满足新一代数据密集型工作负载的需求。如需了解更多信息,请访问 graidtech.com 。

来源:Graid Technology Inc.