VDURA 推出了其最新产品 V5000 全闪存设备,以满足日益增长的 AI 管道需求和生成式 AI 模型的部署。由 VDURA V5000 数据平台驱动的 V11 设备实现了高吞吐量,充分发挥了 GPU 功能,确保了强大的数据持久性和可用性,同时保持全年持续运行。
VDURA V11 软件运行在新开发的“F Node”上,这是一个模块化 1U 平台,具有智能客户端擦除编码功能。该平台每机架单元提供超过 1.5PB 的存储空间,具有可扩展性和可靠性,非常适合处理 AI 工作负载日益增长的存储需求。
VDURA 的技术为 AI 环境提供了简单的可扩展性。V5000 全闪存设备允许 AI 服务提供商动态扩展其基础架构,这与依赖过度配置的传统 AI 存储解决方案不同。组织可以在不停机的情况下从少数节点扩展到数千个节点,从而随着 GPU 集群的增加实现无缝增长。V5000 存储节点集成到现有设置中,在不中断的情况下提高容量和性能。通过将 V5000 全闪存与 V5000 混合存储相结合,VDURA 提供了统一的高性能数据基础架构,支持 AI 生命周期的每个阶段——从快速模型训练到长期数据保留。
V5000 技术亮点
- 三个 PCIe 和一个 OCP Gen 5 插槽用于高速扩展连接。
- NVIDIA CX-7 SmartNIC 用于超低延迟数据传输。
- 一台 AMD EPYC 9005 系列处理器和 384GB 内存。
- 最多 12 个 U.2 128TB NVMe SSD,每机架单元提供超过 1.5PB。
VDURA 数据平台的并行文件系统 (PFS) 架构专为大规模 AI 工作负载而设计,克服了与高频检查点相关的传统瓶颈。VDURA 的智能客户端架构确保 AI 存储保持最佳性能和可靠性,采用轻量级客户端擦除编码,而不会引入不必要的 CPU 负载。这种方法使 VDURA 有别于通常会带来大量计算开销的替代解决方案。
V5000 全闪存设备可在 AI 工作负载中提供持续的性能,并由以下高级功能支持:
- 无缝 AI 存储扩展:随着 GPU 集群的增长轻松扩展存储,无需停机或过度配置。
- AI 检查点优化:消除减慢 AI 训练速度的写入瓶颈。
- 数据中心效率:每 U 实现超过 1.5PB,降低电力、冷却和占地面积成本。
- RDMA 加速:利用 GPU Direct 和 RDMA 功能进行更多优化。
正如 VDURA 首席执行官 Ken Claffey 所说:“由我们的下一代 V5000 数据平台提供支持的 V11 全闪存设备不仅提供了企业期望的峰值性能,而且虽然高性能是必要的,但还不够。人工智能工作负载需要持续的高性能和坚定的可靠性。这就是为什么我们设计 V5000 不仅要达到最高速度,而且要维持最高速度——即使在出现硬件故障的情况下——确保每一 TB 的数据都推动创新,而不是效率低下或停机。”
通过解决 AI 规模数据性能的独特挑战,VDURA 树立了新的行业标杆。V5000 全闪存和 V5000 混合型产品组合,辅以先进的 VDURA V11 数据平台,提供端到端解决方案,确保 AI 工作负载具有不折不扣的性能、可扩展性和效率。
VDURA V5000 全闪存设备现已可供客户评估和鉴定。早期部署正在关键的 AI 数据中心进行。VDURA 正在与 AI 服务提供商合作,以提高性能和可扩展性。预计今年晚些时候将全面上市。




Amazon