您的 HPC/AI 群集是否需要提高存储性能来满足 ML/AI 应用中融合工作负载的混合和随机 I/O 要求,同时保持传统并行 HPC 存储的成本效益和可扩展性?
HPE Cray 存储系统 C500 采用开源并行文件系统架构,性能出色,是存储预算有限的入门级和中端 HPC/AI 群集的理想选择,能够提高 CPU/GPU 投资利用率。这种特有的混合架构可以充分利用不同存储介质(NVMe、SSD/SAS、HDD)的优势,同时规避其各自的缺点,从而在减少所需机架单元的情况下实现出色的性能速度。
利用 HPE Cray 存储系统 C500,体验与超级计算龙头站点相同的存储性价比优势。
新特性
- 通过基于 HPE ProLiant DL325 构建的经济高效的管理系统,满足日益增长的业务需求,提高性能、容量和可用性。
- 在 2U24 NVMe 固态硬盘存储控制器上托管元数据和存储,从而改善数据一致性。
- 提供定制配置选择,可少至 12 个 NVMe 固态硬盘的配置,也支持部分填充系统机箱。
- 混合型现在可扩展至 4 个 5U84 HDD 机柜,全闪存可扩展至 4 个 SSU-F 机柜
- 仅需三个机架单元,即可实现令人印象深刻的开箱即用性能,读取吞吐量高达 80 GB/秒,写入吞吐量高达 60 GB/秒。
- 利用 NFS 网关功能,简化与组织的全球数据平台的集成。
功能
减少对 HPC/AI 存储的投入,增加在 CPU/GPU 计算节点上的支出
HPE Cray 存储系统 C500 采用经济高效的开源架构,与美国能源部 100% 百万兆次级超级计算机所采用的相同。[1][2][3]
由于嵌入式文件系统归活跃的社区所有,而不是由单个公司所有,因而可以规避基于容量的文件系统许可模式(按 TB 级存储容量或按存储驱动器)。
利用混合存储架构,充分利用不同存储介质(固态和旋转磁盘)的优势,同时规避其缺点。
取得在预算范围内的平衡 HPC/AI 系统,以此应对大规模的数据爆炸。
消除阻碍 HPC/AI 计划的 I/O 瓶颈
HPE Cray 存储系统 C500 具有共享文件存储,可以足够快地读取和写入 (r/w) 数据,从而充分利用您的 CPU/GPU 计算节点投资。
仅使用三个机架单元即可实现高达每秒 80 GB 的读取性能和每秒 60 GB 的写入性能,从而消除作业管道拥塞并防止错过交付期限。
对于长时间运行的 HPC/AI 作业,缩短在关键检查点和重启过程中 CPU/GPU 计算节点的等待时间。
利用 NVIDIA® GPUDirect Storage (GS) 等 AI 加速技术绕过 CPU 并实现出色的带宽表现。
获得针对整个 HPC/AI 基础设施堆栈的统一支持
作为基础设施策略计划的一部分,HPE Cray 存储系统 C500 可以为您的整个基础设施堆栈提供统一的支持。
通过 HPE 研发团队开发的定制软件更新,加快获得针对您的具体问题的解决方案,这些问题和解决方案随后会嵌入到开源文件系统中,造福整个社区。
使用 HPE Accelerated Migration Services 迁移到下一代 HPC/AI 存储基础设施时,可避免生产中断,这有助于从老化的基础设施中挖掘价值,同时让您的现代基础设施做好部署准备。
- 橡树岭国家实验室的百万兆次级超级计算机“Frontier”<span>https://www.olcf.ornl.gov/frontier/</span>.
- 橡树阿贡国家实验室的百万兆次级超级计算机“Aurora”<span>https://www.anl.gov/aurora</span>.
- 劳伦斯利弗莫尔国家实验室的百万兆次级超级计算机“El Capitan”<span>https://asc.llnl.gov/exascale/el-capitan</span>.
- GPUDirect 和 NVIDIA 是 NVIDIA Corporation 在美国和其他国家(地区)的商标和/或注册商标。其他第三方商标的所有权均属于各自的所有者。