
HPE GreenLake for Large Language Models
随需应变的多租户云服务可为企业提供专门训练、优化和部署大型 AI 模型所需的算力。


加快从概念验证到生产的过程
HPE GreenLake for LLMs 所使用的架构专为运行单个大规模 AI 训练和模拟工作负载而设计,具备完善的计算能力。该产品支持同时在数百或数千个 CPU 或 GPU 上运行 AI 和 HPC 作业。有效、可靠、高效地训练 AI,创建更准确的模型,助力企业加快从概念验证到生产的过程,更快地解决问题。
致力于可持续发展
致力于可持续发展的这一整体性方法对基础设施设计、软件应用、主机代管设施等有着不可或缺的影响。HPE GreenLake for LLMs 几乎 100% 依赖可再生能源运行,并采取通过 HPE 软件优化电源管理等措施。
HPE 助力您做正确的事情,把事情做正确
通过数据安全性、可靠准确的模型、摆脱数据锁定及 HPE 专业知识,保持控制权,助力您发展的每一步。
以指数方式压缩时间
在普通资源上,大规模 AI 训练工作负载(如 LLM)需要数周才能完成,但在 HPE Cray 超级计算机上,仅需几天甚至几小时即可完成。不一定需要具备超级计算专业知识。
我们的客户



详细了解 HPE GreenLake 云体验
HPE GreenLake Cloud Service 均通过统一控制平台进行访问,而无论工作负载和数据位于何处。该控制平台为您所有的服务和用户提供一致、开放且可扩展的云操作体验。