
HPE GreenLake for Large Language Models
オンデマンドのマルチテナントクラウドサービスにより、企業は自社で大規模AIモデルをトレーニング、調整、展開できます。


PoCから製品までのジャーニーの迅速化
HPE GreenLake for LLMsは、コンピューティング容量を最大限に活用して単一の大規模AIトレーニングおよびシミュレーションワークロードを実行する独自設計のアーキテクチャーで動作するソリューションであり、数百から数千のCPUまたはGPUでAIとHPCのジョブを同時にサポートします。この機能はAIをトレーニングし、さらに正確なモデルを作成するために効果的、効率的で信頼性を備えています。これにより企業は問題を短期で解決するためのPoCから製品までのジャーニーをスピードアップできます。
持続可能性へのコミット
HPEの持続可能性に対する全体的なアプローチは、インフラストラクチャ設計、アプリケーション、コロケーション施設などに影響を及ぼします。HPE GreenLake for LLMsはほぼ100%再生可能エネルギーで動作し
HPEを信頼して、適切な道を進む
データセキュリティを確保したコントロール、信頼のある正確なモデル、データロックイン回避を実現するHPEの専門技術により、あらゆる段階でお客様のガイダンスとなります。
時間を指数関数的に短縮
大規模AIトレーニングワークロード (LLMなど)、通常のリソースで数週間かかるものが、HPE Cray Supercomputingで日単位あるいは数時間で完了します。スーパーコンピューティング専門技術はオプションであり、必須ではありません。
お客様事例

当社のパートナーとお客様






主な製品


HPE GreenLakeクラウドエクスペリエンスの詳細はこちら
すべてのHPE GreenLakeクラウドサービスには、一元的なコントロールプレーンを通じてアクセスでします。これにより、ワークロードとデータが配置されているあらゆる場所で、すべてのサービスとユーザーに対してオープンで一貫性があり拡張性に優れたクラウド運用エクスペリエンスが実現します。