HPE Cray XD670
大規模言語モデルトレーニング、自然言語処理、マルチモーダルトレーニングにおけるAIのパフォーマンスを向上させます。
GPU負荷の高いワークロードでAIのパフォーマンスを向上
卓越した効率と精度、詳細なインサイトにより、大規模なAIモデルの開発とトレーニングを迅速化し、成果を得るまでの時間を短縮します。
拡張により、AIワークロードの増大に対応
ハードウェアからソフトウェアレイヤーまで完全に統合されたソリューションで躍進的イノベーションを活用すれば、あらゆる規模や範囲のワークロードに対応できます。
AIイニシアチブの推進
自然言語処理 (NLP)、大規模言語モデル (LLM) トレーニング、マルチモーダルトレーニングのワークロードに最適化されたソリューションにより、AIを大規模に展開できます。
最高レベルの柔軟性で進化し続けるビジネスニーズに対応
直接液冷オプションにより電源効率が向上し、アクセラレータ、ストレージ、ネットワーキングなどの幅広いテクノロジーのサポートにより、柔軟な環境を構築できます。
お客様事例
No.1サーバーを使って自然言語処理のAIパフォーマンスを向上
HPE Cray XD670は、MLPerf Inference v4.0ベンチマークのNLPモデルで1位を獲得し、生成AI、コンピュータービジョン、LLMを含む、参加したすべてのモデルで最高レベルと評価されました。
HPE GreenLakeクラウドエクスペリエンスの詳細はこちら
すべてのHPE GreenLakeクラウドサービスには、一元的なコントロールプレーンを通じてアクセスでします。これにより、ワークロードとデータが配置されているあらゆる場所で、すべてのサービスとユーザーに対してオープンで一貫性があり拡張性に優れたクラウド運用エクスペリエンスが実現します。
技術仕様
-
シャーシ
- 5Uシャーシシステム
- シングルCPUノード x 2
-
GPUアクセラレーション – オプションA
- 8 x NVIDIA H200 SXM 700W TDP GPU (GPUあたり141GB HBM)
- 2 x 第5世代インテル® Xeon® スケーラブル・プロセッサーCPU (最大400W TDP)
- 32 x DIMM DDR5、ソケットあたり8チャネルメモリ (最大5600MHz)
-
GPUアクセラレーション – オプションB
- 8 x NVIDIA H100 SXM 700W TDP GPU (GPUあたり80GB HBM)
- 2 x 第4世代インテル® Xeon® スケーラブル・プロセッサーCPU (最大300W TDP)
- 32 x DIMM DDR5、ソケットあたり8チャネルメモリ (最大4800MHz)
-
電力/冷却
- 空冷式 (電力効率に優れた直接液冷方式も選択可能)
- 空冷式 (電力効率に優れた直接液冷方式も選択可能)