
AIコンピュート
HPE ProLiant Compute DL384 Gen12
検索拡張生成 (RAG) によるファインチューニングや推論のような、混在でメモリを多用するAIワークロードで次世代パフォーマンスを実現できます。


あらゆるAI目的向けのラックベースのソリューションを大規模に展開
NVIDIA AI Computing by HPEの一環として、NVIDIA GH200 NVL2搭載HPE ProLiant Compute DL384 Gen12は、次世代レベルのパフォーマンスを処理し、RAGによるファインチューニングと推論をスケールアウトします。
生成AIへの移行を促進
特に、AIをRAGによるAIのファインチューニングおよび推論に大規模言語モデル (LLM) に活用します。テキスト生成、言語翻訳、コーディング、ビジュアルコンテンツやその他多くの新しい生成AI (GenAI) アプリケーションを実現できます。
データセンターの使用率を最大化
1.2テラバイトの高速な統合されたコヒーレントメモリを備えたNVIDIA GH200 NLV2は、混在およびメモリを多用するワークロードをサポートして次世代レベルのパフォーマンスを実現し、AIコンピューティングタスク向けのデータセンターの使用率を最大化します。
スケールアウト型高速コンピューティングにより、エンタープライズAIの生産性を高めることができます。
汎用性の高いこのスケールアウトプラットフォームでは、3.5倍の容量と2倍のパフォーマンスで、RAGによるAIのファインチューニングと推論向けに大規模言語モデルを展開できるように設計されており、コンピューティング能力が大幅に強化されています。より高速なエンタープライズAIの展開および成功に、HPE Private Cloud AIをご活用ください。
パートナー企業とクライアント
