HPE Cray XD670
대규모 언어 모델 교육, 자연어 처리 및 멀티 모달 교육에 적합하게 AI 성능을 강화하십시오.
GPU 집약형 워크로드를 위한 AI 성능 강화
탁월한 효율성, 정밀도, 상세한 인사이트를 활용하여 더 큰 규모의 AI 모델을 더 빠르게 개발 및 교육하고 결과 도출 시간을 단축할 수 있습니다.
확장을 통해 증가하는 AI 워크로드 수용
하드웨어부터 소프트웨어 레이어까지 완전히 통합된 솔루션으로 혁신을 활용하여 규모나 범위에 상관없이 모든 워크로드를 처리할 수 있습니다.
AI 이니셔티브 가속화
NLP(자연어 처리), LLM(대규모 언어 모델) 교육, 멀티 모달 교육 등에서 워크로드에 최적화된 솔루션을 사용하여 적절한 규모로 AI를 배포하십시오.
최적의 유연성으로 변하는 비즈니스 요구 충족
직접 수랭식 냉각 옵션으로 전력 효율을 개선하고, 가속기, 스토리지, 네트워킹 등 광범위한 지원 기술을 사용하여 유연한 환경을 구축하십시오.
고객의 평가
자연어 처리를 위한 최고의 서버로 AI 성능 향상
HPE Cray XD670은 NLP 부문 1위로서 GenAI, 컴퓨터 비전, LLM을 포함하여 참여한 모든 MLPerf Inference v4.0 벤치마크 모델에서 최고의 성능을 발휘합니다.
HPE GreenLake 클라우드 경험 자세히 알아보기
모든 HPE GreenLake 클라우드 서비스는 워크로드 및 데이터의 위치와 상관없이 모든 서비스 및 사용자에게 일관되고 개방된 확장형 클라우드 운영 경험을 제공하는 통합 제어 플레인을 통해 이용 가능합니다.
기술 사양
-
섀시
- 5U 섀시 시스템
- 단일 듀얼 CPU 노드
-
GPU 가속화 - 옵션 A
- NVIDIA H200 SXM 700W TDP GPU 8개(각각 141GB HBM 지원)
- 5세대 인텔 제온 스케일러블 프로세서 CPU 2개, 최대 400W TDP
- DIMM DDR5 32개, 소켓당 8채널 메모리, 최대 5,600MHz
-
GPU 가속화 - 옵션 B
- NVIDIA H100 SXM 700W TDP GPU 8개(각각 80GB HBM 지원)
- 4세대 인텔 제온 스케일러블 프로세서 CPU 2개, 최대 300W TDP
- DIMM DDR5 32개, 소켓당 8채널 메모리, 최대 4,800MHz
-
전원 및 냉각
- 공랭식뿐 아니라 전력 효율 개선을 위한 다이렉트 수랭식 옵션도 이용 가능
- 공랭식뿐 아니라 전력 효율 개선을 위한 다이렉트 수랭식 옵션도 이용 가능