AI/ML 구축 프로세스를 간소화해야 하나요? 종종 데이터 보호 기능을 사용자 정의해야 하는 클라우드/하이브리드 환경에서 다양한 AI 프레임워크 및 확장 가능 인프라를 지원해야 하나요?
HPE Machine Learning Inference Software는 모델을 업데이트, 모니터링 및 구축하기 위한 사용자에게 익숙한 툴을 제공하여 AI/ML 이니셔티브를 빠르게 활용할 수 있도록 돕습니다. 역할 기반 접근제어(RBAC) 및 엔드포인트 보안을 통해 ML 리소스를 더욱 확실하게 보호합니다. 일관된 툴과 사전 훈련된 모델을 활용하여 모델을 프로덕션으로 가져오는 복잡한 작업은 줄이고 모델 개발에 집중하도록 지원하여 팀 효율을 크게 향상합니다. HPE Machine Learning Inference Software는 복잡한 구축, 라우팅 및 실시간 모니터링을 처리하는 제품을 제공하여 ML 모델을 빠르게 출시하고 실제 고객의 피드백을 기반으로 관련 작업을 반복하며 고성능 표준을 유지하는 데 필요한 민첩성을 지원합니다.

새로운 기능

  • 광범위한 Kubernetes 환경이 필요 없는 직관적인 그래픽 인터페이스를 사용하여 MLOps 또는 ITOps에 대한 확장 가능 프로덕션 모델 구축을 실현하는 경로를 간소화합니다.
  • Hugging Face 및 NVIDIA 파운데이션 모델과의 원활한 통합으로 Hugging Face 및 NVIDIA NGC에서 직접 LLM(대규모 언어 모델)에 대한 코딩이 필요 없는 구축 경험을 제공합니다.
  • NVIDIA AI Enterprise®와의 원활한 통합에는 NVIDIA 및 파트너가 제공하는 24개 이상의 인기 AI 모델에서 추론을 향상하기 위한 NIM® 마이크로서비스가 포함됩니다.
  • TensorFlow, PyTorch, scikit-learn, XGBoost 등의 인기 프레임워크 기반의 사전 훈련된 맞춤형 모델에 대한 지원을 간소화합니다.
  • 모델 성능, 사용량 메트릭 및 시스템 상태를 추적하기 위한 통합 모니터링 및 로깅을 활용하여 사전 대응적 최적화를 지원합니다.
  • HPE Ezmeral, HPE GreenLake, AWS, Azure, Google Cloud, 온프레미스 설정 등의 여러 Kubernetes 환경과 호환되므로 다양한 인프라에 맞게 구축을 조정할 수 있습니다.

특징

다양한 환경을 위한 예측 가능하고 신뢰할 수 있는 보호되고 모니터링되는 구축

HPE Machine Learning Inference Software는 직관적인 그래픽 인터페이스를 사용하여 모델을 구축하고 로드에 따라 구축을 조정할 수 있습니다.

모델에 대한 실시간 모니터링으로 성능을 사용자 정의하고 구축과 관련된 예측 및 통계를 추적하세요.

기존 Kubernetes 클러스터, 프라이빗 클라우드 또는 심지어 하이브리드 클라우드에서든 HPE Machine Learning Inference Software는 지속적으로 고도화되는 시스템 전반에서 일관된 툴을 제공하여 사용자 요구 사항을 충족합니다.

업계 표준 Helm 차트를 사용하여 Kubernetes와 호환되는 OpenShift, Rancher, EKS, AKS, GKS 등의 모든 플랫폼에 구축하므로 모든 클라우드를 일관되게 활용할 수 있습니다.

NVIDIA 모델 및 툴 기본 지원

HPE Machine Learning Inference Software는 지속적으로 고도화되는 시스템에 대한 지원을 쉽게 추가하는 아키텍처를 통해 Nvidia GPU에 대한 최고 수준의 유연한 지원을 제공합니다.

NVIDIA의 AI Enterprise(NVAIE) 소프트웨어 제품군, NVIDIA Inference Microservice(NIM)(Triton, TensorRT-LLM 활용) 및 기타 AI 추론 기술과 통합되어 향상된 성능을 제공합니다.

엔터프라이즈급 보안 내장

HPE Machine Learning Inference Software 기능은 클라우드, 하이브리드, 온프레미스 또는 심지어 에어 갭을 포함한 사용자가 선호하는 환경에서 워크로드를 실행하여 모델, 코드 및 데이터를 보호된 상태로 유지할 수 있습니다.

역할 기반 접근제어(RBAC)를 통해 구축 및 MLOps 팀에 권한을 부여하여 ML 리소스 및 아티팩트를 안전하게 협업하고 공유할 수 있도록 지원하세요.

모델과 상호 작용하기 위해서는 OIDC 및 OAuth 2.0을 비롯한 고급 인증이 필요한 엔터프라이즈급 보안 기능을 통해 구축 엔드포인트를 보호하세요.

광범위한 모델 호환성

HPE Machine Learning Inference Software는 Hugging Face 및 NIM(NVIDIA Inference Server)에서 직접 특정 LLM(대규모 언어 모델)을 위한 통합을 간소화하는 한편 대다수 프레임워크의 모델 개발을 지원합니다.

TensorFlow, PyTorch, Scikit-Learn, XGBoost 등 다양한 프레임워크의 모델을 사용하여 광범위한 사전 훈련된 모델과 고객 모델을 수용하기 위한 유연성을 향상하세요.

  • Kubernetes는 Google LLC의 등록 상표입니다. NVIDIA® 및 CUDA는 미국 및 기타 국가에서 NVIDIA Corporation의 등록 상표입니다. 기타 모든 타사 상표는 해당 소유주의 자산입니다.