¿Necesitas optimizar el proceso de implementación de IA/ML? ¿Necesitas proporcionar soporte a distintos marcos de IA e infraestructuras escalables en un entorno híbrido o de nube que con frecuencia requiere una protección de datos personalizada?
HPE Machine Learning Inference Software cuenta con herramientas sencillas para actualizar, supervisar e implementar modelos que te permitirán obtener valor de tus iniciativas de IA/ML de forma rápida. Los controles de acceso basados en roles (RBAC) y la seguridad de los puntos de conexión ofrecen protección adicional a los recursos de aprendizaje automático. Mejora drásticamente la eficiencia del equipo al utilizar de forma consistente modelos preentrenados y herramientas con el objetivo de centrarse en el desarrollo de modelos y no en las dificultades de poner los modelos en producción. Al ofrecer un producto que gestiona las complejidades de la implementación, el enrutamiento y la supervisión en tiempo real, HPE Machine Learning Inference Software ofrece la agilidad necesaria para enviar modelos de aprendizaje automático rápidamente, iterarlos en base a los comentarios del mundo real y mantener estándares de alto rendimiento.

Novedades

  • Crea una ruta de implementaciones de modelos de producción escalable para MLOps o ITOps, mediante una interfaz gráfica intuitiva que elimina la necesidad de una amplia experiencia en Kubernetes.
  • La integración optimizada con Hugging Face y NVIDIA Foundation Models ofrece una experiencia de implementación libre de codificación para grandes modelos de lenguaje (LLM) directamente en Hugging Face y NVIDIA NGC.
  • La integración fluida con NVIDIA AI Enterprise® incluye microservicios NIM® para una inferencia mejorada en más de dos docenas de modelos de IA populares de NVIDIA y de partners.
  • Facilita la compatibilidad con modelos a medida y preentrenados diseñados en marcos populares como TensorFlow, PyTorch, scikit-learn o XGBoost.
  • Disfruta de supervisión integrada y registros para el seguimiento del rendimiento del modelo, métricas de uso, o el estado del sistema, que permiten una optimización proactiva.
  • Ofrece implementación adaptable en diversas infraestructuras con compatibilidad con muchos entornos Kubernetes, incluidos HPE Ezmeral, HPE GreenLake, AWS, Azure, Google Cloud y otras configuraciones locales.

Características

Implementación supervisada, segura, fiable y predecible para diversos entornos

HPE Machine Learning Inference Software puede implementar modelos utilizando una interfaz gráfica intuitiva y escalar implementaciones en función de la carga.

Personaliza el rendimiento con supervisión de modelos, seguimiento de predicciones y estadísticas en tiempo real en la implementación.

Ya sea en un clúster existente de Kubernetes, una nube privada o incluso una nube híbrida, HPE Machine Learning Inference Software ofrece herramientas consistentes en sistemas en continua modernización para satisfacer tus necesidades.

Los gráficos estándares del sector Helm se utilizan para implementar en cualquier plataforma Kubernetes compatible, como OpenShift, Rancher, EKS, AKS o GKS, cualquier nube puede aprovecharse de forma consistente.

Compatibilidad inmediata con herramientas y modelos de NVIDIA

HPE Machine Learning Inference Software proporciona un soporte de primera flexible para las GPU de Nvidia con una arquitectura que es fácil de proporcionar soporte en sistemas que se modernizan de forma constante.

Integración con la suite de software NVIDIA AI Enterprise (NVAIE), NVIDIA Inference Microservice (NIM) (que utiliza Triton, TensorRT-LLM), así como con otras técnicas de inferencia de IA que ofrecen un rendimiento mejorado.

Seguridad de clase empresarial integrada

Las características de HPE Machine Learning Inference Software ejecutan cargas de trabajo en tu entorno preferido, ya sea la nube, híbrido, local e incluso aislado, lo que permite que los modelos, códigos y datos permanezcan protegidos.

Utiliza controles de acceso basados en roles (RBAC) para autorizar los equipos de desarrollo y MLOps a colaborar y compartir los recursos y artefactos de aprendizaje automático de forma segura.

Protege la implementación de los puntos de conexión con características de seguridad empresarial que requiere autenticación avanzada, entre ellas OIDC y OAuth 2.0, para interactuar con los modelos.

Amplia compatibilidad de modelos

HPE Machine Learning Inference Software ofrece una integración optimizada para grandes modelos de lenguaje (LLM) específicos directamente de Hugging Face y del servidor de inferencia de NVIDIA (NIM), al tiempo que permite el desarrollo de modelos desde la mayoría de marcos.

Logra una mayor flexibilidad al utilizar modelos de distintos marcos como TensorFlow, PyTorch, Scikit-Learn, o XGBoost para acomodar una amplia gama de modelos preentrenados y de clientes.

  • Kubernetes es una marca comercial registrada de Google LLC. Nvidia® y CUDA son marcas comerciales registradas de NVIDIA Corporation en Estados Unidos y en otros países. Todas las marcas comerciales de terceros son propiedad de sus respectivos propietarios.