Despliega, escala y supervisa cargas de trabajo GenAI en minutos con los planes detallados de IA de Oracle Cloud Infrastructure (OCI). Obtén planes detallados de despliegue preempaquetados y verificados por Oracle Cloud Infrastructure, completos con recomendaciones de hardware, componentes de software y supervisión lista para usar.
Facilita las preocupaciones de implementación de cargas de trabajo de IA para escalar despliegues, determinar la compatibilidad de controladores y aplicaciones, y gestionar las decisiones de observabilidad y gestión con planes detallados basados en las mejores prácticas verificadas de Oracle Cloud Infrastructure.
Despliega y supervisa tus cargas de trabajo GenAI esenciales en minutos con planes detallados que incluyen hardware, software y supervisión listos para usar verificados.
Adopta conexiones predefinidas a aplicaciones de observación de terceros, como Prometheus, Grafana y MLflow para facilitar la supervisión y la observabilidad en todas las cargas de trabajo de IA.
Simplifica la implementación de modelos de lenguaje de gran tamaño (LLM) y modelos de lenguaje visual (VLM) utilizando un motor de interfaz de código abierto llamado modelo de lenguaje de gran tamaño virtual (vLLM). Despliega un modelo personalizado o seleccione entre una variedad de modelos abiertos en Hugging Face.
Optimiza la evaluación comparativa de la infraestructura para el ajuste mediante la metodología MLCommons. Ajusta un modelo de Llama-2-70B cuantificado con un conjunto de datos estándar.
Los planes detallados de IA de OCI permiten un ajuste eficiente del modelo mediante la adaptación de bajo rango (LoRA), un método altamente eficiente de ajuste de LLM. Ajusta un LLM personalizado o utiliza la mayoría de los LLM abiertos de Hugging Face.
Antes de desplegar cargas de trabajo de producción o investigación, puedes utilizar un plan detallado de comprobación previa sólido para una validación exhaustiva del estado de la GPU con el fin de detectar y solucionar problemas de forma proactiva. Verifica que la infraestructura de GPU esté preparada para experimentos de alta demanda en entornos de un solo nodo y de varios nodos.
Adopta un marco integral para servir a los LLM en CPU utilizando la plataforma Ollama con una variedad de modelos compatibles, como Mistral, Gemma y otros.
Con este plan, puedes distribuir la inferencia entre varios nodos de cálculo, cada uno equipado normalmente con una o más GPU. Por ejemplo, despliega LLM del tamaño 405B de Llama en varios nodos H100 con RDMA mediante vLLM y LeaderWorkerSet.
Sirve a los LLM con escala automática mediante KEDA, que se escala a varias GPU y nodos mediante métricas de aplicación, como la latencia de inferencia.
Despliegue los LLM en una fracción de una GPU con las GPU de múltiples instancias de NVIDIA y utilícelos con un vLLM.
Haz que tu aplicación de IA se ejecute de forma rápida y eficiente con recomendaciones de hardware, pilas de software preempaquetadas y herramientas de observabilidad listas para usar.
Despliega tus cargas de trabajo GenAI con confianza utilizando planos preempaquetados probados en configuraciones recomendadas de GPU, CPU y redes de Oracle Cloud Infrastructure, lo que te ahorra tiempo al llevar a cabo pruebas comparativas y conjeturas de rendimiento.
Adopta los marcos, las bibliotecas y las configuraciones de modelos necesarios para casos de uso de IA conocidos, como RAG, ajuste e inferencia, o personaliza los casos de uso en función de las necesidades de tu negocio.
Obtén una gestión de infraestructura simplificada con tareas automatizadas de MLOps, como la supervisión, el registro y la ampliación. Comienza rápidamente con herramientas preinstaladas, como Prometheus, Grafana, MLflow y KEDA, para obtener un entorno de producción con el mínimo esfuerzo.
Presentamos OCI AI Blueprints, una plataforma de gestión de Kubernetes para cargas de trabajo de IA con un conjunto de planos que pueden ayudarte a implementar, escalar y supervisar cargas de trabajo de IA en producción en minutos.
Lee el post completoPrueba más de 20 servicios Always Free en la nube con un periodo de prueba de 30 días para conocerlos aún mejor.
Descubre OCI AI Blueprints y pruébalo o despliégalo en tu arrendamiento de producción.
Descubre cómo Oracle permite a los clientes ahorrar constantemente en recursos informáticos, almacenamiento y redes en comparación con otros hyperscalers en la nube.
¿Te gustaría obtener más información sobre Oracle Cloud Infrastructure? Permite que uno de nuestros expertos te ayude.