¿Cómo puedes entregar solicitudes de inferencia a escala para tu modelo de lenguaje grande y acelerar tu implementación de IA? Mediante el despliegue de la solución empresarial NVIDIA NIM en Oracle Cloud Infrastructure (OCI) Kubernetes Engine (OKE). En esta demostración, mostraremos cómo desplegar NVIDIA NIM en OKE con el repositorio de modelos alojado en OCI Object Storage. Mediante un despliegue de Helm, amplíe o reduzca fácilmente el número de réplicas en función del número de solicitudes de inferencia, además de obtener una supervisión sencilla. Aprovecha OCI Object Storage para desplegar modelos desde cualquier lugar, con soporte para varios tipos de modelos. Con tecnología de GPU NVIDIA, aprovecha al máximo NIM para ayudarte a obtener el máximo rendimiento y la latencia mínima para tus solicitudes de inferencia.