如何大規模地為大型語言模型提供推論要求,並加速 AI 部署?在 Oracle Cloud Infrastructure (OCI) Kubernetes Engine (OKE) 上部署符合企業級需求的解決方案 NVIDIA NIM。在本示範中,我們將示範如何在 OKE 上部署 NVIDIA NIM 與 OCI Object Storage 代管的模型儲存庫。使用 Helm 部署,根據推論要求的數量輕鬆縱向擴展和縮減複本數目,並輕鬆監控。運用 OCI Object Storage 從任何地方部署模型,並支援各種類型的模型。在 NVIDIA GPU 的支援下,充分利用 NIM,協助您獲得推論要求的最大輸送量和最小延遲。