如何为您的大型语言模型大规模交付推断请求并加速 AI 部署?通过在 Oracle Cloud Infrastructure (OCI) Kubernetes Engine (OKE) 上部署企业级解决方案 NVIDIA NIM。在本演示中,我们将展示如何使用托管在 OCI 对象存储上的模型存储库在 OKE 上部署 NVIDIA NIM。使用 Helm 部署,根据推断请求数量轻松扩展和收缩副本数量,并轻松监视。利用 OCI Object Storage 随时随地部署模型,并支持各种类型的模型。在 NVIDIA GPU 的支持下,充分利用 NIM 来帮助您获得推断请求的最大吞吐量和最小延迟。
注:为免疑义,本网页所用以下术语专指以下含义: