Come puoi fornire richieste di inferenza su larga scala per il tuo modello linguistico di grandi dimensioni e accelerare la distribuzione dell'AI? Implementando la soluzione di livello Enterprise NVIDIA NIM su Oracle Cloud Infrastructure (OCI) Kubernetes Engine (OKE). In questa demo, mostreremo come distribuire NVIDIA NIM su OKE con il repository dei modelli ospitato su OCI Object Storage. Utilizzando una distribuzione Helm, ridimensiona facilmente il numero di repliche su e giù a seconda del numero di richieste di inferenza e ottieni un monitoraggio semplice. Utilizza OCI Object Storage per distribuire modelli da qualsiasi luogo, con il supporto di vari tipi di modelli. Basato sulle GPU NVIDIA, sfrutta appieno il NIM per ottenere il massimo throughput e la latenza minima per le tue richieste di inferenza.