大規模言語モデルに対して推論リクエストを大規模に配信し、AI導入を加速するにはどうすればよいですか?Oracle Cloud Infrastructure(OCI)Kubernetes Engine(OKE)にエンタープライズ対応ソリューションNVIDIA NIMを導入。このデモでは、OCIオブジェクト・ストレージでホストされているモデル・リポジトリを使用して、OKEにNVIDIA NIMをデプロイする方法を示します。Helmデプロイメントを使用して、推論リクエストの数に応じてレプリカの数を簡単にスケール・アップおよびスケール・ダウンし、簡単に監視できます。OCI Object Storageを活用して、さまざまなタイプのモデルをサポートし、どこからでもモデルを導入できます。NVIDIA GPUを搭載し、NIMを最大限に活用して、推論リクエストの最大スループットと最小レイテンシを実現できます。