AIソリューション

Hugging FaceとKubernetesを使用したOCIへのLLMの導入

AIソリューション・トピック

概要

大規模言語モデル(LLM)は、テキスト生成、問題解決、および以下の手順において大きな進歩を遂げました。企業がLLMを使用して最先端のソリューションを開発するにつれて、スケーラブルで安全かつ効率的なデプロイメント・プラットフォームの必要性がますます重要になっています。Kubernetesは、スケーラビリティ、柔軟性、移植性、および回復力の優先オプションとなっています。

このデモでは、企業の導入と運用を大規模に簡素化するマネージドKubernetesサービスであるOracle Cloud Infrastructure Kubernetes Engine (OKE)にファインチューニングLLM推論コンテナをデプロイする方法を示します。このサービスにより、サードパーティの推論APIに依存することなく、カスタム・モデルおよびデータ・セットを独自のテナンシ内に保持できます。

LLMを公開する推論フレームワークとして、テキスト生成推論(TGI)を使用します。

デモ

デモ: Hugging FaceとKubernetesを使用してOCI上でLLMを導入(1:30)

前提条件および設定

  1. Oracle Cloudアカウント—サインアップ・ページ
  2. Oracle Cloud Infrastructure—ドキュメンテーション
  3. OCIの生成AI—ドキュメント
  4. OCI Kubernetes Engine - ドキュメント