Oracle Cloud Infrastructure(OCI)AIブループリントを使用して、生成AIワークロードを数分で導入、スケーリング、モニターします。ハードウェアの推奨、ソフトウェア・コンポーネント、すぐに可能なモニタリングを含む、パッケージ化されたOCI検証済みの導入ブループリントをご利用いただけます。
OCI検証済みのベストプラクティス上に構築されたブループリントを使用して、AIワークロード導入のスケーリング、ドライバとアプリケーションの互換性の判断、管理容易性と管理意思決定を管理します。
検証済みのハードウェア、ソフトウェア、すぐに利用可能なモニタリングを含むブループリントにより、ミッションクリティカルな生成AIワークロードを数分で導入およびモニタリングできます。
Prometheus、Grafana、MLflowなどのサードパーティーの可観測性アプリケーションへのデフォルトの連携を導入し、AIワークロード全体にわたりモニタリングと可観測性の懸念を緩和します。
仮想大規模言語モデル(vLLM)と呼ばれる オープンソース・インターフェース・エンジンを使用して、大規模言語モデル(LLM)とビジョン言語モデル(VLM)の導入を簡素化します。カスタム・モデルを導入するか、Hugging Faceの様々なオープン・モデルからお選びください。
MLCommonsの方法を使用して、ファインチューニングのためのインフラストラクチャのベンチマークを効率化します。量子化されたLlama-2-70Bモデルを標準データセットでファインチューニングします。
OCI AI Blueprintsは、LLMファインチューニングの非常に効率的な手法である低ランク適応(LoRA)を使用して、効率的なモデルのチューニングを実現します。カスタムLLMをファインチューニングするか、Hugging Faceのほとんどの開放性LLMを使用してください。
本番または調査ワークロードを導入する前に、堅牢な事前チェックのブループリントを使用してGPUの健全性を徹底的に検証し、問題を先行的に検出して対処することができます。シングルノード環境とマルチノード環境間で、GPUインフラストラクチャが高負荷のエクスペリエンスに対応していることを確認します。
Mistral、Gemmaなど、さまざまなサポート・モデルを使用しているOllamaプラットフォームを使用して、CPU上でLLMを提供する包括的なフレームワークを導入します。
このブループリントを使用することにより、通常1つまたは複数のGPUを搭載した複数のコンピューティング・ノードにわたり、推論サービングを分散させることができます。たとえば、vLLMとLeaderWorkerSetを使用して、複数のH100ノ ードにわたってLlama 405BサイズのLLMをRDMAで導入します。
意見に基づくハードウェア推奨、パッケージ化されたソフトウェア・スタック、すぐに利用可能な可観測性ツールにより、AIアプリケーションを迅速かつ効率的に実行できます。
推奨するOCI GPU、CPU、ネットワーキング構成上でテストされたパッケージ化されたブループリントを使用して、生成AIワークロードを確実に導入することができます。
RAG、ファインチューニング、推論など、一般的なAIのユースケースに必要なフレームワーク、ライブラリ、モデル構成を導入したり、ビジネス・ニーズに合わせてユースケースをカスタマイズできます。
モニタリング、ロギング、スケーリングなどの ML 運用タスクの自動化により、インフラストラクチャ管理を簡素化できます。Prometheus、Grafana、MLflow、KEDAなどのプリインストール・ツールにより、最小限の取り組みで本番レベルの環境を迅速に開始できます。
20以上のAlways Freeクラウド・サービスを30日間の試用版で試す
OCI AI Blueprintsの詳細をご覧いただき、お試しいただくか、本番テナンシに導入してご利用ください。
オラクルが、他のクラウド・ハイパースケーラーと比較して、コンピュート、ストレージ、およびネットワーキングのコストを一貫して削減する方法をご覧ください。
Oracle Cloud Infrastructureの詳細にご関心をお持ちの場合は、当社のエキスパートにお問い合わせください。