OracleとNVIDIAのパートナーシップにより、最先端のAIインフラストラクチャを活用して、AIエージェントを含む高度なAIの開発・カスタマイズ・導入をあらゆる場所で加速できます。Oracle Cloud Infrastructure(OCI)とNVIDIAの連携により、他にはない幅広い導入オプションで、パフォーマンス、スケーラビリティ、コスト効率を最大化します。
最新のGPUでエージェント型AIと推論モデルを高速化します。
NVIDIA AI Enterpriseは、Oracle Cloud Infrastructure Consoleを通じてネイティブな形で利用できるため、お客様はトレーニングや推論のために160を超えるAIツールに簡単にアクセスできます。
NVIDIA GPUを使用するOCI AIインフラストラクチャは、心臓胸部研究で使用されるLLMのトレーニングを高速化します。
オラクルは、液冷式のNVIDIA GB200 NVL72ラックの初回展開分をすでに構築・最適化しており、これらのラックはNVIDIA DGX CloudおよびOCIから現在利用可能です。
すぐに導入できる自動化でNVIDIA GPUと高度なディープラーニング・フレームワークの強力なパワーを活用しましょう。
OCI上で実行されるエージェント・ワークフローが、すぐに導入可能な自動化によって、さまざまなAIモデルをセキュアに構成できるよう支援する方法をご覧ください。
NVIDIA NIM、Qdrant、Gradio、すぐに導入できる自動化を使用して、OKEでシンプルなRAG対応チャットボットを実行します。
NVIDIA GPUとNIMの機能を活用し、すぐに導入可能な自動化によるスケーラブルな不正検出ソリューションの導入について実践的な経験を積むことができます。
NVIDIA RAPIDS、Triton、その他のツールを活用し、OCI上にMorpheusを自動で導入します。
OCI Kubernetes EnginesにNVIDIA NIMを導入し、OCI Object StorageとNVIDIA GPUを使用してスケーラブルで効率的な推論を行い、最適なパフォーマンスを実現します。
OCI上に大規模言語モデル(LLM)を導入し、ベアメタルマシンでNVIDIA GPUで加速する方法をご紹介します。
OCI上のNVIDIA GPUにより分散マルチノード・トレーニングを実行し、効率的にディープ・ニューラル・ネットワークをトレーニングする方法をご紹介します。
NVIDIA H200 Tensor Core GPUを搭載したOracle Cloud Infrastructure Superclusterの一般提供を開始したことをお知らせします。
自律的に認識・推論・行動するインテリジェントなシステム「AIエージェント」を支える、フルスタックのAIプラットフォームを提供します。OCIコンソールからネイティブに利用できるNVIDIA AI Enterpriseを通じて、企業は160種類以上のAIツールをトレーニングおよび推論目的で簡単に利用できます。また、直接請求やサポートが簡単に受けられるといったメリットもあります。
高速なAI推論が必要な場合は、OCI Marketplace で提供されているNVIDIA NIMの推論エンドポイントを利用することで、AIアシスタントやコパイロット、リアルタイムアプリケーションを簡単かつ柔軟に展開できます。
Hopper GPUによって最大260エクサFLOPS、そしてBlackwell GPUによって2.4ゼタFLOPSの性能を実現することで、業界をリードする生成AIイノベーションを提供します。OCIスーパークラスターを活用すれば、数兆パラメータ規模のモデルも高速に学習し、大規模に展開することが可能です。
仮想化のオーバーヘッドがないベアメタルインスタンス、高速なRDMAクラスタネットワーク、ペタバイト規模のファイルストレージ、OCI Kubernetes Engine などのオーケストレーションツールを活用し、あらゆる規模のAIワークロードを加速できます。
OCIの分散クラウド上でNVIDIAテクノロジーを使用して推論を最適化し、あらゆる場所でAIを実行できます。エッジアプライアンスにNVIDIA L4 GPUを展開し、パブリック・クラウド最大級のスーパーコンピューティング基盤にスケールアップすることも可能です。また、既存のデータセンターにAIインフラストラクチャを拡張することもできます。
政府機関や厳しい規制業種においても、柔軟な導入モデルによりデータ主権やコンプライアンス要件に対応できます。OCI上のNVIDIA AI Enterpriseは、本番環境で即利用可能なAIの開発・展開を加速し、OCIの分散クラウド全体で利用できます。
オラクルはCohereと協力して、Oracle Cloud Infrastructureの生成AIサービスを強化しました。OCIのパフォーマンスを活用してモデルをトレーニングするCohereは、オラクルと緊密に協力し、エンタープライズAIテクノロジーを企業に提供しています。
Modal Labsでは、Pythonで数行記述するだけで、クラウドでデータ/AIジョブを実行できます。顧客はModalを使用して、GenAIモデルを大規模にデプロイしたり、LLMモデルを微調整したり、タンパク質折り畳みシミュレーションを実行したりできます。Modal Labsでは、価格とパフォーマンスの魅力的な組合せにより、オラクルのベアメタルA10インスタンスを使用しています。
カリフォルニア州サンフランシスコに本社を置くEvidiumは、確固とした信頼性の高いAIを医療機関に提供するためのリファレンスAIプラットフォームを構築した医療テクノロジー・スタートアップです。モデル・トレーニングを実行するために、同社はさまざまな製品ラインにOCI上のGPUを活用しています。
PyTorchおよびMetaのリーダーによって設立されたFireworks AIは、製品のイノベーションとディスラプションの加速を目指す生成AIモデルの基盤となる、最速かつ最高品質のプラットフォームを提供しています。同社は、推論とトレーニングのワークロードを実行するために、Oracle Cloud Infrastructureを選択しました。
Yurtsは、世界で最もセキュリティ水準の高い組織から信頼されているOCI上の生成AI統合プラットフォームです。同社は、高品質なアウトプットの提供、価値実現までの期間の短縮、信頼できる情報源アプリケーションとのシームレスな統合を実現しています。
Altairは、シミュレーション、ハイパフォーマンス・コンピューティング、AIを組み合わせ、企業の意思決定を変革することをミッションとしています。Altairは、最先端の設計アプリケーションを高性能なOracle Cloud Infrastructureで開発および実行することで、長時間の高い計算負荷に耐えられるよう進化させました。
オラクルとNVIDIAは、クラウドにおけるアクセラレーテッドAIコンピューティングへのアクセスを拡大し、企業が最も複雑なビジネス上の課題を解決できるようにしています。
現在一般提供中: クラウドで最大かつ最速のAIスーパーコンピュータ