オラクルとNVIDIAが、場所を問わないAIの提供を加速

OracleとNVIDIAのパートナーシップにより、最先端のAIインフラストラクチャを活用して、AIエージェントを含む高度なAIの開発・カスタマイズ・導入をあらゆる場所で加速できます。Oracle Cloud Infrastructure(OCI)とNVIDIAの連携により、他にはない幅広い導入オプションで、パフォーマンス、スケーラビリティ、コスト効率を最大化します。

オラクルとNVIDIAが、AIをあらゆる場所で提供 (2:11)

Grace Blackwell on OCI

最新のGPUでエージェント型AIと推論モデルを高速化します。

AIインフラストラクチャ・ソリューション

オラクルのAIや機械学習のエキスパートとつながる
現在一般提供中: クラウドで最大かつ最速のAIスーパーコンピュータ

NVIDIA H200 Tensor Core GPUを搭載したOracle Cloud Infrastructure Superclusterの一般提供を開始したことをお知らせします。

お客様のAIイノベーションを効率化

  • シンプルな運用でAIエージェントを活用

    自律的に認識・推論・行動するインテリジェントなシステム「AIエージェント」を支える、フルスタックのAIプラットフォームを提供します。OCIコンソールからネイティブに利用できるNVIDIA AI Enterpriseを通じて、企業は160種類以上のAIツールをトレーニングおよび推論目的で簡単に利用できます。また、直接請求やサポートが簡単に受けられるといったメリットもあります。

    高速なAI推論が必要な場合は、OCI Marketplace で提供されているNVIDIA NIMの推論エンドポイントを利用することで、AIアシスタントやコパイロット、リアルタイムアプリケーションを簡単かつ柔軟に展開できます。

  • 業界をリードするAIインフラストラクチャ

    Hopper GPUによって最大260エクサFLOPS、そしてBlackwell GPUによって2.4ゼタFLOPSの性能を実現することで、業界をリードする生成AIイノベーションを提供します。OCIスーパークラスターを活用すれば、数兆パラメータ規模のモデルも高速に学習し、大規模に展開することが可能です。

    仮想化のオーバーヘッドがないベアメタルインスタンス、高速なRDMAクラスタネットワーク、ペタバイト規模のファイルストレージ、OCI Kubernetes Engine などのオーケストレーションツールを活用し、あらゆる規模のAIワークロードを加速できます。

  • AIをあらゆる場所で活用

    OCIの分散クラウド上でNVIDIAテクノロジーを使用して推論を最適化し、あらゆる場所でAIを実行できます。エッジアプライアンスにNVIDIA L4 GPUを展開し、パブリック・クラウド最大級のスーパーコンピューティング基盤にスケールアップすることも可能です。また、既存のデータセンターにAIインフラストラクチャを拡張することもできます。

    政府機関や厳しい規制業種においても、柔軟な導入モデルによりデータ主権やコンプライアンス要件に対応できます。OCI上のNVIDIA AI Enterpriseは、本番環境で即利用可能なAIの開発・展開を加速し、OCIの分散クラウド全体で利用できます。

AIパートナーとお客様のご紹介

お客様事例をさらに見る