Oracle Cloud Infrastructure(OCI)Computeは、NVIDIAおよびAMD GPUを実装したベアメタルおよび仮想マシン(VM)インスタンスに業界をリードするスケーラビリティとパフォーマンスをもたらし、メインストリームのグラフィックス、AI推論、AIトレーニング、デジタルツイン、HPCを実現します。
NVIDIA DGX CloudおよびOCI上のNVIDIA GB200 NVL72システムの可用性について詳細をご確認ください。
オラクルとAMDは、大規模なAIトレーニングおよび推論ワークロードのために、AMD Instinct MI355X GPUがOCIで利用可能になることを発表しました。
Seekrは、OCIのAIインフラストラクチャを選択して、エンタープライズAIの導入、マルチノードAIトレーニング、エージェンティックAIを迅速化します。
OCIのクラスタ・ネットワークがスケーラブルな生成AIにどのように役立つかをご覧ください。
オラクルとNVIDIAは、ソブリンAIをどこでも提供します。
OCI Kubernetes Engineのプラグインは、高度な制御と高い柔軟性を提供します。
本番環境でのAIワークロードの導入と拡張が容易に行えます。
AMD GPUを搭載したOCI Computeベアメタル・インスタンスの一般提供が開始されました。
Oracle AIインフラストラクチャとAMD Instinct GPUが、高パフォーマンスでスケーラブルかつコスト効果の高いAI/ML基盤をどのように提供するかをご覧ください。
拡張性
131,072
OCI Supercluster内のGPUの最大数1
パフォーマンス
3,200
最大3,200GbpsのRDMAクラスタ・ネットワーク帯域幅2
価値
220%
他社CSPのGPUと比べて最大220%低価格3
選択肢
VM/BM
ベアメタル・インスタンスによるVMでのサイズ適正化とパフォーマンス
1. OCI Superclusterは、最大131,072個のNVIDIA Blackwell B200 GPU、NVIDIA Grace Blackwell GB200 Superchip内で131,072のNVIDIA Blackwell B200 GPU、65,536個のNVIDIA H200 TensorコアGPU、32,768個のNVIDIA A100 TensorコアGPU、16,384個のNVIDIA H100 TensorコアGPU、および16,384個のAMD MI300X GPUまで拡張できます。
2. NVIDIA B200、H200、およびH100 GPUとAMD Instinct MI300Xアクセラレータを備えたベア・メタル・インスタンスの場合。
3. 2024年6月5日時点のオンデマンド価格に基づいています。
AMD Instinct MI300X GPUを搭載したOCIコンピュートの新しい購入前試用プログラムへのサインアップをお待ちしています。
OCIは、NVIDIAとAMD GPUを搭載したベアメタル・インスタンスを提供する唯一の大手クラウド・プロバイダーであり、仮想化のオーバーヘッドを伴わない高いパフォーマンスを実現します。AIトレーニング時のチェックポイント処理では、オラクルのインスタンスはノード当たりで最大のローカル・ストレージ(61.4TBとH100 GPU)を提供します。
OCIは、NVIDIA Blackwell GPU、H200 TensorコアGPU、H100 TensorコアGPU、L40S GPU、A100 TensorコアGPU、A10 TensorコアGPU、および旧世代のNVIDIA GPUを実装したベアメタルおよび仮想マシン・コンピュート・インスタンスに最高の価値とパフォーマンスをもたらします。
OCIは、100,000を超えるGPUにまで拡張可能なスーパークラスタでNVIDIA GB200 Grace Blackwell Superchipを提供します。
OCIは、192 GBのメモリを搭載したAMD Instinct MI300X GPUを、GPU時間あたり6ドルという魅力的な価格で提供します。
オラクルの超低レイテンシ・クラスタ・ネットワーキングは、リモート・ダイレクト・メモリ・アクセス(RDMA)をベースとし、マイクロ秒レベルのレイテンシを実現します。
VM向けには、NVIDIAのHopper、Ampere、および以前のGPUアーキテクチャから、1~4コア、VMあたり16~64 GBのGPUメモリ、および最大48 Gb/secのネットワーク帯域幅を選択できます。
AMD Instinct GPU、NVIDIA Blackwell GPUまたはSuperchips、NVIDIA Hopper GPUまたは Superchips、NVIDIA Ampere GPUを含むベアメタル・インスタンスでOCI Superclusterを使用します。
マネージドKubernetes、サービス・メッシュ、コンテナ・レジストリを活用し、コンテナを使用してAIおよび機械学習(ML)のトレーニングや推論をオーケストレーションします。
Oracle Cloud Marketplaceでは、データ・サイエンス、分析、人工知能(AI)、および機械学習(ML)モデル用のソフトウェアとディスク・イメージを提供します。これにより、お客様はデータから迅速にインサイトを得ることができます。
NVIDIA AI Enterpriseへのアクセスを取得しましょう。これは、生成AI、コンピュータ・ビジョン、音声AIといったデータ・サイエンスおよび本番AI向けの、エンドツーエンドのソフトウェア・プラットフォームです。
OCI上のNVIDIA DGX Cloudは、サービスとしてのAIトレーニングを提供するプラットフォームであり、生成AI向けに最適化されたサーバーレス環境を開発者に提供します。
NVIDIA GPU Cloud Machine Imageは、さまざまな業界やワークロードを対象とした機械学習、ディープラーニング、ハイパフォーマンス・コンピューティング向けとして、GPUが最適化された数多くのアプリケーションにご活用いただけます。
Oracle Cloud上でNVIDIA RTX仮想ワークステーションを実行することにより、従業員が必要とするあらゆる場所で強力なワークステーション・パフォーマンスを実現できます。
OCI Dedicated Regionでフル機能のクラウド・リージョンをデータセンターに導入すると、データとアプリケーションを詳細に制御できます。
Oracle Alloyのパートナーになると、市場の特定のニーズに応えるクラウド・サービスを提供できます。
コンテナを使用してアプリケーションを構築する開発者は、オラクルが管理する可用性の高いプライベート・コンテナ・レジストリ・サービスを活用して、コンテナ・イメージを保存および共有できます。Docker V2 APIおよび標準のDockerコマンド・ライン・インターフェイス(CLI)を使用して、レジストリとの間でDockerイメージをプッシュまたはプルします。イメージをKubernetesデプロイメントに直接プルできます。
Functions as a Service(FaaS)を使用すると、開発者はOracle Cloud Infrastructure、Oracle Cloud Applications、およびサードパーティのサービスと統合されるサーバーレス・アプリケーションを実行できます。オープン・ソースFnプロジェクトのコミュニティとともに開発者の効率を改善します。
OCI Data Scienceや、ベアメタル・インスタンス、RDMAに基づくクラスタ・ネットワーキング、およびNVIDIA GPUを使用して、AIモデルのトレーニングを行います。
NVIDIA GPUを活用したOCI Computeは、VDIに対して一貫した高パフォーマンスを提供します。
OCIは、物体の空力特性を迅速に予測するためのコンピュータ支援エンジニアリングと計算流体力学を実現します。
オラクルでは、ほとんどのAIサービスで無料価格帯を提供しています。また、無料トライアル・アカウントに提供されるUS$300のクレジットを使って、追加のクラウド・サービスをお試しいただけます。AIサービスとは、開発者がアプリケーションや業務にAIを簡単に適用できるようにする、デフォルトの機械学習モデルを備えた生成AIなどを含む一連のサービスです。
また、OCI Data Scienceではコンピュートとストレージの使用料のみ。
Oracle Cloudの価格は、わかりやすく、世界中で一貫性のある低価格であり、さまざまなお客様事例をサポートしています。コストを見積もるには、コスト見積ツールをチェックし、ニーズに応じて、サービスを設定します。
次期AIソリューションの構築やOCI AIインフラストラクチャへのAIワークロードの導入をお手伝いするサポートをご利用ください。
この図は、ディープラーニングのモデル開発における2つの段階である、モデルトレーニングとモデル推論について説明するものです。左側のモデルトレーニングでは、OCI Data Scienceやベアメタル・コンピュート、ローカルストレージ、およびクラスタ・ネットワーキングなどで実行されるトレーニング・アルゴリズムに、未トレーニングのニューラル・ネットワークが入力されます。新しい能力を持つトレーニング済みモデルが、トレーニング・アルゴリズムから出力されます。モデルの推論ステップは、右側に説明されています。DALL-E 2のような、テキスト入力を受けて画像を生成することができるトレーニング済みモデルを考えてみましょう。テキスト入力がとトレーニング済みモデルに供給され、モデルから画像が出力されます。
仮想デスクトップ・インフラストラクチャ
GPUインスタンスを使用したCFDと高パフォーマンス・コンピューティング