エンタープライズクラスのKubernetesの運用を大規模に簡素化します。自動スケーリング、パッチ適用、アップグレードにより、AIなどのリソース集約的なワークロードを簡単に導入および管理できます。
CIO Magazineは、スケーラブルで効率的なアプリケーション開発をサポートする最先端のKubernetesソリューションを提供するOCIの専門知識を高く評価しています。
OKEは、すべてのハイパースケーラ(特にサーバーレス)の中で最も低コストのKubernetesサービスです。
OKEはオンデマンドでコンピュート・リソースを自動的に調整するため、コストを削減できます。
GPUは不足しがちですが、OKEのジョブ・スケジューリングではリソースの利用状況を簡単に最大化できます。
OKEはクラウドとオンプレミス間で一貫しているため、ポータビリティを実現し、ベンダー・ロックインを回避できます。
OKEは、Kubernetesインフラストラクチャの複雑な管理に必要な時間とコストを削減します。
自動アップグレードとセキュリティ・パッチ適用により、コントロール・プレーンおよびワーカー・ノードの信頼性が向上します。
OCI Full Stack Disaster Recoveryを使用しており、完全に自動化されたネイティブなクロスリージョン・リカバリを利用できます。
Kubernetesは、AIワークロードを導入するための主要なプラットフォームです。OKEは、Oracle Cloud Infrastructure(OCI)AIサービスを強化します。
- AIプロジェクトの初期構築段階では、問題を定義し、モデルを作成するためのデータを準備します。
- Kubernetesクラスタは、セキュアで一元管理された環境を提供しながら、高価で制限されがちなGPUリソースへの共有アクセスを許可することで、効率の大幅な向上を実現します。
–Kubernetes関連のオープンソースプロジェクトであるKubeflowは、モデルの構築、トレーニング、導入を効率化するために設計された包括的なフレームワークを提供します。
OKEはOCI上に構築されており、以下のようなAI/MLワークロード向けに設計された高いパフォーマンスのインフラストラクチャを完全なスタックで提供します。
- H100、A100、A10などを含むさまざまなNVIDIA GPU。
– 超高速RDMAネットワーク
OKEセルフマネージド・ノードを使用しているため、Kubernetesクラスタ上でAI/ML構築ワークロードを実行することができます。
Kubernetesは、AIワークロードを導入するための主要なプラットフォームです。OKEはOCI AIサービスを強化します。
- モデルのトレーニングでは、データ・サイエンティストはアルゴリズムを選択し、準備されたデータを使用してトレーニング・ジョブを開始します。この段階では、ジョブを効率的に処理するための高度なスケジューリング・システムが必要です。
– VolcanoやKueueなどのKubernetesプロジェクトは、このような要件への対応を支援し、コンピュート・リソースを効率的に利用します。
– 大規模な分散トレーニングでは、クラスタ内の低レイテンシのノード間通信が必要です。ここでは、リモート・ダイレクト・メモリ・アクセス(RDMA)を備えた特殊な超高速ネットワークが必要です。これによりCPUをバイパスしてアプリケーションのメモリに直接データを移動し、レイテンシを短縮することができます。
OKEはOCI上に構築されており、以下のようなAI/MLワークロード向けに設計された高いパフォーマンスのインフラストラクチャを完全なスタックで提供します。
- H100、A100、A10などを含むさまざまなNVIDIA GPU。
- 低レイテンシおよび超高パフォーマンスRDMAネットワーク
OKEセルフマネージドノードを使用しているため、Kubernetesクラスタ上でAI/MLトレーニングを実行することができます。
Kubernetesは、AIワークロードを導入するための主要なプラットフォームです。OKEはOCI AIサービスを強化します。
- AIモデルの推論はKubernetesが真の力を発揮する分野です。Kubernetesはオンデマンドで推論ポッドの数を自動的にスケールアップまたはスケールダウンできるため、リソースを効率的に利用できます。
- Kubernetesは、コンテナのCPUとメモリの上限を指定する機能など、高度なリソース管理を提供します。
OKEは耐障害性の高さを中核に設計されており、Kubernetesに組み込まれた自動スケーリングを活用して、使用量に応じて従業員ノードをスケールします。わーかー・ノードは、複数のフォルト・ドメインや可用性ドメインにわたり分散して高可用性を実現できます。
OKE仮想ノードは、サーバーレスKubernetesエクスペリエンスを実現します。ワーカー・ノードをスケーリングせずに、ポッド・レベルでスケーリングするだけで済みます。これにより、サービス料金が使用するポッドのみに基づくため、迅速なスケーリングと経済的な管理が可能になります。
仮想ノードは推論ワークロードに適しており、GPUが不足している場合には特に、AI推論にとってはるかに魅力的選択肢になりつつあるArmプロセッサを使用できます。
OKEは、総所有コストを削減し、市場投入までの時間を短縮します。
OKEは、次の方法で大規模な操作を簡素化します。
OKE中心のマイクロサービス・アプリケーション・アーキテクチャで将来性のあるアプリケーションを実現します。
「多くのOCI AIサービスは、オラクルのマネージドKubernetesサービスであるOCI Kubernetes Engine(OKE)上で実行されます。実際、当社のエンジニアリング・チームは、以前のプラットフォームからOKEに切り替えただけで、OCI Visionのパフォーマンスが10倍向上しました。それほど優れているのです。」
Oracle Cloud Infrastructure、OCI AI Services担当VP
Dockerコンテナとしてパッケージ化された共通のAPIを介して通信するシンプルなマイクロサービスを導入できます。
提供されているTerraform自動化とリファレンス・アーキテクチャを使用してサーバーレス仮想ノードプールのにおけるベストプラクティスを見出します。
シニア・プリンシパル・プロダクト・マネージャ、Gregory King
Oracle Cloud Infrastructure(OCI)Full Stack Disaster Recovery(Full Stack DR)は、OCI Kubernetes Engine(OKE)のネイティブなサポートを発表します。OKEクラスタは、仮想マシン、ストレージ、ロードバランサー、Oracle Databaseと同様に、フルスタックDRに選択可能なOCIリソースになりました。つまり、ITスタッフが1行のコードも、スプレッドシートやテキストファイルのステップバイステップの指示も書かなくても、OKE、インフラストラクチャ、データベースをリカバリする機能の検証、フェイルオーバー、スイッチオーバー、テスト方法を正確に把握しています。
全文を読むKubernetesは、コンテナ化したアプリケーションとサービスのクラスターを管理およびスケーリングするためのオープン・ソース・プラットフォームです。
Kubernetesは、コンテナ化したアプリケーションとサービスのクラスターを管理およびスケーリングするためのオープン・ソース・プラットフォームです。
CI/CDツール、マネージドTerraform、テレメトリなどに30日間アクセスできます。
デプロイ可能なリファレンス・アーキテクチャおよびソリューションのプレイブックを確認します。
Kubernetes、Docker、サーバーレス、APIなどでアプリ開発を支援します。
販売、サポート、その他の質問については、アソシエイトにご連絡ください。
