Virtuelle Knoten bieten eine serverlose Kubernetes-Erfahrung und ermöglichen eine granulare Pod-Elastizität mit einer Preisgestaltung pro Pod. Skalieren Sie Ihre Bereitstellungen, ohne die Kapazität eines Clusters berücksichtigen zu müssen, und vereinfachen Sie so den Betrieb.
Verwaltete Knoten sind Worker-Knoten, die innerhalb Ihrer Tenancy erstellt werden und gemeinsam von Ihnen und OCI betrieben werden. Sie eignen sich für viele Konfigurationen und Rechnerkonfigurationen, die von virtuellen Knoten nicht unterstützt werden.
Selbstverwaltete Knoten bieten die größte Anpassungsfähigkeit und Kontrolle für einzigartige Rechnerkonfigurationen und erweiterte Einstellungen, die von verwalteten Knoten nicht unterstützt werden, wie beispielsweise RDMA-fähige Bare-Metal-HPC/GPU für KI-Workloads.
Optimieren Sie Kosten und Performance, indem Sie die am besten geeigneten Compute-Ausprägungen aus einer Vielzahl von Bare-Metal- und Virtual-Machine-Optionen auswählen, einschließlich leistungsstarker NVIDIA-GPUs und kostengünstiger Arm- und AMD-CPUs. Unterstützen Sie mit Oracle Container Image Registry Images mit mehreren Architekturen.
Optimieren Sie die Aktualisierung verwalteter Worker-Knoten mit On-Demand-Knotenzyklen, wodurch die zeitaufwändige manuelle Rotation von Knoten oder die Entwicklung benutzerdefinierter Lösungen entfällt. Ändern Sie mühelos die Eigenschaften von Knotenpools, einschließlich SSH-Schlüsseln, Boot-Volume-Größe und benutzerdefinierten Cloud-Init-Skripten.
Erweitern und steuern Sie die Funktionalität Ihrer OKE-Cluster ganz einfach mit einer Auswahl konfigurierbarer Zusatzsoftware. OKE verwaltet den Lebenszyklus von Add-ons – von der ersten Bereitstellung und Konfiguration bis hin zum laufenden Betrieb, einschließlich Upgrades, Patches, Skalierung und rollierenden Konfigurationsänderungen.
Starten Sie mit einem Mausklick ein Upgrade Ihrer Kubernetes-Version. Virtuelle Knoten stellen automatisch nahtlose, sofort einsatzbereite Updates und Sicherheitspatches Ihrer Worker-Knoten und der zugrunde liegenden Infrastruktur bereit, wobei die Verfügbarkeit Ihrer Anwendungen gewahrt wird.
Erhöhen Sie die Verfügbarkeit von Anwendungen mithilfe von Clustern, die mehrere Availability-Domains (Data Center) in einer beliebigen kommerziellen Region oder in Oracle Cloud Infrastructure (OCI) Dedicated Regionumfassen. Skalieren Sie Pods horizontal und vertikal, und Cluster ebenfalls.
Wenn ein Knotenausfall erkannt wird, stellt OKE automatisch neue Worker-Knoten bereit, um die Verfügbarkeit des Clusters aufrechtzuerhalten.
Automatisierte Cordon- und Drain-Optionen ermöglichen Ihnen das sichere Löschen von Worker-Knoten, ohne Ihre Anwendungen zu unterbrechen.
Überwachen und sichern Sie Ihre Anwendungen mit Observability-Tools von OCI, Datadog, Aqua Security und anderen Anbietern.
Stellen Sie Kubernetes-Cluster einschließlich der zugrunde liegenden virtuellen Cloud-Netzwerke, Internet-Gateways und NAT-Gateways mit nur einem Klick bereit.
Automatisieren Sie Kubernetes-Vorgänge mit webbasierten REST-APIs und einer Befehlszeilenschnittstelle (CLI) für alle Aktionen, einschließlich Clustererstellung, Skalierung und Betrieb.
OKE lässt sich nahtlos in OCI-Services integrieren, darunter Container Registry, DevOps CI/CD, Netzwerk, Speicher und mehr. Mit OCI Service Operator für Kubernetes können Sie Ihre OCI-Services direkt über Ihren OKE-Cluster verwalten. Erstellen, verwalten und stellen Sie Verbindungen zu Ressourcen wie Autonomous Database und MySQL Database mithilfe der Kubernetes-API und entsprechenden Tools her.
OKE basiert auf offenen Standards und ist vollständig mit Open-Source-Upstream Kubernetes kompatibel. So können Sie Ökosystem-Lösungen nutzen und Ihre bevorzugten Entwicklertools wie Argo CD, GitHub, Jenkins und viele mehr integrieren.
Über den OCI Container Marketplace erhalten Sie vorgefertigte Containerlösungen, die für optimale Leistung auf OKE fein abgestimmt sind.
OKE verwendet unverändertes Open-Source-Kubernetes, das den Standards der Cloud Native Computing Foundation (CNCF) und der Open Container Initiative entspricht und eine einfache Portierung von Anwendungen ermöglicht.
Oracle Cloud Guard bietet sofort einsatzbereite Kubernetes-Governance und sorgt für automatisierte Sicherheit und die Einhaltung von Best Practices bei der Bereitstellung von Ressourcen auf OKE. Durch die automatische Erkennung von Konfigurationsproblemen können Sie die Compliance Ihrer OKE-Cluster mühelos sicherstellen und aufrechterhalten.
OCI verschlüsselt Blockvolumes, Boot-Volumes und Volume-Backups im Ruhezustand stets mit dem Advanced Encryption Standard (AES)-Algorithmus mit 256-Bit-Verschlüsselung. Sie können Kubernetes-Geheimnisse im Ruhezustand auch mit dem Key Management Service verschlüsseln und/oder den Lebenszyklus Ihrer eigenen Verschlüsselungsschlüssel mit OCI Vault verwalten.
OKE unterstützt die Einhaltung verschiedener regulatorischer Rahmenbedingungen wie HIPAA, PCI, SOC 2 und viele andere.
Mit privaten Clustern können Sie den Zugriff auf den Kubernetes-API-Endpunkt auf Ihr On-Premises-Netzwerk oder einen Bastion-Host beschränken und so Ihre Sicherheitslage verbessern. Verwenden Sie OCI Bastion, um unkompliziert auf vollständig private Cluster zuzugreifen.
Virtuelle OKE Knoten bieten eine starke Isolierung für jeden Kubernetes-Pod, der sich keine zugrunde liegenden Kernel-, Speicher- oder CPU-Ressourcen teilt. Dank dieser Isolierung auf Pod-Ebene können Sie nicht vertrauenswürdige Workloads, mandantenfähige Anwendungen und sensible Daten ausführen.
OKE unterstützt Netzwerksicherheitsgruppen (NSGs) für alle Clusterkomponenten. Eine NSG besteht aus einem Set von Ingress- und Egress-Sicherheitsregeln, die für virtuelle Netzwerkkarten (VNICs) in Ihrem virtuellen Cloud-Netzwerk (VCN) gelten. Mit NSG können Sie Ihre VCN-Architektur von den Sicherheitsanforderungen Ihrer Clusterkomponenten trennen.
Steuern Sie den Zugriff und die Berechtigungen über das native OCI Identity and Access Management (IAM) und die rollenbasierte Zugriffskontrolle von Kubernetes. Darüber hinaus können Sie die OCI IAM-Multifaktor-Authentifizierung konfigurieren. Mit der OKE-Workload-Identität können Sie eine sichere Authentifizierung auf Pod-Ebene für OCI-APIs und -Dienste einrichten. Durch die Umsetzung des Least-Privilege-Prinzips für Workloads können Sie sicherstellen, dass Benutzer nur auf die erforderlichen Ressourcen zugreifen können.
OKE unterstützt das Scannen, Signieren und Verifizieren von Container-Images, sodass Sie Ihre Anwendungsimages vor schwerwiegenden Sicherheitslücken schützen und die Integrität der Container-Images bei der Bereitstellung gewährleisten können.
Alle Kubernetes-Audit-Ereignisse werden in OCI Audit zur Verfügung gestellt.
OKE erleichtert die Bereitstellung der enormen GPU- und CPU-Ressourcen, die für anspruchsvolle Modelltrainings und reaktionsschnelle Inferenz-Workloads erforderlich sind. Mit selbstverwalteten OKE-Knoten können Sie die Leistung von NVIDIA H100-GPUs und dem RDMA-Netzwerk mit geringer Latenz von OCI für maximale KI-Performance nutzen.
Mithilfe der integrierten Horizontal Pod Autoscaler-(HPA-)Funktion von Open Source Kubernetes ermöglicht OKE Ihren KI-gestützten Anwendungen, schnell zu wachsen und zu schrumpfen, wenn die Nutzeranforderungen schwanken. Das bedeutet, dass Sie keine übermäßigen Kapazitäten bereitstellen und für ungenutzte Ressourcen bezahlen müssen, da OKE automatisch nach Bedarf skaliert werden kann.
Nutzen Sie selbstverwaltete OKE-Knoten, um die Leistungsfähigkeit der OCI-Supercluster-Infrastruktur zu nutzen, die für die Skalierung auf Zehntausende von NVIDIA-GPUs ohne Leistungseinbußen ausgelegt ist. Das Cluster-Netzwerk von OCI nutzt RDMA over Converged Ethernet (RoCE) auf NVIDIA ConnectX RDMA NICs, um Workloads mit hohem Durchsatz und geringer Latenz zu unterstützen.