Oracle Cloud Infrastructure (OCI) Compute fournit l'évolutivité et les performances de pointe pour les instances sans système d'exploitation et de machine virtuelle (VM) optimisées par des GPU NVIDIA et AMD pour les graphiques grand public, l'inférence d'IA, l'entraînement d'IA, les jumeaux numériques et le HPC.
Découvrez la disponibilité des systèmes NVIDIA GB200 NVL72 sur NVIDIA DGX Cloud et OCI.
Oracle et AMD ont annoncé que les GPU AMD Instinct MI355X seront disponibles sur OCI pour les charges de travail d'entraînement et d'inférence d'IA à grande échelle.
Choisissez l'infrastructure d'IA OCI pour accélérer rapidement les déploiements d'IA d'entreprise, l'entraînement d'IA multinœuds et les agents.
Découvrez comment les réseaux de cluster d'OCI alimentent l'IA générative évolutive.
Oracle et NVIDIA proposent une IA souveraine en tout lieu.
Le plug-in dans OCI Kubernetes Engine offre davantage de contrôle et de flexibilité.
Déployez et adaptez facilement les charges de travail d'IA en production.
Les instances sans système d'exploitation d'OCI Compute avec des processeurs graphiques AMD sont proposées en disponibilité générale.
Découvrez comment l'infrastructure Oracle AI et les processeurs graphiques AMD Instinct fournissent une base d'IA/ML hautes performances, évolutive et rentable.
Évolutivité
131 072
Nombre maximal de GPU par supercluster OCI1
Performances
3 200
Jusqu'à 3 200 Gb/s de bande passante réseau de cluster RDMA2
Valeur
220 %
Les GPU des autres fournisseurs de services en nuage peuvent coûter jusqu'à 220 % plus cher3
Choix
VM/BM
Redimensionnement avec machine virtuelle et performances avec des instances sans système d'exploitation
1. OCI Supercluster évolue jusqu'à 131 072 processeurs graphiques NVIDIA Blackwell B200 ; 131 072 processeurs graphiques NVIDIA Blackwell B200 dans les superpuces NVIDIA Grace Blackwell GB200 ; 65 536 processeurs graphiques NVIDIA H200 Tensor Core ; 32 768 processeurs graphiques NVIDIA A100 Tensor Core ; 16 384 processeurs graphiques NVIDIA H100 Tensor Core ; et 16 384 processeurs graphiques AMD MI300X.
2. Pour les instances sans système d'exploitation avec des processeurs graphiques NVIDIA B200, H200 et H100 et des accélérateurs AMD Instinct MI300X.
3. Tarification à la demande du 5 juin 2024.
Inscrivez-vous au nouveau programme d'essai avant d'acheter pour OCI Compute avec des GPU MI300X AMD Instinct.
OCI est le seul fournisseur infonuagique majeur à proposer des instances sans système d'exploitation avec des GPU NVIDIA et AMD pour des performances élevées, sans frais de virtualisation. Pour les points de reprise lors de l'entraînement de l'IA, nos instances fournissent le stockage le plus local par nœud (61,4 To avec des GPU H100).
OCI offre la valeur et les performances les plus élevées pour les instances de calcul sans système d'exploitation et de machine virtuelle optimisées par les processeurs graphiques NVIDIA Blackwell, les processeurs graphiques H200 Tensor Core, les processeurs graphiques H100 Tensor Core, les processeurs graphiques L40S, les processeurs graphiques A100 Tensor Core, les processeurs graphiques A10 Tensor Core et les processeurs graphiques NVIDIA de générations précédentes.
OCI propose la Superpuce NVIDIA GB200 Grace Blackwell dans des superclusters qui évoluent jusqu'à plus de 100 000 processeurs graphiques.
OCI propose des processeurs graphiques AMD Instinct MI300X avec 192 Go de mémoire à un prix compétitif de 6 $ par processeur graphique et par heure.
La mise en réseau de clusters à faible latence d'Oracle, reposant sur l'accès direct à distance à la mémoire (RDMA), fournit une latence de l'ordre de la microseconde.
Pour les machines virtuelles, choisissez parmi les architectures GPU Hopper, Ampere et d'anciennes générations de NVIDIA avec 1 à 4 cœurs, 16 à 64 Go de mémoire GPU par machine virtuelle et jusqu'à 48 Gb/s de bande passante réseau.
Utilisez OCI Supercluster avec des instances sans système d'exploitation qui incluent des GPU AMD Instinct, des GPU NVIDIA Blackwell ou des Superchips, des GPU NVIDIA Hopper ou des Superchips et des GPU NVIDIA Ampere.
Tirez parti de Kubernetes géré, du maillage de services et du registre de conteneurs pour orchestrer l'entraînement et l'inférence de l'IA et de l'apprentissage automatique (ML) avec les conteneurs.
Oracle Cloud Marketplace fournit des logiciels et des images disque pour la science des données, les analyses, l’intelligence artificielle (IA) et des modèles d'apprentissage automatique afin que les clients puissent analyser rapidement leurs données.
Accédez à NVIDIA AI Enterprise, une plateforme logicielle complète pour l'IA de science des données et de production, y compris l'IA générative, la vision par ordinateur et l'IA vocale.
NVIDIA DGX Cloud sur OCI est une plateforme de formation en tant que service de l'IA, offrant aux développeurs une expérience sans serveur optimisée pour l'IA générative.
Utilisez NVIDIA GPU Cloud Machine Image pour des centaines d'applications optimisées pour le GPU pour l'apprentissage automatique, l'apprentissage profond et le calcul haute performance, couvrant un large éventail de secteurs d'activité et de charges de travail.
Proposez des postes de travail performants à vos collaborateurs là où ils en ont besoin en exécutant NVIDIA RTX Virtual Workstation sur Oracle Cloud.
Associé au calcul GPU, le nuage distribué d'OCI aide les entreprises à exécuter des services d'IA et de nuage là où et comment ils sont nécessaires.
Prenez en charge la résidence des données dans une région ou un pays, notamment l'UE, les États-Unis, le Royaume-Uni et l'Australie.
Déployez une région infonuagique complète dans votre centre de données avec OCI Dedicated Region pour conserver un contrôle total de vos données et applications.
Devenez partenaire d'Oracle Alloy et fournissez vos services en nuage pour répondre à des besoins spécifiques du marché.
Les développeurs qui créent des applications à l’aide de conteneurs exploitent un service de registre de conteneur privé hautement disponible géré par Oracle pour stocker et partager des images de conteneurs. Poussez ou tirez des images Docker vers et depuis le registre à l’aide de l’API Docker V2 et de l’interface de lignes de commande (CLI) Docker standard. Les images peuvent être extraites directement dans un déploiement de Kubernetes.
Les fonctions en tant que service (FaaS) permettent que les développeurs exécutent des applications serverless qui s’intègrent à Oracle Cloud Infrastructure, à Oracle Cloud Applications et à des services tiers. Augmentez l’efficacité des développeurs avec la communauté du code source libre Fn Project.
Entraînez des modèles d'IA à l'aide d'OCI Data Science, d'instances sans système d'exploitation, de réseaux de clusters utilisant le RDMA et des processeurs graphiques NVIDIA.
Les instances d'OCI Compute équipées de processeurs graphiques NVIDIA fournissent des performances élevées et constantes pour les VDI.
OCI facilite l'ingénierie assistée par ordinateur et la dynamique des fluides numérique avec à la clé des prédictions rapides des propriétés aérodynamiques des objets.
Oracle offre un niveau gratuit pour la plupart des services d'IA ainsi qu'un compte d'essai gratuit avec 300 $ US de crédits pour tester ses services en nuage complémentaires. Les services d'IA comprennent un ensemble d'offres, incluant l'IA générative, avec des modèles d'apprentissage automatique prédéfinis qui permettent aux développeurs d'appliquer plus facilement l'IA aux applications et aux opérations métier.
Vous n'avez à payer que des frais de calcul et de stockage pour OCI Data Science.
Découvrez comment Oracle aide les clients à tirer parti des processeurs graphiques NVIDIA et AMD pour une variété de cas d'utilisation de l'IA.
En savoir plus sur l'infrastructure pour l'IA, les services d'IA, l'IA générative et le calcul.
La tarification d'Oracle Cloud est simple, avec des tarifs faibles homogènes dans le monde entier et prenant en charge un large éventail de cas spécifiques. Pour estimer votre taux réduit, consultez l’estimateur de coûts et configurez les services en fonction de vos besoins.
Obtenez de l'aide pour créer votre prochaine solution de GPU ou déployer votre charge de travail d'IA sur l'infrastructure OCI AI.
Ce diagramme décrit deux étapes du développement d'un modèle d'apprentissage profond : l'entraînement du modèle et l'inférence à partir du modèle. Dans l'entraînement du modèle (à gauche), le réseau neuronal non entraîné est soumis à un algorithme d'entraînement utilisant OCI Data Science, le calcul sans système d'exploitation, un stockage local et un réseau en cluster. L'algorithme d'entraînement produit un modèle entraîné avec une nouvelle fonctionnalité. L'étape d'inférence de modèle est décrite à droite. Par exemple, un modèle entraîné, tel que DALL-E 2, peut prendre des entrées de texte et générer des images. Une entrée de texte est introduite dans le modèle entraîné et le modèle génère une image.
Infrastructure de bureau virtuel
Mécanique des fluides numérique et calcul haute performance à l'aide d'instances GPU