Déployez, redimensionnez et surveillez les workloads de GenAI en quelques minutes avec les modèles d'IA d'Oracle Cloud Infrastructure (OCI). Obtenez des plans de déploiement prépackagés vérifiés par OCI, accompagnés de recommandations matérielles, de composants logiciels et d'une surveillance prête à l'emploi.
Facilitez les problèmes de déploiement de workloads d'IA pour faire évoluer les déploiements, déterminer la compatibilité des pilotes et des applications, et gérez les décisions d'observabilité et de gestion avec des modèles basés sur les meilleures pratiques vérifiées par OCI.
Déployez et surveillez vos workloads de GenAI essentiels en quelques minutes grâce à des modèles de base qui incluent une surveillance matérielle, logicielle et prête à l'emploi vérifiée.
Adoptez des connexions prédéfinies à des applications d'observabilité tierces, telles que Prometheus, Grafana et MLflow, pour faciliter les problèmes de surveillance et d'observabilité dans les workloads d'IA.
Simplifiez le déploiement de grands modèles de langage (LLM) et de modèles de langage de vision (VLM) à l'aide d'un moteur d'interface open source appelé modèle de langage de grande taille virtuel (vLLM). Déployez un modèle personnalisé ou sélectionnez-le parmi une variété de modèles ouverts sur Hugging Face.
Rationalisez l'analyse comparative des infrastructures pour un fine-tuning à l'aide de la méthodologie MLCommons. Il affine un modèle Llama-2-70B quantifié avec un ensemble de données standard.
Les modèles de base d'IA OCI permettent un réglage efficace des modèles à l'aide d'une adaptation de bas niveau (LoRA), une méthode hautement efficace de fine-tuning des LLM. Affinez un LLM personnalisé ou utilisez la plupart des LLM ouverts de Hugging Face.
Avant de déployer des workloads de production ou de recherche, vous pouvez utiliser un modèle de pré-vérification robuste pour une validation complète de l'état des GPU afin de détecter et de résoudre les problèmes de manière proactive. Vérifiez que votre infrastructure GPU soit préparée pour des expériences à forte demande dans des environnements à noeud unique et à plusieurs noeuds.
Adoptez une structure complète pour les LLM sur les CPU à l'aide de la plateforme Ollama avec une variété de modèles pris en charge, tels que Mistral, Gemma et d'autres.
Avec ce modèle de base, vous pouvez répartir l'inférence entre plusieurs noeuds de calcul, chacun étant généralement équipé d'un ou de plusieurs GPU. Par exemple, déployez des LLM de taille Llama 405B sur plusieurs noeuds H100 avec RDMA à l'aide de vLLM et LeaderWorkerSet.
Servez les LLM avec le redimensionnement automatique à l'aide de KEDA, qui s'adapte à plusieurs GPU et noeuds à l'aide de mesures d'application, telles que la latence d'inférence.
Déployez des LLM sur une fraction d'un GPU avec les GPU multi-instances de NVIDIA et servez-les avec un vLLM.
Exécutez votre application d'IA rapidement et efficacement grâce à des recommandations matérielles avisées, des piles logicielles préemballées et des outils d'observabilité prêts à l'emploi.
Déployez vos workloads de GenAI en toute confiance à l'aide de modèles de base préemballés testés sur les configurations de GPU, d'UC et de réseau OCI recommandées, ce qui vous évite d'effectuer des analyses comparatives et des approximations des performances chronophages.
Adoptez les structures, bibliothèques et configurations de modèles nécessaires pour les cas d'utilisation courants de l'IA, tels que la RAG, le fine-tuning et l'inférence, ou personnalisez les cas d'usage pour vos besoins métier.
Bénéficiez d'une gestion simplifiée de l'infrastructure avec des tâches MLOps automatisées, notamment la surveillance, la journalisation et la mise à l'échelle. Lancez-vous rapidement avec des outils préinstallés, tels que Prometheus, Grafana, MLflow et KEDA, pour obtenir un environnement de production sans effort.
Présentation d'OCI AI Blueprints, une plateforme de gestion Kubernetes de workloads d'IA avec un ensemble de plans qui peuvent vous aider à déployer, à faire évoluer et à surveiller les workloads d'IA en production en quelques minutes.
Lire la suite de l'articleTestez plus de 20 services cloud Always Free grâce à une période d'essai de 30 jours pour encore plus de services.
Explorez les modèles de base d'IA d'OCI et testez-les ou déployez-les dans votre location de production.
Découvrez comment Oracle permet à ses clients d'économiser constamment sur le calcul, le stockage et le réseau par rapport à d'autres hyperscalers cloud.
Vous souhaitez en savoir plus sur Oracle Cloud Infrastructure ? Laissez l’un de nos experts vous aider.