Modèles de base d'IA

Déployez, redimensionnez et surveillez les workloads de GenAI en quelques minutes avec les modèles d'IA d'Oracle Cloud Infrastructure (OCI). Obtenez des plans de déploiement prépackagés vérifiés par OCI, accompagnés de recommandations matérielles, de composants logiciels et d'une surveillance prête à l'emploi.

Pourquoi choisir OCI AI Blueprints ?

  • Déployez-vous en toute confiance grâce aux bonnes pratiques vérifiées par OCI

    Facilitez les problèmes de déploiement de workloads d'IA pour faire évoluer les déploiements, déterminer la compatibilité des pilotes et des applications, et gérez les décisions d'observabilité et de gestion avec des modèles basés sur les meilleures pratiques vérifiées par OCI.

  • Simplifiez votre déploiement de GenAI

    Déployez et surveillez vos workloads de GenAI essentiels en quelques minutes grâce à des modèles de base qui incluent une surveillance matérielle, logicielle et prête à l'emploi vérifiée.

  • Facilitez les problèmes de surveillance et d'observabilité liés à l'IA

    Adoptez des connexions prédéfinies à des applications d'observabilité tierces, telles que Prometheus, Grafana et MLflow, pour faciliter les problèmes de surveillance et d'observabilité dans les workloads d'IA.

Cas d'usages populaires pour les modèles de base d'IA

  • Modèles de base

    Simplifiez le déploiement de grands modèles de langage (LLM) et de modèles de langage de vision (VLM) à l'aide d'un moteur d'interface open source appelé modèle de langage de grande taille virtuel (vLLM). Déployez un modèle personnalisé ou sélectionnez-le parmi une variété de modèles ouverts sur Hugging Face.

  • Modèles de base

    Rationalisez l'analyse comparative des infrastructures pour un fine-tuning à l'aide de la méthodologie MLCommons. Il affine un modèle Llama-2-70B quantifié avec un ensemble de données standard.

  • Modèles de base

    Les modèles de base d'IA OCI permettent un réglage efficace des modèles à l'aide d'une adaptation de bas niveau (LoRA), une méthode hautement efficace de fine-tuning des LLM. Affinez un LLM personnalisé ou utilisez la plupart des LLM ouverts de Hugging Face.

  • Modèles de base

    Avant de déployer des workloads de production ou de recherche, vous pouvez utiliser un modèle de pré-vérification robuste pour une validation complète de l'état des GPU afin de détecter et de résoudre les problèmes de manière proactive. Vérifiez que votre infrastructure GPU soit préparée pour des expériences à forte demande dans des environnements à noeud unique et à plusieurs noeuds.

  • Modèles de base

    Adoptez une structure complète pour les LLM sur les CPU à l'aide de la plateforme Ollama avec une variété de modèles pris en charge, tels que Mistral, Gemma et d'autres.

  • Modèles de base

    Avec ce modèle de base, vous pouvez répartir l'inférence entre plusieurs noeuds de calcul, chacun étant généralement équipé d'un ou de plusieurs GPU. Par exemple, déployez des LLM de taille Llama 405B sur plusieurs noeuds H100 avec RDMA à l'aide de vLLM et LeaderWorkerSet.

  • Modèles de base

    Servez les LLM avec le redimensionnement automatique à l'aide de KEDA, qui s'adapte à plusieurs GPU et noeuds à l'aide de mesures d'application, telles que la latence d'inférence.

  • Modèles de base

    Déployez des LLM sur une fraction d'un GPU avec les GPU multi-instances de NVIDIA et servez-les avec un vLLM.

Utilisez les modèles de base d'IA OCI pour votre technologie

Exécutez votre application d'IA rapidement et efficacement grâce à des recommandations matérielles avisées, des piles logicielles préemballées et des outils d'observabilité prêts à l'emploi.

  • Recommandations de matériel validées

    Déployez vos workloads de GenAI en toute confiance à l'aide de modèles de base préemballés testés sur les configurations de GPU, d'UC et de réseau OCI recommandées, ce qui vous évite d'effectuer des analyses comparatives et des approximations des performances chronophages.

  • Piles logicielles préconfigurées

    Adoptez les structures, bibliothèques et configurations de modèles nécessaires pour les cas d'utilisation courants de l'IA, tels que la RAG, le fine-tuning et l'inférence, ou personnalisez les cas d'usage pour vos besoins métier.

  • Observabilité intégrée et redimensionnement automatique

    Bénéficiez d'une gestion simplifiée de l'infrastructure avec des tâches MLOps automatisées, notamment la surveillance, la journalisation et la mise à l'échelle. Lancez-vous rapidement avec des outils préinstallés, tels que Prometheus, Grafana, MLflow et KEDA, pour obtenir un environnement de production sans effort.

18 mars 2025

Modèles de base d'IA d'OCI : devenez un pro du déploiement de workloads d'IA sur OCI

Maywun Wong, directeur du marketing produit, Oracle
Amar Gowda, chef de produit principal, Oracle
Vishnu Kimmari, chef de produit principal, Oracle

Présentation d'OCI AI Blueprints, une plateforme de gestion Kubernetes de workloads d'IA avec un ensemble de plans qui peuvent vous aider à déployer, à faire évoluer et à surveiller les workloads d'IA en production en quelques minutes.

Lire la suite de l'article

Blogs de développeurs

Tout afficher

Lancez-vous avec les modèles de base d'IA

Essai gratuit

Testez plus de 20 services cloud Always Free grâce à une période d'essai de 30 jours pour encore plus de services.

Essayez les modèles d'IA d'OCI

Explorez les modèles de base d'IA d'OCI et testez-les ou déployez-les dans votre location de production.

Estimer vos coûts

Découvrez comment Oracle permet à ses clients d'économiser constamment sur le calcul, le stockage et le réseau par rapport à d'autres hyperscalers cloud.

Contactez l’équipe commerciale

Vous souhaitez en savoir plus sur Oracle Cloud Infrastructure ? Laissez l’un de nos experts vous aider.