Oracle Cloud Infrastructure AI Blueprints est une suite de modèles de base prédéfinis et vérifiés pour OCI qui fournissent des déploiements cohérents et reproductibles de workloads de GenAI en quelques minutes avec une observabilité intégrée.
Oracle Cloud Infrastructure AI Blueprints vous aide à déployer, à faire évoluer et à surveiller les workloads d'IA en production en quelques minutes. Les modèles de base d'IA sont des modèles de déploiement sans code vérifiés par OCI pour les workloads de GenAI populaires. Ils incluent des recommandations matérielles claires avec les GPU NVIDIA, des composants de pile logicielle avisés, tels que NVIDIA NIM, et des outils d'observabilité préemballés. Cela vous permet de déployer des workloads d'IA sans avoir à prendre de décisions de pile logicielle ou à provisionner manuellement l'infrastructure. Vous pouvez également tirer parti des fonctionnalités d'infrastructure avancées des modèles de base d'IA, telles que les GPU multi-instances ou le redimensionnement automatique en fonction de la latence d'inférence, avec quelques modifications de configuration simples. Grâce à ces fonctionnalités, nous réduisons l'intégration des GPU pour des déploiements stratégiques évolutifs de plusieurs semaines à quelques minutes.
Les modèles de base d'IA OCI sont disponibles gratuitement pour tous les utilisateurs OCI.
Les modèles de base d'IA OCI sont disponibles sur GitHub. Sur la page GitHub, vous allez suivre les instructions pour :
Pour tester un modèle de base d'IA OCI, créez un compartiment distinct et un cluster OCI Kubernetes Engine. Le déploiement de modèles de base d'IA OCI dans le compartiment nouvellement créé isole tout impact potentiel sur votre location.
Les conteneurs et ressources déployés dans la location sont les suivants :
Tous les modèles de base disponibles sont répertoriés ici.
Pour exécuter un modèle d'analyse comparative d'inférence, déployez simplement un modèle de base vLLM, puis utilisez un outil tel que LLMPerf pour exécuter une analyse comparative par rapport à votre adresse d'inférence.
Utilisez kubectl pour inspecter les journaux de pod dans votre cluster Oracle Kubernetes Engine. Vous pouvez également inspecter les journaux à partir du portail des modèles de base AI.
Oui, OCI AI Blueprints tire parti de KEDA pour le redimensionnement automatique basé sur les applications. Pour en savoir plus, consultez la documentation.
Tous les GPU NVIDIA disponibles dans votre région OCI, tels que A10, A100 ou H100.
Oui. Vous pouvez déployer des modèles de base d'IA OCI vers un cluster existant en suivant les instructions ici.
Pour exécuter plusieurs modèles de base sur le même noeud, nous vous recommandons d'activer les pools de noeuds partagés. En savoir plus ici.
Oracle Cloud Infrastructure Data Science et Oracle Cloud Infrastructure Data Science Quick Actions sont des offres PaaS destinées à vous aider à créer et à déployer des applications d'IA sur des instances de calcul gérées. AI Blueprints est un booster IaaS. OCI AI Blueprints est idéal pour les clients déployant des workloads de GenAI sur des instances réservées dans leur location. Dans les premières étapes du parcours client, AI Blueprints aide les points de contact avant-vente, l'analyse comparative des LLM et le prototypage rapide des applications d'IA de bout en bout, telles que la génération augmentée de récupération (RAG). Dans les phases ultérieures, les clients peuvent utiliser des modèles de base d'IA pour les workloads de production sur des clusters Kubernetes avec des configurations avancées telles que le redimensionnement automatique et l'inférence distribuée.
Le service OCI Generative AI est une offre PaaS. AI Blueprints est un booster IaaS. OCI AI Blueprints est idéal pour les clients déployant des workloads de GenAI sur des instances réservées dans leur location. Au cours des premières étapes du parcours client, AI Blueprints facilite les points de contact avant-vente, l'analyse comparative des LLM et le prototypage rapide des applications d'IA de bout en bout, telles que la RAG. Dans les phases ultérieures, les clients peuvent utiliser des modèles de base d'IA pour les workloads de production sur des clusters Kubernetes avec des configurations avancées telles que le redimensionnement automatique et l'inférence distribuée.
Vous pouvez déployer des LLM personnalisés ou la plupart des modèles disponibles sur Hugging Face avec notre modèle de base vLLM tant que les modèles sont compatibles avec vLLM.
Oui.
Oui. Vous pouvez utiliser d'autres solutions telles qu'Ollama, TensorRT et NIM.
Oui. Nous avons un modèle de base spécifique pour l'inférence de CPU qui exécute Ollama sur les CPU.
Oui.
AI Blueprints fournit actuellement une API (la CLI est en cours de développement). Vous pouvez également tirer parti de l'interface de ligne de commande de Kueueue pour l'orchestration et la planification des travaux avec des modèles de base d'IA.
Avec OCI AI Blueprints, vous pouvez bénéficier des avantages suivants :