Oracle Cloud Infrastructure (OCI) AI Blueprints 可助您在短短数分钟内部署、扩展并监控生成式 AI 工作负载。立即获取经 OCI 验证的预打包部署蓝图,包括推荐硬件、软件组件以及开箱即用的监控工具。
利用基于 OCI 验证优秀实践构建的蓝图,轻松解决 AI 工作负载部署难题,更便于实现大规模部署、判断驱动程序和应用程序的兼容性,并做出可观测性与管理相关的决策。
借助经过验证的硬件、软件和开箱即用的监控功能,在数分钟内即可部署和监控关键任务生成式 AI 工作负载。
借助与 Prometheus、Grafana 和 MLflow 等第三方观测应用的预构建连接,轻松应对 AI 工作负载中的监控和观测问题。
使用称为虚拟大语言模型 (vLLM) 的开源接口引擎,简化大语言模型 (LLM) 和视觉语言模型 (VLM) 的部署。在 Hugging Face 上部署自定义模型或从各种开放模型中进行选择。
OCI AI Blueprints 支持使用低阶自适应 (LoRA) 参数高效微调模型,这是一种高效的 LLM 微调方法。您可以选择微调定制 LLM 或使用来自 Hugging Face 的大多数开放 LLM。
在部署生产或研究工作负载之前,您可以使用强大的预检查蓝图进行全面的 GPU 运行状况验证,主动检测和解决问题。验证您的 GPU 基础设施是否已准备好在单节点和多节点环境中进行高需求实验。
借助此蓝图,您可以将推断服务分布在多个计算节点上,每个节点通常配备一个或多个 GPU。例如,使用 vLLM 和 LeaderWorkerSet,在具有 RDMA 的多个 H100 节点中部署 Llama 405B 大小的 LLM。
借助专属硬件建议、预打包的软件栈以及开箱即用的观测工具,快速高效地运行 AI 应用。
使用在推荐的 OCI GPU、CPU 和网络配置上测试的预打包蓝图,满怀信心地部署生成式 AI 工作负载,从而避免耗时的性能基准测试和猜测。
为 RAG、微调和推理等常用 AI 使用场景提供必要的框架、库和模型配置,或根据您的业务需求定制主要成就。
通过监控、日志记录和扩展等自动化 MLOps 任务,简化基础设施管理。快速开始使用 Prometheus、Grafana、MLflow 和 KEDA 等预安装工具,轻松获得生产级环境。
注:为免疑义,本网页所用以下术语专指以下含义: