نشر أحمال عمل GenAI وتوسيع نطاقها ومراقبتها في دقائق باستخدام مخططات الذكاء الاصطناعي للبنية التحتية من Oracle Cloud (OCI). احصل على مخططات نشر مُدمجة مُسبقًا تم التحقق منها بواسطة OCI، كاملة مع توصيات الأجهزة ومكونات البرامج والمراقبة الجاهزة.
تخفيف مخاوف نشر حمل عمل الذكاء الاصطناعي لتوسيع نطاق عمليات النشر وتحديد توافق المشغل والتطبيقات وإدارة قرارات المراقبة والإدارة باستخدام المخططات المبنية على أفضل الممارسات التي تم التحقق منها من OCI.
يمكنك نشر أحمال عمل GenAI بالغة الأهمية ومراقبتها في دقائق باستخدام مخططات تتضمن أجهزة وبرامج ومراقبة جاهزة تم التحقق منها.
اعتماد اتصالات تم إنشاؤها مُسبقًا بتطبيقات قابلية الملاحظة التابعة إلى جهات خارجية، مثل Prometheus وGrafana وMLflow للتخفيف من مخاوف المراقبة وإمكانية الملاحظة عبر أحمال عمل الذكاء الاصطناعي.
تبسيط نشر نماذج اللغات الكبيرة (LLM) ونماذج لغة الرؤية (VLM) باستخدام محرك واجهة مفتوح المصدر يسمى نموذج اللغة الكبيرة الظاهري (vLLM). نشر نموذج مُخصص أو التحديد من مجموعة متنوعة من النماذج المفتوحة على Hugging Face.
تبسيط مقارنة أداء البنية التحتية للضبط الدقيق باستخدام منهجية MLCommons. تضبط نموذج Llama-2-70B الكمي مع مجموعة بيانات قياسية.
تتيح مخططات OCI للذكاء الاصطناعي ضبط النماذج بكفاءة باستخدام التكيف منخفض المستوى (LoRA)، وهو أسلوب فعَّال للغاية لضبط LLM. ضبط LLM مُخصص أو استخدام معظم نماذج LLM المفتوحة من Hugging Face.
قبل نشر أحمال عمل الإنتاج أو البحث، يمكنك استخدام مُخطط قوي وفحص مُسبق للتحقق الشامل من صحة وحدة معالجة الرسومات (GPU) لاكتشاف المشكلات ومعالجتها بشكل استباقي. تحقق من أن البنية التحتية لوحدة معالجة الرسومات (GPU) لديك جاهزة لإجراء تجارب عالية الطلب عبر كل من البيئات أحادية العقدة ومتعددة العقدة.
اعتماد إطار شامل لخدمة نماذج اللغات الكبيرة على وحدات المعالجة المركزية باستخدام منصة Ollama مع مجموعة مُتنوعة من النماذج المدعومة، مثل Mistral وGemma وغيرها.
باستخدام هذا المُخطط، يمكنك توزيع خدمة الاستدلال عبر عدة عقد حوسبة، كل منها مجهز عادةً بوحدة معالجة رسومات واحدة أو أكثر. على سبيل المثال، قم بنشر نماذج LLM بحجم Llama 405B عبر عقد H100 متعددة باستخدام RDMA باستخدام vLLM وLeaderWorkerSet.
تقديم نماذج LLM مع التوسع التلقائي باستخدام KEDA، التي تتوسع إلى وحدات GPU وعقد متعددة باستخدام مقاييس التطبيق، مثل زمن انتقال الاستدلال.
نشر نماذج LLM إلى جزء بسيط من وحدة GPU باستخدام وحدات GPU متعددة المثيلات من NVIDIA وخدمتها باستخدام vLLM.
يمكنك تشغيل تطبيق الذكاء الاصطناعي لديك بسرعة وكفاءة من خلال توصيات الأجهزة المدروسة وحزم البرامج المُجمعة مُسبقًا وأدوات المراقبة الجاهزة.
يمكنك نشر أحمال عمل GenAI بثقة باستخدام المخططات المعبئة مُسبقًا التي تم اختبارها على تكوينات OCI GPU وCPU والشبكات الموصى بها، مما يوفر لك من قياس الأداء والتخمين المستغرقين للوقت.
اعتماد أطر العمل والمكتبات وتكوينات النماذج اللازمة لحالات استخدام الذكاء الاصطناعي الشائعة، مثل RAG والضبط الدقيق والاستدلال أو تخصيص حالات الاستخدام لاحتياجات عملك.
احصل على إدارة مبسطة للبنية التحتية من خلال مهام MLOps المؤتمتة، بما في ذلك المراقبة والتسجيل والتوسع. ابدأ بسرعة باستخدام أدوات مثبتة مُسبقًا، مثل Prometheus وGrafana وMLflow وKEDA، للوصول إلى بيئة على مستوى الإنتاج بأقل جهد.
تقديم مخططات OCI للذكاء الاصطناعي، وهي منصة لإدارة Kubernetes لحمل عمل الذكاء الاصطناعي مع مجموعة من المخططات التي يمكن أن تساعدك في نشر أحمال عمل الذكاء الاصطناعي وتوسيعها ومراقبتها في الإنتاج في غضون دقائق.
اقرأ المنشور الكاملجرب أكثر من 20 خدمة سحابية مجانية دائمًا، مع تجربة لمدة 30 يومًا لأكثر من ذلك.
استكشف مخططات OCI للذكاء الاصطناعي وجرِّبها أو انشرها في مستأجرة الإنتاج لديك.
تعرَّف على طريقة تمكين Oracle العملاء من التوفير باستمرار على الحوسبة والتخزين والشبكات مقارنةً بعمالقة الحوسبة السحابية الأخرى.
هل أنت مهتم بمعرفة المزيد عن Oracle Cloud Infrastructure؟ دع أحد خبرائنا يساعدك.