הריצו עומסי עבודה תובעניים מהר יותר, כולל אימון והסקה של מודלים בקו הקדמי, סוכני בינה מלאכותית, מחשוב מדעי ומערכות המלצה, בכל מקום בענן המבוזר שלנו. השתמשו ב-Oracle Cloud Infrastructure (OCI) Supercluster לעד 131,072 יחידות עיבוד גרפי עבור ביצועים ב-zettascale.
האדריכלים המובילים של OCI חושפים כיצד רשתות אשכולות מניעות GenAI שניתנת להרחבה - ממספר מעבדי GPU ועד OCI Supercluster zettascale עם 131,072 מעבדי GPU של NVIDIA Blackwell.
Oracle ו-AMD הודיעו שמעבדי GPU של AMD Instinct MI355X יהיו זמינים ב-OCI עבור עומסי עבודה כבדים של אימון והסקה של בינה מלאכותית.
תשתית Oracle AI ניתנת להרחבה, לביצוע ולפריסה בכל מקום. גלו למה יכולת ההרחבה המובילה שלנו, מופעי GPU ממתכת חשופה ויכולות נוספות גורמים לנו להיות בולטים בתעשייה.
גלו את פרספקטיבת האנליסטים על תשתית OCI AI עם מעבדי AMD GPU וכיצד שילוב זה יכול לשפר את הפרודוקטיביות, להאיץ את הזמן לערך ולהוזיל את עלויות האנרגיה.
גלו כיצד שתי החברות מאיצות את אימוץ הבינה המלאכותית.
שפרו את הכשרת הבינה המלאכותית באמצעות מופעי המתכת החשופה הייחודיים של ה-GPU ב-OCI ורישות אשכולות RDMA מהיר במיוחד, המפחיתים את זמן ההמתנה ל-2.5 מיקרו-שניות בלבד. קבלו תמחור עד 220% טוב יותר למחשבים וירטואליים של GPU.
מנפו את OCI File Storage עם יעדי טעינה בעלי ביצועים גבוהים (HPMTs) ו-Lustre עבור טרהבייטים לשנייה של התפוקה. השתמשו באחסון של NVMe בנפח של עד 61.44 טרהבייט, הגדול ביותר בתעשייה עבור מופעי GPU.
הענן המבוזר של Oracle מאפשר לפרוס את תשתית הבינה המלאכותית בכל מקום כדי לעמוד בדרישות הביצועים, האבטחה והריבונות . למדו כיצד Oracle ו-NVIDIA מספקות בינה מלאכותית ריבונית בכל מקום.
The image shows boxes that represent compute and storage, connected by lines for cluster networking. On the far left, there are four boxes of compute and two for storage for the smallest cluster with 16,000 NVIDIA H100 GPUs. To its right there are 8 boxes of compute and 4 boxes of storage for 32,000 NVIDIA A100 GPUs in a cluster. Next, there are 16 boxes of compute and 8 boxes of storage for 64,000 NVIDIA H200 GPUs. Finally, to the far right, there are 32 boxes of compute and 16 boxes of storage for 128,000 NVIDIA Blackwell and Grace Blackwell GPUs. This shows scalability of OCI Supercluster increasing by 8X from the smallest 16,000 GPU configuration on the far left to the largest 128,000 GPU configuration on the far right.
Up to 131,072 GPUs, 8X more scalability
Network fabric innovations enable OCI Supercluster to scale up to 131,072 NVIDIA B200 GPUs, more than 100,000 Blackwell GPUs in NVIDIA Grace Blackwell Superchips, and 65,536 NVIDIA H200 GPUs.
מהסקה וכוונון ועד אימון מודלים של בינה מלאכותית גנרטיבית בקנה מידה גדול, OCI מציעה אשכולות GPU וירטואליים ופיזיים מהמובילים בתעשייה, הפועלים על גבי רשת ברוחב פס גבוה במיוחד ועם אחסון עתיר-ביצועים שיתאים לכל צורכי הבינה המלאכותית שלכם.
תוכנית נסו-לפני-שתרכשו עבור OCI Compute AMD עם מופעי Instinct MI300X GPUs.
מחשוב מתקדם במיוחד
• מופעי מתכת חשופה ללא תקורת היפרויזור כלשהי
• האצה על ידי NVIDIA Blackwell (GB200 NVL72, HGX B200),
Hopper (H200, H100), ומעבדי GPU מהדור הקודם
• אפשרות להשתמש במעבדי GPU של AMD MI300X
• יחידת עיבוד נתונים (DPU) להאצת חומרה מובנית
קיבולת מסיבית ואחסון עם תפוקה גבוהה
• אחסון מקומי: עד 61.44 טרהבייט של NVMe קיבולת כונן SSD
• אחסון קבצים: אחסון קבצים מנוהל על ידי Oracle עם Lustre ונקודות עיגון ביעד עם ביצועים גבוהים.
• אחסון בבלוק: אחסון מאוזן, ביצועים טובים יותר ונפחי ביצועים גבוהים במיוחד עם SLA
• אחסון אובייקטים: שכבות סיווג אחסון מובחנות, שכפול קופסאות אחסון ומגבלות קיבולת גבוהות
רישות מהיר במיוחד
• RDMA מותאם אישית באמצעות פרוטוקול Ethernet אחוד (RoCE v2)
• 2.5 עד 9.1 מיקרו-שניות של זמן המתנה לעבודה ברשת אשכולות
• רוחב פס של רשת אשכולות עד 3,200 ג'יגה לשנייה
• רוחב פס של רשת אשכולות עד 400 ג'יגה לשנייה במחשב הלקוח
מופעי מתכת חשופה של OCI המופעלים על ידי NVIDIA GB200 NVL72, NVIDIA B200, NVIDIA H200, AMD MI300X, NVIDIA L40S, NVIDIA H100 ו-NVIDIA A100 GPUs מאפשרים להריץ מודלים גדולים של בינה מלאכותית לתרחישי שימוש הכוללים למידה עמוקה, בינה מלאכותית לשיחה ובינה מלאכותית גנרטיבית.
עם OCI Supercluster, ניתן להתרחב עד 100,000 GB200 Superchips, 131,072 B200 GPUs, 65,536 H200 GPUs, 32,768 A100 GPUs, 16,384 H100 GPUs, 16,384 MI300X GPUs, ו 3,840 L40S GPUs לאשכול.
עבודה ברשת אשכולות RDMA במהירות גבוהה המופעלת על ידי כרטיסי ממשק רשת מסוג NVIDIA ConnectX עם RDMA over Converged Ethernet גרסה 2 מאפשרת ליצור אשכולות גדולים של מופעי GPU עם אותו רישות בזמן המתנה נמוך במיוחד ויכולת הרחבת יישומים הצפויה באתר הלקוח.
הלקוחות לא משלמים תוספת עבור יכולות RDMA, אחסון בלוקים או רוחב פס, והם מקבלים תעבורה יוצאת בנפח 10GB בחינם.
OCI Supercluster מאפשר ללקוחות לגשת לאחסון מקומי, אחסון בבלוקים, אחסון אובייקטים ואחסון קבצים למחשוב בקנה מידה של פטהבייט. מבין ספקי ענן הגדולים, OCI מציעה את הקיבולת הגבוהה ביותר של אחסון NVMe מקומי עתיר-ביצועים לשמירת גיבויים תכופה יותר במהלך האימון, מה שמוביל להתאוששות מהירה יותר במקרה של תקלה.
עבור מערכי נתונים מסיביים, OCI מציע אחסון קבצים בעל ביצועים גבוהים עם שירות Lustre ויעדי טעינה. מערכות קבצים במחשוב עתיר ביצועים, כולל BeeGFS, GlusterFS ו-WEKA, יכולות לשמש לאימון בינה מלאכותית בקנה מידה גדול מבלי להתפשר על הביצועים.
Watch OCI's top architects reveal how cluster networks power scalable generative AI. From a few GPUs to zettascale OCI Superclusters with more than 131,000 NVIDIA Blackwell GPUs, cluster networks deliver high speed, low latency, and a resilient network for your AI journey.
Seekr, חברת בינה מלאכותית המתמקדת באספקת בינה מלאכותית מהימנה, חתמה על הסכם רב-שנתי עם Oracle Cloud Infrastructure (OCI) כדי להאיץ במהירות פריסות בינה מלאכותית ארגוניות וכדי לבצע אסטרטגיה משותפת להשקה.
קראו את הפוסט המלאאמנו מודלים של בינה מלאכותית במופעי מתכת חשופה של OCI המופעלים על ידי מופעי GPU, רשת אשכולות RDMA ו-OCI Data Science.
מדי יום מתבצעות מיליארדי עסקאות פיננסיות. כדי להגן עליהן, יש צורך בכלי בינה מלאכותית מתקדמים שיכולים לנתח כמויות גדולות של נתוני לקוחות היסטוריים. מודלים של בינה מלאכותית ב-OCI Compute המופעלים על ידי מעבדי GPU של NVIDIA, יחד עם כלים לניהול מודלים כגון OCI Data Science ומודלים אחרים בקוד פתוח, עוזרים למוסדות פיננסיים להפחית את הסיכון להונאה.
בתי חולים רבים משתמשים בבינה מלאכותית כדי לנתח סוגים שונים של תמונות רפואיות (כמו צילומי רנטגן וסריקות MRI). מודלים ייעודיים יכולים לדווח על תוצאותיהן של בדיקות רפואיות ולהצביע על מקרים שדורשים בדיקה מיידית על ידי רדיולוג.
פיתוח תרופות הוא תהליך יקר וארוך שיכול לקחת שנים רבות ולעלות מיליוני דולרים. מינוף תשתית הבינה המלאכותית ויכולות האנליטיקס עוזר לחוקרים יכולים להאיץ את גילויין של תרופות חדשות. בנוסף, OCI Compute, המופעל על ידי מעבדי GPU של NVIDIA, יחד עם כלים לניהול זרימות עבודה של בינה מלאכותית כגון BioNeMo, מאפשר לאצור נתונים ולעבד אותם מראש.
Oracle מציעה תוכנית תמחור בחינם עבור רוב שירותי הבינה המלאכותית וגם חשבון ניסיון בחינם עם אשראי של US$300 כדי לנסות שירותי ענן נוספים. AI Services הוא אוסף של שירותים הכולל בינה מלאכותית גנרטיבית, עם מודלי למידת מכונה מוכנים לשימוש שעוזרים למפתחים ליישם בינה מלאכותית ביישומים ובפעולות עסקיות.
כמו כן, תחויבו רק על המחשוב והאחסון ב-OCI Data Science.
למדו עוד על רשת אשכולות RDMA, מופעי GPU, שרתי מתכת חשופה ועוד.
התמחור של Oracle Cloud הוא פשוט, עם תמחור נמוך עקבי ברחבי העולם, התומך במגוון רחב של מקרי שימוש. כדי להעריך את התעריף הנמוך שלך, בדוק את אומדן העלויות והגדר את השירותים בהתאם לצרכיך.
קבלו תמיכה בבניית פתרונות בינה מלאכותית או בפריסה של עומסי עבודה על תשתית OCI לבינה מלאכותית.
עקרונות ראשונים: Zettascale OCI Superclusters
Oracle ו-AMD משתפות פעולה כדי להציע מחשב על של בינה מלאכותית
האצת עומסי העבודה של בינה מלאכותית עם OCI (PDF)
קבוצת אסטרטגיות ארגוניות של AMD Instinct MI300X
התמונה מציגה מספר מוצרים לתשתית בינה מלאכותית החל בחלק השמאלי התחתון עם התצורות הקטנות ביותר, ולאחר מכן ובהדרגה עוברים לתצורות בקנה מידה בינוני ובקנה מידה גדול. התצורות הקטנות ביותר הן עם יחידת GPU אחת בלבד במחשב וירטואלי והתצורות הגדולות ביותר מיועדות ליותר מ-100,000 יחידות GPU באשכולות RDMA. 
