أحدثها يأتي من CoreWeave ، وهي شركة ناشئة سحابية في الولايات المتحدة.
أعلنت الشركة عن تمويل بقيمة 2.3 مليار دولار ، والأمر الأكثر إثارة للصدمة هو أن الضمان لهذه الأموال هو وحدة معالجة الرسومات (GPU) التي تمتلكها. تحت تصاعد النماذج الكبيرة ، أصبحت GPU عملة صعبة ، والسبب في أن CoreWeave يمكن أن تحتوي على الكثير من العناصر النادرة من Nvidia بسبب وضعها السابق - أكبر عامل منجم Ethereum في أمريكا الشمالية.
في ذلك الوقت ، كان لديها أكثر من 50000 وحدة معالجة رسومات (GPU) للتعدين. بعد مواجهة عدم استدامة التعدين ، حولت CoreWeave انتباهها إلى الذكاء الاصطناعي والمجالات الأخرى التي تتطلب الحوسبة المتوازية ، واشترت عددًا كبيرًا من رقائق NVIDIA قبل أن تصبح ChatGPT شائعة - في ذلك الوقت ، كانت الطاقة الإنتاجية للرقائق كافية.
نتيجة لذلك ، تدعي CoreWeave أنها الشركة الوحيدة في العالم التي يمكنها توفير قوة حوسبة H100 على نطاق واسع ، وقد تحولت أيضًا إلى "بائع سحابي".
نعم ، يتجاوز إمداد وحدة معالجة الرسومات الخاصة بها جميع عمالقة الخدمات السحابية ، بما في ذلك Google Cloud و Amazon Cloud و Azure من Microsoft.
قد يبدو هذا غريبًا. حتى بدون عنق الزجاجة في عدد وحدات معالجة الرسومات ، لا يزال إنشاء مركز بيانات يتطلب تكاليف ضخمة ومساحة رائعة وتصميمًا لتبديد الطاقة والحرارة وتعاونًا معقدًا للغاية في البرامج والأجهزة. بشكل عام ، فقط أولئك الذين يمكنهم تلبية هذه الظروف قد تكون شركة عملاقة وليست شركة ناشئة قامت للتو بجمع جولة من السلسلة B (421 مليون دولار).
تنبع قدرة CoreWeave على القيام بذلك من فهم مختلف تمامًا لمركز البيانات.
تتكون مراكز البيانات التقليدية من وحدات المعالجة المركزية (CPU) ، التي تركز على قدرات الحوسبة ذات الأغراض العامة ، والتي تهيمن عليها الرقائق أولاً من Intel ثم من AMD لاحقًا.
ومع ذلك ، فإن مركز البيانات الجديد للحوسبة المتسارعة يضع مزيدًا من التركيز على الحوسبة المتوازية ، مما يعني أنه يحتاج إلى ذاكرة أكبر وعرض النطاق الترددي والقدرة على ربط جميع وحدات الحوسبة المتسارعة عن كثب. قال مؤسس Nvidia والرئيس التنفيذي Huang Renxun إن هذه العملية هي "تحديث مركز البيانات" الذي يراه دورة مدتها 10 سنوات.
تنذر بداية هذه الدورة الجديدة ببناء مركز البيانات بالكامل ، وتنسيق البرامج والأجهزة ، وحتى تزويد الطاقة وهياكل التبريد بحاجة إلى إعادة تصميم. لقد أعاد هذا تقريبًا جميع مزودي الخدمات السحابية إلى خط البداية - لا يمكن نسخ الجيل السابق من حلول مركز البيانات المصممة لوحدات المعالجة المركزية على الإطلاق. على سبيل المثال ، تتطلب تقنية Infinite Band التي تستخدمها Nvidia لتوصيل مجموعات GPU الضخمة أكثر من 500 ميل من الكابلات ، والتي لا توجد ببساطة في تصميمات مراكز البيانات التقليدية.
أعطت CoreWeave مثالًا آخر. مع نفس حجم الموقع ، تتطلب مجموعات GPU طاقة 4 مرات أكثر من مراكز البيانات التقليدية. لذلك ، يجب إعادة تصميم نظام الطاقة ونظام التبريد لمركز البيانات الجديد بالكامل ، وهو ما لا يعتبر حتى تنسيقًا لـ تكلفة الأجهزة والبرامج.
CoreWeave ، التي استبقت الفرصة ، لا يمكنها فقط توفير قوة حوسبة H100 ضخمة ، ولكنها أيضًا أسرع بعشرات المرات من الخدمات السحابية الأخرى وفي نفس الوقت تكون التكلفة أقل بنسبة 80٪. يمكننا أن نعزو ذلك إلى التطبيق الدقيق المبكر لـ Huang Renxun رؤية مركز البيانات - يتحول مركز البيانات نحو الحوسبة المتسارعة ، ويتم توفير قوة الحوسبة النادرة من خلال السحابة.
بهذه الطريقة ، أصبحت شركة تعدين العملات الافتراضية شركة حوسبة سحابية مشهورة ، فقط لأنها أكثر تلاميذ Nvidia ولاءً.
** ما هو نوع السحابة Nvidia Cloud **
أيًا كان من لديه Nvidia GPUs فهو البائع السحابي الأكثر شيوعًا ، فمن لديه أكثر وحدات معالجة رسومات Nvidia؟ على ما يبدو هو نفسه.
لذلك ، أثناء دعمها للشركات الناشئة السحابية المماثلة ، تقوم Nvidia أيضًا ببناء السحابة الخاصة بها.
تتمتع Nvidia بالعديد من المزايا في عمل السحابة نفسها ، وأكثرها وضوحًا أنها لا تتأثر بالعلاقة بين العرض والطلب على وحدة معالجة الرسومات. قال Musk ذات مرة علنًا أن الحصول على وحدات معالجة الرسومات أصعب بكثير من الحصول على الأدوية ، والسبب في أن CoreWeave يمكن أن يوفر طاقة حوسبة H100 واسعة النطاق للغاية كما ورد أنه مرتبط بالإمداد الكافي من Nvidia - شاركت Nvidia في CoreWeave القليل قبل أشهر B جولة التمويل.
لكن من الواضح أن مجرد الاستثمار في بعض الشركات الناشئة ليس كافيًا ، والطلب الهائل على القوة الحاسوبية للذكاء الاصطناعي التوليدي سيسمح لشركة Nvidia في النهاية بأن تنتهي من تلقاء نفسها. في مؤتمر GTC في مارس من هذا العام ، أطلقت Nvidia خدمتها السحابية DGX Cloud ، والتي تم إطلاقها رسميًا في منتصف العام.
كما يتضح من الاسم ، تستخدم DGX Cloud بشكل مباشر إمكانات الكمبيوتر العملاق DGX من Nvidia ، وكل مثيل من السحابة مزود بـ 8 H100 أو A100 GPU وذاكرة 640 جيجابايت.
تتبنى DGX Cloud بنية بزمن انتقال منخفض تسمح بتوسيع تدفقات العمل الكبيرة عبر المجموعات وتوزيعها بالتوازي عبر عقد حوسبة متعددة. على سبيل المثال ، يمكن لشركة Oracle ، التي أعلنت أولًا عن تعاونها مع DGX Cloud ، نشر أكثر من 30000 وحدة معالجة رسومات A100 لكل مجموعة على OCI Supercluster ، بحيث يمكن تدريب النماذج الكبيرة على السحابة. يمكن للمستخدمين الوصول بحرية إلى حواسيب الذكاء الاصطناعي العملاقة الخاصة بهم في أي مكان (قالت Nvidia أن توزيع قوة الحوسبة حصري) ، ويتم استخدام الواجهة الأمامية فقط للتعامل معهم. باستثناء عملية التطوير نفسها ، لا داعي للقلق بشأن أي مشاكل تتعلق بالبنية التحتية للأجهزة.
تأتي الخدمة على أساس شهري مقابل ما يقرب من 40،000 دولار. بالطبع ، لا يزال أرخص بكثير من شراء خادم DGX مباشرة مقابل 200000 دولار أمريكي ، لكن العديد من الناس أشاروا إلى أن Microsoft Azure يتقاضى أقل من 20000 دولار أمريكي لنفس 8 A100GPUs ، أي ما يقرب من نصف السابق.
لماذا هو مكلفة جدا؟ نظرًا لأن الخدمة السحابية لـ Nvidia تختلف عن الخدمات الأخرى ، فهي لا تشمل قوة الحوسبة فحسب ، بل تشمل أيضًا مجموعة كاملة من حلول الذكاء الاصطناعي.
تم دمج خدمتين تسمى Base Command Platform و AI Enterprise في DGX Cloud. الأول هو برنامج إدارة ومراقبة ، والذي لا يمكن استخدامه فقط لتسجيل الحمل التدريبي لقوة الحوسبة السحابية ، وتوفير تكامل طاقة الحوسبة السحابية والمحلية ، ولكنه يسمح أيضًا للمستخدمين بالوصول مباشرة إلى DGX Cloud من المستعرض. هذا الأخير هو طبقة البرامج في منصة Nvidia AI. توفر الآلاف من حزم البرامج مجموعة متنوعة من النماذج المدربة مسبقًا وأطر الذكاء الاصطناعي والمكتبات السريعة ، وبالتالي تبسيط تكاليف التطوير والنشر الشاملة للذكاء الاصطناعي. بالإضافة إلى ذلك ، توفر DGX Cloud أيضًا خدمة صب نموذجية تسمى AI Foundations ، مما يسمح لمستخدمي الأعمال باستخدام بيانات الملكية الخاصة بهم لتخصيص نماذجهم العمودية الكبيرة.
هذا الحل الكامل جنبًا إلى جنب مع البرامج والأجهزة يجعل سرعة تدريب DGX Cloud أعلى بمرتين إلى ثلاث مرات من سرعة الحوسبة السحابية التقليدية.هذا هو أكبر فرق بين DGX Cloud والخدمات السحابية التقليدية.إنه يدمج جانبي NVIDIA بشكل جيد للغاية. نقطة قوية: بيئة الذكاء الاصطناعي وقوة الحوسبة. بالنسبة إلى Nvidia ، يبدو أن عبارة "البرنامج كخدمة" قد تغيرت إلى "تكامل البرامج والأجهزة كخدمة". تمثل DGX Cloud بشكل مركزي سقف القدرة على التكامل الرأسي التصاعدي للشركة المصنعة للأجهزة.
** حقيقة وطموح Huang Renxun **
لكن هذا لا يعني أن Nvidia رفعت تمامًا جدول بائعي السحابة التقليديين. يتم تقديم خدماتها من خلال بائعي السحابة التقليديين. تم الإعلان في البداية عن إطلاق DGX Cloud على Oracle Cloud ، تليها Microsoft و Google ، والطريقة التي تعمل بها Nvidia مع هؤلاء البائعين السحابيين مثيرة جدًا للاهتمام: تبيع Nvidia أولاً أجهزة GPU إلى هؤلاء الشركاء السحابيين ، ثم تستأجر الأجهزة من أجل التشغيل سحابة DGX.
وقال البعض مازحا إن هذا يسمى كسب المال من الجانبين دون تأخير.
في الواقع ، أوضح Huang Jensen هذا النموذج: "نحن نستفيد من استخدام العملاء لمنصة الحوسبة الخاصة بنا ، ويستفيد العملاء من خلال وضعنا (منصة الحوسبة) في السحابة (بائع السحابة)."
إذا استمعت فقط إلى ما قاله هوانغ رينكسون ، فهذه نهاية سعيدة ومربحة للجانبين ، لكن هذه مجرد روايته المتسقة. لقد دخلت Nvidia بالفعل في منافسة مع عملائها ، وهي تعرف ذلك.
يخبرنا تقدم DGX Cloud أن Huang Renxun لا ينوي نشره على موردي السحابة التقليديين فقط. في SIGGRAPH 2023 في أغسطس ، أعلنت Nvidia لأول مرة عن تعاونها مع Hugging Face ، ثم أطلقت خدمة تسمى AI Workbench. إنها جميعًا تتيح للمستخدمين إنشاء نماذج كبيرة للتدريب المسبق واختبارها وتخصيصها بسهولة ، كما أن دعم قوة الحوسبة وراءها يتضمن بشكل طبيعي DGX Cloud.
من الواضح أن هذا سيؤثر على العلاقة بين Nvidia وبائعي السحابة: إن أهم مزودي الخدمات السحابية ، بما في ذلك Google و Amazon و Microsoft ، هم أيضًا عملاء رئيسيون لـ Nvidia ، ولا بد أن ترويج Nvidia لخدماتها السحابية الخاصة لا بد أن ينتزع حصتهم في السوق. على وجه الخصوص ، لقد ذكرنا بالفعل في الجزء الأول أنه ، بصفتهم عمالقة مراكز البيانات والخدمات السحابية ، ليس لديهم ميزة كبيرة في بناء الجيل التالي من مراكز البيانات.
لن يكون Huang Renxun على علم بهذا ، لذا فإن موقفه تجاه DGX Cloud مثير جدًا للاهتمام ، على سبيل المثال ، صرح علنًا أن نسبة مزيج الخدمة السحابية المناسبة يجب أن تكون 10٪ Nvidia DGX بالإضافة إلى 90٪ سحابة عامة. بعبارة أخرى ، في موقع Huang Renxun ، لا تعتبر DGX Cloud خصمًا أو تهديدًا لبائعي السحابة التقليديين ، ولكنها شريك.
في المكالمة الجماعية للمحللين بعد الإعلان عن التقرير المالي الربع سنوي للربع الأول ، تحدث Huang Renxun أكثر عن فوائد هذا التعاون ، "وضع مربح للجانبين" ، وصفه Huang Renxun بهذه الطريقة. من وجهة نظره ، فإن DGX Cloud عبارة عن مكدس Nvidia خالص (مكدس Nvidia خالص) ، والذي يجمع بين تطوير الذكاء الاصطناعي وقواعد البيانات الكبيرة والشبكات عالية السرعة والكمون المنخفض لتصبح بنية تحتية ملائمة للذكاء الاصطناعي لفتح سوق جديد ضخم - مشاركين في يشمل هذا السوق Nvidia وبائعي السحابة التقليديين ، وسيستفيد الجميع من انفجار الذكاء الاصطناعي التوليدي.
محاولة تجنب التعارضات هي في الواقع لأن DGX Cloud قد تحافظ فقط على حجم صغير لفترة طويلة.
السبب الأول بالطبع هو عنق الزجاجة لقوة الحوسبة. "العديد من الطلبات بشكل لا يصدق" هو وصف Huang Renxun لحجم الأعمال لمركز البيانات. بالطبع ، تتمثل الأولوية الأساسية لشركة Nvidia في تطوير وضمان إنتاج أكبر عدد ممكن من الرقائق المتقدمة التي تلبي طلب السوق ، وإلا فإن نطاق الخدمات السحابية لا يمكن يتم توسيعها.
على الرغم من أن TSMC في إنتاج مستمر ، إلا أنه من الجدير بالذكر أن فجوة طاقة الحوسبة لا تصبح أصغر ولكنها أكبر ، لأنه بمجرد إطلاق النموذج الكبير وتسويقه (مثل ChatGPT) ، ستزداد تكلفة المنطق بشكل كبير مع مقياس المستخدمين مع زيادة المستوى ، على المدى الطويل ، سيكون أكبر بكثير من قوة الحوسبة المطلوبة لتدريب النموذج (التكبير الذي قدمه شخص ما هو 100).
بالإضافة إلى ذلك ، فإنه يأخذ في الاعتبار أيضًا تعقيد الشراكة بين Nvidia وبائعي السحابة التقليديين. إذا ظهرت DGX Cloud كمنتج تنافسي بحت ، فقد تشغل حصة كبيرة في السوق ، ولكن من المحتم أن تسرع الشركات المصنعة السحابية للتخلص من اعتمادها على Nvidia - لقد طوروا بالفعل رقائقهم الخاصة من أجل تقليل "NVIDIA الضرائب ".
من منظور آخر ، قد لا يكون من مصلحة Nvidia توسيع نطاق DGX Cloud بالكامل. من الرقائق إلى بطاقات رسومات الألعاب إلى الخوادم ومراكز البيانات ، نادرًا ما تصنع Nvidia منتجات الأجهزة بنفسها ، وتفضل التعاون مع الشركات المصنعة للمعدات الأصلية - لدرجة أنه لا يزال يتعين عليك الذهاب إلى الشركات المصنعة للمعدات الأصلية لشراء رقائق Nvidia. هذا يسمح لـ Nvidia بالتحكم في التكاليف بشكل جيد والحفاظ على هوامش الربح.
اليوم ، يبدو أن Nvidia وبائعي السحابة يحافظون على التوازن ، ولكن يتم استخدام الرصيد في الانهيار ، خاصة عندما يكون أحد الأطراف هو Nvidia. بعد كل شيء ، هذه هي السنة الأولى من دورة التحديث لما يسمى بـ "العشر سنوات القادمة" لـ Huang Renxun -مركز بيانات الجيل ".
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
Nvidia ، التي تعمل على قدم وساق ، هل الهدف التالي لسرقة أعمال بائعي السحابة؟
** كل من لديه Nvidia GPU هو الشركة السحابية **
هناك دائمًا أخبار جديدة عن Nvidia تفاجئك.
أحدثها يأتي من CoreWeave ، وهي شركة ناشئة سحابية في الولايات المتحدة.
أعلنت الشركة عن تمويل بقيمة 2.3 مليار دولار ، والأمر الأكثر إثارة للصدمة هو أن الضمان لهذه الأموال هو وحدة معالجة الرسومات (GPU) التي تمتلكها. تحت تصاعد النماذج الكبيرة ، أصبحت GPU عملة صعبة ، والسبب في أن CoreWeave يمكن أن تحتوي على الكثير من العناصر النادرة من Nvidia بسبب وضعها السابق - أكبر عامل منجم Ethereum في أمريكا الشمالية.
في ذلك الوقت ، كان لديها أكثر من 50000 وحدة معالجة رسومات (GPU) للتعدين. بعد مواجهة عدم استدامة التعدين ، حولت CoreWeave انتباهها إلى الذكاء الاصطناعي والمجالات الأخرى التي تتطلب الحوسبة المتوازية ، واشترت عددًا كبيرًا من رقائق NVIDIA قبل أن تصبح ChatGPT شائعة - في ذلك الوقت ، كانت الطاقة الإنتاجية للرقائق كافية.
نتيجة لذلك ، تدعي CoreWeave أنها الشركة الوحيدة في العالم التي يمكنها توفير قوة حوسبة H100 على نطاق واسع ، وقد تحولت أيضًا إلى "بائع سحابي".
قد يبدو هذا غريبًا. حتى بدون عنق الزجاجة في عدد وحدات معالجة الرسومات ، لا يزال إنشاء مركز بيانات يتطلب تكاليف ضخمة ومساحة رائعة وتصميمًا لتبديد الطاقة والحرارة وتعاونًا معقدًا للغاية في البرامج والأجهزة. بشكل عام ، فقط أولئك الذين يمكنهم تلبية هذه الظروف قد تكون شركة عملاقة وليست شركة ناشئة قامت للتو بجمع جولة من السلسلة B (421 مليون دولار).
تنبع قدرة CoreWeave على القيام بذلك من فهم مختلف تمامًا لمركز البيانات.
تتكون مراكز البيانات التقليدية من وحدات المعالجة المركزية (CPU) ، التي تركز على قدرات الحوسبة ذات الأغراض العامة ، والتي تهيمن عليها الرقائق أولاً من Intel ثم من AMD لاحقًا.
ومع ذلك ، فإن مركز البيانات الجديد للحوسبة المتسارعة يضع مزيدًا من التركيز على الحوسبة المتوازية ، مما يعني أنه يحتاج إلى ذاكرة أكبر وعرض النطاق الترددي والقدرة على ربط جميع وحدات الحوسبة المتسارعة عن كثب. قال مؤسس Nvidia والرئيس التنفيذي Huang Renxun إن هذه العملية هي "تحديث مركز البيانات" الذي يراه دورة مدتها 10 سنوات.
تنذر بداية هذه الدورة الجديدة ببناء مركز البيانات بالكامل ، وتنسيق البرامج والأجهزة ، وحتى تزويد الطاقة وهياكل التبريد بحاجة إلى إعادة تصميم. لقد أعاد هذا تقريبًا جميع مزودي الخدمات السحابية إلى خط البداية - لا يمكن نسخ الجيل السابق من حلول مركز البيانات المصممة لوحدات المعالجة المركزية على الإطلاق. على سبيل المثال ، تتطلب تقنية Infinite Band التي تستخدمها Nvidia لتوصيل مجموعات GPU الضخمة أكثر من 500 ميل من الكابلات ، والتي لا توجد ببساطة في تصميمات مراكز البيانات التقليدية.
أعطت CoreWeave مثالًا آخر. مع نفس حجم الموقع ، تتطلب مجموعات GPU طاقة 4 مرات أكثر من مراكز البيانات التقليدية. لذلك ، يجب إعادة تصميم نظام الطاقة ونظام التبريد لمركز البيانات الجديد بالكامل ، وهو ما لا يعتبر حتى تنسيقًا لـ تكلفة الأجهزة والبرامج.
CoreWeave ، التي استبقت الفرصة ، لا يمكنها فقط توفير قوة حوسبة H100 ضخمة ، ولكنها أيضًا أسرع بعشرات المرات من الخدمات السحابية الأخرى وفي نفس الوقت تكون التكلفة أقل بنسبة 80٪. يمكننا أن نعزو ذلك إلى التطبيق الدقيق المبكر لـ Huang Renxun رؤية مركز البيانات - يتحول مركز البيانات نحو الحوسبة المتسارعة ، ويتم توفير قوة الحوسبة النادرة من خلال السحابة.
بهذه الطريقة ، أصبحت شركة تعدين العملات الافتراضية شركة حوسبة سحابية مشهورة ، فقط لأنها أكثر تلاميذ Nvidia ولاءً.
** ما هو نوع السحابة Nvidia Cloud **
أيًا كان من لديه Nvidia GPUs فهو البائع السحابي الأكثر شيوعًا ، فمن لديه أكثر وحدات معالجة رسومات Nvidia؟ على ما يبدو هو نفسه.
لذلك ، أثناء دعمها للشركات الناشئة السحابية المماثلة ، تقوم Nvidia أيضًا ببناء السحابة الخاصة بها.
تتمتع Nvidia بالعديد من المزايا في عمل السحابة نفسها ، وأكثرها وضوحًا أنها لا تتأثر بالعلاقة بين العرض والطلب على وحدة معالجة الرسومات. قال Musk ذات مرة علنًا أن الحصول على وحدات معالجة الرسومات أصعب بكثير من الحصول على الأدوية ، والسبب في أن CoreWeave يمكن أن يوفر طاقة حوسبة H100 واسعة النطاق للغاية كما ورد أنه مرتبط بالإمداد الكافي من Nvidia - شاركت Nvidia في CoreWeave القليل قبل أشهر B جولة التمويل.
لكن من الواضح أن مجرد الاستثمار في بعض الشركات الناشئة ليس كافيًا ، والطلب الهائل على القوة الحاسوبية للذكاء الاصطناعي التوليدي سيسمح لشركة Nvidia في النهاية بأن تنتهي من تلقاء نفسها. في مؤتمر GTC في مارس من هذا العام ، أطلقت Nvidia خدمتها السحابية DGX Cloud ، والتي تم إطلاقها رسميًا في منتصف العام.
كما يتضح من الاسم ، تستخدم DGX Cloud بشكل مباشر إمكانات الكمبيوتر العملاق DGX من Nvidia ، وكل مثيل من السحابة مزود بـ 8 H100 أو A100 GPU وذاكرة 640 جيجابايت.
تتبنى DGX Cloud بنية بزمن انتقال منخفض تسمح بتوسيع تدفقات العمل الكبيرة عبر المجموعات وتوزيعها بالتوازي عبر عقد حوسبة متعددة. على سبيل المثال ، يمكن لشركة Oracle ، التي أعلنت أولًا عن تعاونها مع DGX Cloud ، نشر أكثر من 30000 وحدة معالجة رسومات A100 لكل مجموعة على OCI Supercluster ، بحيث يمكن تدريب النماذج الكبيرة على السحابة. يمكن للمستخدمين الوصول بحرية إلى حواسيب الذكاء الاصطناعي العملاقة الخاصة بهم في أي مكان (قالت Nvidia أن توزيع قوة الحوسبة حصري) ، ويتم استخدام الواجهة الأمامية فقط للتعامل معهم. باستثناء عملية التطوير نفسها ، لا داعي للقلق بشأن أي مشاكل تتعلق بالبنية التحتية للأجهزة.
تأتي الخدمة على أساس شهري مقابل ما يقرب من 40،000 دولار. بالطبع ، لا يزال أرخص بكثير من شراء خادم DGX مباشرة مقابل 200000 دولار أمريكي ، لكن العديد من الناس أشاروا إلى أن Microsoft Azure يتقاضى أقل من 20000 دولار أمريكي لنفس 8 A100GPUs ، أي ما يقرب من نصف السابق.
لماذا هو مكلفة جدا؟ نظرًا لأن الخدمة السحابية لـ Nvidia تختلف عن الخدمات الأخرى ، فهي لا تشمل قوة الحوسبة فحسب ، بل تشمل أيضًا مجموعة كاملة من حلول الذكاء الاصطناعي.
تم دمج خدمتين تسمى Base Command Platform و AI Enterprise في DGX Cloud. الأول هو برنامج إدارة ومراقبة ، والذي لا يمكن استخدامه فقط لتسجيل الحمل التدريبي لقوة الحوسبة السحابية ، وتوفير تكامل طاقة الحوسبة السحابية والمحلية ، ولكنه يسمح أيضًا للمستخدمين بالوصول مباشرة إلى DGX Cloud من المستعرض. هذا الأخير هو طبقة البرامج في منصة Nvidia AI. توفر الآلاف من حزم البرامج مجموعة متنوعة من النماذج المدربة مسبقًا وأطر الذكاء الاصطناعي والمكتبات السريعة ، وبالتالي تبسيط تكاليف التطوير والنشر الشاملة للذكاء الاصطناعي. بالإضافة إلى ذلك ، توفر DGX Cloud أيضًا خدمة صب نموذجية تسمى AI Foundations ، مما يسمح لمستخدمي الأعمال باستخدام بيانات الملكية الخاصة بهم لتخصيص نماذجهم العمودية الكبيرة.
هذا الحل الكامل جنبًا إلى جنب مع البرامج والأجهزة يجعل سرعة تدريب DGX Cloud أعلى بمرتين إلى ثلاث مرات من سرعة الحوسبة السحابية التقليدية.هذا هو أكبر فرق بين DGX Cloud والخدمات السحابية التقليدية.إنه يدمج جانبي NVIDIA بشكل جيد للغاية. نقطة قوية: بيئة الذكاء الاصطناعي وقوة الحوسبة. بالنسبة إلى Nvidia ، يبدو أن عبارة "البرنامج كخدمة" قد تغيرت إلى "تكامل البرامج والأجهزة كخدمة". تمثل DGX Cloud بشكل مركزي سقف القدرة على التكامل الرأسي التصاعدي للشركة المصنعة للأجهزة.
** حقيقة وطموح Huang Renxun **
لكن هذا لا يعني أن Nvidia رفعت تمامًا جدول بائعي السحابة التقليديين. يتم تقديم خدماتها من خلال بائعي السحابة التقليديين. تم الإعلان في البداية عن إطلاق DGX Cloud على Oracle Cloud ، تليها Microsoft و Google ، والطريقة التي تعمل بها Nvidia مع هؤلاء البائعين السحابيين مثيرة جدًا للاهتمام: تبيع Nvidia أولاً أجهزة GPU إلى هؤلاء الشركاء السحابيين ، ثم تستأجر الأجهزة من أجل التشغيل سحابة DGX.
وقال البعض مازحا إن هذا يسمى كسب المال من الجانبين دون تأخير.
في الواقع ، أوضح Huang Jensen هذا النموذج: "نحن نستفيد من استخدام العملاء لمنصة الحوسبة الخاصة بنا ، ويستفيد العملاء من خلال وضعنا (منصة الحوسبة) في السحابة (بائع السحابة)."
إذا استمعت فقط إلى ما قاله هوانغ رينكسون ، فهذه نهاية سعيدة ومربحة للجانبين ، لكن هذه مجرد روايته المتسقة. لقد دخلت Nvidia بالفعل في منافسة مع عملائها ، وهي تعرف ذلك.
يخبرنا تقدم DGX Cloud أن Huang Renxun لا ينوي نشره على موردي السحابة التقليديين فقط. في SIGGRAPH 2023 في أغسطس ، أعلنت Nvidia لأول مرة عن تعاونها مع Hugging Face ، ثم أطلقت خدمة تسمى AI Workbench. إنها جميعًا تتيح للمستخدمين إنشاء نماذج كبيرة للتدريب المسبق واختبارها وتخصيصها بسهولة ، كما أن دعم قوة الحوسبة وراءها يتضمن بشكل طبيعي DGX Cloud.
من الواضح أن هذا سيؤثر على العلاقة بين Nvidia وبائعي السحابة: إن أهم مزودي الخدمات السحابية ، بما في ذلك Google و Amazon و Microsoft ، هم أيضًا عملاء رئيسيون لـ Nvidia ، ولا بد أن ترويج Nvidia لخدماتها السحابية الخاصة لا بد أن ينتزع حصتهم في السوق. على وجه الخصوص ، لقد ذكرنا بالفعل في الجزء الأول أنه ، بصفتهم عمالقة مراكز البيانات والخدمات السحابية ، ليس لديهم ميزة كبيرة في بناء الجيل التالي من مراكز البيانات.
لن يكون Huang Renxun على علم بهذا ، لذا فإن موقفه تجاه DGX Cloud مثير جدًا للاهتمام ، على سبيل المثال ، صرح علنًا أن نسبة مزيج الخدمة السحابية المناسبة يجب أن تكون 10٪ Nvidia DGX بالإضافة إلى 90٪ سحابة عامة. بعبارة أخرى ، في موقع Huang Renxun ، لا تعتبر DGX Cloud خصمًا أو تهديدًا لبائعي السحابة التقليديين ، ولكنها شريك.
في المكالمة الجماعية للمحللين بعد الإعلان عن التقرير المالي الربع سنوي للربع الأول ، تحدث Huang Renxun أكثر عن فوائد هذا التعاون ، "وضع مربح للجانبين" ، وصفه Huang Renxun بهذه الطريقة. من وجهة نظره ، فإن DGX Cloud عبارة عن مكدس Nvidia خالص (مكدس Nvidia خالص) ، والذي يجمع بين تطوير الذكاء الاصطناعي وقواعد البيانات الكبيرة والشبكات عالية السرعة والكمون المنخفض لتصبح بنية تحتية ملائمة للذكاء الاصطناعي لفتح سوق جديد ضخم - مشاركين في يشمل هذا السوق Nvidia وبائعي السحابة التقليديين ، وسيستفيد الجميع من انفجار الذكاء الاصطناعي التوليدي.
محاولة تجنب التعارضات هي في الواقع لأن DGX Cloud قد تحافظ فقط على حجم صغير لفترة طويلة.
السبب الأول بالطبع هو عنق الزجاجة لقوة الحوسبة. "العديد من الطلبات بشكل لا يصدق" هو وصف Huang Renxun لحجم الأعمال لمركز البيانات. بالطبع ، تتمثل الأولوية الأساسية لشركة Nvidia في تطوير وضمان إنتاج أكبر عدد ممكن من الرقائق المتقدمة التي تلبي طلب السوق ، وإلا فإن نطاق الخدمات السحابية لا يمكن يتم توسيعها.
على الرغم من أن TSMC في إنتاج مستمر ، إلا أنه من الجدير بالذكر أن فجوة طاقة الحوسبة لا تصبح أصغر ولكنها أكبر ، لأنه بمجرد إطلاق النموذج الكبير وتسويقه (مثل ChatGPT) ، ستزداد تكلفة المنطق بشكل كبير مع مقياس المستخدمين مع زيادة المستوى ، على المدى الطويل ، سيكون أكبر بكثير من قوة الحوسبة المطلوبة لتدريب النموذج (التكبير الذي قدمه شخص ما هو 100).
بالإضافة إلى ذلك ، فإنه يأخذ في الاعتبار أيضًا تعقيد الشراكة بين Nvidia وبائعي السحابة التقليديين. إذا ظهرت DGX Cloud كمنتج تنافسي بحت ، فقد تشغل حصة كبيرة في السوق ، ولكن من المحتم أن تسرع الشركات المصنعة السحابية للتخلص من اعتمادها على Nvidia - لقد طوروا بالفعل رقائقهم الخاصة من أجل تقليل "NVIDIA الضرائب ".
من منظور آخر ، قد لا يكون من مصلحة Nvidia توسيع نطاق DGX Cloud بالكامل. من الرقائق إلى بطاقات رسومات الألعاب إلى الخوادم ومراكز البيانات ، نادرًا ما تصنع Nvidia منتجات الأجهزة بنفسها ، وتفضل التعاون مع الشركات المصنعة للمعدات الأصلية - لدرجة أنه لا يزال يتعين عليك الذهاب إلى الشركات المصنعة للمعدات الأصلية لشراء رقائق Nvidia. هذا يسمح لـ Nvidia بالتحكم في التكاليف بشكل جيد والحفاظ على هوامش الربح.
اليوم ، يبدو أن Nvidia وبائعي السحابة يحافظون على التوازن ، ولكن يتم استخدام الرصيد في الانهيار ، خاصة عندما يكون أحد الأطراف هو Nvidia. بعد كل شيء ، هذه هي السنة الأولى من دورة التحديث لما يسمى بـ "العشر سنوات القادمة" لـ Huang Renxun -مركز بيانات الجيل ".