"اركض للحصول على الطعام ، أو اركض حتى لا يأكل من قبل الآخرين. في كلتا الحالتين ، استمر في الركض."
هذه هي رسالة الرئيس التنفيذي لشركة Nvidia Huang Renxun إلى الخريجين في خطابه في جامعة تايوان الوطنية هذا العام. بالطبع ، إنها أيضًا تفسير لعقلية إمبراطورية القيمة السوقية التي تبلغ قيمتها تريليون دولار والتي أنشأها Huang Renxun.
في عام 2023 ، واجهت Nvidia أثناء الركض الذكاء الاصطناعي التوليدي ، والذي أطلق عليه Huang Renxun عدة مرات "لحظة الذكاء الاصطناعي في iPhone". في هذه اللحظة ، وضع Huang Renxun نصب عينيه فرصة ليصبح الصياد بدلاً من الفريسة - Yun.
يبدو أنه لا ينبغي أن يكون لدى Nvidia الدافع للقيام بالسحابة ، ليس فقط لأن موفري الخدمات السحابية هم عملاء مهمون لشركة Nvidia ، ويشترون مليارات الدولارات من وحدات معالجة الرسومات من Nvidia كل عام ، ولكن أيضًا لأن هذه المسألة يبدو أنها ليس لديها فرصة للفوز.
يتم التحكم بقوة في سوق الحوسبة السحابية اليوم من قبل عمالقة السحابة الثلاثة Amazon AWS و Microsoft Azure و Google Cloud. وفقًا لبيانات Statista ، ستكون حصة AWS في السوق في عام 2022 32٪ ، وستكون Azure 23٪ ، وستكون Google Cloud 10٪ ، وستصل الحصة السوقية المجمعة للشركات الثلاث إلى 65٪.
ليس الأمر أننا لم نر متحديًا. في السنوات العشر الماضية ، أرادت جميع الشركات المعروفة مثل VMware و Dell و Hewlett-Packard الحصول على جزء من سوق الحوسبة السحابية ، لكنها فشلت جميعًا دون استثناء.
ومع ذلك ، تمامًا كما تنتج كل ثورة تكنولوجية اتجاهات جديدة ، بدأت هذه الموجة من الذكاء الاصطناعي التوليدي ، الشركة المصنعة للرقائق Nvidia في اختبار سوق الحوسبة السحابية خطوة بخطوة:
** في الخطوة الأولى ، في مؤتمر GTC في 21 مارس من هذا العام ، أصدرت NVIDIA DGX Cloud. ** كما يتضح من الاسم ، هذا منتج سحابي. يمكن للعملاء الحصول مباشرة على منتجات وخدمات الذكاء الاصطناعي من Nvidia في السحابة أو مراكز البيانات المحلية عن طريق تأجيرها شهريًا ؛
** الخطوة الثانية هي الاستثمار في منافسي عمالقة السحابة الثلاثة. ** استثمرت Nvidia تباعاً في CoreWeave و Lambda Labs ، وهما مزوّدو خدمات سحابية صغيرة ومتوسطة الحجم في الولايات المتحدة ، وخصصت لهم شرائح GPU النادرة. ما مدى المبالغة في هذا "التفضيل"؟ في الوقت الذي يصعب فيه العثور على نوى GPU ، تمكنت CoreWeave من الحصول على 2.3 مليار دولار في تمويل الديون عن طريق رهن وحدات معالجة الرسوميات الوفيرة ، وخاصة H100.
على الرغم من أنه قد بدأ للتو ، إلا أن تخطيط الأعمال السحابية يمثل هجوم Nvidia المضاد ضد عمالقة السحابة.
كما نعلم جميعًا ، أطلقت Google و Amazon و Microsoft على التوالي مشاريع شرائح AI ذاتية التطوير داخليًا - سلسلة TPU من Google وسلسلة Inferentia و Trainium من Amazon وشريحة أثينا من Microsoft التي تم الكشف عنها هذا العام. يمتلك عمالقة السحابة الثلاثة موارد ودوافع كافية لتطوير رقائق الذكاء الاصطناعي ذاتيًا لتقليل "ضريبة GPU" الخاصة بـ Nvidia.
نفيديا تدرك ذلك جيدًا. قال Huang Renxun بصراحة في المكالمة الجماعية لتقرير أرباح الربع الأخير "لقد كنا نولي اهتمامًا للمنافسة ، ولطالما كانت لدينا منافسة".
لا يستطيع Huang Renxun منع توسع مزودي الخدمات السحابية الرئيسيين الثلاثة ، ولكن ربما يكون الدفاع الأفضل هو الهجوم ، وطريقة Nvidia للهجوم المضاد هي الانتقال مباشرة إلى السحابة.
مع وجود بطاقتين رابحتين من A100 و H100 لفترة طويلة من الزمن ، تعد هاتان الشريحتان الخيار الأفضل لتدريب النماذج واسعة النطاق والتفكير المنطقي ، ولا يوجد أي منهما ، لدى Nvidia الفرصة لتصبح رائدة حقيقية في سوق الحوسبة السحابية. المشغل وراء الكواليس.
معركة مفتوحة وسرية حول الرقائق والحوسبة السحابية تتكشف ببطء بين عمالقة التكنولوجيا الأربعة مع أعلى خمسة من حيث القيمة السوقية العالمية.
** 1. كاد يسقط قبل الفجر **
أولئك الذين هم على دراية بـ Nvidia سيعرفون كم هي جميلة Nvidia اليوم ، وكيف كانت Nvidia بائسة العام الماضي.
تشمل الأعمال الأساسية لشركة Nvidia مراكز البيانات والألعاب والتصور الاحترافي والسيارات. في الربع الثاني من عام 2020 ، تفوقت أعمال مركز بيانات Nvidia على الألعاب للمرة الأولى ، لتصبح أكبر مصدر دخل لشركة Nvidia.
في اجتماع التقرير المالي للربع الرابع لعام 2022 (الموافق للسنة الطبيعية من نوفمبر 2021 إلى يناير 2022) ، قدمت Nvidia تقريرًا ماليًا قويًا للربع الرابع ، وزادت أعمال مركز البيانات لديها بنسبة 71٪ على أساس سنوي. قال Huang Renxun بتفاؤل في ذلك الوقت: "منصة الحوسبة Nvidia أدت إلى طلب غير عادي في السوق." ومع ذلك ، بعد أسبوع ، اندلع الصراع بين روسيا وأوكرانيا ، مما أدى إلى تعطيل سلسلة التوريد للمواد الخام الرئيسية. إلى جانب تأثير الوباء ، سيستمر معدل نمو أعمال مركز بيانات Nvidia في التباطؤ طوال عام 2022.
في التقرير المالي 2023Q4 الذي صدر في فبراير من هذا العام ، كان معدل نمو مراكز بيانات NVIDIA 11٪ فقط ، وهو مستوى منخفض قياسي ، والمرة الأولى منذ عام 2020 التي تنخفض فيها السلسلة.
في عام 2022 ، سيتم أيضًا خفض سعر سهم Nvidia إلى النصف. بالطبع ، لقد ظهر اليوم ، وأنقذ ولادة ChatGPT Nvidia.
ملحوظة: ستصدر Nvidia تقريرها المالي للربع الثاني 2024 يوم الأربعاء (23 أغسطس) ، الموافق مايو - يوليو 2023.
من بين الأسباب العديدة لانخفاض نمو الأعمال ، فإن انخفاض الطلب من العملاء الرئيسيين هو الأكثر يقظة. في التقرير المالي للربع الرابع من عام 2023 ، أعلن المدير المالي لشركة Nvidia Colette Kress عن رقم: يأتي حوالي 40٪ من إيرادات قطاع مراكز البيانات البالغة 15 مليار دولار أمريكي في السنة المالية 2023 (حوالي 6 مليارات دولار أمريكي) من مراكز البيانات فائقة النطاق والخدمات السحابية. مقدمي.
لكن إذا نظرت إلى الربع الرابع فقط ، فهذا ربع فقط. يعمل منشئو مراكز البيانات Hyperscale ومقدمو الخدمات السحابية على تقليل إنفاق GPU بشكل كبير.
بالإضافة إلى الانخفاض الموضوعي في الطلب ، تعمل خطة شرائح الذكاء الاصطناعي المطورة ذاتيًا لعمالقة السحابة الثلاثة على تآكل الحصة السوقية لوحدة معالجة الرسومات NVIDIA شيئًا فشيئًا.
أطلقت Google الجيل الأول من رقاقة TPU ذاتية التطوير AI في عام 2016 ، وبعد خمس سنوات ، في 19 مايو 2021 ، أطلقت الجيل الرابع من TPU v4. في تقرير بحثي نُشر هذا العام ، قالت Google إنها جمعت 4000 TPU v4s معًا لبناء كمبيوتر عملاق يعمل 1.7 مرة أسرع وأكثر كفاءة من جهاز مكافئ يعمل بواسطة Nvidia A100 GPU. 1.9 مرة أعلى.
تمتلك أمازون أيضًا تقليدًا للرقائق ذاتية التطوير ، ليس فقط لشركة Nvidia ، ولكن لجميع مصنعي الرقائق. في الوقت الحالي ، أطلقت أمازون أربع سلاسل من الرقائق المطورة ذاتيًا - سلسلة Nitro لشرائح الشبكة ، وسلسلة شريحة الخادم Graviton ، وسلسلة Inferentia لشرائح الذكاء الاصطناعي ، ورقاقة التدريب على الذكاء الاصطناعي Trainium. من بينها ، تتنافس الشريحتان الأخيرتان للذكاء الاصطناعي مع وحدات معالجة الرسومات NVIDIA.
على الرغم من دخولها في وقت متأخر ، مايكروسوفت "وصلت متأخرة". في 18 أبريل من هذا العام ، وفقًا للمعلومات ، منذ عام 2019 ، طورت Microsoft سرًا شرائح الذكاء الاصطناعي ، التي تحمل الاسم الرمزي الداخلي "أثينا" (أثينا) ، ويعمل مئات الموظفين في مشروع أثينا ، وقد استثمرت Microsoft حوالي 2 مليار دولار . تمكن بعض موظفي Microsoft و OpenAI من الحصول على شرائح لاختبار الأداء على أحدث نماذج اللغات الكبيرة مثل GPT-4.
يتعين على مقدمي الخدمات السحابية دفع مبلغ كبير من "ضريبة Nvidia" كل عام لشراء وحدات معالجة الرسومات ، خاصة بعد انتشار الذكاء الاصطناعي التوليدي.
في فبراير من هذا العام ، قدمت New Street Research تقديرًا: يحتاج محرك بحث Bing المستند إلى ChatGPT إلى 8 وحدات معالجة رسومات للرد على أسئلة المستخدم في غضون ثانية واحدة. بهذا المعدل ، ستحتاج Microsoft إلى أكثر من 20000 خادم مع 8 وحدات معالجة رسومات لنشر النماذج في Bing لكل مستخدم ، الأمر الذي سيكلف Microsoft 4 مليارات دولار. على نطاق جوجل ، التي تتعامل مع 8-9 مليار استفسار في اليوم ، سيكلف 80 مليار دولار.
لن يتم بيع رقائق الذكاء الاصطناعي المطورة ذاتيًا لمقدمي الخدمات السحابية خارجيًا ، ولن تتنافس بشكل مباشر مع Nvidia. ومع ذلك ، من خلال نشر شرائح مطورة ذاتيًا بدلاً من وحدات معالجة الرسومات في مراكز البيانات ، يمكن خفض التكاليف بشكل فعال. على سبيل المثال ، قامت Google بنشر المئات من أجهزة الكمبيوتر الفائقة TPU v4 في خدمتها السحابية.
يمتلك مقدمو الخدمات السحابية الثلاثة موارد كافية وحافزًا لتطوير شرائحهم الخاصة ، وهو ما يُنظر إليه على أنه صدع في إمبراطورية Nvidia. تدرك Nvidia ذلك جيدًا ، ولكن لا يبدو أن هناك طريقة أفضل من ذلك.
حتى ظهور ChatGPT ، شهدت Nvidia ، التي تم الضغط عليها من قبل موفري الخدمات السحابية خطوة بخطوة ، نقطة اختراق للهجوم المضاد. نظرًا لأن مزودي الخدمات السحابية يمكنهم صنع شرائح ، ألا تستطيع Nvidia إنشاء السحب في عصر الذكاء الاصطناعي؟
** 2. هل لدى Nvidia فرصة لعمل السحابة؟ **
تعد Nvidia حاليًا المستفيد الأكبر من ثورة الذكاء الاصطناعي التوليدية ، وقد تحدث Huang Renxun دائمًا عن "لحظة الذكاء الاصطناعي في iPhone" هذا العام. لقد جعل الطلب الهائل على الذكاء الاصطناعي التوليفي من GPU عملة صعبة ، ويقول بعض الناس ببساطة أن "GPU هو الدولار الجديد".
من GPU إلى السحابة ، هل لدى Nvidia فرصة حقًا؟
يتم تنفيذ التدريب والتفكير المنطقي للذكاء الاصطناعي التوليدي بشكل أساسي على السحابة ، وسيكون مقدمو الخدمات السحابية الذين يوفرون البنية التحتية للذكاء الاصطناعي أحد أكبر المستفيدين من موجة الذكاء الاصطناعي التوليدي. وفقًا للبيانات المقدرة من قبل شركة رأس المال الاستثماري في وادي السيليكون A16Z ، فإن 10٪ إلى 20٪ من إجمالي الإيرادات الناتجة عن الذكاء الاصطناعي التوليدي يتدفق في النهاية إلى مزودي الخدمات السحابية.
ومع ذلك ، فإن هذه العملية لن تكون سريعة. قال آندي جاسي ، الرئيس التنفيذي لشركة أمازون ، في مكالمة أرباح الربع الثاني لعام 2023: "إن الذكاء الاصطناعي العام سيغير بلا شك تجربة جميع العملاء تقريبًا. ولكن لا يزال الوقت مبكرًا للغاية ، ولا تزال معظم الشركات تفكر في كيفية تحقيق هذا الهدف. نحن في سباق ماراثون في مرحلة مبكرة جدا ".
يتمثل جوهر الخدمات السحابية في جعل موارد الأجهزة افتراضية في مركز البيانات ثم تأجيرها للسوق. ما يقرب من 100٪ من الخوادم في مراكز البيانات التقليدية مبنية على معالجات Intel و AMD CPU. تشبه وحدة المعالجة المركزية "المتخصص مع أقوى عقل" ، والذي يوفر إمكانيات "الحوسبة العامة" - أنظمة تشغيل المعالجة وبرامج النظام وبرنامج التطبيقات لديه مهام برنامج مثل جدولة التعليمات المعقدة ، الحلقات ، التفريع ، الحكم المنطقي والتنفيذ.
لكن وحدات المعالجة المركزية ليست جيدة في معالجة البيانات على نطاق واسع والحوسبة المتوازية ، وهو ما يحتاجه الذكاء الاصطناعي ووحدات معالجة الرسومات Nvidia جيدة فيه. GPU هو مثل "خبير الحوسبة العنيفة" ، متخصص في معالجة الصور ، والتعلم العميق ، وتدريب النماذج الكبيرة الحالية ، والتفكير والمهام الأخرى. أطلق Huang Renxun على هذه القدرة الحاسوبية المتوازية بشكل كبير اسم "الحوسبة المتسارعة".
في عام 2012 ، حاول جيف هينتون ، والد التعلم العميق ، وتلاميذه تدريب نموذج الشبكة العصبية التلافيفي AlexNet على NVIDIA GPU لأول مرة ، وفازوا في مسابقة التعرف على الصور بضربة واحدة. أدى هذا الحادث إلى انفجار التعلم العميق في السنوات العشر المقبلة ، حيث أدركت صناعة الذكاء الاصطناعي بأكملها ، بما في ذلك Nvidia نفسها ، إمكانات GPU للحوسبة المتسارعة.
بدأت تروس ثروات نفيديا في التحول. منذ ذلك الحين ، صرخ هوانغ رينكسون "قانون مور مات" في مناسبات عديدة. وهو يعتقد أن عصر توسيع وحدة المعالجة المركزية قد انتهى ، كما هو الحال مع زيادة الأداء بمقدار عشرة أضعاف بنفس التكلفة كل خمس سنوات. سيتم استبداله بـ GPU ، وقد ابتكر Huang Renxun بشكل خاص "قانون Huang" - ستعمل وحدة معالجة الرسومات (GPU) على تعزيز أداء الذكاء الاصطناعي لمضاعفة الأداء عامًا بعد عام.
خلال السنوات العشر من 2012 إلى 2022 ، يمكننا أن نسميها الحوسبة المتسارعة من 0 إلى 1 ، وقد وصل الذكاء الاصطناعي إلى صناعات محددة وسيناريوهات محددة مثل التعرف على الصور. ومع ذلك ، فإن الطلب على الذكاء الاصطناعي في هذه الفترة لا يزال غير كافٍ ، وتتوقع شركة الأبحاث Aletheia أن معدل اختراق السوق الحالي لخوادم الذكاء الاصطناعي أقل من 5٪. هذا بعيد عن أن يكون كافياً لتحقيق حلم Huang Renxun بالحوسبة المتسارعة.
حتى ولادة ChatGPT في نوفمبر 2022 ، ظهرت "لحظة الذكاء الاصطناعي في iPhone". يمكن اعتبار هذا بداية لتوسيع نطاق الحوسبة المتسارعة من 1 إلى 10.
عائدات الذكاء الاصطناعي التوليدية (الصورة من بلومبرج)
يعتقد Huang Renxun أن الجمع بين الحوسبة المتسارعة والذكاء الاصطناعي التوليدي سيغير أساليب الحوسبة في السنوات الستين الماضية. في الوقت الذي تتسابق فيه الشركات لتطبيق الذكاء الاصطناعي التوليدي على كل منتج وخدمة وعملية تجارية ، ستنتقل البنية التحتية لمركز البيانات العالمي التي تبلغ قيمتها تريليون دولار من الحوسبة ذات الأغراض العامة إلى الحوسبة المتسارعة ، وسيؤدي تجديد مركز البيانات الناتج بالتأكيد إلى خلق فرص هائلة في السوق.
في المكالمة الجماعية للأرباح في الربع الأخير ، تعهد Huang Renxun: "نحن في العام الأول من استخبارات مركز البيانات على مدى عقد من الزمن".
قال Huang Renxun إن الحوسبة المتسارعة تمثل تحديًا متكاملًا ، إذ يجب أن تدمج جميع البرامج وجميع مكتبات الأطر وجميع الخوارزميات الخاصة بالهندسة ، وهذه المهام ليست فقط للرقاقة ، ولكن لمركز البيانات بأكمله. مركز البيانات هو حاسوب عملاق ، ولتحقيق أفضل أداء ، من الضروري تحسين المجموعة الكاملة لأنظمة تشغيل الشبكة ، ومحركات الحوسبة الموزعة ، وأجهزة الشبكة ، والمفاتيح ، وبنى الحوسبة.
على سبيل المثال ، يستخدم مركز بيانات الحوسبة العامة بشكل أساسي إيثرنت لربط جميع الخوادم دون نقل البيانات على نطاق واسع ؛ يستخدم مركز بيانات الحوسبة المتسارعة الذي اقترحته Nvidia تقنية تسمى Infinite Band للاتصال ، والتي تتميز بإنتاجية عالية للغاية للبيانات.
يتيح التحسين المنهجي أيضًا لمراكز بيانات الحوسبة المتسارعة الحصول على كفاءة أعلى وتكاليف أقل من مراكز البيانات التقليدية.
طرح Huang Renxun سؤالاً في SIGGRAPH ، المؤتمر السنوي لرسومات الكمبيوتر الذي عقد في أغسطس من هذا العام: "ما الذي يمكنني شراؤه مقابل 100 مليون دولار؟" سأل Huang Renxun نفسه وأجاب: "في الماضي ، كان بإمكان 100 مليون دولار شراء مركز بيانات مكون من 8،800 x86 CPUs. ، استهلاك الطاقة هو 5 ميجاوات ؛ اليوم ، يمكن شراء 100 مليون دولار أمريكي لمركز بيانات Iso-Budget المكون من 2500 GH200 ، واستهلاك الطاقة هو 3 ميجاوات ، وأداء الذكاء الاصطناعي هو 12 ضعفًا لبيانات وحدة المعالجة المركزية المذكورة أعلاه ، وكفاءة الطاقة 20 مرة ".
في ظل نفس أداء الذكاء الاصطناعي المنطقي ، فإن تكلفة مركز بيانات وحدة معالجة الرسومات هي 1/12 فقط من تكلفة مركز بيانات وحدة المعالجة المركزية. "كلما اشتريت أكثر ، كلما وفرت أكثر." هذا هو بيان Huang Renxun لمركز بيانات الحوسبة السريعة.
حتى الآن ، أنشأت Nvidia خمسة مراكز بيانات وساعدت العملاء في جميع أنحاء العالم على بناء مراكز البيانات الخاصة بهم. علاوة على ذلك ، قد يستغرق الأمر شهورًا أو حتى عامًا لمركز البيانات التقليدي للانتقال من التسليم إلى التشغيل ، ولكن في Nvidia. هذا الوقت في أسابيع. وقال هوانغ "خبرة الفريق في هذا المجال رائعة".
بالنسبة لعمالقة السحابة الثلاثة ، لن يكون الانتقال من مراكز بيانات الحوسبة للأغراض العامة إلى مراكز بيانات الحوسبة المتسارعة سريعًا. لا يتعلق الأمر بالتكنولوجيا والقدرات فحسب ، بل يتعلق أيضًا بعملية صنع القرار والعمليات الخاصة بهذه الشركات العملاقة.
هذا يعطي Nvidia الفرصة لعمل السحابة. إن اتخاذ خطوة للأمام من مركز البيانات إلى السحابة هو أمر طبيعي ، وتحاول Nvidia فعل ذلك بالفعل.
** 3. الظلام Chencang **
في التقرير المالي للربع الرابع لعام 2023 مع أدنى معدل نمو لأعمال مراكز البيانات ، أعلنت Nvidia أيضًا عن منتج جديد DGX Cloud. في مؤتمر GTC بعد شهر ، تم إطلاق DGX Cloud رسميًا.
كما يتضح من الاسم ، هذا منتج خدمة سحابية. هل ستدخل Nvidia سوق الحوسبة السحابية؟
دعونا نلقي نظرة أولية على ماهية DGX. DGX هو أول كمبيوتر عملاق أصدرته Nvidia في عام 2017 ، والذي أطلق عليه Huang Renxun "مركز البيانات في الهيكل".
الجيل الأول من DGX مدمج 8 وحدات معالجة رسومات (Tesla P100) و 4 محركات أقراص صلبة ، ويستخدم تقنية اتصال NVIDIA NVlink. من حيث التدريب على التعلم العميق ، فإن أداء DGX واحد يعادل 250 خادمًا عاديًا x86. بالطبع ، إنها باهظة الثمن أيضًا ، حيث تبلغ 129000 دولار للوحدة الواحدة.
بعد الاجتماع ، قدم Huang Renxun أول DGX-1 إلى Elon Musk. Musk هو الشريك المؤسس لـ OpenAI. بدأت OpenAI من هذا الكمبيوتر العملاق وصنعت ChatGPT اليوم خطوة بخطوة.
اليوم ، تم تطوير الكمبيوتر العملاق DGX إلى الجيل الخامس ، الأجيال الأربعة الأولى هي DGX P100 و DGX A100 و DGX H100 وأحدث DGX GH200.
DGX Cloud التي أصدرتها Nvidia هي النسخة السحابية من الكمبيوتر العملاق الذي تم إصداره سابقًا. تم تكوين مثيل DGX Cloud (كمبيوتر افتراضي في خادم سحابي) مع 8 A100 أو H100.
ومع ذلك ، فإن سعر DGX Cloud ليس رخيصًا ، 36999 دولارًا شهريًا ، حوالي 264000 يوان صيني. على سبيل المقارنة ، يكلف مثيل Microsoft Azure ND96asr مع 8 A100s والمواصفات المكافئة 19،854 دولارًا أمريكيًا شهريًا ، وهو ما يمثل نصف DGX Cloud فقط.
لماذا تجرؤ نفيديا على تحديد مثل هذا السعر الباهظ؟ الجواب هو أن DGX Cloud هو حل متكامل يدمج البرامج والأجهزة. ** لم تعد Nvidia تعلن عن نفسها كشركة شرائح GPU ، ولكنها تقدم نفسها كشركة منصات حوسبة. **
بالإضافة إلى موارد الأجهزة ، أطلقت DGX Cloud أيضًا منصتين برمجيتين داعمتين ، أحدهما هو NVIDIA AI Foundations ، والذي يساعد الشركات على إنشاء نماذج مخصصة ، بما في ذلك نماذج اللغة والرؤية والطب الحيوي ؛ والآخر هو NVIDIA AI Enterprise ، والذي يحتوي على 4000 نموذج مختلف. إطار عمل للذكاء الاصطناعي يساعد المؤسسات على استخدامه خارج الصندوق. تشبه منتجات الذكاء الاصطناعي من Nvidia منتجات MaaS التي أطلقها موفرو الخدمات السحابية المحليون مثل Alibaba Cloud.
هوانغ متفائل بشأن تدفقات عائدات البرامج الجديدة هذه ، ويتوقع أن تنمو الإيرادات في مجال الذكاء الاصطناعي التوليدي من جزء "مكون من رقم واحد" من إجمالي إيرادات الشركة إلى جزء "كبير" خلال العام المقبل. قال هوانغ رينكسون: "نحن متحمسون لتوسيع نموذج العمل الجديد".
أدى إطلاق DGX Cloud بشكل موضوعي إلى تكوين علاقة تنافسية معينة مع موفري الخدمات السحابية ، لكن Nvidia لا تزال تريد الاستمرار في الحفاظ على تعاون وثيق مع موفري الخدمات السحابية. لا تقوم Nvidia حاليًا بإنشاء بنية أساسية سحابية كاملة من البداية ، ولكنها تستضيف DGX Cloud على الأنظمة الأساسية السحابية للعديد من موفري الخدمات السحابية.
تبيع Nvidia مرافق الأجهزة الأساسية لبائعي السحابة ، ثم تشتري موارد الحوسبة السحابية منهم ، وأخيراً تبيع الخدمات السحابية لعملاء المؤسسات وتحتفظ بجميع الإيرادات. يمكن للعملاء الوصول إلى الكمبيوتر الفائق AI من Nvidia فقط من خلال متصفح لاستخدام منتجات Nvidia AI وخدمات نموذج AI.
ومع ذلك ، هل يشتريه مقدمو الخدمات السحابية؟
في هذا الصدد ، أوضح Huang Renxun: "إن التعاون بين خدمات NVIDIA السحابية ومقدمي الخدمات السحابية سيكون موقفًا مربحًا للجانبين. سيقوم الطرفان بشكل مشترك بإنشاء تطبيقات جديدة وتطوير أسواق جديدة." قال Huang Renxun إنه من الناحية المثالية ، سيشتري العملاء NVIDIA DGX نسبة السحابة إلى السحابة السحابية لمزود الخدمة السحابية هي 1: 9.
Oracle هي أول مزود خدمة سحابية يعلن عن شراكة مع Nvidia. قام عملاق البرمجيات بإجراء تحول سحابي بشكل عاجل في السنوات الأخيرة ، لذلك لديه دافع كافٍ لتشكيل تحالف مع Nvidia من أجل إحداث تحول في سوق الحوسبة السحابية. تعمل Nvidia أيضًا مع Microsoft Azure و Google Cloud والأنظمة الأساسية السحابية الأخرى ، والتي من المتوقع أيضًا إطلاقها قريبًا.
** تفكير Nvidia بالتمني بصوت عالٍ ، ولكن لن يقبل جميع مزودي الخدمات السحابية طلب Nvidia. ** رفضت AWS التعاون مع Nvidia على منتجات DGX Cloud.
وفقًا لرويترز ، قال Dave Brown ، نائب رئيس Amazon Elastic Cloud Computing: "اتصلت بنا NVIDIA ودرسنا نموذج الأعمال. ولكن بالنسبة إلى AWS ، هذا لا معنى له كثيرًا." وهو يعتقد أن AWS لديها القدرة على بناء خوادم موثوقة خبرة طويلة الأمد مع الخبرة الحالية في سلسلة التوريد.
بدأت AWS في شراء شريحة H100 من Nvidia في مارس من هذا العام ، ولكن فقط كجزء من نظامها المطور ذاتيًا. تدرس AWS أيضًا استخدام أحدث شريحة ذكاء اصطناعي من AMD ، MI300 ، لكنها لم تتخذ قرارًا نهائيًا بعد.
في مواجهة سوق الذكاء الاصطناعي التوليدي الناشئ ، سيستمر توزيع الفوائد بين Nvidia ومقدمي الخدمات السحابية في التغيير. لكن من الواضح تمامًا أن Nvidia قد نقلت جبن مزود الخدمة السحابية.
** 4. الصرف من القاع **
إن إطلاق DGX Cloud ليس سوى الخطوة الأولى ، ولا تزال مشاركة Nvidia في سوق الحوسبة السحابية تتعمق. في هذه الخطوة ، لم تختر Nvidia أن تنتهي شخصيًا ، لكنها اختارت دعم منافسي عمالقة السحابة الثلاثة.
هذا العام ، ظهرت شركة سحابية صغيرة ومتوسطة الحجم تُدعى CoreWeave ، لتصبح مزود خدمة سحابية أكثر شهرة من عمالقة السحابة الثلاثة. ** تدعي CoreWeave أنها المزود الوحيد للخدمات السحابية في العالم الذي يمكنه "توفير Nvidia H100 على نطاق واسع". **
وفقًا لتقديرات موقع GPU Utils على الويب ، فإن عدد H100s التي طلبتها CoreWeave من Nvidia هو حوالي 35000-40.000. وبالمقارنة ، فإن الكمبيوتر العملاق A3 الذي أطلقته Google في مايو من هذا العام يحتوي على 26000 H100s ، ويستند مثيل الجهاز الظاهري EC2 P5 الذي أطلقته Amazon AWS في يوليو على 20000 H100s ، والجهاز الظاهري Azure ND H100v5 الذي أطلقته Microsoft في أغسطس ، يحتوي على فقط 8 قطع من H100. ومع ذلك ، تمتلك Microsoft حوالي 285000 A100s.
ما هو أصل CoreWeave؟ الشركة ، التي تأسست في عام 2017 ، تعمل بشكل أساسي في أعمال تعدين العملات المشفرة Ethereum ، وأصبحت أكبر شركة تعدين Ethereum في أمريكا الشمالية في عام 2018. في ذلك الوقت ، نشرت CoreWeave أكثر من 50000 وحدة معالجة رسومات ، مما يوفر أكثر من 1٪ من قوة الحوسبة لشبكة Ethereum.
بالإضافة إلى التعدين ، بدأت CoreWeave أيضًا في محاولة خدمة بعض عملاء المؤسسات ، مثل الذكاء الاصطناعي والوسائط الترفيهية والكيمياء الحاسوبية. في عام 2019 ، تحولت CoreWeave بالكامل من وحدات معالجة الرسومات الخاصة بالمستهلكين إلى وحدات معالجة الرسومات على مستوى المؤسسات من Nvidia ، لأن وحدات معالجة الرسومات على مستوى المؤسسات يمكن أن تعمل على مدار الساعة ، مما يزيد من استخدام وحدة معالجة الرسومات إلى ما يقرب من 100٪.
في عام 2021 ، أطلقت CoreWeave رسميًا النظام الأساسي السحابي GPU المستند إلى Nvidia. في الربع الثالث من عام 2022 ، مع اندماج Ethereum ، انتهى عصر تعدين بطاقات الرسومات على نطاق واسع ، وتحولت CoreWeave بالكامل إلى مزود خدمة سحابية ، وأعلنت في نوفمبر من هذا العام أنها أصبحت الدفعة الأولى من تستخدم وحدات معالجة الرسومات شريحة فائقة NVIDIA HGX H100. أحد مزودي الخدمات السحابية.
بالمقارنة مع الشركات الثلاثة العملاقة Amazon و Microsoft و Google ، لا تخطط CoreWeave لتطوير شريحة الذكاء الاصطناعي الخاصة بها ، والتي حظيت بتقدير كبير من Nvidia.
في أبريل 2023 ، عززت Nvidia تعاونها مع CoreWeave ، وبالإضافة إلى التعاون التجاري ، استثمرت أيضًا في جولة تمويل B1 لشركة CoreWeave بقيمة 221 مليون دولار. الأهم من ذلك ، أن Nvidia قد زودت CoreWeave بقناة فريدة لـ A100 و H100 النادرة.
في مقابلة حديثة مع Bloomberg ، قال Brannin McBee ، الشريك المؤسس والرئيس التنفيذي للاستراتيجية في CoreWeave ، إن Nvidia قد نفدت الرقائق هذا العام ، ومن المقرر أيضًا طلبات CoreWeave في الربع الثاني من العام المقبل.
من المحتمل أن تمتلك CoreWeave أكبر مخزون من وحدات معالجة الرسومات Nvidia في العالم. في سياق النقص الحالي في GPU ، تعتبر الرقائق أكثر قيمة من الأسهم ، وقد ابتكرت CoreWeave طريقة تمويل مبتكرة. في أغسطس من هذا العام ، قامت CoreWeave بتأمين 2.3 مليار دولار في تمويل الديون من خلال رهن شرائح GPU الخاصة بها. في السابق ، تلقت جولة B1 من CoreWeave لتمويل الأسهم 421 مليون دولار فقط.
من خلال التحالف الاستراتيجي "cloud + GPU" مع Nvidia ، ارتفع أداء CoreWeave أيضًا.
قبل هذا العام ، كانت CoreWeave شركة غير معروفة. ولكن الآن ، تستعد CoreWeave لجني مليارات الدولارات منها من خلال وحدات معالجة الرسومات الخاصة بها. في مقابلة مع VentureBeat ، كشف المؤسس المشارك لشركة CoreWeave والرئيس التنفيذي للاستراتيجية Brannin McBee أن عائدات CoreWeave في عام 2022 ستبلغ 30 مليون دولار أمريكي ، وستصل إلى 500 مليون دولار أمريكي هذا العام ، ووقعت ما يقرب من 2 مليار دولار أمريكي في العقود العام المقبل.
أعلنت CoreWeave أيضًا عن إنشاء مركز بيانات جديد بقيمة 1.6 مليار دولار في تكساس وتخطط للتوسع إلى 14 مركزًا للبيانات بحلول نهاية العام. حاليًا ، تستخدم شركة AI star unicorn Inflection سحابة CoreWeave لبناء مجموعة GPU من حوالي 22000 H100s. أعلنت الشركة عن جولة جديدة من التمويل بقيمة 1.3 مليار دولار في يوليو من هذا العام. من الجدير بالذكر أن NVIDIA هي أيضًا من بين مستثمري Inflection.
CoreWeave هي أول شركة حوسبة سحابية تستثمرها Nvidia في هذا العام ، ولكنها ليست الشركة الوحيدة.
وفقًا للمعلومات ، توشك Nvidia على الوصول إلى اتفاقية استثمار مع مزود خدمة سحابية آخر ، Lambda Labs. وقد تستثمر Nvidia 300 مليون دولار أمريكي ، وسوف يتجاوز تقييم Lambda Labs مليار دولار أمريكي. تدعي Lambda Labs أنها قادرة على توفير موارد طاقة الحوسبة NVIDIA A100 و H100 بأقل سعر في العالم.
في الوقت الحالي ، مع التخصيص "المعقول" لموارد وحدة معالجة الرسومات ، أصبحت Nvidia متداولًا في سوق الحوسبة السحابية بالمعنى الفعلي ، واستوعبت التعامل مع العملاق السحابي من الجذر - Microsoft هي حالة جيدة.
أضافت Microsoft عامل خطر جديدًا إلى أحدث تقارير أرباحها: "يمكن أن تتعطل الخدمات إذا كانت غير قادرة على تأمين ما يكفي من رقائق الذكاء الاصطناعي لمراكز البيانات الخاصة بها".
في مواجهة احتياجات الحوسبة الضخمة للذكاء الاصطناعي ، تعاني Microsoft من نقص في حمل وحدة معالجة الرسومات ، بل يتعين عليها طلب المساعدة من منافسيها ، البائعين السحابيين الصغار ومتوسطي الحجم. وفقًا لـ CNBC ، فإن Microsoft "وافقت على إنفاق مليارات الدولارات خلال السنوات القليلة المقبلة لشراء البنية التحتية للحوسبة السحابية لشركة CoreWeave الناشئة". تحت سيطرة Nvidia ، كان على Microsoft السماح لمقدمي الخدمات السحابية الصغيرة والمتوسطة الحجم مثل CoreWeave لكسب فرق السعر من وحدة معالجة الرسومات.
من خلال الاستثمار في موفري الخدمات السحابية الصغيرة والمتوسطة الحجم ، دخلت Nvidia في مجال الحوسبة السحابية. على الرغم من عدم وجود محاولة لبناء البنية التحتية السحابية والتنافس بشكل مباشر مع عمالقة السحابة ، فلن نتفاجأ إذا دخلت Nvidia السوق مباشرة من خلال الحصول على موفري خدمات سحابية صغيرة ومتوسطة الحجم في المستقبل.
بغض النظر عما إذا كانت Nvidia ستدخل اللعبة في النهاية ، فقد أصبحت أكبر لاعب يعمل من وراء الكواليس في سوق الحوسبة السحابية في موجة الذكاء الاصطناعي التوليدية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
يجب أن يخوض عمالقة السحاب و Nvidia معركة
المؤلف: تشاو جيان
المصدر: Jiazi Guangnian
"اركض للحصول على الطعام ، أو اركض حتى لا يأكل من قبل الآخرين. في كلتا الحالتين ، استمر في الركض."
هذه هي رسالة الرئيس التنفيذي لشركة Nvidia Huang Renxun إلى الخريجين في خطابه في جامعة تايوان الوطنية هذا العام. بالطبع ، إنها أيضًا تفسير لعقلية إمبراطورية القيمة السوقية التي تبلغ قيمتها تريليون دولار والتي أنشأها Huang Renxun.
في عام 2023 ، واجهت Nvidia أثناء الركض الذكاء الاصطناعي التوليدي ، والذي أطلق عليه Huang Renxun عدة مرات "لحظة الذكاء الاصطناعي في iPhone". في هذه اللحظة ، وضع Huang Renxun نصب عينيه فرصة ليصبح الصياد بدلاً من الفريسة - Yun.
يبدو أنه لا ينبغي أن يكون لدى Nvidia الدافع للقيام بالسحابة ، ليس فقط لأن موفري الخدمات السحابية هم عملاء مهمون لشركة Nvidia ، ويشترون مليارات الدولارات من وحدات معالجة الرسومات من Nvidia كل عام ، ولكن أيضًا لأن هذه المسألة يبدو أنها ليس لديها فرصة للفوز.
يتم التحكم بقوة في سوق الحوسبة السحابية اليوم من قبل عمالقة السحابة الثلاثة Amazon AWS و Microsoft Azure و Google Cloud. وفقًا لبيانات Statista ، ستكون حصة AWS في السوق في عام 2022 32٪ ، وستكون Azure 23٪ ، وستكون Google Cloud 10٪ ، وستصل الحصة السوقية المجمعة للشركات الثلاث إلى 65٪.
ليس الأمر أننا لم نر متحديًا. في السنوات العشر الماضية ، أرادت جميع الشركات المعروفة مثل VMware و Dell و Hewlett-Packard الحصول على جزء من سوق الحوسبة السحابية ، لكنها فشلت جميعًا دون استثناء.
ومع ذلك ، تمامًا كما تنتج كل ثورة تكنولوجية اتجاهات جديدة ، بدأت هذه الموجة من الذكاء الاصطناعي التوليدي ، الشركة المصنعة للرقائق Nvidia في اختبار سوق الحوسبة السحابية خطوة بخطوة:
** في الخطوة الأولى ، في مؤتمر GTC في 21 مارس من هذا العام ، أصدرت NVIDIA DGX Cloud. ** كما يتضح من الاسم ، هذا منتج سحابي. يمكن للعملاء الحصول مباشرة على منتجات وخدمات الذكاء الاصطناعي من Nvidia في السحابة أو مراكز البيانات المحلية عن طريق تأجيرها شهريًا ؛
** الخطوة الثانية هي الاستثمار في منافسي عمالقة السحابة الثلاثة. ** استثمرت Nvidia تباعاً في CoreWeave و Lambda Labs ، وهما مزوّدو خدمات سحابية صغيرة ومتوسطة الحجم في الولايات المتحدة ، وخصصت لهم شرائح GPU النادرة. ما مدى المبالغة في هذا "التفضيل"؟ في الوقت الذي يصعب فيه العثور على نوى GPU ، تمكنت CoreWeave من الحصول على 2.3 مليار دولار في تمويل الديون عن طريق رهن وحدات معالجة الرسوميات الوفيرة ، وخاصة H100.
على الرغم من أنه قد بدأ للتو ، إلا أن تخطيط الأعمال السحابية يمثل هجوم Nvidia المضاد ضد عمالقة السحابة.
كما نعلم جميعًا ، أطلقت Google و Amazon و Microsoft على التوالي مشاريع شرائح AI ذاتية التطوير داخليًا - سلسلة TPU من Google وسلسلة Inferentia و Trainium من Amazon وشريحة أثينا من Microsoft التي تم الكشف عنها هذا العام. يمتلك عمالقة السحابة الثلاثة موارد ودوافع كافية لتطوير رقائق الذكاء الاصطناعي ذاتيًا لتقليل "ضريبة GPU" الخاصة بـ Nvidia.
نفيديا تدرك ذلك جيدًا. قال Huang Renxun بصراحة في المكالمة الجماعية لتقرير أرباح الربع الأخير "لقد كنا نولي اهتمامًا للمنافسة ، ولطالما كانت لدينا منافسة".
لا يستطيع Huang Renxun منع توسع مزودي الخدمات السحابية الرئيسيين الثلاثة ، ولكن ربما يكون الدفاع الأفضل هو الهجوم ، وطريقة Nvidia للهجوم المضاد هي الانتقال مباشرة إلى السحابة.
مع وجود بطاقتين رابحتين من A100 و H100 لفترة طويلة من الزمن ، تعد هاتان الشريحتان الخيار الأفضل لتدريب النماذج واسعة النطاق والتفكير المنطقي ، ولا يوجد أي منهما ، لدى Nvidia الفرصة لتصبح رائدة حقيقية في سوق الحوسبة السحابية. المشغل وراء الكواليس.
معركة مفتوحة وسرية حول الرقائق والحوسبة السحابية تتكشف ببطء بين عمالقة التكنولوجيا الأربعة مع أعلى خمسة من حيث القيمة السوقية العالمية.
** 1. كاد يسقط قبل الفجر **
أولئك الذين هم على دراية بـ Nvidia سيعرفون كم هي جميلة Nvidia اليوم ، وكيف كانت Nvidia بائسة العام الماضي.
تشمل الأعمال الأساسية لشركة Nvidia مراكز البيانات والألعاب والتصور الاحترافي والسيارات. في الربع الثاني من عام 2020 ، تفوقت أعمال مركز بيانات Nvidia على الألعاب للمرة الأولى ، لتصبح أكبر مصدر دخل لشركة Nvidia.
في اجتماع التقرير المالي للربع الرابع لعام 2022 (الموافق للسنة الطبيعية من نوفمبر 2021 إلى يناير 2022) ، قدمت Nvidia تقريرًا ماليًا قويًا للربع الرابع ، وزادت أعمال مركز البيانات لديها بنسبة 71٪ على أساس سنوي. قال Huang Renxun بتفاؤل في ذلك الوقت: "منصة الحوسبة Nvidia أدت إلى طلب غير عادي في السوق." ومع ذلك ، بعد أسبوع ، اندلع الصراع بين روسيا وأوكرانيا ، مما أدى إلى تعطيل سلسلة التوريد للمواد الخام الرئيسية. إلى جانب تأثير الوباء ، سيستمر معدل نمو أعمال مركز بيانات Nvidia في التباطؤ طوال عام 2022.
في التقرير المالي 2023Q4 الذي صدر في فبراير من هذا العام ، كان معدل نمو مراكز بيانات NVIDIA 11٪ فقط ، وهو مستوى منخفض قياسي ، والمرة الأولى منذ عام 2020 التي تنخفض فيها السلسلة.
في عام 2022 ، سيتم أيضًا خفض سعر سهم Nvidia إلى النصف. بالطبع ، لقد ظهر اليوم ، وأنقذ ولادة ChatGPT Nvidia.
من بين الأسباب العديدة لانخفاض نمو الأعمال ، فإن انخفاض الطلب من العملاء الرئيسيين هو الأكثر يقظة. في التقرير المالي للربع الرابع من عام 2023 ، أعلن المدير المالي لشركة Nvidia Colette Kress عن رقم: يأتي حوالي 40٪ من إيرادات قطاع مراكز البيانات البالغة 15 مليار دولار أمريكي في السنة المالية 2023 (حوالي 6 مليارات دولار أمريكي) من مراكز البيانات فائقة النطاق والخدمات السحابية. مقدمي.
لكن إذا نظرت إلى الربع الرابع فقط ، فهذا ربع فقط. يعمل منشئو مراكز البيانات Hyperscale ومقدمو الخدمات السحابية على تقليل إنفاق GPU بشكل كبير.
بالإضافة إلى الانخفاض الموضوعي في الطلب ، تعمل خطة شرائح الذكاء الاصطناعي المطورة ذاتيًا لعمالقة السحابة الثلاثة على تآكل الحصة السوقية لوحدة معالجة الرسومات NVIDIA شيئًا فشيئًا.
أطلقت Google الجيل الأول من رقاقة TPU ذاتية التطوير AI في عام 2016 ، وبعد خمس سنوات ، في 19 مايو 2021 ، أطلقت الجيل الرابع من TPU v4. في تقرير بحثي نُشر هذا العام ، قالت Google إنها جمعت 4000 TPU v4s معًا لبناء كمبيوتر عملاق يعمل 1.7 مرة أسرع وأكثر كفاءة من جهاز مكافئ يعمل بواسطة Nvidia A100 GPU. 1.9 مرة أعلى.
تمتلك أمازون أيضًا تقليدًا للرقائق ذاتية التطوير ، ليس فقط لشركة Nvidia ، ولكن لجميع مصنعي الرقائق. في الوقت الحالي ، أطلقت أمازون أربع سلاسل من الرقائق المطورة ذاتيًا - سلسلة Nitro لشرائح الشبكة ، وسلسلة شريحة الخادم Graviton ، وسلسلة Inferentia لشرائح الذكاء الاصطناعي ، ورقاقة التدريب على الذكاء الاصطناعي Trainium. من بينها ، تتنافس الشريحتان الأخيرتان للذكاء الاصطناعي مع وحدات معالجة الرسومات NVIDIA.
على الرغم من دخولها في وقت متأخر ، مايكروسوفت "وصلت متأخرة". في 18 أبريل من هذا العام ، وفقًا للمعلومات ، منذ عام 2019 ، طورت Microsoft سرًا شرائح الذكاء الاصطناعي ، التي تحمل الاسم الرمزي الداخلي "أثينا" (أثينا) ، ويعمل مئات الموظفين في مشروع أثينا ، وقد استثمرت Microsoft حوالي 2 مليار دولار . تمكن بعض موظفي Microsoft و OpenAI من الحصول على شرائح لاختبار الأداء على أحدث نماذج اللغات الكبيرة مثل GPT-4.
يتعين على مقدمي الخدمات السحابية دفع مبلغ كبير من "ضريبة Nvidia" كل عام لشراء وحدات معالجة الرسومات ، خاصة بعد انتشار الذكاء الاصطناعي التوليدي.
في فبراير من هذا العام ، قدمت New Street Research تقديرًا: يحتاج محرك بحث Bing المستند إلى ChatGPT إلى 8 وحدات معالجة رسومات للرد على أسئلة المستخدم في غضون ثانية واحدة. بهذا المعدل ، ستحتاج Microsoft إلى أكثر من 20000 خادم مع 8 وحدات معالجة رسومات لنشر النماذج في Bing لكل مستخدم ، الأمر الذي سيكلف Microsoft 4 مليارات دولار. على نطاق جوجل ، التي تتعامل مع 8-9 مليار استفسار في اليوم ، سيكلف 80 مليار دولار.
لن يتم بيع رقائق الذكاء الاصطناعي المطورة ذاتيًا لمقدمي الخدمات السحابية خارجيًا ، ولن تتنافس بشكل مباشر مع Nvidia. ومع ذلك ، من خلال نشر شرائح مطورة ذاتيًا بدلاً من وحدات معالجة الرسومات في مراكز البيانات ، يمكن خفض التكاليف بشكل فعال. على سبيل المثال ، قامت Google بنشر المئات من أجهزة الكمبيوتر الفائقة TPU v4 في خدمتها السحابية.
يمتلك مقدمو الخدمات السحابية الثلاثة موارد كافية وحافزًا لتطوير شرائحهم الخاصة ، وهو ما يُنظر إليه على أنه صدع في إمبراطورية Nvidia. تدرك Nvidia ذلك جيدًا ، ولكن لا يبدو أن هناك طريقة أفضل من ذلك.
حتى ظهور ChatGPT ، شهدت Nvidia ، التي تم الضغط عليها من قبل موفري الخدمات السحابية خطوة بخطوة ، نقطة اختراق للهجوم المضاد. نظرًا لأن مزودي الخدمات السحابية يمكنهم صنع شرائح ، ألا تستطيع Nvidia إنشاء السحب في عصر الذكاء الاصطناعي؟
** 2. هل لدى Nvidia فرصة لعمل السحابة؟ **
تعد Nvidia حاليًا المستفيد الأكبر من ثورة الذكاء الاصطناعي التوليدية ، وقد تحدث Huang Renxun دائمًا عن "لحظة الذكاء الاصطناعي في iPhone" هذا العام. لقد جعل الطلب الهائل على الذكاء الاصطناعي التوليفي من GPU عملة صعبة ، ويقول بعض الناس ببساطة أن "GPU هو الدولار الجديد".
من GPU إلى السحابة ، هل لدى Nvidia فرصة حقًا؟
يتم تنفيذ التدريب والتفكير المنطقي للذكاء الاصطناعي التوليدي بشكل أساسي على السحابة ، وسيكون مقدمو الخدمات السحابية الذين يوفرون البنية التحتية للذكاء الاصطناعي أحد أكبر المستفيدين من موجة الذكاء الاصطناعي التوليدي. وفقًا للبيانات المقدرة من قبل شركة رأس المال الاستثماري في وادي السيليكون A16Z ، فإن 10٪ إلى 20٪ من إجمالي الإيرادات الناتجة عن الذكاء الاصطناعي التوليدي يتدفق في النهاية إلى مزودي الخدمات السحابية.
ومع ذلك ، فإن هذه العملية لن تكون سريعة. قال آندي جاسي ، الرئيس التنفيذي لشركة أمازون ، في مكالمة أرباح الربع الثاني لعام 2023: "إن الذكاء الاصطناعي العام سيغير بلا شك تجربة جميع العملاء تقريبًا. ولكن لا يزال الوقت مبكرًا للغاية ، ولا تزال معظم الشركات تفكر في كيفية تحقيق هذا الهدف. نحن في سباق ماراثون في مرحلة مبكرة جدا ".
يتمثل جوهر الخدمات السحابية في جعل موارد الأجهزة افتراضية في مركز البيانات ثم تأجيرها للسوق. ما يقرب من 100٪ من الخوادم في مراكز البيانات التقليدية مبنية على معالجات Intel و AMD CPU. تشبه وحدة المعالجة المركزية "المتخصص مع أقوى عقل" ، والذي يوفر إمكانيات "الحوسبة العامة" - أنظمة تشغيل المعالجة وبرامج النظام وبرنامج التطبيقات لديه مهام برنامج مثل جدولة التعليمات المعقدة ، الحلقات ، التفريع ، الحكم المنطقي والتنفيذ.
لكن وحدات المعالجة المركزية ليست جيدة في معالجة البيانات على نطاق واسع والحوسبة المتوازية ، وهو ما يحتاجه الذكاء الاصطناعي ووحدات معالجة الرسومات Nvidia جيدة فيه. GPU هو مثل "خبير الحوسبة العنيفة" ، متخصص في معالجة الصور ، والتعلم العميق ، وتدريب النماذج الكبيرة الحالية ، والتفكير والمهام الأخرى. أطلق Huang Renxun على هذه القدرة الحاسوبية المتوازية بشكل كبير اسم "الحوسبة المتسارعة".
في عام 2012 ، حاول جيف هينتون ، والد التعلم العميق ، وتلاميذه تدريب نموذج الشبكة العصبية التلافيفي AlexNet على NVIDIA GPU لأول مرة ، وفازوا في مسابقة التعرف على الصور بضربة واحدة. أدى هذا الحادث إلى انفجار التعلم العميق في السنوات العشر المقبلة ، حيث أدركت صناعة الذكاء الاصطناعي بأكملها ، بما في ذلك Nvidia نفسها ، إمكانات GPU للحوسبة المتسارعة.
بدأت تروس ثروات نفيديا في التحول. منذ ذلك الحين ، صرخ هوانغ رينكسون "قانون مور مات" في مناسبات عديدة. وهو يعتقد أن عصر توسيع وحدة المعالجة المركزية قد انتهى ، كما هو الحال مع زيادة الأداء بمقدار عشرة أضعاف بنفس التكلفة كل خمس سنوات. سيتم استبداله بـ GPU ، وقد ابتكر Huang Renxun بشكل خاص "قانون Huang" - ستعمل وحدة معالجة الرسومات (GPU) على تعزيز أداء الذكاء الاصطناعي لمضاعفة الأداء عامًا بعد عام.
خلال السنوات العشر من 2012 إلى 2022 ، يمكننا أن نسميها الحوسبة المتسارعة من 0 إلى 1 ، وقد وصل الذكاء الاصطناعي إلى صناعات محددة وسيناريوهات محددة مثل التعرف على الصور. ومع ذلك ، فإن الطلب على الذكاء الاصطناعي في هذه الفترة لا يزال غير كافٍ ، وتتوقع شركة الأبحاث Aletheia أن معدل اختراق السوق الحالي لخوادم الذكاء الاصطناعي أقل من 5٪. هذا بعيد عن أن يكون كافياً لتحقيق حلم Huang Renxun بالحوسبة المتسارعة.
حتى ولادة ChatGPT في نوفمبر 2022 ، ظهرت "لحظة الذكاء الاصطناعي في iPhone". يمكن اعتبار هذا بداية لتوسيع نطاق الحوسبة المتسارعة من 1 إلى 10.
يعتقد Huang Renxun أن الجمع بين الحوسبة المتسارعة والذكاء الاصطناعي التوليدي سيغير أساليب الحوسبة في السنوات الستين الماضية. في الوقت الذي تتسابق فيه الشركات لتطبيق الذكاء الاصطناعي التوليدي على كل منتج وخدمة وعملية تجارية ، ستنتقل البنية التحتية لمركز البيانات العالمي التي تبلغ قيمتها تريليون دولار من الحوسبة ذات الأغراض العامة إلى الحوسبة المتسارعة ، وسيؤدي تجديد مركز البيانات الناتج بالتأكيد إلى خلق فرص هائلة في السوق.
في المكالمة الجماعية للأرباح في الربع الأخير ، تعهد Huang Renxun: "نحن في العام الأول من استخبارات مركز البيانات على مدى عقد من الزمن".
قال Huang Renxun إن الحوسبة المتسارعة تمثل تحديًا متكاملًا ، إذ يجب أن تدمج جميع البرامج وجميع مكتبات الأطر وجميع الخوارزميات الخاصة بالهندسة ، وهذه المهام ليست فقط للرقاقة ، ولكن لمركز البيانات بأكمله. مركز البيانات هو حاسوب عملاق ، ولتحقيق أفضل أداء ، من الضروري تحسين المجموعة الكاملة لأنظمة تشغيل الشبكة ، ومحركات الحوسبة الموزعة ، وأجهزة الشبكة ، والمفاتيح ، وبنى الحوسبة.
على سبيل المثال ، يستخدم مركز بيانات الحوسبة العامة بشكل أساسي إيثرنت لربط جميع الخوادم دون نقل البيانات على نطاق واسع ؛ يستخدم مركز بيانات الحوسبة المتسارعة الذي اقترحته Nvidia تقنية تسمى Infinite Band للاتصال ، والتي تتميز بإنتاجية عالية للغاية للبيانات.
يتيح التحسين المنهجي أيضًا لمراكز بيانات الحوسبة المتسارعة الحصول على كفاءة أعلى وتكاليف أقل من مراكز البيانات التقليدية.
طرح Huang Renxun سؤالاً في SIGGRAPH ، المؤتمر السنوي لرسومات الكمبيوتر الذي عقد في أغسطس من هذا العام: "ما الذي يمكنني شراؤه مقابل 100 مليون دولار؟" سأل Huang Renxun نفسه وأجاب: "في الماضي ، كان بإمكان 100 مليون دولار شراء مركز بيانات مكون من 8،800 x86 CPUs. ، استهلاك الطاقة هو 5 ميجاوات ؛ اليوم ، يمكن شراء 100 مليون دولار أمريكي لمركز بيانات Iso-Budget المكون من 2500 GH200 ، واستهلاك الطاقة هو 3 ميجاوات ، وأداء الذكاء الاصطناعي هو 12 ضعفًا لبيانات وحدة المعالجة المركزية المذكورة أعلاه ، وكفاءة الطاقة 20 مرة ".
في ظل نفس أداء الذكاء الاصطناعي المنطقي ، فإن تكلفة مركز بيانات وحدة معالجة الرسومات هي 1/12 فقط من تكلفة مركز بيانات وحدة المعالجة المركزية. "كلما اشتريت أكثر ، كلما وفرت أكثر." هذا هو بيان Huang Renxun لمركز بيانات الحوسبة السريعة.
حتى الآن ، أنشأت Nvidia خمسة مراكز بيانات وساعدت العملاء في جميع أنحاء العالم على بناء مراكز البيانات الخاصة بهم. علاوة على ذلك ، قد يستغرق الأمر شهورًا أو حتى عامًا لمركز البيانات التقليدي للانتقال من التسليم إلى التشغيل ، ولكن في Nvidia. هذا الوقت في أسابيع. وقال هوانغ "خبرة الفريق في هذا المجال رائعة".
بالنسبة لعمالقة السحابة الثلاثة ، لن يكون الانتقال من مراكز بيانات الحوسبة للأغراض العامة إلى مراكز بيانات الحوسبة المتسارعة سريعًا. لا يتعلق الأمر بالتكنولوجيا والقدرات فحسب ، بل يتعلق أيضًا بعملية صنع القرار والعمليات الخاصة بهذه الشركات العملاقة.
هذا يعطي Nvidia الفرصة لعمل السحابة. إن اتخاذ خطوة للأمام من مركز البيانات إلى السحابة هو أمر طبيعي ، وتحاول Nvidia فعل ذلك بالفعل.
** 3. الظلام Chencang **
في التقرير المالي للربع الرابع لعام 2023 مع أدنى معدل نمو لأعمال مراكز البيانات ، أعلنت Nvidia أيضًا عن منتج جديد DGX Cloud. في مؤتمر GTC بعد شهر ، تم إطلاق DGX Cloud رسميًا.
كما يتضح من الاسم ، هذا منتج خدمة سحابية. هل ستدخل Nvidia سوق الحوسبة السحابية؟
دعونا نلقي نظرة أولية على ماهية DGX. DGX هو أول كمبيوتر عملاق أصدرته Nvidia في عام 2017 ، والذي أطلق عليه Huang Renxun "مركز البيانات في الهيكل".
الجيل الأول من DGX مدمج 8 وحدات معالجة رسومات (Tesla P100) و 4 محركات أقراص صلبة ، ويستخدم تقنية اتصال NVIDIA NVlink. من حيث التدريب على التعلم العميق ، فإن أداء DGX واحد يعادل 250 خادمًا عاديًا x86. بالطبع ، إنها باهظة الثمن أيضًا ، حيث تبلغ 129000 دولار للوحدة الواحدة.
بعد الاجتماع ، قدم Huang Renxun أول DGX-1 إلى Elon Musk. Musk هو الشريك المؤسس لـ OpenAI. بدأت OpenAI من هذا الكمبيوتر العملاق وصنعت ChatGPT اليوم خطوة بخطوة.
اليوم ، تم تطوير الكمبيوتر العملاق DGX إلى الجيل الخامس ، الأجيال الأربعة الأولى هي DGX P100 و DGX A100 و DGX H100 وأحدث DGX GH200.
DGX Cloud التي أصدرتها Nvidia هي النسخة السحابية من الكمبيوتر العملاق الذي تم إصداره سابقًا. تم تكوين مثيل DGX Cloud (كمبيوتر افتراضي في خادم سحابي) مع 8 A100 أو H100.
ومع ذلك ، فإن سعر DGX Cloud ليس رخيصًا ، 36999 دولارًا شهريًا ، حوالي 264000 يوان صيني. على سبيل المقارنة ، يكلف مثيل Microsoft Azure ND96asr مع 8 A100s والمواصفات المكافئة 19،854 دولارًا أمريكيًا شهريًا ، وهو ما يمثل نصف DGX Cloud فقط.
لماذا تجرؤ نفيديا على تحديد مثل هذا السعر الباهظ؟ الجواب هو أن DGX Cloud هو حل متكامل يدمج البرامج والأجهزة. ** لم تعد Nvidia تعلن عن نفسها كشركة شرائح GPU ، ولكنها تقدم نفسها كشركة منصات حوسبة. **
بالإضافة إلى موارد الأجهزة ، أطلقت DGX Cloud أيضًا منصتين برمجيتين داعمتين ، أحدهما هو NVIDIA AI Foundations ، والذي يساعد الشركات على إنشاء نماذج مخصصة ، بما في ذلك نماذج اللغة والرؤية والطب الحيوي ؛ والآخر هو NVIDIA AI Enterprise ، والذي يحتوي على 4000 نموذج مختلف. إطار عمل للذكاء الاصطناعي يساعد المؤسسات على استخدامه خارج الصندوق. تشبه منتجات الذكاء الاصطناعي من Nvidia منتجات MaaS التي أطلقها موفرو الخدمات السحابية المحليون مثل Alibaba Cloud.
هوانغ متفائل بشأن تدفقات عائدات البرامج الجديدة هذه ، ويتوقع أن تنمو الإيرادات في مجال الذكاء الاصطناعي التوليدي من جزء "مكون من رقم واحد" من إجمالي إيرادات الشركة إلى جزء "كبير" خلال العام المقبل. قال هوانغ رينكسون: "نحن متحمسون لتوسيع نموذج العمل الجديد".
أدى إطلاق DGX Cloud بشكل موضوعي إلى تكوين علاقة تنافسية معينة مع موفري الخدمات السحابية ، لكن Nvidia لا تزال تريد الاستمرار في الحفاظ على تعاون وثيق مع موفري الخدمات السحابية. لا تقوم Nvidia حاليًا بإنشاء بنية أساسية سحابية كاملة من البداية ، ولكنها تستضيف DGX Cloud على الأنظمة الأساسية السحابية للعديد من موفري الخدمات السحابية.
تبيع Nvidia مرافق الأجهزة الأساسية لبائعي السحابة ، ثم تشتري موارد الحوسبة السحابية منهم ، وأخيراً تبيع الخدمات السحابية لعملاء المؤسسات وتحتفظ بجميع الإيرادات. يمكن للعملاء الوصول إلى الكمبيوتر الفائق AI من Nvidia فقط من خلال متصفح لاستخدام منتجات Nvidia AI وخدمات نموذج AI.
ومع ذلك ، هل يشتريه مقدمو الخدمات السحابية؟
في هذا الصدد ، أوضح Huang Renxun: "إن التعاون بين خدمات NVIDIA السحابية ومقدمي الخدمات السحابية سيكون موقفًا مربحًا للجانبين. سيقوم الطرفان بشكل مشترك بإنشاء تطبيقات جديدة وتطوير أسواق جديدة." قال Huang Renxun إنه من الناحية المثالية ، سيشتري العملاء NVIDIA DGX نسبة السحابة إلى السحابة السحابية لمزود الخدمة السحابية هي 1: 9.
Oracle هي أول مزود خدمة سحابية يعلن عن شراكة مع Nvidia. قام عملاق البرمجيات بإجراء تحول سحابي بشكل عاجل في السنوات الأخيرة ، لذلك لديه دافع كافٍ لتشكيل تحالف مع Nvidia من أجل إحداث تحول في سوق الحوسبة السحابية. تعمل Nvidia أيضًا مع Microsoft Azure و Google Cloud والأنظمة الأساسية السحابية الأخرى ، والتي من المتوقع أيضًا إطلاقها قريبًا.
** تفكير Nvidia بالتمني بصوت عالٍ ، ولكن لن يقبل جميع مزودي الخدمات السحابية طلب Nvidia. ** رفضت AWS التعاون مع Nvidia على منتجات DGX Cloud.
وفقًا لرويترز ، قال Dave Brown ، نائب رئيس Amazon Elastic Cloud Computing: "اتصلت بنا NVIDIA ودرسنا نموذج الأعمال. ولكن بالنسبة إلى AWS ، هذا لا معنى له كثيرًا." وهو يعتقد أن AWS لديها القدرة على بناء خوادم موثوقة خبرة طويلة الأمد مع الخبرة الحالية في سلسلة التوريد.
بدأت AWS في شراء شريحة H100 من Nvidia في مارس من هذا العام ، ولكن فقط كجزء من نظامها المطور ذاتيًا. تدرس AWS أيضًا استخدام أحدث شريحة ذكاء اصطناعي من AMD ، MI300 ، لكنها لم تتخذ قرارًا نهائيًا بعد.
في مواجهة سوق الذكاء الاصطناعي التوليدي الناشئ ، سيستمر توزيع الفوائد بين Nvidia ومقدمي الخدمات السحابية في التغيير. لكن من الواضح تمامًا أن Nvidia قد نقلت جبن مزود الخدمة السحابية.
** 4. الصرف من القاع **
إن إطلاق DGX Cloud ليس سوى الخطوة الأولى ، ولا تزال مشاركة Nvidia في سوق الحوسبة السحابية تتعمق. في هذه الخطوة ، لم تختر Nvidia أن تنتهي شخصيًا ، لكنها اختارت دعم منافسي عمالقة السحابة الثلاثة.
هذا العام ، ظهرت شركة سحابية صغيرة ومتوسطة الحجم تُدعى CoreWeave ، لتصبح مزود خدمة سحابية أكثر شهرة من عمالقة السحابة الثلاثة. ** تدعي CoreWeave أنها المزود الوحيد للخدمات السحابية في العالم الذي يمكنه "توفير Nvidia H100 على نطاق واسع". **
وفقًا لتقديرات موقع GPU Utils على الويب ، فإن عدد H100s التي طلبتها CoreWeave من Nvidia هو حوالي 35000-40.000. وبالمقارنة ، فإن الكمبيوتر العملاق A3 الذي أطلقته Google في مايو من هذا العام يحتوي على 26000 H100s ، ويستند مثيل الجهاز الظاهري EC2 P5 الذي أطلقته Amazon AWS في يوليو على 20000 H100s ، والجهاز الظاهري Azure ND H100v5 الذي أطلقته Microsoft في أغسطس ، يحتوي على فقط 8 قطع من H100. ومع ذلك ، تمتلك Microsoft حوالي 285000 A100s.
بالإضافة إلى التعدين ، بدأت CoreWeave أيضًا في محاولة خدمة بعض عملاء المؤسسات ، مثل الذكاء الاصطناعي والوسائط الترفيهية والكيمياء الحاسوبية. في عام 2019 ، تحولت CoreWeave بالكامل من وحدات معالجة الرسومات الخاصة بالمستهلكين إلى وحدات معالجة الرسومات على مستوى المؤسسات من Nvidia ، لأن وحدات معالجة الرسومات على مستوى المؤسسات يمكن أن تعمل على مدار الساعة ، مما يزيد من استخدام وحدة معالجة الرسومات إلى ما يقرب من 100٪.
في عام 2021 ، أطلقت CoreWeave رسميًا النظام الأساسي السحابي GPU المستند إلى Nvidia. في الربع الثالث من عام 2022 ، مع اندماج Ethereum ، انتهى عصر تعدين بطاقات الرسومات على نطاق واسع ، وتحولت CoreWeave بالكامل إلى مزود خدمة سحابية ، وأعلنت في نوفمبر من هذا العام أنها أصبحت الدفعة الأولى من تستخدم وحدات معالجة الرسومات شريحة فائقة NVIDIA HGX H100. أحد مزودي الخدمات السحابية.
بالمقارنة مع الشركات الثلاثة العملاقة Amazon و Microsoft و Google ، لا تخطط CoreWeave لتطوير شريحة الذكاء الاصطناعي الخاصة بها ، والتي حظيت بتقدير كبير من Nvidia.
في أبريل 2023 ، عززت Nvidia تعاونها مع CoreWeave ، وبالإضافة إلى التعاون التجاري ، استثمرت أيضًا في جولة تمويل B1 لشركة CoreWeave بقيمة 221 مليون دولار. الأهم من ذلك ، أن Nvidia قد زودت CoreWeave بقناة فريدة لـ A100 و H100 النادرة.
في مقابلة حديثة مع Bloomberg ، قال Brannin McBee ، الشريك المؤسس والرئيس التنفيذي للاستراتيجية في CoreWeave ، إن Nvidia قد نفدت الرقائق هذا العام ، ومن المقرر أيضًا طلبات CoreWeave في الربع الثاني من العام المقبل.
من المحتمل أن تمتلك CoreWeave أكبر مخزون من وحدات معالجة الرسومات Nvidia في العالم. في سياق النقص الحالي في GPU ، تعتبر الرقائق أكثر قيمة من الأسهم ، وقد ابتكرت CoreWeave طريقة تمويل مبتكرة. في أغسطس من هذا العام ، قامت CoreWeave بتأمين 2.3 مليار دولار في تمويل الديون من خلال رهن شرائح GPU الخاصة بها. في السابق ، تلقت جولة B1 من CoreWeave لتمويل الأسهم 421 مليون دولار فقط.
من خلال التحالف الاستراتيجي "cloud + GPU" مع Nvidia ، ارتفع أداء CoreWeave أيضًا.
قبل هذا العام ، كانت CoreWeave شركة غير معروفة. ولكن الآن ، تستعد CoreWeave لجني مليارات الدولارات منها من خلال وحدات معالجة الرسومات الخاصة بها. في مقابلة مع VentureBeat ، كشف المؤسس المشارك لشركة CoreWeave والرئيس التنفيذي للاستراتيجية Brannin McBee أن عائدات CoreWeave في عام 2022 ستبلغ 30 مليون دولار أمريكي ، وستصل إلى 500 مليون دولار أمريكي هذا العام ، ووقعت ما يقرب من 2 مليار دولار أمريكي في العقود العام المقبل.
أعلنت CoreWeave أيضًا عن إنشاء مركز بيانات جديد بقيمة 1.6 مليار دولار في تكساس وتخطط للتوسع إلى 14 مركزًا للبيانات بحلول نهاية العام. حاليًا ، تستخدم شركة AI star unicorn Inflection سحابة CoreWeave لبناء مجموعة GPU من حوالي 22000 H100s. أعلنت الشركة عن جولة جديدة من التمويل بقيمة 1.3 مليار دولار في يوليو من هذا العام. من الجدير بالذكر أن NVIDIA هي أيضًا من بين مستثمري Inflection.
CoreWeave هي أول شركة حوسبة سحابية تستثمرها Nvidia في هذا العام ، ولكنها ليست الشركة الوحيدة.
وفقًا للمعلومات ، توشك Nvidia على الوصول إلى اتفاقية استثمار مع مزود خدمة سحابية آخر ، Lambda Labs. وقد تستثمر Nvidia 300 مليون دولار أمريكي ، وسوف يتجاوز تقييم Lambda Labs مليار دولار أمريكي. تدعي Lambda Labs أنها قادرة على توفير موارد طاقة الحوسبة NVIDIA A100 و H100 بأقل سعر في العالم.
في الوقت الحالي ، مع التخصيص "المعقول" لموارد وحدة معالجة الرسومات ، أصبحت Nvidia متداولًا في سوق الحوسبة السحابية بالمعنى الفعلي ، واستوعبت التعامل مع العملاق السحابي من الجذر - Microsoft هي حالة جيدة.
أضافت Microsoft عامل خطر جديدًا إلى أحدث تقارير أرباحها: "يمكن أن تتعطل الخدمات إذا كانت غير قادرة على تأمين ما يكفي من رقائق الذكاء الاصطناعي لمراكز البيانات الخاصة بها".
في مواجهة احتياجات الحوسبة الضخمة للذكاء الاصطناعي ، تعاني Microsoft من نقص في حمل وحدة معالجة الرسومات ، بل يتعين عليها طلب المساعدة من منافسيها ، البائعين السحابيين الصغار ومتوسطي الحجم. وفقًا لـ CNBC ، فإن Microsoft "وافقت على إنفاق مليارات الدولارات خلال السنوات القليلة المقبلة لشراء البنية التحتية للحوسبة السحابية لشركة CoreWeave الناشئة". تحت سيطرة Nvidia ، كان على Microsoft السماح لمقدمي الخدمات السحابية الصغيرة والمتوسطة الحجم مثل CoreWeave لكسب فرق السعر من وحدة معالجة الرسومات.
من خلال الاستثمار في موفري الخدمات السحابية الصغيرة والمتوسطة الحجم ، دخلت Nvidia في مجال الحوسبة السحابية. على الرغم من عدم وجود محاولة لبناء البنية التحتية السحابية والتنافس بشكل مباشر مع عمالقة السحابة ، فلن نتفاجأ إذا دخلت Nvidia السوق مباشرة من خلال الحصول على موفري خدمات سحابية صغيرة ومتوسطة الحجم في المستقبل.
بغض النظر عما إذا كانت Nvidia ستدخل اللعبة في النهاية ، فقد أصبحت أكبر لاعب يعمل من وراء الكواليس في سوق الحوسبة السحابية في موجة الذكاء الاصطناعي التوليدية.