مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
كانت هيمنة أجهزة NVIDIA الذكاء الاصطناعي لفترة طويلة جدا!
الآن ، تنتظر شركات التكنولوجيا الكبرى الإطاحة بتفوقها.
بالطبع ، لن تجلس Nvidia ساكنة.
في الآونة الأخيرة ، كشفت وسائل الإعلام الأجنبية SemiAnalysis عن خارطة طريق للأجهزة ل NVIDIA في السنوات القليلة المقبلة ، بما في ذلك وحدات معالجة الرسومات H200 و B100 و "X100" التي طال انتظارها.
مع ذلك ، هناك بعض المعلومات الصعبة ، بما في ذلك خطة تقنية العمليات من NVIDIA ، وسرعة / سعة HBM3E ، و PCIe 6.0 ، و PCIe 7.0 ، و NVLink ، وخطة 1.6T 224G SerDes.
إذا نجحت هذه الخطط كما هو مأمول ، فستستمر Nvidia في سحق خصومها بنجاح.
بطبيعة الحال ، فإن موقف التفوق ليس جيدا - MI300 من AMD و MI400 و Trainium 2 من Amazon و Athena من Microsoft و Gaudi 3 من Intel ، لن تجعل Nvidia أفضل.
استعد ، الهجوم عالي الطاقة في المستقبل!
** NVIDIA ، أكثر من مجرد الرغبة في أن تكون مهيمنا على الأجهزة **
بدأت Google بالفعل في وضع البنية التحتية الذكاء الاصطناعي الخاصة بها ، ويمكن استخدام TPUv5 و TPUv5e التي أنشأوها للتدريب الداخلي والاستدلال ، وكذلك للعملاء الخارجيين مثل Apple و Anthropic و CharacterAI و MidJourney.
جوجل ليست التهديد الوحيد ل Nvidia.
على جانب البرامج ، تزدهر أيضا PyTorch 2.0 من Meta و Triton من OpenAI ، مما يجعلها متوافقة مع بائعي الأجهزة الآخرين.
اليوم ، لا تزال فجوة البرامج قائمة ، ولكن ليس في أي مكان قريب من الحجم الذي كانت عليه من قبل.
على مجموعة البرامج ، حققت وحدات معالجة الرسومات من AMD ، و Gaudi من Intel ، و MTIA من Meta ، و Athena من Microsoft درجة معينة من التطوير.
على الرغم من أن NVIDIA لا تزال تحافظ على مكانتها الرائدة في الأجهزة ، إلا أن الفجوة ستغلق بشكل أسرع وأسرع.
لن تهيمن NVIDIA H100 لفترة طويلة.
في الأشهر المقبلة ، سيطلق كل من MI300 من AMD و Gaudi 3 من Intel منتجات أجهزة متفوقة تقنيا على H100.
بالإضافة إلى المعارضين الصعبين مثل Google و AMD و Intel ، هناك بعض الشركات التي مارست أيضا الكثير من الضغط على NVIDIA.
على الرغم من أن هذه الشركات متخلفة مؤقتا في تصميم الأجهزة ، إلا أنها يمكن أن تحصل على إعانات من العمالقة الذين يقفون وراءها - لقد عانى العالم من NVIDIA لفترة طويلة ، وتأمل هذه الشركات في كسر احتكار NVIDIA الضخم للأرباح على HBM.
تعد Trainium2 و Inferentia3 القادمة من Amazon ، وأثينا القادمة من Microsoft ، استثمارات موجودة منذ سنوات.
المنافسون يهددون ، وبالتأكيد لن تجلس Nvidia ساكنة.
من وجهة نظر وسائل الإعلام الأجنبية SemiAnalysis ، بغض النظر عن أسلوب الإدارة أو اتخاذ القرار في الطريق ، تعد NVIDIA "واحدة من أكثر الشركات المشكوك فيها في الصناعة".
ويجسد هوانغ جينكسون روح آندي غروف.
النجاح يؤدي إلى الرضا عن النفس. الرضا عن النفس يؤدي إلى الفشل. فقط جنون العظمة يبقى على قيد الحياة.
من أجل تأمين المركز الأول ، فإن NVIDIA طموحة وتتبنى استراتيجية مغامرة متعددة الجوانب.
لم يعودوا يحتقرون التنافس مع Intel و AMD في السوق التقليدية ، لكنهم يريدون أن يصبحوا عمالقة التكنولوجيا مثل Google و Microsoft و Amazon و Meta و Apple.
إن DGX Cloud والبرمجيات واستراتيجية الاستحواذ من NVIDIA للحقول غير أشباه الموصلات كلها قطع شطرنج كبيرة وراءها.
** كشف أحدث تفاصيل خارطة الطريق! **
تم الكشف عن تفاصيل مهمة لأحدث خارطة طريق ل NVIDIA.
تتضمن التفاصيل عقد الشبكة والذاكرة والتعبئة والمعالجة ووحدات معالجة الرسومات المختلفة واختيار SerDes و PCIe 6.0 والبصريات المعبأة بشكل مشترك والمفاتيح الضوئية.
من الواضح ، تحت الضغط التنافسي من Google و Amazon و Microsoft و AMD و Intel ، قامت NVIDIA بتسريع تطوير ** B100 ** و ** X100 ** بين عشية وضحاها.
B100: حان وقت التسويق قبل كل شيء
وفقا لمصادر داخلية ، سيتم إنتاج B100 من NVIDIA بكميات كبيرة في الربع الثالث من عام 2024 ، وسيتم شحن بعض العينات المبكرة في الربع الثاني من عام 2024.
من حيث الأداء والتكلفة الإجمالية للملكية ، سواء كان Trainium 2 من Amazon أو TPUv5 من Google أو MI300X من AMD أو Gaudi 3 من Intel أو Athena من Microsoft ، فهو ضعيف مقارنة به.
حتى مع الأخذ في الاعتبار الإعانات المقدمة من شركاء التصميم ، AMD أو TSMC ، لا يمكنهم التغلب عليهم جميعا.
من أجل طرح B100 في السوق في أسرع وقت ممكن ، قدمت NVIDIA الكثير من التنازلات.
على سبيل المثال ، أرادت NVIDIA ضبط استهلاك الطاقة على مستوى أعلى (1000 واط) ، ولكن في النهاية ، اختاروا الاستمرار في استخدام H100's 700W.
بهذه الطريقة ، يمكن ل B100 الاستمرار في استخدام تقنية تبريد الهواء عند إطلاقها.
بالإضافة إلى ذلك ، في أوائل سلسلة B100 ، ستصر NVIDIA أيضا على استخدام PCIe 5.0.
يعني الجمع بين 5.0 و 700 واط أنه يمكن توصيله مباشرة بخوادم H100 HGX الحالية ، مما يحسن بشكل كبير من سعة سلسلة التوريد والحصول على الإنتاج والشحن في وقت مبكر.
جزء من سبب قرار التمسك ب 5.0 هو أن AMD و Intel لا يزالان متخلفين كثيرا في تكامل PCIe 6.0. وحتى فريق Nvidia الداخلي ليس مستعدا لاستخدام وحدات المعالجة المركزية PCIe 6.0.
بالإضافة إلى ذلك ، سيستخدمون روابط أسرع على غرار C2C.
في المستقبل ، سيتم تجهيز ConnectX-8 بمفتاح PCIe 6.0 مدمج ، ولكن لا أحد جاهز بعد.
لن يكون لدى Broadcom و AsteraLabs أجهزة إعادة ضبط الوقت PCIe6.0 جاهزة للإنتاج حتى نهاية العام ، وبالنظر إلى حجم هذه الركائز ، ستكون هناك حاجة إلى المزيد من أجهزة إعادة ضبط الوقت.
هذا يعني أيضا أن B100 الأصلي سيقتصر على 3.2T ، وستكون السرعة عند استخدام ConnectX-7 400G فقط ، بدلا من 800G لكل وحدة معالجة رسومات تطالب بها NVIDIA على PPT.
إذا حافظت على برودة الهواء وثبات الطاقة و PCIe وسرعات الشبكة ، فمن السهل تصنيعها ونشرها.
في وقت لاحق ، ستطلق NVIDIA إصدار 1,000W + B100 الذي يتطلب تبريد الماء.
سيوفر هذا الإصدار من B100 اتصالا كاملا بشبكة 800G لكل وحدة معالجة رسومات عبر ConnectX-8.
بالنسبة إلى Ethernet / InfiniBand ، لا تزال SerDes هذه 8x100G.
بينما تضاعفت سرعة الشبكة لكل وحدة معالجة رسومات ، فقد تم تخفيض الكاردينالية إلى النصف لأنها لا تزال بحاجة إلى المرور عبر نفس مفتاح 51.2T. لن يتم استخدام مفتاح 102.4T بعد الآن في جيل B100.
ومن المثير للاهتمام ، أنه تم الإبلاغ عن أن مكون NVLink في B100 سيستخدم 224G SerDes ، وإذا تمكنت NVIDIA من القيام بذلك حقا ، فهذا بلا شك تحسن كبير.
يتفق معظم الأشخاص في الصناعة على أن 224G غير موثوق به ومن غير المرجح أن يحدث في عام 2024 ، باستثناء الأشخاص في Nvidia.
كما تعلم ، سواء كانت Google أو Meta أو Amazon ، فقد تم تحديد هدف الإنتاج الضخم لمسرع 224G الذكاء الاصطناعي لعام 2026/2027.
إذا حققت NVIDIA ذلك في 2024/2025 ، فمن المؤكد أنها ستتغلب على خصومها على الأرض.
يذكر أن B100 لا يزال N4P من TSMC ، وليس تقنية تعتمد على عملية 3 نانومتر.
من الواضح ، بالنسبة لمثل هذا الحجم الكبير للرقاقة ، فإن عملية TSMC 3 نانومتر لم تنضج بعد.
استنادا إلى حجم الركيزة الذي كشف عنه مورد الركيزة NVIDIA Ibiden ، يبدو أن NVIDIA قد تحولت إلى تصميم يتكون من 2 MCMs متجانسة كبيرة الرقاقة تحتوي على 8 أو 12 مكدس HBM.
تستخدم كل من رقائق SambaNova و Intel العام المقبل تصميمات ماكرو مماثلة.
السبب في أن NVIDIA لا تستخدم تقنية الربط الهجين مثل AMD هو أنها تحتاج إلى الإنتاج الضخم ، والتكلفة هي مصدر قلق كبير بالنسبة لهم.
وفقا ل SemiAnalysis ، ستكون سعة ذاكرة هاتين الشريحتين B100 مماثلة أو أعلى من MI300X من AMD ، لتصل إلى مكدس 24 جيجابايت.
يمكن أن يصل الإصدار المبرد بالهواء من B100 إلى سرعات تصل إلى 6.4 جيجابت في الثانية ، بينما قد يصل الإصدار المبرد بالسائل إلى 9.2 جيجابت في الثانية.
بالإضافة إلى ذلك ، أظهرت NVIDIA أيضا GB200 و B40 في خارطة الطريق.
يستخدم كل من GB200 و GX200 G ، والذي من الواضح أنه عنصر نائب حيث ستقدم NVIDIA وحدة معالجة مركزية جديدة تعتمد على بنية Arm. لن أستخدم Grace لفترة طويلة.
من المحتمل أن يكون حجم B40 نصف حجم B100 ، مع شريحة N4P متجانسة فقط و HBM مع ما يصل إلى 4 أو 6 طبقات. على عكس L40S ، هذا منطقي للاستدلال على النماذج الصغيرة.
"X100": ضربة حرجة
الشيء الأكثر لفتا للانتباه في خارطة الطريق المكشوفة هو جدول NVIDIA "X100".
ومن المثير للاهتمام ، أنه يتناسب تماما مع جدول MI400 الحالي من AMD. بعد عام واحد فقط من إطلاق H100 ، أصدرت AMD إستراتيجية MI300X الخاصة بها.
إن تغليف AMD ل MI300X مثير للإعجاب ، وهم يحشرون المزيد من الحوسبة والذاكرة فيه ، على أمل تجاوز H100 قبل عام وبالتالي تجاوز Nvidia في الأجهزة النقية.
وجدت Nvidia أيضا أن إصدارها كل سنتين لوحدات معالجة الرسومات الجديدة أعطى المنافسين فرصة رائعة للاستيلاء على السوق.
تعمل Nvidia ، التي هي في عجلة من أمرها ، على تسريع دورة المنتج إلى مرة واحدة في السنة ، دون إعطاء المعارضين أي فرصة. على سبيل المثال ، يخططون لإطلاق X100 في عام 2025 ، بعد عام واحد فقط من B100.
بالطبع ، "X100" ليس بعد في الإنتاج الضخم (على عكس B100) ، لذلك كل شيء لا يزال في الهواء.
كما تعلم ، في الماضي ، لم تناقش NVIDIA أبدا المنتجات بعد الجيل التالي من المنتجات ، وهذه المرة غير مسبوقة بالفعل.
علاوة على ذلك ، من المرجح ألا يسمى الاسم "X100".
لطالما كانت Nvidia تقليدا لتسمية وحدات معالجة الرسومات على اسم عالمات بارزات مثل Ada Lovelace و Grace Hopper و Elizabeth Blackwell.
أما بالنسبة ل "X" ، فإن المنطق الوحيد هو Xie Xide ، الذي يدرس بنية أشباه الموصلات والشرائط المعدنية ، ولكن بالنظر إلى هويتها ، يجب أن يكون الاحتمال صغيرا.
** سيد سلسلة التوريد: رهان لاو هوانغ الكبير **
منذ تأسيس NVIDIA ، كان Jensen Huang يقود بنشاط إتقان سلسلة التوريد لدعم أهداف النمو الهائلة.
إنهم ليسوا فقط على استعداد لاتخاذ طلبات غير قابلة للإلغاء - ما يصل إلى 11.15 مليار دولار في التزامات الشراء والسعة والمخزون - ولكن لديهم أيضا اتفاقية دفع مقدمة بقيمة 3.81 مليار دولار.
يمكن القول ، لا يمكن لمورد واحد أن يضاهيها.
وقد أظهرت قصة Nvidia أكثر من مرة أنه يمكنهم زيادة العرض بشكل خلاق عندما يكون العرض غير متوفر.
الحوار بين هوانغ جينكسون وتشانغ تشونغمو في عام 2007
عندما التقيت أنا وتشانغ تشونغمو في عام 1997 ، حققت نفيديا ، التي كان لديها 100 شخص فقط ، إيرادات بقيمة 27 مليون دولار في ذلك العام.
قد لا تصدق ذلك ، لكن Zhang Zhongmou اعتاد الاتصال بالمبيعات وكان يزور بابه. وسأشرح لتشانغ ما تفعله NVIDIA ومدى الحجم الذي يجب أن تكون عليه رقائقنا ، وسوف تكبر كل عام.
في وقت لاحق ، صنعت NVIDIA ما مجموعه 127 مليون رقاقة. منذ ذلك الحين ، نمت NVIDIA بنسبة 100٪ تقريبا كل عام ، حتى الآن. أي أنه في السنوات ال 10 الماضية ، بلغ معدل النمو السنوي المركب حوالي 70٪.
في ذلك الوقت ، لم يصدق تشانغ أن نفيديا بحاجة إلى الكثير من الرقائق ، لكن هوانغ ثابر.
حققت NVIDIA نجاحا كبيرا من خلال تجربة جانب العرض. بينما يكتبون مخزونا بقيمة مليارات الدولارات من وقت لآخر ، إلا أنهم ما زالوا يحصلون على مكاسب إيجابية من الإفراط في الطلب.
هذه المرة ، استولت NVIDIA مباشرة على معظم إمدادات المكونات الأولية لوحدة معالجة الرسومات -
لقد قدموا طلبات كبيرة جدا مع ثلاثة موردين HBM ، SK Hynix و Samsung و Micron ، مما أدى إلى مزاحمة إمدادات الجميع باستثناء Broadcom و Google. في الوقت نفسه ، اشترت أيضا معظم إمدادات TSMC CoWoS ، بالإضافة إلى الطاقة الإنتاجية لشركة Amkor.
بالإضافة إلى ذلك ، تستفيد NVIDIA من المكونات النهائية التي تتطلبها لوحات وخوادم HGX ، مثل أجهزة إعادة ضبط الوقت ومقدمي خدمات الكمبيوتر والبصريات والمزيد.
إذا أدار المورد أذنا صماء لمتطلبات NVIDIA ، فسيواجه "الفجل والعصا" في لاو هوانغ -
من ناحية ، سيحصلون على أوامر لا يمكن تصورها من NVIDIA ؛ من ناحية أخرى ، قد تتم إزالتها من سلسلة التوريد الحالية بواسطة NVIDIA.
بالطبع ، تستخدم NVIDIA أيضا الطلبات الملتزمة وغير القابلة للإلغاء فقط إذا كان المورد حرجا ولا يمكن التخلص منه أو تنويع العرض.
يبدو أن كل مورد يعتبر نفسه فائزا في الذكاء الاصطناعي ، ويرجع ذلك جزئيا إلى أن NVIDIA قد قدمت عددا كبيرا من الطلبات مع جميع مورديها ، ويعتقدون جميعا أنهم فازوا بمعظم الأعمال. لكن في الواقع ، هذا فقط لأن NVIDIA تنمو بسرعة كبيرة.
بالعودة إلى ديناميكيات السوق ، بينما تهدف Nvidia إلى تحقيق أكثر من 70 مليار دولار في مبيعات مراكز البيانات العام المقبل ، فإن Google فقط لديها سعة كافية في المنبع - مع أكثر من 1 مليون جهاز. لا تزال الطاقة الإنتاجية الإجمالية لشركة AMD في مجال الذكاء الاصطناعي محدودة للغاية ، بحد أقصى بضع مئات الآلاف من الوحدات فقط.
** استراتيجية العمل: إمكانات مضادة للمنافسة **
كما نعلم جميعا ، تستفيد NVIDIA من الطلب الهائل على وحدات معالجة الرسومات لتسويق المنتجات وبيعها للعملاء.
هناك ثروة من المعلومات في سلسلة التوريد التي توفر NVIDIA أولوية التخصيص لشركات معينة بناء على مجموعة من العوامل. بما في ذلك على سبيل المثال لا الحصر: خطة الشراء المتنوعة ، والبحث والتطوير المستقل لخطة رقاقة الذكاء الاصطناعي ، وشراء DGX و NIC و / أو التبديل و / أو المعدات البصرية من NVIDIA ، إلخ.
في الواقع ، تجميع NVIDIA ناجح للغاية. على الرغم من كونها موردا صغيرا لأجهزة الإرسال والاستقبال المصنوعة من الألياف الضوئية ، إلا أن أعمالها تضاعفت ثلاث مرات في الربع ومن المتوقع أن تشحن أكثر من 1 مليار دولار في العام المقبل - متجاوزة بكثير نمو أعمال GPU أو رقائق الشبكات الخاصة بها.
يمكن القول أن هذه الاستراتيجيات شاملة للغاية.
على سبيل المثال ، الطريقة الوحيدة لتنفيذ شبكة 3.2T و RDMA / RoCE موثوقة على أنظمة NVIDIA هي استخدام بطاقات NNIC الخاصة ب NVIDIA. بالطبع ، من ناحية ، يرجع ذلك أيضا إلى أن منتجات Intel و AMD و Broadcom غير قادرة على المنافسة حقا - لا تزال عالقة عند مستوى 200G.
من خلال إدارة سلسلة التوريد ، قامت NVIDIA أيضا بالترويج لدورة تسليم بطاقات NIC 400G InfiniBand ، والتي يمكن أن تكون أقصر بكثير من بطاقات NIC 400G Ethernet. إن جهازي NIC (ConnectX-7) متطابقان بالفعل في تصميم الرقائق واللوحة.
والسبب في ذلك هو تكوين SKU من Nvidia ، وليس عنق الزجاجة الفعلي لسلسلة التوريد الذي يجبر الشركات على شراء محولات InfiniBand عالية التكلفة بدلا من محولات Ethernet القياسية.
وهذا ليس كل شيء ، ما عليك سوى إلقاء نظرة على مدى هوس سلسلة التوريد بوحدات معالجة الرسومات L40 و L40S ، وأنت تعلم أن Nvidia تلعب الحيل على التوزيع مرة أخرى - من أجل الفوز بمزيد من تخصيصات H100 ، تحتاج الشركات المصنعة للمعدات الأصلية إلى شراء المزيد من L40S.
هذا هو نفس تشغيل NVIDIA في مساحة الكمبيوتر الشخصي - يجب على مصنعي أجهزة الكمبيوتر المحمولة وشركاء AIB شراء G106 / G107 أكبر (وحدات معالجة الرسومات المتوسطة / المنخفضة) للحصول على G102 / G104 الأكثر ندرة والأعلى هامش الربح (وحدات معالجة الرسومات المتطورة والرائدة).
كملاءمة ، تم أيضا تلقين الأشخاص في سلسلة التوريد بالادعاء بأن L40S أفضل من A100 لأنه يحتوي على FLOPS أعلى.
ولكن في الواقع ، فإن وحدات معالجة الرسومات هذه ليست مناسبة لاستدلال LLM ، حيث تحتوي على أقل من نصف عرض النطاق الترددي للذاكرة ل A100 ولا تحتوي على NVLink.
هذا يعني أن تشغيل LLM على L40S وتحقيق إجمالي تكلفة ملكية جيد يكاد يكون مستحيلا ، باستثناء الطرز الصغيرة جدا. تؤدي المعالجة واسعة النطاق أيضا إلى أن يكون الرمز المميز / الرموز المخصصة لكل مستخدم غير قابل للاستخدام تقريبا ، مما يجعل FLOPS النظرية عديمة الفائدة في التطبيقات العملية.
بالإضافة إلى ذلك ، فإن منصة وحدات MGX من NVIDIA ، مع التخلص من العمل الشاق لتصميم الخادم ، تقلل أيضا من هوامش ربح OEM.
من الواضح أن شركات مثل Dell و HP و Lenovo تقاوم MGX ، لكن شركات مثل Supermicro و Quanta و Asus و Gigabyte وغيرها تتدافع لسد الفجوة وتسويق "الذكاء الاصطناعي المؤسسات" منخفضة التكلفة.
ويمكن لمصنعي المعدات الأصلية / ODMs المشاركين في الضجيج L40S و MGX أيضا الحصول على تخصيص أفضل لمنتج GPU الرئيسي من NVIDIA.
البصريات المعبأة بشكل مشترك
فيما يتعلق ب CPO ، تولي NVIDIA أيضا أهمية كبيرة لها.
لقد عملوا على حلول مختلفة ، بما في ذلك تلك من Ayar Labs ، وكذلك تلك التي يحصلون عليها بأنفسهم من Global Foundries و TSMC.
في الوقت الحالي ، درست NVIDIA خطط CPO للعديد من الشركات الناشئة ، لكنها لم تتخذ قرارا نهائيا بعد.
يعتقد التحليل أن NVIDIA من المرجح أن تدمج CPO في NVSwitch من "X100".
لأن الاندماج مباشرة في وحدة معالجة الرسومات نفسها يمكن أن يكون مكلفا وصعبا للغاية من حيث الموثوقية.
مفتاح الدائرة البصرية
واحدة من أكبر نقاط القوة في Google في البنية التحتية الذكاء الاصطناعي هي مفتاحها البصري.
على ما يبدو ، تسعى Nvidia إلى شيء مماثل. في الوقت الحاضر ، تواصلوا مع العديد من الشركات ويأملون في التعاون في التنمية.
أدركت NVIDIA أن Fat Tree قد انتهت في الاستمرار في التوسع ، لذلك كانت بحاجة إلى طوبولوجيا أخرى.
على عكس اختيار Google ل 6D Torus ، تفضل Nvidia اعتماد هيكل Dragonfly.
من المفهوم أن NVIDIA لا تزال بعيدة عن شحن OCS ، لكنهم يأملون في الاقتراب من هذا الهدف في عام 2025 ، لكن الاحتمال لا يمكن تحقيقه.
OCS + CPO هي الكأس المقدسة ، خاصة عندما يمكن تنفيذ OCS على أساس كل حزمة ، مما سيغير لعبة اللعبة مباشرة.
ومع ذلك ، لم يظهر أحد هذه القدرة حتى الآن ، ولا حتى Google.
على الرغم من أن OCS و CPO من NVIDIA هما مجموعتان فقط من PPTs في قسم الأبحاث ، يعتقد المحللون أن CPO سيكون خطوة واحدة أقرب إلى الإنتاج في 2025-2026.
موارد:
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
انفجرت خارطة طريق NVIDIA لمدة 25 عاما! راهن هوانغ هاو القديم على B100 للتغلب على AMD ، وتم الكشف عن السلاح السري X100
المصدر الأصلي: شين جي يوان
كانت هيمنة أجهزة NVIDIA الذكاء الاصطناعي لفترة طويلة جدا!
الآن ، تنتظر شركات التكنولوجيا الكبرى الإطاحة بتفوقها.
بالطبع ، لن تجلس Nvidia ساكنة.
في الآونة الأخيرة ، كشفت وسائل الإعلام الأجنبية SemiAnalysis عن خارطة طريق للأجهزة ل NVIDIA في السنوات القليلة المقبلة ، بما في ذلك وحدات معالجة الرسومات H200 و B100 و "X100" التي طال انتظارها.
إذا نجحت هذه الخطط كما هو مأمول ، فستستمر Nvidia في سحق خصومها بنجاح.
بطبيعة الحال ، فإن موقف التفوق ليس جيدا - MI300 من AMD و MI400 و Trainium 2 من Amazon و Athena من Microsoft و Gaudi 3 من Intel ، لن تجعل Nvidia أفضل.
استعد ، الهجوم عالي الطاقة في المستقبل!
بدأت Google بالفعل في وضع البنية التحتية الذكاء الاصطناعي الخاصة بها ، ويمكن استخدام TPUv5 و TPUv5e التي أنشأوها للتدريب الداخلي والاستدلال ، وكذلك للعملاء الخارجيين مثل Apple و Anthropic و CharacterAI و MidJourney.
جوجل ليست التهديد الوحيد ل Nvidia.
على جانب البرامج ، تزدهر أيضا PyTorch 2.0 من Meta و Triton من OpenAI ، مما يجعلها متوافقة مع بائعي الأجهزة الآخرين.
على مجموعة البرامج ، حققت وحدات معالجة الرسومات من AMD ، و Gaudi من Intel ، و MTIA من Meta ، و Athena من Microsoft درجة معينة من التطوير.
على الرغم من أن NVIDIA لا تزال تحافظ على مكانتها الرائدة في الأجهزة ، إلا أن الفجوة ستغلق بشكل أسرع وأسرع.
لن تهيمن NVIDIA H100 لفترة طويلة.
في الأشهر المقبلة ، سيطلق كل من MI300 من AMD و Gaudi 3 من Intel منتجات أجهزة متفوقة تقنيا على H100.
على الرغم من أن هذه الشركات متخلفة مؤقتا في تصميم الأجهزة ، إلا أنها يمكن أن تحصل على إعانات من العمالقة الذين يقفون وراءها - لقد عانى العالم من NVIDIA لفترة طويلة ، وتأمل هذه الشركات في كسر احتكار NVIDIA الضخم للأرباح على HBM.
تعد Trainium2 و Inferentia3 القادمة من Amazon ، وأثينا القادمة من Microsoft ، استثمارات موجودة منذ سنوات.
المنافسون يهددون ، وبالتأكيد لن تجلس Nvidia ساكنة.
ويجسد هوانغ جينكسون روح آندي غروف.
من أجل تأمين المركز الأول ، فإن NVIDIA طموحة وتتبنى استراتيجية مغامرة متعددة الجوانب.
لم يعودوا يحتقرون التنافس مع Intel و AMD في السوق التقليدية ، لكنهم يريدون أن يصبحوا عمالقة التكنولوجيا مثل Google و Microsoft و Amazon و Meta و Apple.
** كشف أحدث تفاصيل خارطة الطريق! **
تم الكشف عن تفاصيل مهمة لأحدث خارطة طريق ل NVIDIA.
تتضمن التفاصيل عقد الشبكة والذاكرة والتعبئة والمعالجة ووحدات معالجة الرسومات المختلفة واختيار SerDes و PCIe 6.0 والبصريات المعبأة بشكل مشترك والمفاتيح الضوئية.
B100: حان وقت التسويق قبل كل شيء
وفقا لمصادر داخلية ، سيتم إنتاج B100 من NVIDIA بكميات كبيرة في الربع الثالث من عام 2024 ، وسيتم شحن بعض العينات المبكرة في الربع الثاني من عام 2024.
من حيث الأداء والتكلفة الإجمالية للملكية ، سواء كان Trainium 2 من Amazon أو TPUv5 من Google أو MI300X من AMD أو Gaudi 3 من Intel أو Athena من Microsoft ، فهو ضعيف مقارنة به.
من أجل طرح B100 في السوق في أسرع وقت ممكن ، قدمت NVIDIA الكثير من التنازلات.
على سبيل المثال ، أرادت NVIDIA ضبط استهلاك الطاقة على مستوى أعلى (1000 واط) ، ولكن في النهاية ، اختاروا الاستمرار في استخدام H100's 700W.
بهذه الطريقة ، يمكن ل B100 الاستمرار في استخدام تقنية تبريد الهواء عند إطلاقها.
يعني الجمع بين 5.0 و 700 واط أنه يمكن توصيله مباشرة بخوادم H100 HGX الحالية ، مما يحسن بشكل كبير من سعة سلسلة التوريد والحصول على الإنتاج والشحن في وقت مبكر.
جزء من سبب قرار التمسك ب 5.0 هو أن AMD و Intel لا يزالان متخلفين كثيرا في تكامل PCIe 6.0. وحتى فريق Nvidia الداخلي ليس مستعدا لاستخدام وحدات المعالجة المركزية PCIe 6.0.
بالإضافة إلى ذلك ، سيستخدمون روابط أسرع على غرار C2C.
لن يكون لدى Broadcom و AsteraLabs أجهزة إعادة ضبط الوقت PCIe6.0 جاهزة للإنتاج حتى نهاية العام ، وبالنظر إلى حجم هذه الركائز ، ستكون هناك حاجة إلى المزيد من أجهزة إعادة ضبط الوقت.
هذا يعني أيضا أن B100 الأصلي سيقتصر على 3.2T ، وستكون السرعة عند استخدام ConnectX-7 400G فقط ، بدلا من 800G لكل وحدة معالجة رسومات تطالب بها NVIDIA على PPT.
إذا حافظت على برودة الهواء وثبات الطاقة و PCIe وسرعات الشبكة ، فمن السهل تصنيعها ونشرها.
سيوفر هذا الإصدار من B100 اتصالا كاملا بشبكة 800G لكل وحدة معالجة رسومات عبر ConnectX-8.
بالنسبة إلى Ethernet / InfiniBand ، لا تزال SerDes هذه 8x100G.
بينما تضاعفت سرعة الشبكة لكل وحدة معالجة رسومات ، فقد تم تخفيض الكاردينالية إلى النصف لأنها لا تزال بحاجة إلى المرور عبر نفس مفتاح 51.2T. لن يتم استخدام مفتاح 102.4T بعد الآن في جيل B100.
ومن المثير للاهتمام ، أنه تم الإبلاغ عن أن مكون NVLink في B100 سيستخدم 224G SerDes ، وإذا تمكنت NVIDIA من القيام بذلك حقا ، فهذا بلا شك تحسن كبير.
يتفق معظم الأشخاص في الصناعة على أن 224G غير موثوق به ومن غير المرجح أن يحدث في عام 2024 ، باستثناء الأشخاص في Nvidia.
كما تعلم ، سواء كانت Google أو Meta أو Amazon ، فقد تم تحديد هدف الإنتاج الضخم لمسرع 224G الذكاء الاصطناعي لعام 2026/2027.
إذا حققت NVIDIA ذلك في 2024/2025 ، فمن المؤكد أنها ستتغلب على خصومها على الأرض.
من الواضح ، بالنسبة لمثل هذا الحجم الكبير للرقاقة ، فإن عملية TSMC 3 نانومتر لم تنضج بعد.
تستخدم كل من رقائق SambaNova و Intel العام المقبل تصميمات ماكرو مماثلة.
وفقا ل SemiAnalysis ، ستكون سعة ذاكرة هاتين الشريحتين B100 مماثلة أو أعلى من MI300X من AMD ، لتصل إلى مكدس 24 جيجابايت.
يمكن أن يصل الإصدار المبرد بالهواء من B100 إلى سرعات تصل إلى 6.4 جيجابت في الثانية ، بينما قد يصل الإصدار المبرد بالسائل إلى 9.2 جيجابت في الثانية.
بالإضافة إلى ذلك ، أظهرت NVIDIA أيضا GB200 و B40 في خارطة الطريق.
يستخدم كل من GB200 و GX200 G ، والذي من الواضح أنه عنصر نائب حيث ستقدم NVIDIA وحدة معالجة مركزية جديدة تعتمد على بنية Arm. لن أستخدم Grace لفترة طويلة.
من المحتمل أن يكون حجم B40 نصف حجم B100 ، مع شريحة N4P متجانسة فقط و HBM مع ما يصل إلى 4 أو 6 طبقات. على عكس L40S ، هذا منطقي للاستدلال على النماذج الصغيرة.
"X100": ضربة حرجة
الشيء الأكثر لفتا للانتباه في خارطة الطريق المكشوفة هو جدول NVIDIA "X100".
ومن المثير للاهتمام ، أنه يتناسب تماما مع جدول MI400 الحالي من AMD. بعد عام واحد فقط من إطلاق H100 ، أصدرت AMD إستراتيجية MI300X الخاصة بها.
إن تغليف AMD ل MI300X مثير للإعجاب ، وهم يحشرون المزيد من الحوسبة والذاكرة فيه ، على أمل تجاوز H100 قبل عام وبالتالي تجاوز Nvidia في الأجهزة النقية.
تعمل Nvidia ، التي هي في عجلة من أمرها ، على تسريع دورة المنتج إلى مرة واحدة في السنة ، دون إعطاء المعارضين أي فرصة. على سبيل المثال ، يخططون لإطلاق X100 في عام 2025 ، بعد عام واحد فقط من B100.
بالطبع ، "X100" ليس بعد في الإنتاج الضخم (على عكس B100) ، لذلك كل شيء لا يزال في الهواء.
كما تعلم ، في الماضي ، لم تناقش NVIDIA أبدا المنتجات بعد الجيل التالي من المنتجات ، وهذه المرة غير مسبوقة بالفعل.
علاوة على ذلك ، من المرجح ألا يسمى الاسم "X100".
لطالما كانت Nvidia تقليدا لتسمية وحدات معالجة الرسومات على اسم عالمات بارزات مثل Ada Lovelace و Grace Hopper و Elizabeth Blackwell.
أما بالنسبة ل "X" ، فإن المنطق الوحيد هو Xie Xide ، الذي يدرس بنية أشباه الموصلات والشرائط المعدنية ، ولكن بالنظر إلى هويتها ، يجب أن يكون الاحتمال صغيرا.
منذ تأسيس NVIDIA ، كان Jensen Huang يقود بنشاط إتقان سلسلة التوريد لدعم أهداف النمو الهائلة.
إنهم ليسوا فقط على استعداد لاتخاذ طلبات غير قابلة للإلغاء - ما يصل إلى 11.15 مليار دولار في التزامات الشراء والسعة والمخزون - ولكن لديهم أيضا اتفاقية دفع مقدمة بقيمة 3.81 مليار دولار.
يمكن القول ، لا يمكن لمورد واحد أن يضاهيها.
وقد أظهرت قصة Nvidia أكثر من مرة أنه يمكنهم زيادة العرض بشكل خلاق عندما يكون العرض غير متوفر.
في ذلك الوقت ، لم يصدق تشانغ أن نفيديا بحاجة إلى الكثير من الرقائق ، لكن هوانغ ثابر.
حققت NVIDIA نجاحا كبيرا من خلال تجربة جانب العرض. بينما يكتبون مخزونا بقيمة مليارات الدولارات من وقت لآخر ، إلا أنهم ما زالوا يحصلون على مكاسب إيجابية من الإفراط في الطلب.
هذه المرة ، استولت NVIDIA مباشرة على معظم إمدادات المكونات الأولية لوحدة معالجة الرسومات -
لقد قدموا طلبات كبيرة جدا مع ثلاثة موردين HBM ، SK Hynix و Samsung و Micron ، مما أدى إلى مزاحمة إمدادات الجميع باستثناء Broadcom و Google. في الوقت نفسه ، اشترت أيضا معظم إمدادات TSMC CoWoS ، بالإضافة إلى الطاقة الإنتاجية لشركة Amkor.
بالإضافة إلى ذلك ، تستفيد NVIDIA من المكونات النهائية التي تتطلبها لوحات وخوادم HGX ، مثل أجهزة إعادة ضبط الوقت ومقدمي خدمات الكمبيوتر والبصريات والمزيد.
إذا أدار المورد أذنا صماء لمتطلبات NVIDIA ، فسيواجه "الفجل والعصا" في لاو هوانغ -
من ناحية ، سيحصلون على أوامر لا يمكن تصورها من NVIDIA ؛ من ناحية أخرى ، قد تتم إزالتها من سلسلة التوريد الحالية بواسطة NVIDIA.
بالطبع ، تستخدم NVIDIA أيضا الطلبات الملتزمة وغير القابلة للإلغاء فقط إذا كان المورد حرجا ولا يمكن التخلص منه أو تنويع العرض.
بالعودة إلى ديناميكيات السوق ، بينما تهدف Nvidia إلى تحقيق أكثر من 70 مليار دولار في مبيعات مراكز البيانات العام المقبل ، فإن Google فقط لديها سعة كافية في المنبع - مع أكثر من 1 مليون جهاز. لا تزال الطاقة الإنتاجية الإجمالية لشركة AMD في مجال الذكاء الاصطناعي محدودة للغاية ، بحد أقصى بضع مئات الآلاف من الوحدات فقط.
** استراتيجية العمل: إمكانات مضادة للمنافسة **
كما نعلم جميعا ، تستفيد NVIDIA من الطلب الهائل على وحدات معالجة الرسومات لتسويق المنتجات وبيعها للعملاء.
هناك ثروة من المعلومات في سلسلة التوريد التي توفر NVIDIA أولوية التخصيص لشركات معينة بناء على مجموعة من العوامل. بما في ذلك على سبيل المثال لا الحصر: خطة الشراء المتنوعة ، والبحث والتطوير المستقل لخطة رقاقة الذكاء الاصطناعي ، وشراء DGX و NIC و / أو التبديل و / أو المعدات البصرية من NVIDIA ، إلخ.
يمكن القول أن هذه الاستراتيجيات شاملة للغاية.
على سبيل المثال ، الطريقة الوحيدة لتنفيذ شبكة 3.2T و RDMA / RoCE موثوقة على أنظمة NVIDIA هي استخدام بطاقات NNIC الخاصة ب NVIDIA. بالطبع ، من ناحية ، يرجع ذلك أيضا إلى أن منتجات Intel و AMD و Broadcom غير قادرة على المنافسة حقا - لا تزال عالقة عند مستوى 200G.
من خلال إدارة سلسلة التوريد ، قامت NVIDIA أيضا بالترويج لدورة تسليم بطاقات NIC 400G InfiniBand ، والتي يمكن أن تكون أقصر بكثير من بطاقات NIC 400G Ethernet. إن جهازي NIC (ConnectX-7) متطابقان بالفعل في تصميم الرقائق واللوحة.
والسبب في ذلك هو تكوين SKU من Nvidia ، وليس عنق الزجاجة الفعلي لسلسلة التوريد الذي يجبر الشركات على شراء محولات InfiniBand عالية التكلفة بدلا من محولات Ethernet القياسية.
وهذا ليس كل شيء ، ما عليك سوى إلقاء نظرة على مدى هوس سلسلة التوريد بوحدات معالجة الرسومات L40 و L40S ، وأنت تعلم أن Nvidia تلعب الحيل على التوزيع مرة أخرى - من أجل الفوز بمزيد من تخصيصات H100 ، تحتاج الشركات المصنعة للمعدات الأصلية إلى شراء المزيد من L40S.
هذا هو نفس تشغيل NVIDIA في مساحة الكمبيوتر الشخصي - يجب على مصنعي أجهزة الكمبيوتر المحمولة وشركاء AIB شراء G106 / G107 أكبر (وحدات معالجة الرسومات المتوسطة / المنخفضة) للحصول على G102 / G104 الأكثر ندرة والأعلى هامش الربح (وحدات معالجة الرسومات المتطورة والرائدة).
كملاءمة ، تم أيضا تلقين الأشخاص في سلسلة التوريد بالادعاء بأن L40S أفضل من A100 لأنه يحتوي على FLOPS أعلى.
ولكن في الواقع ، فإن وحدات معالجة الرسومات هذه ليست مناسبة لاستدلال LLM ، حيث تحتوي على أقل من نصف عرض النطاق الترددي للذاكرة ل A100 ولا تحتوي على NVLink.
هذا يعني أن تشغيل LLM على L40S وتحقيق إجمالي تكلفة ملكية جيد يكاد يكون مستحيلا ، باستثناء الطرز الصغيرة جدا. تؤدي المعالجة واسعة النطاق أيضا إلى أن يكون الرمز المميز / الرموز المخصصة لكل مستخدم غير قابل للاستخدام تقريبا ، مما يجعل FLOPS النظرية عديمة الفائدة في التطبيقات العملية.
من الواضح أن شركات مثل Dell و HP و Lenovo تقاوم MGX ، لكن شركات مثل Supermicro و Quanta و Asus و Gigabyte وغيرها تتدافع لسد الفجوة وتسويق "الذكاء الاصطناعي المؤسسات" منخفضة التكلفة.
ويمكن لمصنعي المعدات الأصلية / ODMs المشاركين في الضجيج L40S و MGX أيضا الحصول على تخصيص أفضل لمنتج GPU الرئيسي من NVIDIA.
البصريات المعبأة بشكل مشترك
فيما يتعلق ب CPO ، تولي NVIDIA أيضا أهمية كبيرة لها.
لقد عملوا على حلول مختلفة ، بما في ذلك تلك من Ayar Labs ، وكذلك تلك التي يحصلون عليها بأنفسهم من Global Foundries و TSMC.
لأن الاندماج مباشرة في وحدة معالجة الرسومات نفسها يمكن أن يكون مكلفا وصعبا للغاية من حيث الموثوقية.
واحدة من أكبر نقاط القوة في Google في البنية التحتية الذكاء الاصطناعي هي مفتاحها البصري.
على ما يبدو ، تسعى Nvidia إلى شيء مماثل. في الوقت الحاضر ، تواصلوا مع العديد من الشركات ويأملون في التعاون في التنمية.
على عكس اختيار Google ل 6D Torus ، تفضل Nvidia اعتماد هيكل Dragonfly.
ومع ذلك ، لم يظهر أحد هذه القدرة حتى الآن ، ولا حتى Google.
على الرغم من أن OCS و CPO من NVIDIA هما مجموعتان فقط من PPTs في قسم الأبحاث ، يعتقد المحللون أن CPO سيكون خطوة واحدة أقرب إلى الإنتاج في 2025-2026.
موارد: