* "الأشياء الأساسية ثقيلة" خطة أبحاث صناعة أشباه الموصلات في Tencent Technology ، هذه المسألة من Core Tide IC و Tencent Technology ، مع التركيز على وراء انفجار النماذج الكبيرة ، وتشكيل نمط جديد في سوق الطاقة العالمية لحوسبة الرقائق ، وتخطيط الشركات الرائدة ومطاردة نمو الشركات المصنعة المحلية. *
أشعلت موجة ثورة الذكاء الاصطناعي التي أطلقها ChatGPT عن طريق الخطأ سوق شرائح الذكاء الاصطناعي مرة أخرى.
"لقد تغيرت شرائح مثل A800 و H800 من حوالي 120.000 يوان صيني إلى 250.000 أو حتى 300.000 ، أو حتى تصل إلى 500.000." هذا مشهد حقيقي في دائرة توزيع الرقائق المحلية. الكميات ، ويجب أن يكون لديهم "علاقة مباشرة" مع Huang Renxun.
نظرًا لما يسمى بـ "لا شريحة ، لا ذكاء اصطناعي" ، نظرًا لارتفاع الطلب على قوة الحوسبة للنماذج الكبيرة ، فإن الرقائق ، التي تشكل أساس تقنية الذكاء الاصطناعي ، تستهل فرصًا تجارية مهمة. توقعت شركة OpenAI ذات مرة أنه من أجل تحقيق اختراقات في البحث العلمي للذكاء الاصطناعي ، ستتضاعف موارد الحوسبة المطلوبة للاستهلاك كل 3 إلى 4 أشهر ، وستحتاج الأموال أيضًا إلى أن يقابلها نمو متسارع "قانون مور".
قال المدير المالي لشركة Nvidia ، كريس ، إن الطلب الحالي في السوق على قوة حوسبة الذكاء الاصطناعي قد تجاوز توقعات الشركة للأرباع القليلة القادمة ، وهناك الكثير من الطلبات التي يجب الوفاء بها.
لقد حققت موجة الذكاء الاصطناعي التوليدية الكثير من المال لشركة Nvidia. بعد 14 عامًا من الإدراج ، دخلت Nvidia بنجاح في نادي القيمة السوقية الذي تبلغ قيمته تريليون دولار. ولتحقيق هذا الهدف ، استغرق عمالقة Silicon Valley مثل Apple 37 عامًا ، واستغرقت Microsoft 33 عامًا ، واستغرقت Amazon 21 عامًا ، وشغل Tesla الأسرع. استغرق 11 عاما فقط.
وقد حفز هذا أيضًا شركات الرقائق الصينية على أن تكون حريصة على المحاولة. فشركات الرقائق المحلية مثل Haiguang Information و Cambrian و Loongson Zhongke و Biren Technology و Tianshu Zhixin وما إلى ذلك ، كلها تطمح إلى "النسخة الصينية" من Nvidia ، وتجرب الاعتماد على أبحاثهم الخاصة. تمكين النماذج المحلية واسعة النطاق. بدأت بعض الشركات المصنعة الكبرى أيضًا في استخدام شرائح الذكاء الاصطناعي المطورة ذاتيًا لدعم جزء من مهام التدريب أو التفكير في النموذج ، مثل رقائق Baidu Kunlun و Ali Hanguang 800 ...
في مواجهة سوق التريليون دولار الناتج عن قوة الحوسبة بالذكاء الاصطناعي ، هل يمكن للشركات المحلية الاستمتاع بهذه الموجة من الأرباح؟ كيف يجب أن يتغلب مصنعو الرقائق المحليون على "جبل" نفيديا؟ هذه مشكلة لا يمكن لأي شركة الهروب منها.
01. أدى جنون الذكاء الاصطناعي إلى خلق قيمة سوقية بقيمة تريليون دولار لشركة Nvidia
الرجال الذين يحبون ارتداء الملابس الجلدية هم أول من يستمتعون بأرباح الذكاء الاصطناعي.
في نهاية عام 2022 ، بعد ظهور ChatGPT ، سرعان ما تسبب ذلك في حدوث جنون الذكاء الاصطناعي في جميع أنحاء العالم. من بينها ، أصبحت Nvidia ، التي كانت تراهن على مستقبل الذكاء الاصطناعي ، واحدة من الشركات التي استفادت أكثر من موجة ChatGPT. في مؤتمر Nvidia GTC لهذا العام ، كشف مؤسس Nvidia والرئيس التنفيذي Jen-Hsun Huang عن ذكاء اصطناعي جديد وتكنولوجيا الرقائق ، وقال إن "لحظة iPhone" للذكاء الاصطناعي قد وصلت.
في المؤتمر الصحفي ، قال Huang Renxun إن نشر نماذج لغوية واسعة النطاق مشابهة لـ ChatGPT يمثل عبء عمل تفكير جديد ومهم.من أجل دعم تفكير نموذج اللغة على نطاق واسع ، أصدرت Nvidia سلسلة من المنتجات والخدمات حول الذكاء الاصطناعي من بينها ، تم اعتماد بنية جديدة ، وشريحة H100 مع عملية أكثر تقدمًا هي الأكثر لفتًا للنظر.
المصدر: موقع NVIDIA الرسمي
وحدة معالجة الرسومات هذه عبارة عن H100 يعتمد على بنية NVIDIA Hopper ، ومجهز بمحرك Transformer مصمم لمعالجة وقيادة النماذج المدربة مسبقًا المشابهة لـ ChatGPT. يمكن للخادم القياسي الذي يحتوي على أربعة أزواج من H100s و NVLink مزدوج GPU تسريع التدريب بعامل 10 مقارنة بـ HGX A100 لمعالجة GPT-3.
قال Huang Renxun ذات مرة: "يمكن لـ H100 تقليل تكلفة معالجة نماذج اللغات الكبيرة بترتيب من حيث الحجم". استنادًا إلى شريحة H100 ، قامت Nvidia أيضًا ببناء أحدث كمبيوتر فائق DGX ، مزود بـ 8 وحدات معالجة رسومات H100 ، بحيث يمكن توصيلها لتشكيل وحدة معالجة رسومات ضخمة ، مما يوفر "مخططًا" لبناء البنية التحتية للذكاء الاصطناعي. دخل الحاسوب العملاق DGX حيز الإنتاج بالكامل.
بعد ذلك ، رفعت رقائق GPU عالية الأداء من Nvidia مثل A100 و H100 و A800 و H800 أسعارها وفقًا لذلك ، وخاصة الشريحة الرئيسية H100 ، والتي تم بيعها بأكثر من 40،000 دولار أمريكي على منصات التجارة الإلكترونية الخارجية في منتصف أبريل ، و حتى أن بعض البائعين قاموا بتسعيره بـ 6.5 عشرة آلاف دولار أمريكي.
في الوقت نفسه ، تم أيضًا نهب رقائق A800 و H800 الخاصة بالصين من Nvidia. قال تشانغ جويه ، مؤسس مورد شراء المكونات الإلكترونية "Guangxin Century" ، بصراحة: "من الصعب بشكل أساسي على الشركات المحلية الكبيرة الحجم الحصول على هذه الرقائق. الطلب في السوق بأكمله يتجاوز الطلب ، والنقص خطير للغاية". إلى Xinchao IC: "هذا العام ، تغير هذا النوع من شرائح GPU من حوالي 120000 يوان صيني إلى 250000 يوان صيني أو حتى 300000 يوان صيني ، أو حتى 500000 يوان صيني."
ليس هناك شك في أن ريادة Nvidia التكنولوجية في وحدات معالجة الرسومات عالية الأداء ، وشريحتي الذكاء الاصطناعي ، A100 و H100 ، هي القوة الدافعة الأساسية لنماذج اللغات الكبيرة مثل ChatGPT.
يعتقد بعض محترفي الحوسبة السحابية أن 10000 شريحة Nvidia A100 هي الحد الأدنى لقدرة الحوسبة لنموذج الذكاء الاصطناعي الجيد. تم تجهيز الكمبيوتر العملاق المزود بالذكاء الاصطناعي الذي صممته Microsoft لـ OpenAI لتدريب طرازاته بـ 10000 شريحة Nvidia GPU. من قبيل الصدفة ، قدمت شركات الإنترنت المحلية الكبرى أيضًا طلبات كبيرة مع Nvidia. ووفقًا لتقرير متأخر لـ LatePost ، طلبت Byte أكثر من مليار دولار أمريكي من وحدات معالجة الرسومات من Nvidia هذا العام. من 1 مليار يوان رنمينبي.
الأمر الأكثر مبالغة هو أن ما إذا كان بإمكان هذه الشركات أخيرًا الحصول على البطاقة يعتمد بشكل أكبر على علاقة العمل ، خاصةً ما إذا كان أحد العملاء الرئيسيين لشركة Nvidia في الماضي. "سواء تحدثت إلى Nvidia الصينية أو ذهبت إلى الولايات المتحدة للتحدث إلى Lao Huang (هوانغ رينكسون) مباشرة ، فهناك فرق."
نتيجة لذلك ، ارتفعت بيانات Nvidia المالية مرة أخرى إلى مستويات قياسية جديدة. في 25 مايو ، أصدرت Nvidia تقريرها المالي للربع الأول ، وسجلت عائدات أعمال مراكز البيانات حيث توجد رقائق الذكاء الاصطناعي رقمًا قياسيًا ، وحافظت على معدل نمو سنوي يزيد عن 10٪.
كشف Huang Renxun أن خط إنتاج مركز البيانات بأكمله قيد الإنتاج الآن ، ويتم زيادة العرض بشكل كبير لتلبية الزيادة في الطلب.
أدت سلسلة من الأخبار الجيدة مباشرة إلى ارتفاع سعر سهم Nvidia إلى أعلى وأعلى. في مساء يوم 30 مايو ، تم افتتاح سوق الأسهم الأمريكية ، وتجاوزت القيمة السوقية لشركة Nvidia مباشرةً تريليون دولار. في 19 يوليو ، ارتفعت القيمة السوقية الإجمالية لـ Nvidia بمقدار 175 مليار دولار أمريكي بين عشية وضحاها ، مما أدى إلى ازدهار الاستثمار مرة أخرى.
وفقًا لموقع ويب Companiesmarketcap ، تحتل القيمة السوقية الإجمالية لشركة Nvidia المرتبة السادسة في العالم ، وهي أيضًا شركة الرقائق ذات أعلى قيمة سوقية في الوقت الحالي ، بالقرب من شركتي TSMC (533.6 مليار دولار). ارتفع سعر سهم Nvidia بنحو 180٪ هذا سنة. يجب أن أعترف أن هذه الموجة من جنون الذكاء الاصطناعي جعلت نفيديا Huang Renxun ممتلئًا.
02. من المستحيل أن تتمتع Nvidia بجنون قوة الحوسبة
"لن تحتكر Nvidia تدريبات واسعة النطاق ورقائق الاستدلال إلى الأبد."
كان هذا رد إيلون ماسك ، الرئيس التنفيذي لشركة Tesla ، على تغريدة من Adam D'Angelo ، الرئيس التنفيذي لموقع إجابات الأسئلة الاجتماعية وسوق المعرفة عبر الإنترنت Quora ، الذي كتب: "أحد أسباب عدم تقدير طفرة الذكاء الاصطناعي هو عدم تقدير وحدات معالجة الرسومات. / نقص TPU ، مما أدى إلى العديد من القيود على إطلاق المنتجات والتدريب على النماذج ، ولكن لم يكن أي منها واضحًا. وبدلاً من ذلك ، شهدنا ارتفاع سعر سهم Nvidia. وبمجرد تلبية العرض للطلب ، تسارعت الأمور ".
من الواضح أن Silicon Valley Iron Man لا يتفق مع هذا ، وعلق أيضًا: "العديد من رقاقات تسريع الشبكات العصبية الأخرى قيد التطوير أيضًا ، ولن تحتكر Nvidia التدريب على نطاق واسع والاستدلال إلى الأبد."
العاصفة قادمة.
ما هو حجم سوق قوة الحوسبة الذي يمكن أن يدفعه جنون الذكاء الاصطناعي المتمركز على الطرز الكبيرة؟ تعتقد شركة Soochow Securities أن الطلب على قوة الحوسبة لنماذج الذكاء الاصطناعي مستمر في التوسع ، مما يفتح الطلب في السوق على رقائق الحوسبة عالية الأداء. ومن المقدر أن يصل حجم سوق رقائق الذكاء الاصطناعي في بلدي إلى 178 مليار يوان في عام 2025 ، و معدل النمو السنوي المركب من 2019 إلى 2025 سيصل إلى 42.9٪. من منظور حجم السوق ، لا تزال رقائق الذكاء الاصطناعي في مهدها ، لكن لديها إمكانات نمو هائلة.
شريحة AI هي مفهوم واسع ، والذي يشير عمومًا إلى وحدة تستخدم خصيصًا لمعالجة مهام الحوسبة في تطبيقات الذكاء الاصطناعي.إنها جهاز لمهام الحوسبة ولدت في عصر التطور السريع لتطبيقات الذكاء الاصطناعي.جميع رقائق الذكاء الاصطناعي تسمى التطبيقات رقائق AI. هناك ثلاثة مسارات تقنية رئيسية: الأغراض العامة (GPU) ، شبه المخصصة (FPGA) ، والمخصصة (ASIC).
من منظور تدريب النموذج على نطاق واسع ، والضبط الدقيق القائم على السيناريو ، وسيناريوهات تطبيق الاستدلال ، يمكن أن تدعم قوة الحوسبة غير المتجانسة التي توفرها شرائح CPU + AI ، وقدرات الحوسبة المتوازية الفائقة ، والنطاق الترددي العالي للتوصيل البيني أقصى كفاءة لحوسبة الذكاء الاصطناعي وأصبح ذكيًا الحل السائد للحوسبة.
من حيث الحصة السوقية ، وفقًا لـ iResearch ، بحلول عام 2027 ، من المتوقع أن يصل سوق شرائح الذكاء الاصطناعي في الصين إلى 216.4 مليار يوان. مع تطبيق تحسين نماذج الذكاء الاصطناعي ، ستزداد نسبة رقائق الذكاء الاصطناعي يومًا بعد يوم. في عام 2022 ، ستشكل رقائق تدريب الذكاء الاصطناعي الصينية ورقائق التفكير الخاصة بالذكاء الاصطناعي 47.2٪ و 52.8٪ على التوالي.
في الوقت الحالي ، هناك ثلاثة أنواع من اللاعبين في مجال رقائق الذكاء الاصطناعي: أحدهم هو عمالقة الرقائق القديمة التي تمثلها Nvidia و AMD ، مع أداء منتج متميز ؛ والآخر هو عمالقة الحوسبة السحابية التي تمثلها Google و Baidu و Huawei. ، وطورت رقائق الذكاء الاصطناعي ومنصات التعلم العميق وما إلى ذلك لدعم تطوير النماذج الكبيرة. على سبيل المثال ، Kunpeng Ascend من Huawei و CANN و Mindspore و Baidu's Kunlun Core وما إلى ذلك. أخيرًا ، هناك بعض أحادي القرن الصغيرة والجميلة لشرائح AI ، مثل Cambrian و Biren Technology و Tianshu Zhixin ، إلخ.
على الرغم من أن اندلاع النماذج المحلية واسعة النطاق قد يتسبب في فجوة في قوة الحوسبة ، إلا أنها مسألة وقت فقط قبل أن يتمتع مصنعو الرقائق المحليون بأرباح الاستبدال المحلي. بصفته مطورًا لرقائق تدريب الذكاء الاصطناعي ، اجتذب Cambrian ، "أول سهم لشرائح AI" ، مرة أخرى انتباه السوق ، واستمر سعر سهمه في الارتفاع ، حيث تجاوزت القيمة السوقية الأخيرة 90 مليار.
في خط إنتاج السحابة ، أطلقت Cambricon أربعة أجيال من منتجات الرقائق: Siyuan 100 في 2018 ، Siyuan 270 في 2019 ، Siyuan 290 (مركبة) في 2020 ، وسلسلة Siyuan 370 التي تم إصدارها في عام 2021. وهي تستخدم لدعم مهام معالجة الذكاء الاصطناعي مع النمو السريع في التعقيد وإنتاجية البيانات في سيناريوهات الحوسبة السحابية ومركز البيانات. بالإضافة إلى ذلك ، لدى Cambrian أيضًا منتج قيد البحث ، Siyuan 590 ، والذي لم يتم إصداره بعد. بالإضافة إلى ذلك ، بحلول نهاية عام 2022 ، ستكمل سلسلة Siyuan 370 ومنتج AIGC Baidu Flying Paddle اختبار التوافق من المستوى الثاني.
ومع ذلك ، ما إذا كانت شركات النماذج المحلية واسعة النطاق قد اعتمدت رقائق الكمبري لم تتلق بعد معلومات دقيقة. كشف أحد كبار مهندسي الرقائق عن ذلك: "في مجال رقائق الذكاء الاصطناعي المتطورة ، لا تزال الشركات المصنعة المحلية في مهدها ، وتحتاج أشياء كثيرة إلى الوقت والمال للتحقق منها". حتى شرائح شركات مثل Huawei و Baidu و Haiguang Information لديها فجوة واضحة مع منتجات Nvidia.
قال أحدهم ذات مرة بصراحة أن الفجوة بين Nvidia ومصنعي الرقائق الأخرى هي الفرق بين الأكاديميين وطلاب المدارس الثانوية. كما قال Huang Renxun ، فإن Nvidia "كانت تعمل" ، ولا يمكن لمصنعي الرقائق الآخرين الذين يرغبون في تجاوز العمالقة إلا أن يعملوا بجنون.
03. "لعبة العروش" وراء نموذج الذكاء الاصطناعي الكبير
بالإضافة إلى Nvidia ، اتخذت AMD ، عملاق GPU آخر ، إجراءات مؤخرًا.
في الآونة الأخيرة ، أصدرت AMD أحدث بطاقة تسريع. في موقع المؤتمرات حيث أطلقت AMD أحدث بطاقة تسريع Instinct MI300X ، تم كتابة سطر من الكلمات خصيصًا على PPT - مخصص لنماذج اللغات الكبيرة. يعتبر هذا من قبل الصناعة إعلانًا مباشرًا الحرب ضد نفيديا!
يُذكر أن كثافة الذاكرة ذات النطاق الترددي العالي (HBM) لـ MI300X يمكن أن تصل إلى 2.4 مرة من NVIDIA H100 ، ويمكن أن يصل عرض النطاق الترددي للذاكرة ذات النطاق الترددي العالي إلى 1.6 مرة من H100. ومن الواضح أن MI300X يمكنه تشغيل نموذج ذكاء اصطناعي أكبر من H100.
سلسلة MI300 حيث يوجد MI300X هي سلسلة من أحدث بطاقات تسريع APU التي أنشأتها AMD لـ AI و HPC. من بينها ، MI300A هو "النموذج الأساسي" ، و MI300X هو "النموذج الأمثل للنموذج الكبير" مع أداء أجهزة أعلى.
في الوقت الحالي ، تم أخذ عينات من MI300A ، ومن المتوقع أن تكون متاحة للشراء قريبًا ؛ ومن المتوقع أن يتم أخذ عينات من البطاقة المخصصة واسعة النطاق MI300X ومنصة الحوسبة AMD Instinct التي تدمج 8 MI300X في الربع الثالث من هذا العام ، وسيتم إطلاقه في الربع الرابع.
في السنوات القليلة الماضية ، بالمقارنة مع تحركات Nvidia الكبيرة في مجال الذكاء الاصطناعي ، تبدو تصرفات AMD بطيئة بعض الشيء. كما قال إريك جانغ ، الرئيس التنفيذي لشركة DeepBrain AI ، إنه يشعر أن AMD خيبت آماله في السنوات القليلة الماضية ، ولم يتغير شيء في السنوات الخمس الماضية. خاصة أثناء اندلاع AIGC ، إذا لم تعمل AMD بجد لمواكبة ذلك ، فسوف تتسع الفجوة فقط.
مع إطلاق منتجات سلسلة MI300 من AMD ، يمكننا أخيرًا رؤية AMD و Nvidia يتقاتلان وجهاً لوجه.
لسوء الحظ ، لا يبدو أن السوق يشتري بطاقات AMD الجديدة.
خلال مؤتمر AMD هذا ، لم يرتفع سعر سهمها بل انخفض. في المقابل ، ارتفع سعر سهم Nvidia أيضًا موجة. ليس من الصعب فهم معنويات السوق ، لأنه في مجال التكنولوجيا الفائقة ، وخاصة في الأسواق الناشئة ، أصبح منطقًا مشتركًا في السوق التجاري لمواكبة كل خطوة والحفاظ على القوة.
ولكن في الواقع ، بعد دراسة متأنية للأسباب ، يمكن العثور على أن السبب الرئيسي وراء احتكار Nvidia لسوق شرائح تدريب الذكاء الاصطناعي هو بيئة CUDA التي تم تطويرها ذاتيًا. لذلك ، إذا أراد AMD MI300 استبدال Nvidia ، فيجب أولاً أن يكون متوافقًا مع نظام CUDA البيئي الخاص بـ Nvidia. أطلقت AMD نظام ROCm البيئي لهذا الغرض ، وحققت التوافق الكامل مع CUDA من خلال HIP ، وبالتالي تقليل التكلفة المعروفة للمستخدمين.
في هذا الصدد ، يعتقد Murong Yi ، وهو مدون استثماري مشهور ، أن صعوبة اتخاذ المسار المتوافق مع NVIDIA CUDA هو أن سرعة تكرار التحديث لا يمكن أبدًا مواكبة CUDA ، ومن الصعب تحقيق التوافق الكامل ، أي ، من ناحية ، يكون التكرار دائمًا أبطأ بخطوة. تتكرر Nvidia GPU بسرعة على مجموعة التعليمات والبنية الدقيقة ، وهناك حاجة إلى تحديثات الوظائف المقابلة في العديد من الأماكن في حزمة البرامج العلوية ، ولكن من المستحيل على AMD معرفة خارطة طريق منتج Nvidia ، وستكون تحديثات البرامج دائمًا أبطأ بخطوة من Nvidia (على سبيل المثال ، AMD لديها قد تكون قد أعلنت للتو عن دعم CUDA11 ، لكن Nvidia أطلقت CUDA12) ؛ من ناحية أخرى ، فإن صعوبة التوافق الكامل ستزيد من عبء العمل على المطورين. بنية البرامج واسعة النطاق مثل CUDA هي معقدة للغاية ، وتحتاج AMD إلى استثمار الكثير من القوى العاملة والموارد المادية. سوف يستغرق الأمر سنوات أو حتى أكثر من عشر سنوات للحاق بالركب ، لأنه سيكون هناك حتمًا اختلافات وظيفية ، وإذا لم يتم التوافق بشكل جيد ، فسيؤثر الاداء. لذلك ، هذه أيضًا هي الأسباب الرئيسية لعدم شرائها للجميع.
وفقًا لتقديرات Khaveen Investments ، ستصل حصة سوق GPU لمركز بيانات Nvidia إلى 88 ٪ في عام 2022 ، وستتقاسم AMD و Intel الباقي.
منذ أن أصدرت شركة OpenAI برنامج ChatGPT العام الماضي ، استمرت جولة جديدة من الثورة التكنولوجية في التخمير. يمكن القول أنه لم يجذب أي تقدم تكنولوجي انتباه العالم مثل ChatGPT لسنوات عديدة.
تتم متابعة العديد من شركات التكنولوجيا ومؤسسات البحث العلمي والكليات والجامعات في الداخل والخارج. في أقل من نصف عام ، ظهر الكثير من الشركات الناشئة لتطبيقات النماذج واسعة النطاق ، وتكرر حجم التمويل مرارًا وتكرارًا حقق ارتفاعات جديدة.
وفقًا للمدون wgang ، قامت Baidu و iFLYTEK و 4Paradigm وجامعة Tsinghua و Fudan وغيرها من المصانع المحلية الكبرى والشركات الناشئة ومؤسسات البحث العلمي بإصدار منتجات نموذجية واسعة النطاق على التوالي:
* المصدر: Zhihu wgwang *
يمكن ملاحظة أنه ليس فقط في المجال العام ، ولكن أيضًا في سيناريوهات صناعة محددة ، خاصة في بعض المجالات ذات الاحترافية القوية وكثافة المعرفة العالية ، تقوم شركات التكنولوجيا أيضًا بإصدار نماذج كبيرة في المجالات الرأسية. على سبيل المثال ، أصدرت Baijiayun (RTC) ، وهي شركة مسجلة في الولايات المتحدة ، مؤخرًا منتج AIGC "Market Easy" استنادًا إلى رؤيتها لاحتياجات الخدمات للمؤسسات. وهذا أيضًا أول محرك نموذج GPT واسع النطاق مناسب لسيناريوهات إنتاج المحتوى من أقسام التسويق المؤسسي.
قال بعض المطلعين على الصناعة بابتسامة: "لقد شكلت النماذج المحلية واسعة النطاق وضعا ترقص فيه مجموعات من العارضات بعنف وتتنافس مئات العارضات. ومن المتوقع أن يكون هناك أكثر من 100 نموذج على نطاق واسع بنهاية سنة."
ومع ذلك ، فإن تطوير النماذج الكبيرة يتطلب دعم ثلاثة عوامل مهمة: الخوارزميات ، وقوة الحوسبة ، والبيانات.قوة الحوسبة هي محرك طاقة مهم لتدريب النماذج الكبيرة ، وهي أيضًا عائق رئيسي أمام تطوير صناعة النماذج الكبيرة في الصين.
تؤثر قدرة الرقاقة بشكل مباشر على تأثير وسرعة التدريب على الحوسبة العالية. كما ذكرنا سابقًا ، على الرغم من الظهور المتكرر لمنتجات النماذج المحلية واسعة النطاق ، بناءً على الرقائق التي تقف وراءها ، فإن جميع هذه المنصات تستخدم إما وحدات معالجة الرسومات Nvidia A100 و H100 ، أو إصدار التكوين المنخفض من Nvidia A800 و A800 الذي تم إطلاقه خصيصًا بعد الحظر العام الماضي H800 ، يبلغ عرض النطاق الترددي لهذين المعالجات حوالي 3/4 ونصف الإصدار الأصلي تقريبًا ، متجنبًا المعيار المحدود لوحدة معالجة الرسومات عالية الأداء.
في مارس من هذا العام ، أخذت Tencent زمام المبادرة في الإعلان عن أنها استخدمت H800. لقد استخدمت بالفعل H800 في الإصدار الجديد من خدمات الحوسبة عالية الأداء التي أصدرتها Tencent Cloud ، وقالت إنها كانت الأولى في الصين.
اقترحت Alibaba Cloud أيضًا داخليًا في مايو من هذا العام أن تكون "معركة الحوسبة الذكية" هي المعركة الأولى هذا العام ، وأصبح عدد وحدات معالجة الرسومات مؤشرًا مهمًا لمعركتها.
بالإضافة إلى ذلك ، أعلنت Shangtang أيضًا أنه تم نشر ما يقرب من 30000 وحدة معالجة رسومات في مجموعة حوسبة "الجهاز الكبير AI" ، منها 10000 وحدة Nvidia A100. يخصص Byte و Meituan مباشرة وحدات معالجة الرسومات من فرق العمل الأخرى للشركة لتدريب النماذج الكبيرة. حتى أن بعض الشركات المصنعة كانت تبحث عن العديد من منتجات الماكينات الكاملة التي يمكنها إزالة A100 في السوق منذ النصف الثاني من عام 2022 ، لغرض وحيد هو الحصول على شرائح GPU. "هناك الكثير من الآلات ولا توجد أماكن كافية لتخزينها".
من المعلوم أن شركات التكنولوجيا المحلية الرائدة قد استثمرت بكثافة في الذكاء الاصطناعي والحوسبة السحابية ، وقد وصل تراكم A100 في الماضي إلى عشرات الآلاف.
في الوقت نفسه ، لا تزال شركات التكنولوجيا الصينية الكبرى منخرطة في جولة جديدة من منافسة المشتريات.
وفقًا لمزود الخدمة السحابية ، تتفاوض الشركات الكبرى مثل Byte و Alibaba بشكل أساسي على عمليات الشراء مباشرة مع مصنع Nvidia الأصلي ، ومن الصعب على الوكلاء والأسواق المستعملة تلبية احتياجاتهم الضخمة.
كما ذكرنا أعلاه ، طلبت ByteDance أكثر من 1 مليار دولار أمريكي من منتجات GPU من Nvidia هذا العام.حجم شراء Byte وحده هذا العام قريب من إجمالي مبيعات وحدات معالجة الرسومات التجارية التي بيعتها Nvidia في الصين العام الماضي. وفقًا للتقارير ، هناك شركة كبيرة أخرى بأمر لا يقل عن مليار يوان.
يمكن ملاحظة أن شركات التكنولوجيا الكبيرة في الصين ملحة للغاية لشراء وحدات معالجة الرسومات.
ليس فقط الشركات المحلية ، ولكن أيضًا العملاء الأجانب الكبار لديهم طلب قوي للغاية على رقائق Nvidia's A100 / H100. وفقًا للإحصاءات ، فإن Baidu ، التي بدأت لأول مرة في اختبار المنتجات الشبيهة بـ ChatGPT ، لديها نفقات رأسمالية سنوية تتراوح بين 800 مليون دولار أمريكي وملياري دولار أمريكي منذ عام 2020 ، ونفقات Alibaba بين 6 مليار دولار أمريكي و 8 مليار دولار أمريكي. خلال نفس الفترة ، كانت أمازون ، ميتا ، جوجل ، ومايكروسوفت ، شركات التكنولوجيا الأمريكية الأربع التي بنت مراكز البيانات الخاصة بها ، لديها نفقات رأسمالية سنوية لا تقل عن 15 مليار دولار أمريكي.
في الوقت الحالي ، وصلت رؤية طلبات Nvidia إلى عام 2024 ، والرقائق المتطورة غير متوفرة. وفقًا لجدول الإنتاج الحالي ، لن يتم تسليم حتى A800 / H800 حتى نهاية هذا العام أو العام المقبل. على المدى القصير ، من منظور شعبيتها ، فإن الشيء الوحيد الذي يؤثر على مبيعات GPU المتطورة من Nvidia هو القدرة الإنتاجية لـ TSMC.
04. خلف Nvidia "المجنونة" ، هل الرقائق المحلية غير كافية في كل من الأجهزة والبرامج؟
انطلاقًا من إمداد الرقائق لمنتجات النماذج واسعة النطاق ، لا توجد حاليًا بدائل لـ A100 و H100 والإصدارات المصغرة من A800 و H800 التي يتم توفيرها خصيصًا للصين من حيث تدريب النماذج على نطاق واسع AI.
إذن ، لماذا في هذه الجولة من طفرة GPT ، أخذت Nvidia زمام المبادرة وأدت أداءً جيدًا؟
قال Zhang Gaonan ، الشريك الإداري لشركة Huaying Capital ، إنه من ناحية ، يرجع ذلك إلى أن Nvidia لديها التخطيط الأقدم ، كما تطورت بنية النواة الدقيقة الخاصة بها وتحسنت من جيل إلى جيل. الآن سواء كان ذلك من حيث التزامن أو سرعة الناقل أو دعم microkernel الناضج لتحويل المصفوفة ، فإن قدراتها فعالة للغاية بالفعل ، بما في ذلك توفير منصة حوسبة CUDA كاملة جدًا في نفس الوقت ، والتي أصبحت في الواقع معيارًا صناعيًا محتملًا لـ خوارزميات التعلم العميق. كما أن المرافق الداعمة للسلسلة الصناعية بأكملها مكتملة للغاية ، كما أن حواجز المنافسة الشاملة وعمق الخندق مرتفع للغاية.
وخلاصة القول ، إن عدم الاستغناء عن Nvidia GPU يأتي من آلية تدريب النماذج الكبيرة. خطواتها الأساسية هي التدريب المسبق والضبط الدقيق. الأول هو وضع الأساس ، وهو ما يعادل تلقي التعليم العام للتخرج من الجامعة ؛ تم تحسين الأخير لسيناريوهات ومهام محددة لتحسين أداء العمل.
لذا ، هل يمكن لرقائق GPU المحلية أن تدعم متطلبات طاقة الحوسبة للنماذج الكبيرة؟
في التطبيقات العملية ، ينقسم طلب النموذج الكبير على قوة الحوسبة إلى مرحلتين: الأولى هي عملية تدريب نموذج ChatGPT الكبير ، والأخرى هي عملية التفكير الخاصة بتسويق النموذج تجاريًا. أي أن تدريب الذكاء الاصطناعي هو صنع النماذج ، ومنطق الذكاء الاصطناعي هو استخدام النماذج ، والتدريب يتطلب أداء رقاقة أعلى.
بناءً على ذلك ، تستمر شركات شرائح الذكاء الاصطناعي المحلية في الظهور ، وتطلق المنتجات إلى السوق واحدة تلو الأخرى. أطلقت شركات مثل Suiyuan Technology و Biren Technology و Tianshu Zhixin و Cambrian منتجاتها السحابية GPU ، ومؤشرات الأداء النظرية ليست ضعيفة. تحتوي شريحة DCU من Haiguang Information "Shensu No. 1" على نظام بيئي كامل نسبيًا للبرامج والأجهزة ومتوافق مع بنية CUDA. كما أن شركات الإنترنت الكبيرة مثل Tencent و Baidu و Ali تنتشر بقوة في مجال رقائق الذكاء الاصطناعي من خلال الاستثمار والاحتضان.
من بينها ، يحتاج تدريب النموذج واسع النطاق إلى معالجة معلومات عالية الدقة ، الأمر الذي يتطلب دقة أعلى وسرعة حوسبة لرقائق التدريب السحابية. في الوقت الحالي ، لا تملك معظم وحدات معالجة الرسومات المحلية القدرة على دعم تدريب النماذج على نطاق واسع.إنها مناسبة لعمل الاستدلال السحابي الذي لا يتطلب مثل هذا الدقة العالية للمعلومات.
* يتم تصنيف منتجات الذكاء الاصطناعي والتطبيقات المرحلية الموجة الأساسية لبعض الشركات المحلية ذات الصلة وفقًا للمعلومات العامة *
في مارس من هذا العام ، صرح Baidu Li Yanhong علنًا أن شريحة Kunlun أصبحت الآن مناسبة جدًا لاستدلال النماذج الكبيرة وستكون مناسبة للتدريب في المستقبل.
أخبر Zou Wei ، نائب رئيس Tianshu Zhixin ، Xinchao IC أنه لا تزال هناك فجوة معينة بين الرقائق المحلية وأحدث منتجات Nvidia ، ولكن فيما يتعلق بحسابات الاستدلال ، يمكن للرقائق المحلية أن تحقق نفس أداء المنتجات السائدة ، ومع التطبيق من شعبية الذكاء الاصطناعي ، سيسرع طلب السوق على رقائق التفكير من النمو ، ومع توسع الطلب ، سيكون للرقائق المحلية أيضًا سوق أكبر.
قال شخص آخر في الصناعة لم يرغب في الكشف عن اسمه ، "هناك فجوة في منتجات GPU المحلية للأغراض العامة مع المنتجات الرئيسية الدولية في تلبية تدريب النماذج على نطاق واسع ، ولكنها ليست غير قابلة للإصلاح. إنها فقط أن الصناعة لديها غير مصمم في اتجاه النماذج الكبيرة في تعريف المنتج ".
في الوقت الحاضر ، يقوم ممارسو الصناعة باستكشافات وجهود ذات صلة ، مثل التفكير فيما إذا كان يمكن تحسين قوة الحوسبة الرقائق من خلال الشرائح الخشبية والتعبئة المتقدمة. في الوقت الحاضر ، تقوم شركات GPU المحلية بتطوير وتخطيط الرقائق في مجال النماذج الكبيرة.
من منظور رأس المال ، صرح Zhang Gaonan ، الشريك الإداري لشركة Huaying Capital ، لـ Xinchao IC أن Huaying أولت اهتمامًا وثيقًا بالبنية التحتية للطاقة الحاسوبية لفترة طويلة. ، هناك بحث وتخطيط مستهدفان. بشكل عام ، يركز على البنية التحتية للحوسبة ذات الأغراض العامة ، مثل FPGA وحوسبة الحافة. في المقابل ، في الوقت الحاضر ، العديد من رقائق الطاقة الحاسوبية حول التعلم العميق ، والخوارزميات الخاصة ، وتحسين قوة الحوسبة المحلية ، وما إلى ذلك ، ليست محور اهتمامها.
في الواقع ، بالإضافة إلى الفجوة في أداء الأجهزة ، فإن النظام البيئي للبرامج هو أيضًا عيب في الشركات المصنعة لشرائح الذكاء الاصطناعي المحلية.
تحتاج الشريحة إلى التكيف مع مستويات متعددة مثل نظام الأجهزة ، وسلسلة الأدوات ، والمترجم ، وما إلى ذلك ، وتحتاج إلى قدرة قوية على التكيف. وإلا ، يمكن لهذه الشريحة تشغيل 90٪ من قوة الحوسبة في مشهد واحد ، ولكن يمكنها تشغيل 90٪ فقط في مشهد آخر سيناريو الأداء نفاد 80٪.
كما ذكرنا سابقًا ، تتمتع Nvidia بمزايا واضحة في هذا الصدد. في وقت مبكر من عام 2006 ، أطلقت Nvidia منصة الحوسبة CUDA ، وهي محرك برمجيات الحوسبة المتوازية. يدمج إطار عمل CUDA الكثير من الرموز المطلوبة لاستدعاء قوة حوسبة GPU. يمكن للمهندسين استخدام هذه الرموز مباشرة دون كتابتها واحدة تلو الأخرى. يمكن للمطورين استخدام CUDA لأداء تدريب الذكاء الاصطناعي والاستدلال بشكل أكثر كفاءة ، والاستفادة بشكل أفضل من قوة حوسبة وحدة معالجة الرسومات. اليوم ، أصبحت CUDA بنية تحتية للذكاء الاصطناعي ، وتم تطوير جميع أطر عمل الذكاء الاصطناعي والمكتبات والأدوات السائدة بناءً على CUDA.
بدون هذه المجموعة من لغات الترميز ، سيكون من الصعب للغاية على مهندسي البرمجيات إدراك قيمة الأجهزة.
إذا أرادت وحدات معالجة الرسومات (GPU) وشرائح الذكاء الاصطناعي (AI) بخلاف Nvidia الوصول إلى CUDA ، فعليهم توفير برنامج التكيف الخاص بهم. وفقًا لمطلعين في الصناعة ، فقد اتصلت بشركة مصنعة غير تابعة لـ NVIDIA GPU. على الرغم من أن عروض أسعار شرائحها والخدمة أقل من NVIDIA وتعهد بتقديم خدمات في الوقت المناسب ، فإن تكاليف التدريب والتطوير الإجمالية لاستخدام وحدة معالجة الرسومات الخاصة بها ستكون أعلى من تكاليف NVIDIA. تعهد عدم اليقين من النتائج ووقت التطوير.
على الرغم من أن وحدات معالجة الرسومات Nvidia باهظة الثمن ، إلا أنها في الواقع أرخص استخدامًا. بالنسبة للشركات التي تنوي اغتنام فرصة النماذج الكبيرة ، لا يمثل المال في كثير من الأحيان مشكلة ، والوقت هو المورد الأكثر قيمة.يجب على الجميع الحصول على ما يكفي من قوة الحوسبة المتقدمة في أقرب وقت ممكن لضمان ميزة المحرك الأول.
لذلك ، بالنسبة لموردي الرقائق المحليين ، حتى لو كان من الممكن تكديس منتج يتمتع بقوة حوسبة مماثلة عن طريق تكديس الرقائق ، يكون من الصعب على العملاء قبول تكيف البرامج وتوافقها. بالإضافة إلى ذلك ، من منظور تشغيل الخادم ، فإن نفقات اللوحة الأم ورسوم الكهرباء ونفقات التشغيل وقضايا مثل استهلاك الطاقة وتبديد الحرارة التي يجب أخذها في الاعتبار ستزيد بشكل كبير من تكاليف تشغيل مركز البيانات.
نظرًا لأن موارد طاقة الحوسبة غالبًا ما يتم تقديمها في شكل تجميع ، فإن مراكز البيانات عادة ما تكون أكثر استعدادًا لاستخدام نفس الشريحة أو الرقائق من نفس الشركة لتقليل صعوبة تجميع طاقة الحوسبة.
يتطلب إطلاق قوة الحوسبة تعاونًا معقدًا في البرامج والأجهزة لتحويل قوة الحوسبة النظرية للشريحة إلى قوة حوسبة فعالة. بالنسبة للعملاء ، ليس من السهل استخدام شرائح الذكاء الاصطناعي المحلية.يتطلب استبدال شرائح الذكاء الاصطناعي السحابية تكاليف ومخاطر ترحيل معينة ، ما لم يكن للمنتج الجديد مزايا أداء ، أو يمكن أن يوفر مشاكل لا يمكن للآخرين حلها في بُعد معين. وإلا ، فإن الرغبة من العملاء الذين سيحل محلهم منخفض جدًا.
بصفتها مورد GPU الوحيد الذي يمكنه بالفعل معالجة ChatGPT ، فإن Nvidia هي "ملك قوة حوسبة الذكاء الاصطناعي" بجدارة. قبل ست سنوات ، سلم Huang Renxun شخصيًا أول كمبيوتر عملاق مجهز بشريحة A100 إلى OpenAI ، وساعد هذا الأخير في إنشاء ChatGPT ، وأصبح رائدًا في عصر الذكاء الاصطناعي.
ومع ذلك ، منذ أن نفذت الولايات المتحدة ضوابط التصدير العام الماضي ، مُنعت Nvidia من تصدير اثنين من أكثر شرائح GPU تقدمًا ، وهما H100 و A100 ، إلى الصين. هذا بلا شك ضربة لشركات تطبيقات المصب.
من منظور الأمن وضبط النفس ، يوفر هذا أيضًا فرصة جديدة لشركات الرقائق المحلية. على الرغم من أن الرقائق المحلية أدنى من عمالقة الصناعة مثل Nvidia و AMD من حيث الأداء وبيئة البرمجيات ، مدفوعة بالعلاقات التجارية الدولية المعقدة والعوامل الجيوسياسية ، فقد أصبح "الاستبدال المحلي" الموضوع الرئيسي لتطوير صناعة أشباه الموصلات المحلية.
05. خاتمة
كل زيادة في قوة الحوسبة ستطلق موجة من التغييرات التكنولوجية والصناعية: وحدات المعالجة المركزية تقود البشرية إلى عصر الكمبيوتر الشخصي ، والرقائق المحمولة تطلق موجة من الإنترنت عبر الهاتف المحمول ، ورقائق الذكاء الاصطناعي تكسر عنق الزجاجة المستمر لعقود في طاقة الحوسبة في الذكاء الاصطناعي صناعة.
اليوم ، حانت "لحظة الذكاء الاصطناعي في iPhone" ، وقد يكون الطريق إلى العصر التالي أمامنا بالفعل.
على الرغم من أن مجالات رقائق الذكاء الاصطناعي وأنظمة البرمجيات في مراكز البيانات هذه لا تزال تحت سيطرة الشركات المصنعة الأجنبية ، إلا أن باب السوق "لتوطين قوة الحوسبة" قد يفتح الآن.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
كرنفال الحوسبة من هي "النسخة الصينية" من نفيديا؟
** المصدر: ** Core Tide IC
** نص: Wang Yike Ten Alleys **
** المحرر: Su Yang Xubai **
أشعلت موجة ثورة الذكاء الاصطناعي التي أطلقها ChatGPT عن طريق الخطأ سوق شرائح الذكاء الاصطناعي مرة أخرى.
"لقد تغيرت شرائح مثل A800 و H800 من حوالي 120.000 يوان صيني إلى 250.000 أو حتى 300.000 ، أو حتى تصل إلى 500.000." هذا مشهد حقيقي في دائرة توزيع الرقائق المحلية. الكميات ، ويجب أن يكون لديهم "علاقة مباشرة" مع Huang Renxun.
نظرًا لما يسمى بـ "لا شريحة ، لا ذكاء اصطناعي" ، نظرًا لارتفاع الطلب على قوة الحوسبة للنماذج الكبيرة ، فإن الرقائق ، التي تشكل أساس تقنية الذكاء الاصطناعي ، تستهل فرصًا تجارية مهمة. توقعت شركة OpenAI ذات مرة أنه من أجل تحقيق اختراقات في البحث العلمي للذكاء الاصطناعي ، ستتضاعف موارد الحوسبة المطلوبة للاستهلاك كل 3 إلى 4 أشهر ، وستحتاج الأموال أيضًا إلى أن يقابلها نمو متسارع "قانون مور".
قال المدير المالي لشركة Nvidia ، كريس ، إن الطلب الحالي في السوق على قوة حوسبة الذكاء الاصطناعي قد تجاوز توقعات الشركة للأرباع القليلة القادمة ، وهناك الكثير من الطلبات التي يجب الوفاء بها.
لقد حققت موجة الذكاء الاصطناعي التوليدية الكثير من المال لشركة Nvidia. بعد 14 عامًا من الإدراج ، دخلت Nvidia بنجاح في نادي القيمة السوقية الذي تبلغ قيمته تريليون دولار. ولتحقيق هذا الهدف ، استغرق عمالقة Silicon Valley مثل Apple 37 عامًا ، واستغرقت Microsoft 33 عامًا ، واستغرقت Amazon 21 عامًا ، وشغل Tesla الأسرع. استغرق 11 عاما فقط.
وقد حفز هذا أيضًا شركات الرقائق الصينية على أن تكون حريصة على المحاولة. فشركات الرقائق المحلية مثل Haiguang Information و Cambrian و Loongson Zhongke و Biren Technology و Tianshu Zhixin وما إلى ذلك ، كلها تطمح إلى "النسخة الصينية" من Nvidia ، وتجرب الاعتماد على أبحاثهم الخاصة. تمكين النماذج المحلية واسعة النطاق. بدأت بعض الشركات المصنعة الكبرى أيضًا في استخدام شرائح الذكاء الاصطناعي المطورة ذاتيًا لدعم جزء من مهام التدريب أو التفكير في النموذج ، مثل رقائق Baidu Kunlun و Ali Hanguang 800 ...
في مواجهة سوق التريليون دولار الناتج عن قوة الحوسبة بالذكاء الاصطناعي ، هل يمكن للشركات المحلية الاستمتاع بهذه الموجة من الأرباح؟ كيف يجب أن يتغلب مصنعو الرقائق المحليون على "جبل" نفيديا؟ هذه مشكلة لا يمكن لأي شركة الهروب منها.
01. أدى جنون الذكاء الاصطناعي إلى خلق قيمة سوقية بقيمة تريليون دولار لشركة Nvidia
الرجال الذين يحبون ارتداء الملابس الجلدية هم أول من يستمتعون بأرباح الذكاء الاصطناعي.
في نهاية عام 2022 ، بعد ظهور ChatGPT ، سرعان ما تسبب ذلك في حدوث جنون الذكاء الاصطناعي في جميع أنحاء العالم. من بينها ، أصبحت Nvidia ، التي كانت تراهن على مستقبل الذكاء الاصطناعي ، واحدة من الشركات التي استفادت أكثر من موجة ChatGPT. في مؤتمر Nvidia GTC لهذا العام ، كشف مؤسس Nvidia والرئيس التنفيذي Jen-Hsun Huang عن ذكاء اصطناعي جديد وتكنولوجيا الرقائق ، وقال إن "لحظة iPhone" للذكاء الاصطناعي قد وصلت.
في المؤتمر الصحفي ، قال Huang Renxun إن نشر نماذج لغوية واسعة النطاق مشابهة لـ ChatGPT يمثل عبء عمل تفكير جديد ومهم.من أجل دعم تفكير نموذج اللغة على نطاق واسع ، أصدرت Nvidia سلسلة من المنتجات والخدمات حول الذكاء الاصطناعي من بينها ، تم اعتماد بنية جديدة ، وشريحة H100 مع عملية أكثر تقدمًا هي الأكثر لفتًا للنظر.
وحدة معالجة الرسومات هذه عبارة عن H100 يعتمد على بنية NVIDIA Hopper ، ومجهز بمحرك Transformer مصمم لمعالجة وقيادة النماذج المدربة مسبقًا المشابهة لـ ChatGPT. يمكن للخادم القياسي الذي يحتوي على أربعة أزواج من H100s و NVLink مزدوج GPU تسريع التدريب بعامل 10 مقارنة بـ HGX A100 لمعالجة GPT-3.
قال Huang Renxun ذات مرة: "يمكن لـ H100 تقليل تكلفة معالجة نماذج اللغات الكبيرة بترتيب من حيث الحجم". استنادًا إلى شريحة H100 ، قامت Nvidia أيضًا ببناء أحدث كمبيوتر فائق DGX ، مزود بـ 8 وحدات معالجة رسومات H100 ، بحيث يمكن توصيلها لتشكيل وحدة معالجة رسومات ضخمة ، مما يوفر "مخططًا" لبناء البنية التحتية للذكاء الاصطناعي. دخل الحاسوب العملاق DGX حيز الإنتاج بالكامل.
بعد ذلك ، رفعت رقائق GPU عالية الأداء من Nvidia مثل A100 و H100 و A800 و H800 أسعارها وفقًا لذلك ، وخاصة الشريحة الرئيسية H100 ، والتي تم بيعها بأكثر من 40،000 دولار أمريكي على منصات التجارة الإلكترونية الخارجية في منتصف أبريل ، و حتى أن بعض البائعين قاموا بتسعيره بـ 6.5 عشرة آلاف دولار أمريكي.
في الوقت نفسه ، تم أيضًا نهب رقائق A800 و H800 الخاصة بالصين من Nvidia. قال تشانغ جويه ، مؤسس مورد شراء المكونات الإلكترونية "Guangxin Century" ، بصراحة: "من الصعب بشكل أساسي على الشركات المحلية الكبيرة الحجم الحصول على هذه الرقائق. الطلب في السوق بأكمله يتجاوز الطلب ، والنقص خطير للغاية". إلى Xinchao IC: "هذا العام ، تغير هذا النوع من شرائح GPU من حوالي 120000 يوان صيني إلى 250000 يوان صيني أو حتى 300000 يوان صيني ، أو حتى 500000 يوان صيني."
ليس هناك شك في أن ريادة Nvidia التكنولوجية في وحدات معالجة الرسومات عالية الأداء ، وشريحتي الذكاء الاصطناعي ، A100 و H100 ، هي القوة الدافعة الأساسية لنماذج اللغات الكبيرة مثل ChatGPT.
يعتقد بعض محترفي الحوسبة السحابية أن 10000 شريحة Nvidia A100 هي الحد الأدنى لقدرة الحوسبة لنموذج الذكاء الاصطناعي الجيد. تم تجهيز الكمبيوتر العملاق المزود بالذكاء الاصطناعي الذي صممته Microsoft لـ OpenAI لتدريب طرازاته بـ 10000 شريحة Nvidia GPU. من قبيل الصدفة ، قدمت شركات الإنترنت المحلية الكبرى أيضًا طلبات كبيرة مع Nvidia. ووفقًا لتقرير متأخر لـ LatePost ، طلبت Byte أكثر من مليار دولار أمريكي من وحدات معالجة الرسومات من Nvidia هذا العام. من 1 مليار يوان رنمينبي.
الأمر الأكثر مبالغة هو أن ما إذا كان بإمكان هذه الشركات أخيرًا الحصول على البطاقة يعتمد بشكل أكبر على علاقة العمل ، خاصةً ما إذا كان أحد العملاء الرئيسيين لشركة Nvidia في الماضي. "سواء تحدثت إلى Nvidia الصينية أو ذهبت إلى الولايات المتحدة للتحدث إلى Lao Huang (هوانغ رينكسون) مباشرة ، فهناك فرق."
نتيجة لذلك ، ارتفعت بيانات Nvidia المالية مرة أخرى إلى مستويات قياسية جديدة. في 25 مايو ، أصدرت Nvidia تقريرها المالي للربع الأول ، وسجلت عائدات أعمال مراكز البيانات حيث توجد رقائق الذكاء الاصطناعي رقمًا قياسيًا ، وحافظت على معدل نمو سنوي يزيد عن 10٪.
كشف Huang Renxun أن خط إنتاج مركز البيانات بأكمله قيد الإنتاج الآن ، ويتم زيادة العرض بشكل كبير لتلبية الزيادة في الطلب.
أدت سلسلة من الأخبار الجيدة مباشرة إلى ارتفاع سعر سهم Nvidia إلى أعلى وأعلى. في مساء يوم 30 مايو ، تم افتتاح سوق الأسهم الأمريكية ، وتجاوزت القيمة السوقية لشركة Nvidia مباشرةً تريليون دولار. في 19 يوليو ، ارتفعت القيمة السوقية الإجمالية لـ Nvidia بمقدار 175 مليار دولار أمريكي بين عشية وضحاها ، مما أدى إلى ازدهار الاستثمار مرة أخرى.
وفقًا لموقع ويب Companiesmarketcap ، تحتل القيمة السوقية الإجمالية لشركة Nvidia المرتبة السادسة في العالم ، وهي أيضًا شركة الرقائق ذات أعلى قيمة سوقية في الوقت الحالي ، بالقرب من شركتي TSMC (533.6 مليار دولار). ارتفع سعر سهم Nvidia بنحو 180٪ هذا سنة. يجب أن أعترف أن هذه الموجة من جنون الذكاء الاصطناعي جعلت نفيديا Huang Renxun ممتلئًا.
02. من المستحيل أن تتمتع Nvidia بجنون قوة الحوسبة
"لن تحتكر Nvidia تدريبات واسعة النطاق ورقائق الاستدلال إلى الأبد."
كان هذا رد إيلون ماسك ، الرئيس التنفيذي لشركة Tesla ، على تغريدة من Adam D'Angelo ، الرئيس التنفيذي لموقع إجابات الأسئلة الاجتماعية وسوق المعرفة عبر الإنترنت Quora ، الذي كتب: "أحد أسباب عدم تقدير طفرة الذكاء الاصطناعي هو عدم تقدير وحدات معالجة الرسومات. / نقص TPU ، مما أدى إلى العديد من القيود على إطلاق المنتجات والتدريب على النماذج ، ولكن لم يكن أي منها واضحًا. وبدلاً من ذلك ، شهدنا ارتفاع سعر سهم Nvidia. وبمجرد تلبية العرض للطلب ، تسارعت الأمور ".
العاصفة قادمة.
ما هو حجم سوق قوة الحوسبة الذي يمكن أن يدفعه جنون الذكاء الاصطناعي المتمركز على الطرز الكبيرة؟ تعتقد شركة Soochow Securities أن الطلب على قوة الحوسبة لنماذج الذكاء الاصطناعي مستمر في التوسع ، مما يفتح الطلب في السوق على رقائق الحوسبة عالية الأداء. ومن المقدر أن يصل حجم سوق رقائق الذكاء الاصطناعي في بلدي إلى 178 مليار يوان في عام 2025 ، و معدل النمو السنوي المركب من 2019 إلى 2025 سيصل إلى 42.9٪. من منظور حجم السوق ، لا تزال رقائق الذكاء الاصطناعي في مهدها ، لكن لديها إمكانات نمو هائلة.
شريحة AI هي مفهوم واسع ، والذي يشير عمومًا إلى وحدة تستخدم خصيصًا لمعالجة مهام الحوسبة في تطبيقات الذكاء الاصطناعي.إنها جهاز لمهام الحوسبة ولدت في عصر التطور السريع لتطبيقات الذكاء الاصطناعي.جميع رقائق الذكاء الاصطناعي تسمى التطبيقات رقائق AI. هناك ثلاثة مسارات تقنية رئيسية: الأغراض العامة (GPU) ، شبه المخصصة (FPGA) ، والمخصصة (ASIC).
من منظور تدريب النموذج على نطاق واسع ، والضبط الدقيق القائم على السيناريو ، وسيناريوهات تطبيق الاستدلال ، يمكن أن تدعم قوة الحوسبة غير المتجانسة التي توفرها شرائح CPU + AI ، وقدرات الحوسبة المتوازية الفائقة ، والنطاق الترددي العالي للتوصيل البيني أقصى كفاءة لحوسبة الذكاء الاصطناعي وأصبح ذكيًا الحل السائد للحوسبة.
من حيث الحصة السوقية ، وفقًا لـ iResearch ، بحلول عام 2027 ، من المتوقع أن يصل سوق شرائح الذكاء الاصطناعي في الصين إلى 216.4 مليار يوان. مع تطبيق تحسين نماذج الذكاء الاصطناعي ، ستزداد نسبة رقائق الذكاء الاصطناعي يومًا بعد يوم. في عام 2022 ، ستشكل رقائق تدريب الذكاء الاصطناعي الصينية ورقائق التفكير الخاصة بالذكاء الاصطناعي 47.2٪ و 52.8٪ على التوالي.
على الرغم من أن اندلاع النماذج المحلية واسعة النطاق قد يتسبب في فجوة في قوة الحوسبة ، إلا أنها مسألة وقت فقط قبل أن يتمتع مصنعو الرقائق المحليون بأرباح الاستبدال المحلي. بصفته مطورًا لرقائق تدريب الذكاء الاصطناعي ، اجتذب Cambrian ، "أول سهم لشرائح AI" ، مرة أخرى انتباه السوق ، واستمر سعر سهمه في الارتفاع ، حيث تجاوزت القيمة السوقية الأخيرة 90 مليار.
في خط إنتاج السحابة ، أطلقت Cambricon أربعة أجيال من منتجات الرقائق: Siyuan 100 في 2018 ، Siyuan 270 في 2019 ، Siyuan 290 (مركبة) في 2020 ، وسلسلة Siyuan 370 التي تم إصدارها في عام 2021. وهي تستخدم لدعم مهام معالجة الذكاء الاصطناعي مع النمو السريع في التعقيد وإنتاجية البيانات في سيناريوهات الحوسبة السحابية ومركز البيانات. بالإضافة إلى ذلك ، لدى Cambrian أيضًا منتج قيد البحث ، Siyuan 590 ، والذي لم يتم إصداره بعد. بالإضافة إلى ذلك ، بحلول نهاية عام 2022 ، ستكمل سلسلة Siyuan 370 ومنتج AIGC Baidu Flying Paddle اختبار التوافق من المستوى الثاني.
ومع ذلك ، ما إذا كانت شركات النماذج المحلية واسعة النطاق قد اعتمدت رقائق الكمبري لم تتلق بعد معلومات دقيقة. كشف أحد كبار مهندسي الرقائق عن ذلك: "في مجال رقائق الذكاء الاصطناعي المتطورة ، لا تزال الشركات المصنعة المحلية في مهدها ، وتحتاج أشياء كثيرة إلى الوقت والمال للتحقق منها". حتى شرائح شركات مثل Huawei و Baidu و Haiguang Information لديها فجوة واضحة مع منتجات Nvidia.
قال أحدهم ذات مرة بصراحة أن الفجوة بين Nvidia ومصنعي الرقائق الأخرى هي الفرق بين الأكاديميين وطلاب المدارس الثانوية. كما قال Huang Renxun ، فإن Nvidia "كانت تعمل" ، ولا يمكن لمصنعي الرقائق الآخرين الذين يرغبون في تجاوز العمالقة إلا أن يعملوا بجنون.
03. "لعبة العروش" وراء نموذج الذكاء الاصطناعي الكبير
بالإضافة إلى Nvidia ، اتخذت AMD ، عملاق GPU آخر ، إجراءات مؤخرًا.
في الآونة الأخيرة ، أصدرت AMD أحدث بطاقة تسريع. في موقع المؤتمرات حيث أطلقت AMD أحدث بطاقة تسريع Instinct MI300X ، تم كتابة سطر من الكلمات خصيصًا على PPT - مخصص لنماذج اللغات الكبيرة. يعتبر هذا من قبل الصناعة إعلانًا مباشرًا الحرب ضد نفيديا!
سلسلة MI300 حيث يوجد MI300X هي سلسلة من أحدث بطاقات تسريع APU التي أنشأتها AMD لـ AI و HPC. من بينها ، MI300A هو "النموذج الأساسي" ، و MI300X هو "النموذج الأمثل للنموذج الكبير" مع أداء أجهزة أعلى.
في الوقت الحالي ، تم أخذ عينات من MI300A ، ومن المتوقع أن تكون متاحة للشراء قريبًا ؛ ومن المتوقع أن يتم أخذ عينات من البطاقة المخصصة واسعة النطاق MI300X ومنصة الحوسبة AMD Instinct التي تدمج 8 MI300X في الربع الثالث من هذا العام ، وسيتم إطلاقه في الربع الرابع.
في السنوات القليلة الماضية ، بالمقارنة مع تحركات Nvidia الكبيرة في مجال الذكاء الاصطناعي ، تبدو تصرفات AMD بطيئة بعض الشيء. كما قال إريك جانغ ، الرئيس التنفيذي لشركة DeepBrain AI ، إنه يشعر أن AMD خيبت آماله في السنوات القليلة الماضية ، ولم يتغير شيء في السنوات الخمس الماضية. خاصة أثناء اندلاع AIGC ، إذا لم تعمل AMD بجد لمواكبة ذلك ، فسوف تتسع الفجوة فقط.
مع إطلاق منتجات سلسلة MI300 من AMD ، يمكننا أخيرًا رؤية AMD و Nvidia يتقاتلان وجهاً لوجه.
خلال مؤتمر AMD هذا ، لم يرتفع سعر سهمها بل انخفض. في المقابل ، ارتفع سعر سهم Nvidia أيضًا موجة. ليس من الصعب فهم معنويات السوق ، لأنه في مجال التكنولوجيا الفائقة ، وخاصة في الأسواق الناشئة ، أصبح منطقًا مشتركًا في السوق التجاري لمواكبة كل خطوة والحفاظ على القوة.
ولكن في الواقع ، بعد دراسة متأنية للأسباب ، يمكن العثور على أن السبب الرئيسي وراء احتكار Nvidia لسوق شرائح تدريب الذكاء الاصطناعي هو بيئة CUDA التي تم تطويرها ذاتيًا. لذلك ، إذا أراد AMD MI300 استبدال Nvidia ، فيجب أولاً أن يكون متوافقًا مع نظام CUDA البيئي الخاص بـ Nvidia. أطلقت AMD نظام ROCm البيئي لهذا الغرض ، وحققت التوافق الكامل مع CUDA من خلال HIP ، وبالتالي تقليل التكلفة المعروفة للمستخدمين.
في هذا الصدد ، يعتقد Murong Yi ، وهو مدون استثماري مشهور ، أن صعوبة اتخاذ المسار المتوافق مع NVIDIA CUDA هو أن سرعة تكرار التحديث لا يمكن أبدًا مواكبة CUDA ، ومن الصعب تحقيق التوافق الكامل ، أي ، من ناحية ، يكون التكرار دائمًا أبطأ بخطوة. تتكرر Nvidia GPU بسرعة على مجموعة التعليمات والبنية الدقيقة ، وهناك حاجة إلى تحديثات الوظائف المقابلة في العديد من الأماكن في حزمة البرامج العلوية ، ولكن من المستحيل على AMD معرفة خارطة طريق منتج Nvidia ، وستكون تحديثات البرامج دائمًا أبطأ بخطوة من Nvidia (على سبيل المثال ، AMD لديها قد تكون قد أعلنت للتو عن دعم CUDA11 ، لكن Nvidia أطلقت CUDA12) ؛ من ناحية أخرى ، فإن صعوبة التوافق الكامل ستزيد من عبء العمل على المطورين. بنية البرامج واسعة النطاق مثل CUDA هي معقدة للغاية ، وتحتاج AMD إلى استثمار الكثير من القوى العاملة والموارد المادية. سوف يستغرق الأمر سنوات أو حتى أكثر من عشر سنوات للحاق بالركب ، لأنه سيكون هناك حتمًا اختلافات وظيفية ، وإذا لم يتم التوافق بشكل جيد ، فسيؤثر الاداء. لذلك ، هذه أيضًا هي الأسباب الرئيسية لعدم شرائها للجميع.
وفقًا لتقديرات Khaveen Investments ، ستصل حصة سوق GPU لمركز بيانات Nvidia إلى 88 ٪ في عام 2022 ، وستتقاسم AMD و Intel الباقي.
منذ أن أصدرت شركة OpenAI برنامج ChatGPT العام الماضي ، استمرت جولة جديدة من الثورة التكنولوجية في التخمير. يمكن القول أنه لم يجذب أي تقدم تكنولوجي انتباه العالم مثل ChatGPT لسنوات عديدة.
تتم متابعة العديد من شركات التكنولوجيا ومؤسسات البحث العلمي والكليات والجامعات في الداخل والخارج. في أقل من نصف عام ، ظهر الكثير من الشركات الناشئة لتطبيقات النماذج واسعة النطاق ، وتكرر حجم التمويل مرارًا وتكرارًا حقق ارتفاعات جديدة.
وفقًا للمدون wgang ، قامت Baidu و iFLYTEK و 4Paradigm وجامعة Tsinghua و Fudan وغيرها من المصانع المحلية الكبرى والشركات الناشئة ومؤسسات البحث العلمي بإصدار منتجات نموذجية واسعة النطاق على التوالي:
يمكن ملاحظة أنه ليس فقط في المجال العام ، ولكن أيضًا في سيناريوهات صناعة محددة ، خاصة في بعض المجالات ذات الاحترافية القوية وكثافة المعرفة العالية ، تقوم شركات التكنولوجيا أيضًا بإصدار نماذج كبيرة في المجالات الرأسية. على سبيل المثال ، أصدرت Baijiayun (RTC) ، وهي شركة مسجلة في الولايات المتحدة ، مؤخرًا منتج AIGC "Market Easy" استنادًا إلى رؤيتها لاحتياجات الخدمات للمؤسسات. وهذا أيضًا أول محرك نموذج GPT واسع النطاق مناسب لسيناريوهات إنتاج المحتوى من أقسام التسويق المؤسسي.
قال بعض المطلعين على الصناعة بابتسامة: "لقد شكلت النماذج المحلية واسعة النطاق وضعا ترقص فيه مجموعات من العارضات بعنف وتتنافس مئات العارضات. ومن المتوقع أن يكون هناك أكثر من 100 نموذج على نطاق واسع بنهاية سنة."
ومع ذلك ، فإن تطوير النماذج الكبيرة يتطلب دعم ثلاثة عوامل مهمة: الخوارزميات ، وقوة الحوسبة ، والبيانات.قوة الحوسبة هي محرك طاقة مهم لتدريب النماذج الكبيرة ، وهي أيضًا عائق رئيسي أمام تطوير صناعة النماذج الكبيرة في الصين.
تؤثر قدرة الرقاقة بشكل مباشر على تأثير وسرعة التدريب على الحوسبة العالية. كما ذكرنا سابقًا ، على الرغم من الظهور المتكرر لمنتجات النماذج المحلية واسعة النطاق ، بناءً على الرقائق التي تقف وراءها ، فإن جميع هذه المنصات تستخدم إما وحدات معالجة الرسومات Nvidia A100 و H100 ، أو إصدار التكوين المنخفض من Nvidia A800 و A800 الذي تم إطلاقه خصيصًا بعد الحظر العام الماضي H800 ، يبلغ عرض النطاق الترددي لهذين المعالجات حوالي 3/4 ونصف الإصدار الأصلي تقريبًا ، متجنبًا المعيار المحدود لوحدة معالجة الرسومات عالية الأداء.
في مارس من هذا العام ، أخذت Tencent زمام المبادرة في الإعلان عن أنها استخدمت H800. لقد استخدمت بالفعل H800 في الإصدار الجديد من خدمات الحوسبة عالية الأداء التي أصدرتها Tencent Cloud ، وقالت إنها كانت الأولى في الصين.
اقترحت Alibaba Cloud أيضًا داخليًا في مايو من هذا العام أن تكون "معركة الحوسبة الذكية" هي المعركة الأولى هذا العام ، وأصبح عدد وحدات معالجة الرسومات مؤشرًا مهمًا لمعركتها.
بالإضافة إلى ذلك ، أعلنت Shangtang أيضًا أنه تم نشر ما يقرب من 30000 وحدة معالجة رسومات في مجموعة حوسبة "الجهاز الكبير AI" ، منها 10000 وحدة Nvidia A100. يخصص Byte و Meituan مباشرة وحدات معالجة الرسومات من فرق العمل الأخرى للشركة لتدريب النماذج الكبيرة. حتى أن بعض الشركات المصنعة كانت تبحث عن العديد من منتجات الماكينات الكاملة التي يمكنها إزالة A100 في السوق منذ النصف الثاني من عام 2022 ، لغرض وحيد هو الحصول على شرائح GPU. "هناك الكثير من الآلات ولا توجد أماكن كافية لتخزينها".
من المعلوم أن شركات التكنولوجيا المحلية الرائدة قد استثمرت بكثافة في الذكاء الاصطناعي والحوسبة السحابية ، وقد وصل تراكم A100 في الماضي إلى عشرات الآلاف.
في الوقت نفسه ، لا تزال شركات التكنولوجيا الصينية الكبرى منخرطة في جولة جديدة من منافسة المشتريات.
وفقًا لمزود الخدمة السحابية ، تتفاوض الشركات الكبرى مثل Byte و Alibaba بشكل أساسي على عمليات الشراء مباشرة مع مصنع Nvidia الأصلي ، ومن الصعب على الوكلاء والأسواق المستعملة تلبية احتياجاتهم الضخمة.
كما ذكرنا أعلاه ، طلبت ByteDance أكثر من 1 مليار دولار أمريكي من منتجات GPU من Nvidia هذا العام.حجم شراء Byte وحده هذا العام قريب من إجمالي مبيعات وحدات معالجة الرسومات التجارية التي بيعتها Nvidia في الصين العام الماضي. وفقًا للتقارير ، هناك شركة كبيرة أخرى بأمر لا يقل عن مليار يوان.
يمكن ملاحظة أن شركات التكنولوجيا الكبيرة في الصين ملحة للغاية لشراء وحدات معالجة الرسومات.
ليس فقط الشركات المحلية ، ولكن أيضًا العملاء الأجانب الكبار لديهم طلب قوي للغاية على رقائق Nvidia's A100 / H100. وفقًا للإحصاءات ، فإن Baidu ، التي بدأت لأول مرة في اختبار المنتجات الشبيهة بـ ChatGPT ، لديها نفقات رأسمالية سنوية تتراوح بين 800 مليون دولار أمريكي وملياري دولار أمريكي منذ عام 2020 ، ونفقات Alibaba بين 6 مليار دولار أمريكي و 8 مليار دولار أمريكي. خلال نفس الفترة ، كانت أمازون ، ميتا ، جوجل ، ومايكروسوفت ، شركات التكنولوجيا الأمريكية الأربع التي بنت مراكز البيانات الخاصة بها ، لديها نفقات رأسمالية سنوية لا تقل عن 15 مليار دولار أمريكي.
في الوقت الحالي ، وصلت رؤية طلبات Nvidia إلى عام 2024 ، والرقائق المتطورة غير متوفرة. وفقًا لجدول الإنتاج الحالي ، لن يتم تسليم حتى A800 / H800 حتى نهاية هذا العام أو العام المقبل. على المدى القصير ، من منظور شعبيتها ، فإن الشيء الوحيد الذي يؤثر على مبيعات GPU المتطورة من Nvidia هو القدرة الإنتاجية لـ TSMC.
04. خلف Nvidia "المجنونة" ، هل الرقائق المحلية غير كافية في كل من الأجهزة والبرامج؟
انطلاقًا من إمداد الرقائق لمنتجات النماذج واسعة النطاق ، لا توجد حاليًا بدائل لـ A100 و H100 والإصدارات المصغرة من A800 و H800 التي يتم توفيرها خصيصًا للصين من حيث تدريب النماذج على نطاق واسع AI.
إذن ، لماذا في هذه الجولة من طفرة GPT ، أخذت Nvidia زمام المبادرة وأدت أداءً جيدًا؟
قال Zhang Gaonan ، الشريك الإداري لشركة Huaying Capital ، إنه من ناحية ، يرجع ذلك إلى أن Nvidia لديها التخطيط الأقدم ، كما تطورت بنية النواة الدقيقة الخاصة بها وتحسنت من جيل إلى جيل. الآن سواء كان ذلك من حيث التزامن أو سرعة الناقل أو دعم microkernel الناضج لتحويل المصفوفة ، فإن قدراتها فعالة للغاية بالفعل ، بما في ذلك توفير منصة حوسبة CUDA كاملة جدًا في نفس الوقت ، والتي أصبحت في الواقع معيارًا صناعيًا محتملًا لـ خوارزميات التعلم العميق. كما أن المرافق الداعمة للسلسلة الصناعية بأكملها مكتملة للغاية ، كما أن حواجز المنافسة الشاملة وعمق الخندق مرتفع للغاية.
وخلاصة القول ، إن عدم الاستغناء عن Nvidia GPU يأتي من آلية تدريب النماذج الكبيرة. خطواتها الأساسية هي التدريب المسبق والضبط الدقيق. الأول هو وضع الأساس ، وهو ما يعادل تلقي التعليم العام للتخرج من الجامعة ؛ تم تحسين الأخير لسيناريوهات ومهام محددة لتحسين أداء العمل.
لذا ، هل يمكن لرقائق GPU المحلية أن تدعم متطلبات طاقة الحوسبة للنماذج الكبيرة؟
في التطبيقات العملية ، ينقسم طلب النموذج الكبير على قوة الحوسبة إلى مرحلتين: الأولى هي عملية تدريب نموذج ChatGPT الكبير ، والأخرى هي عملية التفكير الخاصة بتسويق النموذج تجاريًا. أي أن تدريب الذكاء الاصطناعي هو صنع النماذج ، ومنطق الذكاء الاصطناعي هو استخدام النماذج ، والتدريب يتطلب أداء رقاقة أعلى.
بناءً على ذلك ، تستمر شركات شرائح الذكاء الاصطناعي المحلية في الظهور ، وتطلق المنتجات إلى السوق واحدة تلو الأخرى. أطلقت شركات مثل Suiyuan Technology و Biren Technology و Tianshu Zhixin و Cambrian منتجاتها السحابية GPU ، ومؤشرات الأداء النظرية ليست ضعيفة. تحتوي شريحة DCU من Haiguang Information "Shensu No. 1" على نظام بيئي كامل نسبيًا للبرامج والأجهزة ومتوافق مع بنية CUDA. كما أن شركات الإنترنت الكبيرة مثل Tencent و Baidu و Ali تنتشر بقوة في مجال رقائق الذكاء الاصطناعي من خلال الاستثمار والاحتضان.
من بينها ، يحتاج تدريب النموذج واسع النطاق إلى معالجة معلومات عالية الدقة ، الأمر الذي يتطلب دقة أعلى وسرعة حوسبة لرقائق التدريب السحابية. في الوقت الحالي ، لا تملك معظم وحدات معالجة الرسومات المحلية القدرة على دعم تدريب النماذج على نطاق واسع.إنها مناسبة لعمل الاستدلال السحابي الذي لا يتطلب مثل هذا الدقة العالية للمعلومات.
في مارس من هذا العام ، صرح Baidu Li Yanhong علنًا أن شريحة Kunlun أصبحت الآن مناسبة جدًا لاستدلال النماذج الكبيرة وستكون مناسبة للتدريب في المستقبل.
أخبر Zou Wei ، نائب رئيس Tianshu Zhixin ، Xinchao IC أنه لا تزال هناك فجوة معينة بين الرقائق المحلية وأحدث منتجات Nvidia ، ولكن فيما يتعلق بحسابات الاستدلال ، يمكن للرقائق المحلية أن تحقق نفس أداء المنتجات السائدة ، ومع التطبيق من شعبية الذكاء الاصطناعي ، سيسرع طلب السوق على رقائق التفكير من النمو ، ومع توسع الطلب ، سيكون للرقائق المحلية أيضًا سوق أكبر.
قال شخص آخر في الصناعة لم يرغب في الكشف عن اسمه ، "هناك فجوة في منتجات GPU المحلية للأغراض العامة مع المنتجات الرئيسية الدولية في تلبية تدريب النماذج على نطاق واسع ، ولكنها ليست غير قابلة للإصلاح. إنها فقط أن الصناعة لديها غير مصمم في اتجاه النماذج الكبيرة في تعريف المنتج ".
في الوقت الحاضر ، يقوم ممارسو الصناعة باستكشافات وجهود ذات صلة ، مثل التفكير فيما إذا كان يمكن تحسين قوة الحوسبة الرقائق من خلال الشرائح الخشبية والتعبئة المتقدمة. في الوقت الحاضر ، تقوم شركات GPU المحلية بتطوير وتخطيط الرقائق في مجال النماذج الكبيرة.
من منظور رأس المال ، صرح Zhang Gaonan ، الشريك الإداري لشركة Huaying Capital ، لـ Xinchao IC أن Huaying أولت اهتمامًا وثيقًا بالبنية التحتية للطاقة الحاسوبية لفترة طويلة. ، هناك بحث وتخطيط مستهدفان. بشكل عام ، يركز على البنية التحتية للحوسبة ذات الأغراض العامة ، مثل FPGA وحوسبة الحافة. في المقابل ، في الوقت الحاضر ، العديد من رقائق الطاقة الحاسوبية حول التعلم العميق ، والخوارزميات الخاصة ، وتحسين قوة الحوسبة المحلية ، وما إلى ذلك ، ليست محور اهتمامها.
في الواقع ، بالإضافة إلى الفجوة في أداء الأجهزة ، فإن النظام البيئي للبرامج هو أيضًا عيب في الشركات المصنعة لشرائح الذكاء الاصطناعي المحلية.
تحتاج الشريحة إلى التكيف مع مستويات متعددة مثل نظام الأجهزة ، وسلسلة الأدوات ، والمترجم ، وما إلى ذلك ، وتحتاج إلى قدرة قوية على التكيف. وإلا ، يمكن لهذه الشريحة تشغيل 90٪ من قوة الحوسبة في مشهد واحد ، ولكن يمكنها تشغيل 90٪ فقط في مشهد آخر سيناريو الأداء نفاد 80٪.
كما ذكرنا سابقًا ، تتمتع Nvidia بمزايا واضحة في هذا الصدد. في وقت مبكر من عام 2006 ، أطلقت Nvidia منصة الحوسبة CUDA ، وهي محرك برمجيات الحوسبة المتوازية. يدمج إطار عمل CUDA الكثير من الرموز المطلوبة لاستدعاء قوة حوسبة GPU. يمكن للمهندسين استخدام هذه الرموز مباشرة دون كتابتها واحدة تلو الأخرى. يمكن للمطورين استخدام CUDA لأداء تدريب الذكاء الاصطناعي والاستدلال بشكل أكثر كفاءة ، والاستفادة بشكل أفضل من قوة حوسبة وحدة معالجة الرسومات. اليوم ، أصبحت CUDA بنية تحتية للذكاء الاصطناعي ، وتم تطوير جميع أطر عمل الذكاء الاصطناعي والمكتبات والأدوات السائدة بناءً على CUDA.
بدون هذه المجموعة من لغات الترميز ، سيكون من الصعب للغاية على مهندسي البرمجيات إدراك قيمة الأجهزة.
إذا أرادت وحدات معالجة الرسومات (GPU) وشرائح الذكاء الاصطناعي (AI) بخلاف Nvidia الوصول إلى CUDA ، فعليهم توفير برنامج التكيف الخاص بهم. وفقًا لمطلعين في الصناعة ، فقد اتصلت بشركة مصنعة غير تابعة لـ NVIDIA GPU. على الرغم من أن عروض أسعار شرائحها والخدمة أقل من NVIDIA وتعهد بتقديم خدمات في الوقت المناسب ، فإن تكاليف التدريب والتطوير الإجمالية لاستخدام وحدة معالجة الرسومات الخاصة بها ستكون أعلى من تكاليف NVIDIA. تعهد عدم اليقين من النتائج ووقت التطوير.
على الرغم من أن وحدات معالجة الرسومات Nvidia باهظة الثمن ، إلا أنها في الواقع أرخص استخدامًا. بالنسبة للشركات التي تنوي اغتنام فرصة النماذج الكبيرة ، لا يمثل المال في كثير من الأحيان مشكلة ، والوقت هو المورد الأكثر قيمة.يجب على الجميع الحصول على ما يكفي من قوة الحوسبة المتقدمة في أقرب وقت ممكن لضمان ميزة المحرك الأول.
لذلك ، بالنسبة لموردي الرقائق المحليين ، حتى لو كان من الممكن تكديس منتج يتمتع بقوة حوسبة مماثلة عن طريق تكديس الرقائق ، يكون من الصعب على العملاء قبول تكيف البرامج وتوافقها. بالإضافة إلى ذلك ، من منظور تشغيل الخادم ، فإن نفقات اللوحة الأم ورسوم الكهرباء ونفقات التشغيل وقضايا مثل استهلاك الطاقة وتبديد الحرارة التي يجب أخذها في الاعتبار ستزيد بشكل كبير من تكاليف تشغيل مركز البيانات.
نظرًا لأن موارد طاقة الحوسبة غالبًا ما يتم تقديمها في شكل تجميع ، فإن مراكز البيانات عادة ما تكون أكثر استعدادًا لاستخدام نفس الشريحة أو الرقائق من نفس الشركة لتقليل صعوبة تجميع طاقة الحوسبة.
يتطلب إطلاق قوة الحوسبة تعاونًا معقدًا في البرامج والأجهزة لتحويل قوة الحوسبة النظرية للشريحة إلى قوة حوسبة فعالة. بالنسبة للعملاء ، ليس من السهل استخدام شرائح الذكاء الاصطناعي المحلية.يتطلب استبدال شرائح الذكاء الاصطناعي السحابية تكاليف ومخاطر ترحيل معينة ، ما لم يكن للمنتج الجديد مزايا أداء ، أو يمكن أن يوفر مشاكل لا يمكن للآخرين حلها في بُعد معين. وإلا ، فإن الرغبة من العملاء الذين سيحل محلهم منخفض جدًا.
بصفتها مورد GPU الوحيد الذي يمكنه بالفعل معالجة ChatGPT ، فإن Nvidia هي "ملك قوة حوسبة الذكاء الاصطناعي" بجدارة. قبل ست سنوات ، سلم Huang Renxun شخصيًا أول كمبيوتر عملاق مجهز بشريحة A100 إلى OpenAI ، وساعد هذا الأخير في إنشاء ChatGPT ، وأصبح رائدًا في عصر الذكاء الاصطناعي.
ومع ذلك ، منذ أن نفذت الولايات المتحدة ضوابط التصدير العام الماضي ، مُنعت Nvidia من تصدير اثنين من أكثر شرائح GPU تقدمًا ، وهما H100 و A100 ، إلى الصين. هذا بلا شك ضربة لشركات تطبيقات المصب.
من منظور الأمن وضبط النفس ، يوفر هذا أيضًا فرصة جديدة لشركات الرقائق المحلية. على الرغم من أن الرقائق المحلية أدنى من عمالقة الصناعة مثل Nvidia و AMD من حيث الأداء وبيئة البرمجيات ، مدفوعة بالعلاقات التجارية الدولية المعقدة والعوامل الجيوسياسية ، فقد أصبح "الاستبدال المحلي" الموضوع الرئيسي لتطوير صناعة أشباه الموصلات المحلية.
05. خاتمة
كل زيادة في قوة الحوسبة ستطلق موجة من التغييرات التكنولوجية والصناعية: وحدات المعالجة المركزية تقود البشرية إلى عصر الكمبيوتر الشخصي ، والرقائق المحمولة تطلق موجة من الإنترنت عبر الهاتف المحمول ، ورقائق الذكاء الاصطناعي تكسر عنق الزجاجة المستمر لعقود في طاقة الحوسبة في الذكاء الاصطناعي صناعة.
اليوم ، حانت "لحظة الذكاء الاصطناعي في iPhone" ، وقد يكون الطريق إلى العصر التالي أمامنا بالفعل.
على الرغم من أن مجالات رقائق الذكاء الاصطناعي وأنظمة البرمجيات في مراكز البيانات هذه لا تزال تحت سيطرة الشركات المصنعة الأجنبية ، إلا أن باب السوق "لتوطين قوة الحوسبة" قد يفتح الآن.