في 8 أغسطس ، تم عقد المؤتمر العالمي لرسومات الكمبيوتر SIGGRAPH ، وهو أهم مؤتمر للمائدة المستديرة في صناعة الكمبيوتر العالمية ، رسميًا.
حضر مؤسس NVIDIA والرئيس التنفيذي Jensen Huang وجلب جيلًا جديدًا من رقاقة NVIDIA Super AI GH200. Jensen Huang واثق جدًا من منتجه الرائد الجديد ، واصفًا GH200 بأنه "أسرع ذاكرة في العالم".
** في سوق الذكاء الاصطناعي اليوم ، يُطلق على Nvidia اسم "المركز الذي يدير عالم الذكاء الاصطناعي بأكمله." ** سواء كانت OpenAI أو Google ، أو META ، أو Baidu ، أو Tencent ، أو Alibaba ، فإن جميع أنظمة الذكاء الاصطناعي التوليدية تعتمد بشكل كبير على رقائق الذكاء الاصطناعي من Nvidia للتدريب.
علاوة على ذلك ، وفقًا لتقارير وسائل الإعلام ، قد يكون إجمالي الطلب في السوق على شريحة Nvidia AI H100 في أغسطس 2023 حوالي 432000 قطعة ، وقد وصل السعر الحالي لشريحة H100 على موقع Ebay إلى 45000 دولار أمريكي ، أي ما يعادل أكثر من 300000 يوان صيني. يوان.
هناك أكثر من 400000 فجوة في الشريحة ، بسعر وحدة يبلغ 45000 دولار أمريكي ، ويمكن أن يصل السعر الإجمالي بسهولة إلى ملايين الدولارات.
تشهد Nvidia موجة سوق أكثر جنونًا من "عصر التعدين".
** شريحة AI ، يصعب العثور على إحداها **
إن ما يسمى بشرائح الذكاء الاصطناعي هي في الواقع وحدات معالجة رسومات (GPUs) ، والتي يتمثل دورها الرئيسي في المساعدة في إجراء العمليات الحسابية التي لا تعد ولا تحصى المتضمنة في التدريب ونشر خوارزميات الذكاء الاصطناعي.
** وهذا يعني أن جميع أنواع الأداء الذكي للذكاء الاصطناعي التوليدي تأتي من تكديس عدد لا يحصى من وحدات معالجة الرسومات. كلما زاد عدد الرقائق المستخدمة ، أصبح الذكاء الاصطناعي التوليدي أكثر ذكاءً. **
إن شركة OpenAI شديدة الصراحة بشأن تفاصيل تدريب GPT-4 ، ولكن وفقًا لتكهنات وسائل الإعلام ، تحتاج GPT-4 إلى ما لا يقل عن 8192 شريحة H100 ، بسعر 2 دولار في الساعة ، ويمكن إكمال التدريب المسبق في حوالي 55 يومًا ، و التكلفة حوالي 21.5 مليون دولار (150 مليون يوان صيني).
وفقًا للمسؤولين التنفيذيين في Microsoft ، فإن الكمبيوتر الفائق AI الذي يوفر دعمًا لقوة الحوسبة لـ ChatGPT هو كمبيوتر عملاق عالي المستوى استثمر Microsoft مليار دولار أمريكي في عام 2019 ، ومجهز بعشرات الآلاف من وحدات معالجة الرسومات Nvidia A100 ، وأكثر من 60 مراكز البيانات. في المجموع ، يتم نشر مئات الآلاف من وحدات معالجة الرسومات Nvidia في المركز.
شريحة AI المطلوبة بواسطة ChatGPT ليست ثابتة ، ولكنها تزداد تدريجياً. إن ChatGPT الأكثر ذكاءً ، والثمن وراء ذلك هو الحاجة إلى المزيد والمزيد من قوة الحوسبة. وفقًا لتنبؤات Morgan Stanley ، ستحتاج GPT-5 إلى استخدام حوالي 25000 وحدة معالجة رسومات ، أي حوالي ثلاثة أضعاف تلك الموجودة في GPT-4.
** إذا كنت ترغب في تلبية احتياجات سلسلة من منتجات الذكاء الاصطناعي مثل OpenAI و Google ، فهذا يعادل شركة Nvidia التي توفر نوى لمنتجات الذكاء الاصطناعي في جميع أنحاء العالم ، وهو اختبار رائع لقدرة Nvidia الإنتاجية. **
نفيديا H100
على الرغم من أن Nvidia تنتج رقائق ذكاء اصطناعي بكامل طاقتها ، وفقًا لتقارير وسائل الإعلام ، فإن سعة مجموعة H100 واسعة النطاق لموفري السحابة الصغيرة والكبيرة على وشك النفاد ، وستستمر "مشكلة النقص الحاد" في H100 حتى النهاية على الأقل من 2024.
في الوقت الحاضر ، تنقسم رقائق Nvidia لسوق الذكاء الاصطناعي بشكل أساسي إلى نوعين: H100 و A100. H100 هو المنتج الرئيسي. من حيث التفاصيل الفنية ، فإن H100 أسرع بنحو 3.5 مرة من A100 في سرعة التفكير 16 بت ، و سرعة تدريب 16 بت أسرع بنحو 2.3 مرة.
سواء كانت H100 أو A100 ، فقد تم إنتاجها جميعًا بواسطة TSMC ، مما يحد من إنتاج H100. وفقًا لبعض وسائل الإعلام ، يستغرق الأمر حوالي نصف عام لكل H100 للانتقال من الإنتاج إلى التسليم ، وكفاءة الإنتاج بطيئة للغاية.
صرحت Nvidia أنها ستزيد من سعة التوريد لرقائق الذكاء الاصطناعي في النصف الثاني من عام 2023 ، لكنها لم تقدم أي معلومات كمية.
تطالب العديد من الشركات والمشترين Nvidia بزيادة إنتاج fabs ، ليس فقط للتعاون مع TSMC ، ولكن لتسليم المزيد من الطلبات إلى Samsung و Intel.
** سرعة تدريب أسرع **
** إذا لم تكن هناك طريقة لزيادة الطاقة الإنتاجية ، فإن أفضل حل هو إطلاق رقائق ذات أداء أعلى للفوز بالجودة. **
نتيجة لذلك ، بدأت Nvidia في إطلاق وحدات معالجة رسومات جديدة بشكل متكرر لتحسين قدرات التدريب على الذكاء الاصطناعي. أولاً ، في مارس من هذا العام ، أصدرت Nvidia أربع شرائح AI ، H100 NVL GPU ، L4 Tensor Core GPU ، L40 GPU ، و NVIDIA Grace Hopper ، لتلبية متطلبات الطاقة الحاسوبية المتزايدة للذكاء الاصطناعي التوليدي.
لم يتم إنتاج الجيل السابق وإطلاقه بكميات كبيرة حتى الآن.أصدرت Nvidia النسخة المطورة من H100 ، GH200 ، بواسطة Huang Renxun في مؤتمر SIGGRAPH العالمي لرسومات الكمبيوتر في 8 أغسطس.
من المفهوم أن GH200 Grace Hopper Superchip الجديدة تعتمد على وحدة المعالجة المركزية Grace ذات 72 نواة ، ومجهزة بذاكرة ECC LPDDR5X بسعة 480 جيجا بايت ومعالج رسومات GH100 ، مع ذاكرة HBM3E بسعة 141 جيجا بايت ، وتستخدم ستة حزم 24 جيجا بايت ، وتستخدم واجهة ذاكرة 6144 بت.
نفيديا GH200
أكبر تقنية سوداء في GH200 هي أنه كأول شريحة في العالم مزودة بذاكرة HBM3e ، يمكنها زيادة ذاكرة GPU المحلية بنسبة 50٪. وهذه أيضًا "ترقية محددة" خصيصًا لسوق الذكاء الاصطناعي ، لأن الذكاء الاصطناعي التوليدي عالي المستوى غالبًا ما يكون ضخمًا في الحجم ولكنه محدود في سعة الذاكرة.
وفقًا للمعلومات العامة ، تعد ذاكرة HBM3e هي ذاكرة الجيل الخامس ذات النطاق الترددي العالي لـ SK Hynix ، وهي نوع جديد من تقنية الذاكرة ذات النطاق الترددي العالي التي يمكن أن توفر معدلات نقل بيانات أعلى في مساحة أصغر. تبلغ سعتها 141 جيجابايت وعرض النطاق الترددي 5 تيرابايت في الثانية ، والتي يمكن أن تصل إلى 1.7 مرة و 1.55 مرة من H100 على التوالي.
منذ إطلاقه في يوليو ، أصبح SK Hynix محبوبًا في سوق GPU ، متقدمًا على المنافسين المباشرين Intel Optane DC ورقائق فلاش Z-NAND من سامسونج.
من الجدير بالذكر أن SK Hynix كانت دائمًا أحد شركاء Nvidia ، بدءًا من ذاكرة HBM3 ، تستخدم معظم منتجات Nvidia منتجات SK Hynix. ومع ذلك ، كان SK Hynix قلقًا بشأن السعة الإنتاجية للذاكرة المطلوبة لرقائق الذكاء الاصطناعي ، وقد طلبت Nvidia من SK Hynix زيادة الطاقة الإنتاجية أكثر من مرة.
عندما تلتقي عائلة كبيرة مصابة بعسر الولادة بعائلة كبيرة أخرى مصابة بعسر الولادة ، لا يسع الناس إلا القلق بشأن القدرة الإنتاجية لـ GH200.
صرحت NVIDIA رسميًا أنه بالمقارنة مع منتج الجيل الحالي H100 ، فإن GH200 لديها سعة ذاكرة أعلى بمقدار 3.5 مرة وعرض نطاق ترددي أعلى بثلاث مرات ؛ وستمكن ذاكرة HBM3e الجيل التالي GH200 من تشغيل نماذج AI أسرع 3.5 مرة من الطراز الحالي.
** سرعة تشغيل موديل AI أسرع 3.5 مرة من H100 فهل يعني ذلك أن 1 GH200 يعادل 3.5 H100؟ كل شيء يجب تعلمه من خلال الممارسة. **
ولكن في الوقت الحالي ، ما هو مؤكد هو أنه ، بصفتها أكبر مورد في سوق الذكاء الاصطناعي ، عززت Nvidia مكانتها الرائدة ووسعت الفجوة مع AMD و Intel.
** NVIDIA Rivals **
في مواجهة فجوة تبلغ 430 ألف شريحة ذكاء اصطناعي ، لا توجد شركة غير متأثرة. على وجه الخصوص ، فإن أكبر منافسي Nvidia ، AMD و Intel ، لن يسمحوا لهم باحتكار السوق بأكمله.
في 14 يونيو من هذا العام ، أصدر رئيس مجلس الإدارة والرئيس التنفيذي لشركة AMD Su Zifeng بشكل مكثف مجموعة متنوعة من منتجات برامج وأجهزة AI الجديدة ، بما في ذلك شريحة AI المصممة لنماذج اللغات الكبيرة ، MI300X. أطلق رسميًا تحديًا إيجابيًا لشركة Nvidia في سوق الذكاء الاصطناعي.
من حيث معلمات الأجهزة ، يحتوي AMD MI300X على ما يصل إلى 13 شريحة صغيرة ، تحتوي على إجمالي 146 مليار ترانزستور ، ومجهز بذاكرة HBM3 بسعة 128 جيجا بايت. تبلغ كثافة HBM 2.4 ضعف كثافة Nvidia H100 ، وعرض النطاق الترددي الخاص به هو 1.6 مرة من Nvidia H100 ، مما يعني أنه يمكن تسريع سرعة معالجة الذكاء الاصطناعي التوليدي.
لكن لسوء الحظ ، فإن شريحة الذكاء الاصطناعي الرائدة هذه ليست في المخزن ، ولكن من المتوقع أن يتم إنتاجها بكميات كبيرة في الربع الرابع من عام 2023.
استحوذت شركة منافسة أخرى ، وهي Intel ، على شركة HABANA Labs لتصنيع شرائح الذكاء الاصطناعي مقابل حوالي 2 مليار دولار في عام 2019 ، ودخلت سوق شرائح الذكاء الاصطناعي.
في أغسطس من هذا العام ، في أحدث مكالمة أرباح لشركة Intel ، قال بات غيلسنجر ، الرئيس التنفيذي لشركة إنتل ، إن شركة إنتل تقوم بتطوير الجيل التالي من شريحة الحوسبة الفائقة Falcon Shores AI ، والتي تسمى مؤقتًا Falcon Shores 2 ، والتي من المتوقع إصدارها في عام 2026.
بالإضافة إلى Falcon Shores 2 ، أطلقت Intel أيضًا شريحة AI Gaudi2 ، والتي بدأت بالفعل في البيع ، بينما Gaudi3 قيد التطوير.
إنه لأمر مؤسف أن مواصفات رقاقة Gaudi2 ليست عالية ، ومن الصعب تحدي Nvidia H100 و A100.
AMD MI300X
** بالإضافة إلى عمالقة أشباه الموصلات الأجنبية يستعرضون عضلاتهم ويبدأون "منافسة الرقائق" ، بدأت شركات أشباه الموصلات المحلية أيضًا في البحث والتطوير لرقائق الذكاء الاصطناعي. **
من بينها ، بطاقة التسريع الأساسية AI RG800 من Kunlun ، وبطاقة التسريع Tiangai 100 من Tianshu Zhixin ، ومنتج التدريب من الجيل الثاني من Suiyuan Technology ، Yunsui T20 / T21 ، تشير جميعها إلى أنها يمكن أن تدعم تدريب النماذج على نطاق واسع.
في هذه المعركة من أجل الرقائق التي تستخدم قوة الحوسبة كنموذج قياسي ونماذج الذكاء الاصطناعي الكبيرة مثل ساحة المعركة ، أثبتت Nvidia ، باعتبارها واحدة من أكبر الفائزين في سوق الذكاء الاصطناعي ، قوتها في تصميم الشرائح وحصتها في السوق.
ومع ذلك ، على الرغم من أن رقائق الذكاء الاصطناعي المحلية متأخرة قليلاً ، إلا أن وتيرة البحث والتطوير والتوسع في السوق لم تتوقف أبدًا ، والمستقبل يستحق التطلع إليه.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
نقص الذكاء الاصطناعي الأساسي ، بيعت Nvidia
المؤلف: Sun Pengyue المحرر: Gale
المصدر: تمويل الزنك
في 8 أغسطس ، تم عقد المؤتمر العالمي لرسومات الكمبيوتر SIGGRAPH ، وهو أهم مؤتمر للمائدة المستديرة في صناعة الكمبيوتر العالمية ، رسميًا.
حضر مؤسس NVIDIA والرئيس التنفيذي Jensen Huang وجلب جيلًا جديدًا من رقاقة NVIDIA Super AI GH200. Jensen Huang واثق جدًا من منتجه الرائد الجديد ، واصفًا GH200 بأنه "أسرع ذاكرة في العالم".
** في سوق الذكاء الاصطناعي اليوم ، يُطلق على Nvidia اسم "المركز الذي يدير عالم الذكاء الاصطناعي بأكمله." ** سواء كانت OpenAI أو Google ، أو META ، أو Baidu ، أو Tencent ، أو Alibaba ، فإن جميع أنظمة الذكاء الاصطناعي التوليدية تعتمد بشكل كبير على رقائق الذكاء الاصطناعي من Nvidia للتدريب.
علاوة على ذلك ، وفقًا لتقارير وسائل الإعلام ، قد يكون إجمالي الطلب في السوق على شريحة Nvidia AI H100 في أغسطس 2023 حوالي 432000 قطعة ، وقد وصل السعر الحالي لشريحة H100 على موقع Ebay إلى 45000 دولار أمريكي ، أي ما يعادل أكثر من 300000 يوان صيني. يوان.
هناك أكثر من 400000 فجوة في الشريحة ، بسعر وحدة يبلغ 45000 دولار أمريكي ، ويمكن أن يصل السعر الإجمالي بسهولة إلى ملايين الدولارات.
تشهد Nvidia موجة سوق أكثر جنونًا من "عصر التعدين".
** شريحة AI ، يصعب العثور على إحداها **
إن ما يسمى بشرائح الذكاء الاصطناعي هي في الواقع وحدات معالجة رسومات (GPUs) ، والتي يتمثل دورها الرئيسي في المساعدة في إجراء العمليات الحسابية التي لا تعد ولا تحصى المتضمنة في التدريب ونشر خوارزميات الذكاء الاصطناعي.
** وهذا يعني أن جميع أنواع الأداء الذكي للذكاء الاصطناعي التوليدي تأتي من تكديس عدد لا يحصى من وحدات معالجة الرسومات. كلما زاد عدد الرقائق المستخدمة ، أصبح الذكاء الاصطناعي التوليدي أكثر ذكاءً. **
إن شركة OpenAI شديدة الصراحة بشأن تفاصيل تدريب GPT-4 ، ولكن وفقًا لتكهنات وسائل الإعلام ، تحتاج GPT-4 إلى ما لا يقل عن 8192 شريحة H100 ، بسعر 2 دولار في الساعة ، ويمكن إكمال التدريب المسبق في حوالي 55 يومًا ، و التكلفة حوالي 21.5 مليون دولار (150 مليون يوان صيني).
وفقًا للمسؤولين التنفيذيين في Microsoft ، فإن الكمبيوتر الفائق AI الذي يوفر دعمًا لقوة الحوسبة لـ ChatGPT هو كمبيوتر عملاق عالي المستوى استثمر Microsoft مليار دولار أمريكي في عام 2019 ، ومجهز بعشرات الآلاف من وحدات معالجة الرسومات Nvidia A100 ، وأكثر من 60 مراكز البيانات. في المجموع ، يتم نشر مئات الآلاف من وحدات معالجة الرسومات Nvidia في المركز.
شريحة AI المطلوبة بواسطة ChatGPT ليست ثابتة ، ولكنها تزداد تدريجياً. إن ChatGPT الأكثر ذكاءً ، والثمن وراء ذلك هو الحاجة إلى المزيد والمزيد من قوة الحوسبة. وفقًا لتنبؤات Morgan Stanley ، ستحتاج GPT-5 إلى استخدام حوالي 25000 وحدة معالجة رسومات ، أي حوالي ثلاثة أضعاف تلك الموجودة في GPT-4.
** إذا كنت ترغب في تلبية احتياجات سلسلة من منتجات الذكاء الاصطناعي مثل OpenAI و Google ، فهذا يعادل شركة Nvidia التي توفر نوى لمنتجات الذكاء الاصطناعي في جميع أنحاء العالم ، وهو اختبار رائع لقدرة Nvidia الإنتاجية. **
على الرغم من أن Nvidia تنتج رقائق ذكاء اصطناعي بكامل طاقتها ، وفقًا لتقارير وسائل الإعلام ، فإن سعة مجموعة H100 واسعة النطاق لموفري السحابة الصغيرة والكبيرة على وشك النفاد ، وستستمر "مشكلة النقص الحاد" في H100 حتى النهاية على الأقل من 2024.
في الوقت الحاضر ، تنقسم رقائق Nvidia لسوق الذكاء الاصطناعي بشكل أساسي إلى نوعين: H100 و A100. H100 هو المنتج الرئيسي. من حيث التفاصيل الفنية ، فإن H100 أسرع بنحو 3.5 مرة من A100 في سرعة التفكير 16 بت ، و سرعة تدريب 16 بت أسرع بنحو 2.3 مرة.
سواء كانت H100 أو A100 ، فقد تم إنتاجها جميعًا بواسطة TSMC ، مما يحد من إنتاج H100. وفقًا لبعض وسائل الإعلام ، يستغرق الأمر حوالي نصف عام لكل H100 للانتقال من الإنتاج إلى التسليم ، وكفاءة الإنتاج بطيئة للغاية.
صرحت Nvidia أنها ستزيد من سعة التوريد لرقائق الذكاء الاصطناعي في النصف الثاني من عام 2023 ، لكنها لم تقدم أي معلومات كمية.
تطالب العديد من الشركات والمشترين Nvidia بزيادة إنتاج fabs ، ليس فقط للتعاون مع TSMC ، ولكن لتسليم المزيد من الطلبات إلى Samsung و Intel.
** سرعة تدريب أسرع **
** إذا لم تكن هناك طريقة لزيادة الطاقة الإنتاجية ، فإن أفضل حل هو إطلاق رقائق ذات أداء أعلى للفوز بالجودة. **
نتيجة لذلك ، بدأت Nvidia في إطلاق وحدات معالجة رسومات جديدة بشكل متكرر لتحسين قدرات التدريب على الذكاء الاصطناعي. أولاً ، في مارس من هذا العام ، أصدرت Nvidia أربع شرائح AI ، H100 NVL GPU ، L4 Tensor Core GPU ، L40 GPU ، و NVIDIA Grace Hopper ، لتلبية متطلبات الطاقة الحاسوبية المتزايدة للذكاء الاصطناعي التوليدي.
لم يتم إنتاج الجيل السابق وإطلاقه بكميات كبيرة حتى الآن.أصدرت Nvidia النسخة المطورة من H100 ، GH200 ، بواسطة Huang Renxun في مؤتمر SIGGRAPH العالمي لرسومات الكمبيوتر في 8 أغسطس.
من المفهوم أن GH200 Grace Hopper Superchip الجديدة تعتمد على وحدة المعالجة المركزية Grace ذات 72 نواة ، ومجهزة بذاكرة ECC LPDDR5X بسعة 480 جيجا بايت ومعالج رسومات GH100 ، مع ذاكرة HBM3E بسعة 141 جيجا بايت ، وتستخدم ستة حزم 24 جيجا بايت ، وتستخدم واجهة ذاكرة 6144 بت.
أكبر تقنية سوداء في GH200 هي أنه كأول شريحة في العالم مزودة بذاكرة HBM3e ، يمكنها زيادة ذاكرة GPU المحلية بنسبة 50٪. وهذه أيضًا "ترقية محددة" خصيصًا لسوق الذكاء الاصطناعي ، لأن الذكاء الاصطناعي التوليدي عالي المستوى غالبًا ما يكون ضخمًا في الحجم ولكنه محدود في سعة الذاكرة.
وفقًا للمعلومات العامة ، تعد ذاكرة HBM3e هي ذاكرة الجيل الخامس ذات النطاق الترددي العالي لـ SK Hynix ، وهي نوع جديد من تقنية الذاكرة ذات النطاق الترددي العالي التي يمكن أن توفر معدلات نقل بيانات أعلى في مساحة أصغر. تبلغ سعتها 141 جيجابايت وعرض النطاق الترددي 5 تيرابايت في الثانية ، والتي يمكن أن تصل إلى 1.7 مرة و 1.55 مرة من H100 على التوالي.
منذ إطلاقه في يوليو ، أصبح SK Hynix محبوبًا في سوق GPU ، متقدمًا على المنافسين المباشرين Intel Optane DC ورقائق فلاش Z-NAND من سامسونج.
من الجدير بالذكر أن SK Hynix كانت دائمًا أحد شركاء Nvidia ، بدءًا من ذاكرة HBM3 ، تستخدم معظم منتجات Nvidia منتجات SK Hynix. ومع ذلك ، كان SK Hynix قلقًا بشأن السعة الإنتاجية للذاكرة المطلوبة لرقائق الذكاء الاصطناعي ، وقد طلبت Nvidia من SK Hynix زيادة الطاقة الإنتاجية أكثر من مرة.
عندما تلتقي عائلة كبيرة مصابة بعسر الولادة بعائلة كبيرة أخرى مصابة بعسر الولادة ، لا يسع الناس إلا القلق بشأن القدرة الإنتاجية لـ GH200.
صرحت NVIDIA رسميًا أنه بالمقارنة مع منتج الجيل الحالي H100 ، فإن GH200 لديها سعة ذاكرة أعلى بمقدار 3.5 مرة وعرض نطاق ترددي أعلى بثلاث مرات ؛ وستمكن ذاكرة HBM3e الجيل التالي GH200 من تشغيل نماذج AI أسرع 3.5 مرة من الطراز الحالي.
** سرعة تشغيل موديل AI أسرع 3.5 مرة من H100 فهل يعني ذلك أن 1 GH200 يعادل 3.5 H100؟ كل شيء يجب تعلمه من خلال الممارسة. **
ولكن في الوقت الحالي ، ما هو مؤكد هو أنه ، بصفتها أكبر مورد في سوق الذكاء الاصطناعي ، عززت Nvidia مكانتها الرائدة ووسعت الفجوة مع AMD و Intel.
** NVIDIA Rivals **
في مواجهة فجوة تبلغ 430 ألف شريحة ذكاء اصطناعي ، لا توجد شركة غير متأثرة. على وجه الخصوص ، فإن أكبر منافسي Nvidia ، AMD و Intel ، لن يسمحوا لهم باحتكار السوق بأكمله.
في 14 يونيو من هذا العام ، أصدر رئيس مجلس الإدارة والرئيس التنفيذي لشركة AMD Su Zifeng بشكل مكثف مجموعة متنوعة من منتجات برامج وأجهزة AI الجديدة ، بما في ذلك شريحة AI المصممة لنماذج اللغات الكبيرة ، MI300X. أطلق رسميًا تحديًا إيجابيًا لشركة Nvidia في سوق الذكاء الاصطناعي.
من حيث معلمات الأجهزة ، يحتوي AMD MI300X على ما يصل إلى 13 شريحة صغيرة ، تحتوي على إجمالي 146 مليار ترانزستور ، ومجهز بذاكرة HBM3 بسعة 128 جيجا بايت. تبلغ كثافة HBM 2.4 ضعف كثافة Nvidia H100 ، وعرض النطاق الترددي الخاص به هو 1.6 مرة من Nvidia H100 ، مما يعني أنه يمكن تسريع سرعة معالجة الذكاء الاصطناعي التوليدي.
لكن لسوء الحظ ، فإن شريحة الذكاء الاصطناعي الرائدة هذه ليست في المخزن ، ولكن من المتوقع أن يتم إنتاجها بكميات كبيرة في الربع الرابع من عام 2023.
استحوذت شركة منافسة أخرى ، وهي Intel ، على شركة HABANA Labs لتصنيع شرائح الذكاء الاصطناعي مقابل حوالي 2 مليار دولار في عام 2019 ، ودخلت سوق شرائح الذكاء الاصطناعي.
في أغسطس من هذا العام ، في أحدث مكالمة أرباح لشركة Intel ، قال بات غيلسنجر ، الرئيس التنفيذي لشركة إنتل ، إن شركة إنتل تقوم بتطوير الجيل التالي من شريحة الحوسبة الفائقة Falcon Shores AI ، والتي تسمى مؤقتًا Falcon Shores 2 ، والتي من المتوقع إصدارها في عام 2026.
بالإضافة إلى Falcon Shores 2 ، أطلقت Intel أيضًا شريحة AI Gaudi2 ، والتي بدأت بالفعل في البيع ، بينما Gaudi3 قيد التطوير.
إنه لأمر مؤسف أن مواصفات رقاقة Gaudi2 ليست عالية ، ومن الصعب تحدي Nvidia H100 و A100.
** بالإضافة إلى عمالقة أشباه الموصلات الأجنبية يستعرضون عضلاتهم ويبدأون "منافسة الرقائق" ، بدأت شركات أشباه الموصلات المحلية أيضًا في البحث والتطوير لرقائق الذكاء الاصطناعي. **
من بينها ، بطاقة التسريع الأساسية AI RG800 من Kunlun ، وبطاقة التسريع Tiangai 100 من Tianshu Zhixin ، ومنتج التدريب من الجيل الثاني من Suiyuan Technology ، Yunsui T20 / T21 ، تشير جميعها إلى أنها يمكن أن تدعم تدريب النماذج على نطاق واسع.
في هذه المعركة من أجل الرقائق التي تستخدم قوة الحوسبة كنموذج قياسي ونماذج الذكاء الاصطناعي الكبيرة مثل ساحة المعركة ، أثبتت Nvidia ، باعتبارها واحدة من أكبر الفائزين في سوق الذكاء الاصطناعي ، قوتها في تصميم الشرائح وحصتها في السوق.
ومع ذلك ، على الرغم من أن رقائق الذكاء الاصطناعي المحلية متأخرة قليلاً ، إلا أن وتيرة البحث والتطوير والتوسع في السوق لم تتوقف أبدًا ، والمستقبل يستحق التطلع إليه.