مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
غالبا ما يكون هناك وهم بأن وحدات المعالجة المركزية Intel تباع بشكل جيد وتنسبها إلى شركة أجهزة ناجحة ، في حين أن هيمنة Intel على معالجات سطح المكتب هي بنية X86 ، التي ولدت في عام 1978.
تم العثور على نفس الوهم في نفيديا.
السبب في أن NVIDIA يمكنها احتكار سوق رقائق التدريب على الذكاء الاصطناعي ، فإن بنية CUDA هي بالتأكيد أحد الأبطال وراء الكواليس.
هذه الهندسة المعمارية ، التي ولدت في عام 2006 ، شاركت في جميع مجالات حوسبة الكمبيوتر وتم تشكيلها تقريبا على شكل NVIDIA. يتم إجراء 80٪ من الأبحاث في مجال الطيران ، وأبحاث العلوم البيولوجية ، والمحاكاة الميكانيكية والسوائل ، واستكشاف الطاقة على أساس CUDA.
في المجال الأكثر سخونة الذكاء الاصطناعي ، تستعد جميع الشركات المصنعة الكبيرة تقريبا للخطة ب: Google و Amazon و Huawei و Microsoft و OpenAI و Baidu ... لا أحد يريد مستقبله في أيدي الآخرين.
أصدرت وكالة استشارات الخدمات الريادية Dealroom.co مجموعة من البيانات ، في هذه الموجة من موجة الحر الذكاء الاصطناعي التوليدية ، حصلت الولايات المتحدة على 89٪ من الاستثمار والتمويل العالميين ، وفي استثمار وتمويل رقائق الذكاء الاصطناعي ، يحتل الاستثمار والتمويل الذكاء الاصطناعي في الصين المرتبة الأولى في العالم ، أكثر من ضعف الولايات المتحدة.
وهذا يعني أنه على الرغم من وجود العديد من الاختلافات في أساليب ومراحل تطوير النماذج الكبيرة للشركات الصينية والأمريكية ، إلا أن الجميع متسقون بشكل خاص في التحكم في قوة الحوسبة.
لماذا تمتلك CUDA هذا السحر؟ **
في عام 2003 ، من أجل التنافس مع Intel ، التي قدمت وحدة معالجة مركزية ذات 4 نواة ، بدأت NVIDIA في تطوير تقنية بنية جهاز حوسبة موحدة ، أو CUDA.
كان الهدف الأصلي من CUDA هو إضافة واجهة برمجة سهلة الاستخدام إلى وحدة معالجة الرسومات ، بحيث لا يضطر المطورون إلى تعلم لغات التظليل المعقدة أو أوليات معالجة الرسومات. كانت فكرة Nvidia الأصلية هي تزويد مطوري الألعاب بتطبيق في مجال حوسبة الرسومات ، وهو ما يسميه هوانغ "جعل الرسومات قابلة للبرمجة".
ومع ذلك ، منذ إطلاق CUDA ، لم تتمكن من العثور على التطبيقات الرئيسية وتفتقر إلى دعم العملاء المهم. ويتعين على NVIDIA أيضا إنفاق الكثير من الأموال لتطوير التطبيقات والحفاظ على الخدمات والترويج والتسويق ، وبحلول عام 2008 واجهت عاصفة مالية ، انخفضت إيرادات Nvidia بشكل حاد مع ضعف مبيعات بطاقات الرسومات ، وانخفض سعر السهم مرة واحدة إلى 1.50 دولار فقط ، وهو أسوأ من أسوأ وقت ل AMD.
لم يكن حتى عام 2012 أن اثنين من طلاب هينتون استخدموا وحدات معالجة الرسومات من NVIDIA للتنافس في سرعة التعرف على الصور المسماة ImageNet. استخدموا كرت الشاشة GTX580 وتدربوا على تقنية CUDA، وكانت النتائج أسرع بعشرات المرات من المركز الثاني، وكانت الدقة أعلى بأكثر من 10٪ من دقة المركز الثاني.
لم يكن نموذج ImageNet نفسه هو الذي صدم الصناعة. هذه الشبكة العصبية ، التي تطلبت 14 مليون صورة وما مجموعه 262 كوادريليون عملية الفاصلة العائمة ، استخدمت أربعة GTX 580s فقط في تدريب لمدة أسبوع. كمرجع ، استخدم Google Cat 10 ملايين صورة و 16000 وحدة معالجة مركزية و 1000 جهاز كمبيوتر.
هذه المنافسة ليست فقط نقطة تحول تاريخية بالنسبة الذكاء الاصطناعي ، ولكنها تفتح أيضا اختراقا ل NVIDIA. بدأت NVIDIA في التعاون مع الصناعة للترويج للنظام البيئي الذكاء الاصطناعي ، وتعزيز أطر الذكاء الاصطناعي مفتوحة المصدر ، والتعاون مع Google و Facebook وشركات أخرى لتعزيز تطوير تقنيات الذكاء الاصطناعي مثل TensorFlow.
هذا يعادل إكمال الخطوة الثانية التي قالها هوانغ ، "افتح وحدة معالجة الرسومات لقابلية البرمجة لجميع أنواع الأشياء".
عندما تم اكتشاف قيمة قوة الحوسبة لوحدات معالجة الرسومات ، استيقظ كبار المصنعين فجأة على حقيقة أن CUDA ، التي كررتها NVIDIA ورصفتها لعدة سنوات ، أصبحت جدارا عاليا لا يمكن الذكاء الاصطناعي تجنبه.
من أجل بناء نظام CUDA البيئي ، توفر NVIDIA للمطورين ثروة من المكتبات والأدوات ، مثل cuDNN و cuBLAS و TensorRT وما إلى ذلك ، والتي تعد ملائمة للمطورين لأداء التعلم العميق والجبر الخطي وتسريع الاستدلال والمهام الأخرى. بالإضافة إلى ذلك ، تقدم NVIDIA سلسلة أدوات تطوير كاملة بما في ذلك مترجمات ومحسنات CUDA ، مما يجعل برمجة GPU وتحسين الأداء أسهل للمطورين.
في الوقت نفسه ، تعمل NVIDIA أيضا بشكل وثيق مع العديد من أطر التعلم العميق الشائعة مثل TensorFlow و PyTorch و MXNet ، مما يوفر ل CUDA مزايا كبيرة في مهام التعلم العميق.
هذا التفاني في "مساعدة الحصان وإعطائه ركوبة" مكن NVIDIA من مضاعفة عدد المطورين في نظام CUDA البيئي في عامين ونصف فقط.
على مدار العقد الماضي ، روجت NVIDIA لدورات CUDA التعليمية لأكثر من 350 جامعة ، مع مطورين محترفين وخبراء مجال على المنصة الذين قدموا دعما غنيا لتطبيقات CUDA من خلال تبادل الخبرات والإجابة على الأسئلة الصعبة.
الأهم من ذلك ، تعرف NVIDIA أن عيب الأجهزة كخندق هو أنه لا يوجد لزوجة المستخدم ، لذلك فهي تجمع الأجهزة مع البرامج ، وعرض GPU لاستخدام CUDA ، وتقليل الضوضاء الذكاء الاصطناعي لاستخدام OptiX ، وتحتاج حوسبة القيادة الذاتية إلى CUDA ...
على الرغم من أن NVIDIA تحتكر حاليا 90٪ من سوق طاقة الحوسبة الذكاء الاصطناعي باستخدام GPU + NVlink + CUDA ، إلا أن هناك أكثر من صدع في الإمبراطورية.
الشقوق
يعاني مصنعو الذكاء الاصطناعي من CUDA لفترة طويلة ، وهو ليس مثيرا للقلق.
يكمن سحر CUDA في أنه في الموضع الرئيسي لمزيج البرامج والأجهزة ، وهو حجر الزاوية في النظام البيئي بأكمله للبرامج ، ومن الصعب على المنافسين تجاوز CUDA لتكون متوافقة مع النظام البيئي ل NVIDIA ؛ بالنسبة للأجهزة ، فإن تصميم CUDA هو في الأساس تجريد للبرامج في شكل أجهزة NVIDIA ، ويتوافق كل مفهوم أساسي بشكل أساسي مع مفهوم الأجهزة الخاص بوحدة معالجة الرسومات.
ثم بالنسبة للمنافسين ، لم يتبق سوى خيارين:
1 تجاوز CUDA وإعادة بناء نظام بيئي للبرامج ، الأمر الذي يتطلب مواجهة التحدي الهائل المتمثل في الالتصاق مستخدم NVIDIA ؛
2 متوافق مع CUDA ، ولكنه يواجه أيضا مشكلتين ، أحدهما أنه إذا كان مسار أجهزتك غير متوافق مع NVIDIA ، فمن الممكن تحقيق عدم كفاءة وغير مريح ، والآخر هو أن CUDA ستتبع تطور خصائص أجهزة NVIDIA ، ويمكن للتوافق اختيار المتابعة فقط.
ولكن من أجل التخلص من قبضة Nvidia ، تمت تجربة كلا الخيارين.
في عام 2016 ، أطلقت AMD ROCm ، وهو نظام بيئي لوحدة معالجة الرسومات يعتمد على مشاريع مفتوحة المصدر ، ويوفر أدوات HIP المتوافقة تماما مع CUDA ، وهي طريقة لمتابعة المسار.
ومع ذلك ، نظرا لنقص موارد مكتبة سلسلة الأدوات والتكلفة العالية للتطوير وتوافق التكرار ، يصعب على النظام البيئي ROCm النمو. على Github ، يساهم أكثر من 32,600 مطور في مستودع حزم CUDA ، بينما لدى ROCm أقل من 600.
تكمن صعوبة اتخاذ مسار CUDA المتوافق مع NVIDIA في أن سرعة تكرار التحديث الخاصة به لا يمكنها أبدا مواكبة CUDA ومن الصعب تحقيق التوافق الكامل:
1 يكون التكرار دائما أبطأ بخطوة واحدة: تتكرر وحدات معالجة الرسومات NVIDIA بسرعة على البنى الدقيقة ومجموعات التعليمات ، كما يتعين على العديد من الأماكن في مكدس البرامج العلوي إجراء تحديثات الميزات المقابلة. لكن AMD لا يمكنها معرفة خارطة طريق منتج NVIDIA ، وستكون تحديثات البرامج دائما أبطأ بخطوة واحدة من NVIDIA. على سبيل المثال ، ربما تكون AMD قد أعلنت للتو عن دعمها ل CUDA11 ، لكن NVIDIA أطلقت بالفعل CUDA12.
2 ستؤدي صعوبة التوافق الكامل إلى زيادة عبء العمل على المطورين: البرامج الكبيرة مثل CUDA نفسها معقدة للغاية ، وتحتاج AMD إلى استثمار الكثير من القوى العاملة والموارد المادية لعدة سنوات أو حتى أكثر من عقد من الزمان للحاق بالركب. نظرا لوجود اختلافات وظيفية لا مفر منها ، إذا لم يتم التوافق بشكل جيد ، فسيؤثر ذلك على الأداء (على الرغم من أن 99٪ متشابهة ، ولكن حل 1٪ المتبقية من الاختلافات قد يستهلك 99٪ من وقت المطور).
هناك أيضا شركات تختار تجاوز CUDA ، مثل Modular ، التي تأسست في يناير 2022.
فكرة Modular هي إبقاء الشريط منخفضا قدر الإمكان ، لكنه أشبه بهجوم مفاجئ. ويقترح محركا الذكاء الاصطناعي "لتحسين أداء نماذج الذكاء الاصطناعي" لحل مشكلة أن "مكدسات التطبيقات الذكاء الاصطناعي الحالية غالبا ما تقترن بأجهزة وبرامج محددة" من خلال نهج "معياري".
لمرافقة محرك الذكاء الاصطناعي هذا ، طورت Modular أيضا لغة البرمجة مفتوحة المصدر Mojo. يمكنك التفكير في الأمر على أنه لغة برمجة "مصممة الذكاء الاصطناعي" ، وتستخدمها Modular لتطوير أدوات للاندماج في محرك الذكاء الاصطناعي المذكور أعلاه ، مع التكامل بسلاسة مع Python وتقليل تكاليف التعلم.
ومع ذلك ، فإن مشكلة Modular هي أن رؤيتها ل "أدوات تطوير جميع المنصات" مثالية للغاية.
على الرغم من أنها تحمل لقب "ما وراء بايثون" وتؤيدها سمعة كريس لاتنر ، إلا أن موجو ، كلغة جديدة ، تحتاج إلى اختبار من قبل العديد من المطورين من حيث الترويج.
تواجه محركات الذكاء الاصطناعي المزيد من المشاكل ، ليس فقط مع الاتفاقيات مع العديد من شركات الأجهزة ، ولكن أيضا مع التوافق بين الأنظمة الأساسية. هذه كلها مهام تتطلب وقتا طويلا من التلميع لإكمالها ، وما ستتطور إليه Nvidia في ذلك الوقت ، أخشى ألا يعرفه أحد.
تشالنجر هواوي
في 17 أكتوبر ، قامت الولايات المتحدة بتحديث قواعد مراقبة الصادرات الخاصة برقائق الذكاء الاصطناعي ، مما منع شركات مثل NVIDIA من تصدير رقائق الذكاء الاصطناعي المتقدمة إلى الصين. وفقا لأحدث القواعد ، ستتأثر صادرات رقائق NVIDIA إلى الصين ، بما في ذلك A800 و H800.
في السابق ، بعد تقييد طرازي NVIDIA A100 و H100 من التصدير إلى الصين ، تم تصميم "النسخة المخصي" A800 و H800 حصريا للصين للامتثال للوائح. كما أطلقت إنتل شريحة الذكاء الاصطناعي Gaudi2 للسوق الصينية. الآن يبدو أن الشركات ستضطر إلى تعديل استجابتها بموجب الجولة الجديدة من حظر التصدير.
في أغسطس من هذا العام ، تم طرح Mate60Pro المجهز بشريحة Kirin 9000S المطورة ذاتيا من Huawei للبيع فجأة ، مما أثار على الفور موجة ضخمة من الرأي العام ، مما جعل خبرا آخر في نفس الوقت تقريبا يغرق بسرعة.
أدلى ليو تشينغ فنغ ، رئيس مجلس إدارة iFLYTEK ، ببيان نادر في حدث عام ، قائلا إن وحدة معالجة الرسومات من Huawei يمكنها مقارنة NVIDIA A100 ، ولكن فقط إذا أرسلت Huawei مجموعة عمل خاصة لتحسين عمل iFLYTEK.
غالبا ما يكون لمثل هذه التصريحات المفاجئة نوايا عميقة ، وعلى الرغم من أنها لا تملك القدرة على التنبؤ بها ، إلا أن فائدتها لا تزال تستجيب لحظر الرقائق بعد شهرين.
تتضمن وحدة معالجة الرسومات من Huawei ، وهي منصة Ascend الذكاء الاصطناعي للبرامج والأجهزة الكاملة ، 5 طبقات ، وهي أجهزة سلسلة Atlas ، وبنية الحوسبة غير المتجانسة ، وإطار عمل الذكاء الاصطناعي ، وتمكين التطبيقات ، وتطبيقات الصناعة من الأسفل إلى الأعلى.
في الأساس ، يمكن فهم أن Huawei قد أجرت مجموعة من البدائل ل NVIDIA ، وطبقة الرقاقة هي Ascend 910 و Ascend 310 ، وبنية الحوسبة غير المتجانسة (CANN) تقيس طبقة البرامج الأساسية NVIDIA CUDA + CuDNN.
بالطبع ، لا يمكن أن تكون الفجوة غائبة ، وقد لخص بعض الممارسين ذوي الصلة نقطتين:
1 يتخلف أداء البطاقة الواحدة ، ولا تزال هناك فجوة بين Ascend 910 و A100 ، لكن النصر هو أن السعر رخيص ويمكن تكديس المبلغ ، والفجوة الإجمالية ليست كبيرة بعد الوصول إلى مقياس الكتلة ؛
2 توجد عيوب بيئية ، لكن Huawei تحاول أيضا اللحاق بالركب ، على سبيل المثال ، من خلال التعاون بين مجتمع PyTorch و Ascend ، وقد دعم الإصدار 2.1 من PyTorch بشكل متزامن Ascend NPU ، مما يعني أنه يمكن للمطورين تطوير نماذج مباشرة بناء على Ascend على PyTorch 2.1.
في الوقت الحالي ، تدير Huawei Ascend بشكل أساسي منتجات Huawei ذات الحلقة المغلقة ذات الطراز الكبير ، ويجب تحسين أي نموذج عام بعمق من قبل Huawei لتشغيله على منصة Huawei ، ويعتمد هذا الجزء من أعمال التحسين بشكل كبير على Huawei.
في السياق الحالي ، يتمتع Ascend بأهمية خاصة.
في مايو من هذا العام ، كشف Zhang Dixuan ، رئيس أعمال الحوسبة Ascend في Huawei ، أن منصة البرامج والأجهزة الأساسية "Ascend الذكاء الاصطناعي" قد احتضنت وتكيفت مع أكثر من 30 طرازا كبيرا سائدا ، ويعتمد أكثر من نصف الطرز الكبيرة الأصلية في الصين على منصة البرامج والأجهزة الأساسية "Ascend الذكاء الاصطناعي" ، بما في ذلك سلسلة Pengcheng وسلسلة Zidong وسلسلة HUAWEI CLOUD Pangu. في أغسطس من هذا العام ، أعلنت بايدو رسميا أيضا عن تكييف Ascend الذكاء الاصطناعي مع نموذج المجذاف الطائر + Wen Xin.
ووفقا لصورة متداولة على الإنترنت ، فإن مركز الحوسبة الفائقة الذكي الصيني هو في الأساس Ascend باستثناء ما لم يتم الكشف عنه ، ويقال أنه بعد الجولة الجديدة من قيود الرقائق ، سيتم حجز 30-40٪ من طاقة إنتاج رقائق Huawei لمجموعة Ascend ، والباقي هو Kirin.
خاتمة
في عام 2006 ، عندما كانت NVIDIA تتكشف عن روايتها الكبرى ، لم يعتقد أحد أن CUDA سيكون منتجا ثوريا ، وكان على Huang إقناع مجلس الإدارة باستثمار 500 مليون دولار سنويا للمقامرة على فترة استرداد غير معروفة لأكثر من 10 سنوات ، وكانت إيرادات NVIDIA 3 مليارات دولار فقط في ذلك العام.
ولكن في جميع قصص الأعمال التي تستخدم التكنولوجيا والابتكار ككلمات رئيسية ، هناك دائما أشخاص حققوا نجاحا كبيرا بسبب التزامهم المستمر بالأهداف طويلة المدى ، وتعد NVIDIA و Huawei من بين الأفضل.
موارد
[1] "منجل" NVIDIA ليس شريحة الذكاء الاصطناعي ، وهو مختبر قائم على السيليكون
[2] من أجل أن تصبح "بديلا ل NVIDIA" ، فتحت الشركات المصنعة للنماذج الكبيرة الكتاب ، وصنعت طاولة العشاء الصغيرة الملابس
[3] بعد عام 1 فقط من إنشائها ، تريد هذه الشركة الناشئة الذكاء الاصطناعي النجوم تحدي NVIDIA و kenet المغنيسيوم
[4] صدع في إمبراطورية نفيديا ، معهد أبحاث إينوكاوا
[5] تخطط الولايات المتحدة لزيادة صادرات الرقائق إلى الصين ، وهواوي تقود صعود الإنتاج المحلي ، و West China Securities
[6] تقرير AIGC المتعمق للصناعة (11): قوة الحوسبة من Huawei العرضية: القطب الثاني لقوة الحوسبة الذكاء الاصطناعي العالمية ، West China Securities
[7] تقرير صناعة AIGC الخاص لعام 2023: أربعة طرق فنية رئيسية لرقائق الذكاء الاصطناعي ، نسخة كامبريان NVIDIA ، شنوان هونغ يوان
[8] كيف تحقق CUDA NVIDIA: اختراق كبير في مجتمع الذكاء الاصطناعي و Tencent Cloud
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
نفيديا: صدع الإمبراطورية واحدا تلو الآخر
المصدر الأصلي: فك التشفير
غالبا ما يكون هناك وهم بأن وحدات المعالجة المركزية Intel تباع بشكل جيد وتنسبها إلى شركة أجهزة ناجحة ، في حين أن هيمنة Intel على معالجات سطح المكتب هي بنية X86 ، التي ولدت في عام 1978.
تم العثور على نفس الوهم في نفيديا.
السبب في أن NVIDIA يمكنها احتكار سوق رقائق التدريب على الذكاء الاصطناعي ، فإن بنية CUDA هي بالتأكيد أحد الأبطال وراء الكواليس.
هذه الهندسة المعمارية ، التي ولدت في عام 2006 ، شاركت في جميع مجالات حوسبة الكمبيوتر وتم تشكيلها تقريبا على شكل NVIDIA. يتم إجراء 80٪ من الأبحاث في مجال الطيران ، وأبحاث العلوم البيولوجية ، والمحاكاة الميكانيكية والسوائل ، واستكشاف الطاقة على أساس CUDA.
في المجال الأكثر سخونة الذكاء الاصطناعي ، تستعد جميع الشركات المصنعة الكبيرة تقريبا للخطة ب: Google و Amazon و Huawei و Microsoft و OpenAI و Baidu ... لا أحد يريد مستقبله في أيدي الآخرين.
أصدرت وكالة استشارات الخدمات الريادية Dealroom.co مجموعة من البيانات ، في هذه الموجة من موجة الحر الذكاء الاصطناعي التوليدية ، حصلت الولايات المتحدة على 89٪ من الاستثمار والتمويل العالميين ، وفي استثمار وتمويل رقائق الذكاء الاصطناعي ، يحتل الاستثمار والتمويل الذكاء الاصطناعي في الصين المرتبة الأولى في العالم ، أكثر من ضعف الولايات المتحدة.
وهذا يعني أنه على الرغم من وجود العديد من الاختلافات في أساليب ومراحل تطوير النماذج الكبيرة للشركات الصينية والأمريكية ، إلا أن الجميع متسقون بشكل خاص في التحكم في قوة الحوسبة.
لماذا تمتلك CUDA هذا السحر؟ **
في عام 2003 ، من أجل التنافس مع Intel ، التي قدمت وحدة معالجة مركزية ذات 4 نواة ، بدأت NVIDIA في تطوير تقنية بنية جهاز حوسبة موحدة ، أو CUDA.
كان الهدف الأصلي من CUDA هو إضافة واجهة برمجة سهلة الاستخدام إلى وحدة معالجة الرسومات ، بحيث لا يضطر المطورون إلى تعلم لغات التظليل المعقدة أو أوليات معالجة الرسومات. كانت فكرة Nvidia الأصلية هي تزويد مطوري الألعاب بتطبيق في مجال حوسبة الرسومات ، وهو ما يسميه هوانغ "جعل الرسومات قابلة للبرمجة".
ومع ذلك ، منذ إطلاق CUDA ، لم تتمكن من العثور على التطبيقات الرئيسية وتفتقر إلى دعم العملاء المهم. ويتعين على NVIDIA أيضا إنفاق الكثير من الأموال لتطوير التطبيقات والحفاظ على الخدمات والترويج والتسويق ، وبحلول عام 2008 واجهت عاصفة مالية ، انخفضت إيرادات Nvidia بشكل حاد مع ضعف مبيعات بطاقات الرسومات ، وانخفض سعر السهم مرة واحدة إلى 1.50 دولار فقط ، وهو أسوأ من أسوأ وقت ل AMD.
لم يكن حتى عام 2012 أن اثنين من طلاب هينتون استخدموا وحدات معالجة الرسومات من NVIDIA للتنافس في سرعة التعرف على الصور المسماة ImageNet. استخدموا كرت الشاشة GTX580 وتدربوا على تقنية CUDA، وكانت النتائج أسرع بعشرات المرات من المركز الثاني، وكانت الدقة أعلى بأكثر من 10٪ من دقة المركز الثاني.
هذه المنافسة ليست فقط نقطة تحول تاريخية بالنسبة الذكاء الاصطناعي ، ولكنها تفتح أيضا اختراقا ل NVIDIA. بدأت NVIDIA في التعاون مع الصناعة للترويج للنظام البيئي الذكاء الاصطناعي ، وتعزيز أطر الذكاء الاصطناعي مفتوحة المصدر ، والتعاون مع Google و Facebook وشركات أخرى لتعزيز تطوير تقنيات الذكاء الاصطناعي مثل TensorFlow.
هذا يعادل إكمال الخطوة الثانية التي قالها هوانغ ، "افتح وحدة معالجة الرسومات لقابلية البرمجة لجميع أنواع الأشياء".
عندما تم اكتشاف قيمة قوة الحوسبة لوحدات معالجة الرسومات ، استيقظ كبار المصنعين فجأة على حقيقة أن CUDA ، التي كررتها NVIDIA ورصفتها لعدة سنوات ، أصبحت جدارا عاليا لا يمكن الذكاء الاصطناعي تجنبه.
من أجل بناء نظام CUDA البيئي ، توفر NVIDIA للمطورين ثروة من المكتبات والأدوات ، مثل cuDNN و cuBLAS و TensorRT وما إلى ذلك ، والتي تعد ملائمة للمطورين لأداء التعلم العميق والجبر الخطي وتسريع الاستدلال والمهام الأخرى. بالإضافة إلى ذلك ، تقدم NVIDIA سلسلة أدوات تطوير كاملة بما في ذلك مترجمات ومحسنات CUDA ، مما يجعل برمجة GPU وتحسين الأداء أسهل للمطورين.
في الوقت نفسه ، تعمل NVIDIA أيضا بشكل وثيق مع العديد من أطر التعلم العميق الشائعة مثل TensorFlow و PyTorch و MXNet ، مما يوفر ل CUDA مزايا كبيرة في مهام التعلم العميق.
هذا التفاني في "مساعدة الحصان وإعطائه ركوبة" مكن NVIDIA من مضاعفة عدد المطورين في نظام CUDA البيئي في عامين ونصف فقط.
على مدار العقد الماضي ، روجت NVIDIA لدورات CUDA التعليمية لأكثر من 350 جامعة ، مع مطورين محترفين وخبراء مجال على المنصة الذين قدموا دعما غنيا لتطبيقات CUDA من خلال تبادل الخبرات والإجابة على الأسئلة الصعبة.
الأهم من ذلك ، تعرف NVIDIA أن عيب الأجهزة كخندق هو أنه لا يوجد لزوجة المستخدم ، لذلك فهي تجمع الأجهزة مع البرامج ، وعرض GPU لاستخدام CUDA ، وتقليل الضوضاء الذكاء الاصطناعي لاستخدام OptiX ، وتحتاج حوسبة القيادة الذاتية إلى CUDA ...
على الرغم من أن NVIDIA تحتكر حاليا 90٪ من سوق طاقة الحوسبة الذكاء الاصطناعي باستخدام GPU + NVlink + CUDA ، إلا أن هناك أكثر من صدع في الإمبراطورية.
الشقوق
يعاني مصنعو الذكاء الاصطناعي من CUDA لفترة طويلة ، وهو ليس مثيرا للقلق.
يكمن سحر CUDA في أنه في الموضع الرئيسي لمزيج البرامج والأجهزة ، وهو حجر الزاوية في النظام البيئي بأكمله للبرامج ، ومن الصعب على المنافسين تجاوز CUDA لتكون متوافقة مع النظام البيئي ل NVIDIA ؛ بالنسبة للأجهزة ، فإن تصميم CUDA هو في الأساس تجريد للبرامج في شكل أجهزة NVIDIA ، ويتوافق كل مفهوم أساسي بشكل أساسي مع مفهوم الأجهزة الخاص بوحدة معالجة الرسومات.
ثم بالنسبة للمنافسين ، لم يتبق سوى خيارين:
1 تجاوز CUDA وإعادة بناء نظام بيئي للبرامج ، الأمر الذي يتطلب مواجهة التحدي الهائل المتمثل في الالتصاق مستخدم NVIDIA ؛
2 متوافق مع CUDA ، ولكنه يواجه أيضا مشكلتين ، أحدهما أنه إذا كان مسار أجهزتك غير متوافق مع NVIDIA ، فمن الممكن تحقيق عدم كفاءة وغير مريح ، والآخر هو أن CUDA ستتبع تطور خصائص أجهزة NVIDIA ، ويمكن للتوافق اختيار المتابعة فقط.
ولكن من أجل التخلص من قبضة Nvidia ، تمت تجربة كلا الخيارين.
في عام 2016 ، أطلقت AMD ROCm ، وهو نظام بيئي لوحدة معالجة الرسومات يعتمد على مشاريع مفتوحة المصدر ، ويوفر أدوات HIP المتوافقة تماما مع CUDA ، وهي طريقة لمتابعة المسار.
ومع ذلك ، نظرا لنقص موارد مكتبة سلسلة الأدوات والتكلفة العالية للتطوير وتوافق التكرار ، يصعب على النظام البيئي ROCm النمو. على Github ، يساهم أكثر من 32,600 مطور في مستودع حزم CUDA ، بينما لدى ROCm أقل من 600.
تكمن صعوبة اتخاذ مسار CUDA المتوافق مع NVIDIA في أن سرعة تكرار التحديث الخاصة به لا يمكنها أبدا مواكبة CUDA ومن الصعب تحقيق التوافق الكامل:
1 يكون التكرار دائما أبطأ بخطوة واحدة: تتكرر وحدات معالجة الرسومات NVIDIA بسرعة على البنى الدقيقة ومجموعات التعليمات ، كما يتعين على العديد من الأماكن في مكدس البرامج العلوي إجراء تحديثات الميزات المقابلة. لكن AMD لا يمكنها معرفة خارطة طريق منتج NVIDIA ، وستكون تحديثات البرامج دائما أبطأ بخطوة واحدة من NVIDIA. على سبيل المثال ، ربما تكون AMD قد أعلنت للتو عن دعمها ل CUDA11 ، لكن NVIDIA أطلقت بالفعل CUDA12.
2 ستؤدي صعوبة التوافق الكامل إلى زيادة عبء العمل على المطورين: البرامج الكبيرة مثل CUDA نفسها معقدة للغاية ، وتحتاج AMD إلى استثمار الكثير من القوى العاملة والموارد المادية لعدة سنوات أو حتى أكثر من عقد من الزمان للحاق بالركب. نظرا لوجود اختلافات وظيفية لا مفر منها ، إذا لم يتم التوافق بشكل جيد ، فسيؤثر ذلك على الأداء (على الرغم من أن 99٪ متشابهة ، ولكن حل 1٪ المتبقية من الاختلافات قد يستهلك 99٪ من وقت المطور).
هناك أيضا شركات تختار تجاوز CUDA ، مثل Modular ، التي تأسست في يناير 2022.
لمرافقة محرك الذكاء الاصطناعي هذا ، طورت Modular أيضا لغة البرمجة مفتوحة المصدر Mojo. يمكنك التفكير في الأمر على أنه لغة برمجة "مصممة الذكاء الاصطناعي" ، وتستخدمها Modular لتطوير أدوات للاندماج في محرك الذكاء الاصطناعي المذكور أعلاه ، مع التكامل بسلاسة مع Python وتقليل تكاليف التعلم.
ومع ذلك ، فإن مشكلة Modular هي أن رؤيتها ل "أدوات تطوير جميع المنصات" مثالية للغاية.
على الرغم من أنها تحمل لقب "ما وراء بايثون" وتؤيدها سمعة كريس لاتنر ، إلا أن موجو ، كلغة جديدة ، تحتاج إلى اختبار من قبل العديد من المطورين من حيث الترويج.
تواجه محركات الذكاء الاصطناعي المزيد من المشاكل ، ليس فقط مع الاتفاقيات مع العديد من شركات الأجهزة ، ولكن أيضا مع التوافق بين الأنظمة الأساسية. هذه كلها مهام تتطلب وقتا طويلا من التلميع لإكمالها ، وما ستتطور إليه Nvidia في ذلك الوقت ، أخشى ألا يعرفه أحد.
تشالنجر هواوي
في 17 أكتوبر ، قامت الولايات المتحدة بتحديث قواعد مراقبة الصادرات الخاصة برقائق الذكاء الاصطناعي ، مما منع شركات مثل NVIDIA من تصدير رقائق الذكاء الاصطناعي المتقدمة إلى الصين. وفقا لأحدث القواعد ، ستتأثر صادرات رقائق NVIDIA إلى الصين ، بما في ذلك A800 و H800.
في السابق ، بعد تقييد طرازي NVIDIA A100 و H100 من التصدير إلى الصين ، تم تصميم "النسخة المخصي" A800 و H800 حصريا للصين للامتثال للوائح. كما أطلقت إنتل شريحة الذكاء الاصطناعي Gaudi2 للسوق الصينية. الآن يبدو أن الشركات ستضطر إلى تعديل استجابتها بموجب الجولة الجديدة من حظر التصدير.
في أغسطس من هذا العام ، تم طرح Mate60Pro المجهز بشريحة Kirin 9000S المطورة ذاتيا من Huawei للبيع فجأة ، مما أثار على الفور موجة ضخمة من الرأي العام ، مما جعل خبرا آخر في نفس الوقت تقريبا يغرق بسرعة.
أدلى ليو تشينغ فنغ ، رئيس مجلس إدارة iFLYTEK ، ببيان نادر في حدث عام ، قائلا إن وحدة معالجة الرسومات من Huawei يمكنها مقارنة NVIDIA A100 ، ولكن فقط إذا أرسلت Huawei مجموعة عمل خاصة لتحسين عمل iFLYTEK.
غالبا ما يكون لمثل هذه التصريحات المفاجئة نوايا عميقة ، وعلى الرغم من أنها لا تملك القدرة على التنبؤ بها ، إلا أن فائدتها لا تزال تستجيب لحظر الرقائق بعد شهرين.
تتضمن وحدة معالجة الرسومات من Huawei ، وهي منصة Ascend الذكاء الاصطناعي للبرامج والأجهزة الكاملة ، 5 طبقات ، وهي أجهزة سلسلة Atlas ، وبنية الحوسبة غير المتجانسة ، وإطار عمل الذكاء الاصطناعي ، وتمكين التطبيقات ، وتطبيقات الصناعة من الأسفل إلى الأعلى.
في الأساس ، يمكن فهم أن Huawei قد أجرت مجموعة من البدائل ل NVIDIA ، وطبقة الرقاقة هي Ascend 910 و Ascend 310 ، وبنية الحوسبة غير المتجانسة (CANN) تقيس طبقة البرامج الأساسية NVIDIA CUDA + CuDNN.
1 يتخلف أداء البطاقة الواحدة ، ولا تزال هناك فجوة بين Ascend 910 و A100 ، لكن النصر هو أن السعر رخيص ويمكن تكديس المبلغ ، والفجوة الإجمالية ليست كبيرة بعد الوصول إلى مقياس الكتلة ؛
2 توجد عيوب بيئية ، لكن Huawei تحاول أيضا اللحاق بالركب ، على سبيل المثال ، من خلال التعاون بين مجتمع PyTorch و Ascend ، وقد دعم الإصدار 2.1 من PyTorch بشكل متزامن Ascend NPU ، مما يعني أنه يمكن للمطورين تطوير نماذج مباشرة بناء على Ascend على PyTorch 2.1.
في الوقت الحالي ، تدير Huawei Ascend بشكل أساسي منتجات Huawei ذات الحلقة المغلقة ذات الطراز الكبير ، ويجب تحسين أي نموذج عام بعمق من قبل Huawei لتشغيله على منصة Huawei ، ويعتمد هذا الجزء من أعمال التحسين بشكل كبير على Huawei.
في السياق الحالي ، يتمتع Ascend بأهمية خاصة.
في مايو من هذا العام ، كشف Zhang Dixuan ، رئيس أعمال الحوسبة Ascend في Huawei ، أن منصة البرامج والأجهزة الأساسية "Ascend الذكاء الاصطناعي" قد احتضنت وتكيفت مع أكثر من 30 طرازا كبيرا سائدا ، ويعتمد أكثر من نصف الطرز الكبيرة الأصلية في الصين على منصة البرامج والأجهزة الأساسية "Ascend الذكاء الاصطناعي" ، بما في ذلك سلسلة Pengcheng وسلسلة Zidong وسلسلة HUAWEI CLOUD Pangu. في أغسطس من هذا العام ، أعلنت بايدو رسميا أيضا عن تكييف Ascend الذكاء الاصطناعي مع نموذج المجذاف الطائر + Wen Xin.
خاتمة
في عام 2006 ، عندما كانت NVIDIA تتكشف عن روايتها الكبرى ، لم يعتقد أحد أن CUDA سيكون منتجا ثوريا ، وكان على Huang إقناع مجلس الإدارة باستثمار 500 مليون دولار سنويا للمقامرة على فترة استرداد غير معروفة لأكثر من 10 سنوات ، وكانت إيرادات NVIDIA 3 مليارات دولار فقط في ذلك العام.
ولكن في جميع قصص الأعمال التي تستخدم التكنولوجيا والابتكار ككلمات رئيسية ، هناك دائما أشخاص حققوا نجاحا كبيرا بسبب التزامهم المستمر بالأهداف طويلة المدى ، وتعد NVIDIA و Huawei من بين الأفضل.
موارد
[1] "منجل" NVIDIA ليس شريحة الذكاء الاصطناعي ، وهو مختبر قائم على السيليكون
[2] من أجل أن تصبح "بديلا ل NVIDIA" ، فتحت الشركات المصنعة للنماذج الكبيرة الكتاب ، وصنعت طاولة العشاء الصغيرة الملابس
[3] بعد عام 1 فقط من إنشائها ، تريد هذه الشركة الناشئة الذكاء الاصطناعي النجوم تحدي NVIDIA و kenet المغنيسيوم
[4] صدع في إمبراطورية نفيديا ، معهد أبحاث إينوكاوا
[5] تخطط الولايات المتحدة لزيادة صادرات الرقائق إلى الصين ، وهواوي تقود صعود الإنتاج المحلي ، و West China Securities
[6] تقرير AIGC المتعمق للصناعة (11): قوة الحوسبة من Huawei العرضية: القطب الثاني لقوة الحوسبة الذكاء الاصطناعي العالمية ، West China Securities
[7] تقرير صناعة AIGC الخاص لعام 2023: أربعة طرق فنية رئيسية لرقائق الذكاء الاصطناعي ، نسخة كامبريان NVIDIA ، شنوان هونغ يوان
[8] كيف تحقق CUDA NVIDIA: اختراق كبير في مجتمع الذكاء الاصطناعي و Tencent Cloud