ما هو نوع التكنولوجيا التي يمكن أن تنجو من معمودية الزمن وتظل جديدة؟
يمكن تلخيص الإجابة في نمط يشبه "الثلاثية" - الصعود والتطور والتطبيق على نطاق واسع، بالإضافة إلى تكرار تطوري آخر لهذه العملية.
إذا أخذنا التاريخ كدليل، قاد المحرك البخاري الثورة الصناعية الأولى، وعندما تطور إلى محرك الاحتراق الداخلي وأصبح شائعًا، كان المحرك الذي أحدث ثورة صناعية ثانية - الطاقة الكهربائية نفسها والمعدات المختلفة المتعلقة بها - في مهدها. تتجه المعدات نحو الابتكار التكراري في مجال الإلكترونيات الدقيقة، ولا تزال محركات الوقود المختلفة قيد التحسين والتعميم.
انطلاقًا من هذه القاعدة، على الرغم من أن نماذج اللغات الكبيرة (اختصار LLM) سيطرت على جميع الكلمات الرئيسية المتعلقة بالذكاء الاصطناعي وجذبت انتباه الجميع منذ ظهورها، فإن هذا لا يعني أنه "لم يكن هناك ذكاء اصطناعي قبل LLM".
في حين أن النماذج الكبيرة تسرق الأضواء، فإن الجيل الأقدم من تطبيقات التعلم الآلي التي كانت متخصصة في السابق في اتخاذ القرار، وكذلك تطبيقات التعلم العميق "التقليدية" التي تركز على قدرات الإدراك، ليست خاملة أيضًا، فهي تمر عبر أجهزتها الصاخبة. مرحلة المراهقة والدخول في مرحلة الممارسة الثابتة والعملية.
ما هو الدليل؟
أطلقت إحدى الشركات المصنعة الكبرى للرقائق سلسلة من الأدلة العملية للذكاء الاصطناعي، والتي تستهدف ممارسات الذكاء الاصطناعي في مجالات التصنيع والطاقة والطب والتمويل والنقل والخدمات اللوجستية والتعليم.
في تحديث هذا العام للدليل العملي للذكاء الاصطناعي للخدمات اللوجستية والنقل والرعاية الصحية، تم تسجيل العديد من تطبيقات الذكاء الاصطناعي التي تم تنفيذها أو يجري تنفيذها، بالإضافة إلى كيفية نشرها بسلاسة وإطلاق العنان لإمكانات تسريع أدائها بشكل كامل. يتم استخدامها أيضًا في بعض الرؤوس المألوفة، وهي أمثلة تطبيقية للمؤسسات التي تتعمق في الخطوط الأمامية.
ولذلك، فإن الذكاء الاصطناعي لا يقتصر فقط على النماذج الكبيرة. عصر النماذج الكبيرة للذكاء الاصطناعي أيضًا ≠ عصر الذكاء الاصطناعي بالنماذج الكبيرة فقط.
لقد تم بالفعل تشغيل الذكاء الاصطناعي الناضج
ربما لا تزال غير قادر على تصديق أن تقنية الذكاء الاصطناعي تتخلف بالفعل حتى عن عمليات التسليم السريع الصغيرة.
هذا صحيح، وهو يشارك تقريبًا في العملية اللوجستية بأكملها: الطلب، والشحن، والفرز، والشحن، والتوزيع... يتعين على الذكاء الاصطناعي الآن "إدارة" كل شيء.
لنأخذ تقنية التعرف الضوئي على الحروف (OCR) الكلاسيكية كمثال، حيث يمكن القول أن مكانتها في "العالم التقني" اللوجستي تعتبر محورية، حيث تعمل على تحسين كفاءة العمل بشكل كبير.
على سبيل المثال، عندما يقوم المرسل بملء معلومات العنوان والهوية عند الشحن، ويقوم مستودع التجارة الإلكترونية بالتحقق من معلومات المنتج المشحون، يمكن استخدام التعرف الضوئي على الحروف لتحقيق الإدخال بنقرة واحدة.
ومع ازدياد كمال تكنولوجيا الذكاء الاصطناعي وتعمق تطبيقها، فقد حققت هذه السرعة "ليس هناك أسرع، فقط أسرع".
هذا هو الحال مع Yunda Express، التي نعرفها، خلال عملية التعرف الضوئي على الحروف المكونة من ثلاثة أجزاء، كانت تأمل في الأصل أن يتمكن الذكاء الاصطناعي من تحقيق دقة التعرف الضوئي على الحروف بنسبة 95%.
ونتيجة لذلك، "لقن الذكاء الاصطناعي الحالي يوندا درسًا"، فلم ترتفع الدقة إلى ما يقرب من 98% فحسب، بل "انخفض الوقت أيضًا": من 130 مللي ثانية إلى 114 مللي ثانية.
△تعتمد نتائج اختبار الأداء على الاختبارات التي أجرتها Yunda في أكتوبر 2022
علاوة على ذلك، فإن التعرف الضوئي على الحروف ليس سوى جزء صغير من مشاركة الذكاء الاصطناعي في صناعة الخدمات اللوجستية. ألقِ نظرة على الصورة لتشعر بالقوة التي تلعبها الآن:
حسنًا، الذكاء الاصطناعي شامل للغاية، فلا عجب أن تنطلق سرعة الخدمات اللوجستية المحلية.
لكن أيها الأصدقاء، هذه مجرد حالة من الذكاء الاصطناعي الذي يعمل على تسريع آلاف الصناعات، وفي الواقع، فإن رحلاتنا اليومية مليئة أيضًا بـ "نكهة" الذكاء الاصطناعي.
على سبيل المثال، يمكن لتقنية تحليل الفيديو المدعومة بالذكاء الاصطناعي تحليل ظروف حركة المرور على الطرق السريعة في الوقت الفعلي.
سواء كان الأمر يتعلق بمراقبة تدفق حركة المرور، أو التعرف على لوحة ترخيص السيارة، أو التحذير من الحوادث، وما إلى ذلك، يمكن القول أن الذكاء الاصطناعي يتمتع برؤية بانورامية لكل شيء.
وبهذه الطريقة، يمكن التحكم في ظروف الطريق بشكل فعال ودقيق.
والمطارات مثال آخر. فالكاميرات التي تعمل بتقنية الذكاء الاصطناعي قادرة أيضا على تحديد الطائرات والمركبات والأفراد وانتهاكات الحدود بطريقة دقيقة. وهذا يوفر ضمانة معينة لسلامة منطقة الطيران.
……
ليس من الصعب أن نرى من خلال حالات الاستخدام الصغيرة المذكورة أعلاه أن الذكاء الاصطناعي "الناضج"، أو تطبيقات الذكاء الاصطناعي النجمية الشهيرة قبل بضع سنوات، قد لا تبدو شائعة، لكنها اخترقت بالفعل كل جانب من جوانب حياتنا، وأثرت على حياتنا. التركيز الرئيسي هو "خفض الإنفاق وتحسين الكفاءة".
إذن، ما السبب وراء هذا "التوفير في التكاليف ومكاسب الكفاءة"؟
لا تبالغ في الكذب، فقط قم بالإجابة ——
إن منصات Intel هي التي تساعد، وتحديداً معالجات Xeon®️ Scalable. وبالمثل، فإن الشركة المصنعة للرقائق التي ذكرناها أعلاه هي أيضًا شركة Intel، وهي شركة Intel التي قدمت أدلة عملية للذكاء الاصطناعي للعديد من الصناعات.
ولكن ما يفتح مثل هذه القدرات ليس مجرد وحدة المعالجة المركزية، بل أيضاً مكافآت التحسين على مستوى البرمجيات من إنتل؛ أو بعبارة أخرى، هو نتيجة "دمج البرامج والأجهزة".
تتلخص ببساطة في: معالجات Xeon®️ القابلة للتطوير ومسرع الذكاء الاصطناعي المدمج، بالإضافة إلى سلسلة من أطر عمل الذكاء الاصطناعي وبرامج التحسين مثل OpenVINO™️ وoneAPI للمساعدة.
يوجد حاليًا عاملان فقط يؤثران على أداء تطبيقات الذكاء الاصطناعي: قوة الحوسبة وسرعة الوصول إلى البيانات.
لقد زاد عدد مراكز وحدة المعالجة المركزية الفردية في أحدث معالجات Xeon®️ القابلة للتطوير من الجيل الرابع إلى 60 مركزًا كحد أقصى. فيما يتعلق بسرعة الوصول إلى البيانات، تم تحسين أحجام ذاكرة التخزين المؤقت على جميع المستويات وعدد قنوات الذاكرة وسرعة الوصول إلى الذاكرة وما إلى ذلك إلى حد ما، بالإضافة إلى ذلك، تم دمج تقنية الذاكرة ذات النطاق الترددي العالي HBM أيضًا في سلسلة CPU Max.
بالإضافة إلى ذلك، تم أيضًا تحسين مجموعة تعليمات وحدة المعالجة المركزية، وتم دمج مسرعات الأجهزة مثل Intel®️ Advanced Matrix Extensions (Intel®️ AMX)، وهي المسؤولة عن حسابات المصفوفة وتسريع أعباء عمل التعلم العميق. -بت من تطبيقات الذكاء الاصطناعي المعجلة لوحدة المعالجة المركزية.
إنه يشبه إلى حد ما Tensor Core في وحدة معالجة الرسومات.
يتكون AMX من جزأين، أحدهما عبارة عن ملف تسجيل ثنائي الأبعاد بسعة 1 كيلو بايت، والآخر هو وحدة TMUL، والتي تُستخدم لتنفيذ تعليمات ضرب المصفوفات. يمكنه دعم كل من أنواع البيانات INT8 وBF16، ويتمتع BF16 بأداء حاسوبي أفضل من FP32.
بفضل مجموعة تعليمات AMX، تم تحسين الأداء بما يصل إلى 8 مرات أو حتى أعلى من مجموعة تعليمات الشبكة العصبية الموجهة VNNI المضمنة في الجيل السابق من معالج Xeon®️ القابل للتطوير.
بالإضافة إلى منصة الأجهزة الأساسية، فإن ما يساعد هذه الصناعات فعليًا على تنفيذ تطبيقات الذكاء الاصطناعي العملية هو سلسلة من أدوات برمجيات الذكاء الاصطناعي "الخاصة" الخاصة بشركة إنتل.
على سبيل المثال، لا يمكن فصل تسريع التعرف الضوئي على الحروف (OCR) المذكور سابقًا عن تحسين OpenVINO™️، والذي يلغي العديد من الحسابات الزائدة المطلوبة لجزء التدريب ويدعم بشكل أساسي جزء الاستدلال.
وهو أيضًا إطار عمل محسّن تم تصميمه خصيصًا لأجهزة Intel، ولا يستغرق الأمر سوى 5 أسطر من التعليمات البرمجية لإكمال استبدال الإطار الأصلي.
يمكن للمستخدمين تحسين معلمات التشغيل OpenVINO™️ لسيناريوهات الأعمال المختلفة.
مع مثل هذا المزيج من البرامج والأجهزة، فإن إنتل لا تطلق العنان لإمكانيات الحوسبة الخاصة بوحدة المعالجة المركزية فحسب، بل إنها تحقق أيضًا أداءً قريبًا من أداء وحدة معالجة الرسومات في سيناريوهات التفكير المنطقي الفعلية. كما أنها تتمتع بمزايا إضافية مثل التكلفة المنخفضة، والعتبة المنخفضة، والتكلفة المنخفضة. سهولة الاستعمال.
ومع ذلك، فهذه مجرد تحسينات لتقنيات الذكاء الاصطناعي الناضجة على منصة Intel®️، وقدرات إنتل أكثر من ذلك بكثير.
وهذا يعود إلى النموذج الكبير.
يتم أيضًا تسريع النماذج الكبيرة الشهيرة
في الوقت الحاضر، تتبع شركات التكنولوجيا الكبرى في جميع أنحاء العالم نماذج لغوية كبيرة، بعد كل شيء، تعتبرها دائرة التكنولوجيا الآن اتجاهًا للتطور المستقبلي.
على الرغم من مقارنتها بتقنيات وتطبيقات الذكاء الاصطناعي الناضجة، إلا أنها لا تزال بعيدة بعض الشيء عن التنفيذ على نطاق واسع، لكن ريادتها التكنولوجية لا جدال فيها، وحتى تطبيقات الذكاء الاصطناعي "الجيل الأقدم" من المتوقع أن يتم دمجها معها أو تحويلها بواسطتها. متجدد.
وباعتبارها مصدرًا أساسيًا لإخراج طاقة الحوسبة وتسريع أداء التطبيقات، تستعد إنتل أيضًا لليوم الممطر في هذه الساحة التنافسية وقد وضعت خططها بالفعل.
بادئ ذي بدء، بغض النظر عن مدى تقدم النموذج الكبير، يحتاج المزيد من الأشخاص إلى استخدامه لإدراك قيمته بالكامل. إذا كنت تريد "تشغيلها"، فإن التكلفة تمثل مشكلة طويلة الأمد في مواجهة حجمها الضخم.
ولذلك، كشفت إنتل النقاب عن "أداة سحرية لتقليل الوزن" محسنة يمكنها تقليص حجم نموذج لغة كبير يحتوي على مليار معلمة بمقدار 3/4 وتعزيز دقتها، ويمكنها أيضًا تحسين أداء الاستدلال للنماذج الكبيرة على إنتل بشكل فعال. ®️ منصة.
على وجه التحديد، ما يتم استخدامه هو تقنية SmoothQuant، التي تقوم إنتل بتكييفها مع نظامها الأساسي وتنفيذ التحسينات. تم دمج هذا النهج في Intel®️ Neural Compressor. هذه مكتبة بايثون مفتوحة المصدر تحتوي على مجموعة متنوعة من تقنيات ضغط النماذج شائعة الاستخدام مثل التكميم والتشذيب (التناثر) والتقطير (استخلاص المعرفة) والبحث في الهندسة العصبية، وهي تدعم بالفعل مجموعة متنوعة من أجهزة الهندسة المعمارية Intel®️ ومتوافقة مع TensorFlow، والأطر الرئيسية مثل PyTorch، وONNX Runtime، وMXNet.
ثانيا، على مستوى الأجهزة، بذلت إنتل أيضا بعض الجهود.
على سبيل المثال، يستخدم ChatGLM-6B المشهور مؤخرًا معالج Intel®️ AMX المدمج من الجيل الرابع من معالج Xeon®️ القابل للتطوير لزيادة سرعة حساب الضبط الدقيق للنموذج بشكل كبير؛ ويستخدم HBM المدمج مع معالج سلسلة Xeon®️ CPU Max لتلبية احتياجات المستخدمين على نطاق واسع، مطلوب نطاق ترددي كبير للذاكرة لضبط النموذج.
△هندسة تقنية Intel® AMX
بالإضافة إلى وحدة المعالجة المركزية، تمتلك إنتل أيضًا شريحة تسريع التعلم العميق Habana®️ Gaudi®️2، والتي يمكنها نشر 8 بطاقات تسريع (تسمى وحدة معالجة Habana، يشار إليها باسم HPU) في خادم واحد. تحتوي كل بطاقة على ذاكرة تصل إلى 96 GB، مما يوفر مساحة كبيرة للنماذج الكبيرة.
لذلك، حتى نموذج اللغة ذو مستوى 100 مليار مثل BLOOMZ مع 176 مليار معلمة يمكنه التحكم في تأخير الأداء إلى 3.7 ثانية بعد التحسين بواسطة Intel. بالنسبة للنموذج الأصغر BLOOMZ-7B الذي يحتوي على 7 مليارات معلمة، يبلغ زمن الوصول للجهاز الواحد في Gaudi®️2 حوالي 37.21% من الجيل الأول من Gaudi®️؛ وعندما يزيد عدد الأجهزة إلى 8، تنخفض هذه النسبة أيضًا إلى 24.33%.
△نتائج اختبار زمن الوصول للاستدلال من BLOOMZ على Gaudi®️2 والجيل الأول من Gaudi®️
ثم على مستوى البرنامج، بالنسبة لنماذج اللغات الكبيرة المشهورة مثل ChatGLM، تستطيع Intel أيضًا تحسينها عن طريق إنشاء نموذج OpenVINO™ ذي الحالة: ضغط الأوزان لتقليل استخدام النطاق الترددي للذاكرة وتحسين سرعة الاستدلال.
يعد هذا انعكاسًا مباشرًا لنهج إنتل "تكامل البرامج والأجهزة" في تطبيقات النماذج الكبيرة. علاوة على ذلك، لم تعد الأجهزة مقتصرة على وحدة المعالجة المركزية، ولكن هناك أيضًا Gaudi®️ الذي يمكنه منافسة وحدة معالجة الرسومات في كل من أداء التدريب والاستدلال وإبهار الجميع من حيث أداء التكلفة.
أخيرًا، فيما يتعلق بالأمان، حققت Intel أيضًا "الأفضل في كلا العالمين": يمكن لبيئة التنفيذ الموثوقة (TEE) المستندة إلى Intel®️ SGX/TDX توفير بيئة تشغيل أكثر أمانًا للنماذج الكبيرة دون تبادل الأداء. .
وهذا هو "نهج التسريع" الذي تتبعه شركة إنتل في عصر نماذج الذكاء الاصطناعي الكبيرة.
ما هي التغييرات الأخرى التي ستجلبها؟
بالنظر إلى تطور تكنولوجيا الذكاء الاصطناعي، ليس من الصعب أن تجد أن إنتل تطبق مبدأً واضحًا للغاية وهو الاستخدام هو الكلمة الأخيرة. حتى مجرد استخدامه في مراكز البيانات والحواف لا يكفي، فمن الأفضل أن يتمتع كل جهاز كمبيوتر وكل جهاز طرفي للمعلومات لكل شخص بالقدرة على تسريع تطبيقات الذكاء الاصطناعي بشكل مستقل من أجل تحقيق الرضا "الأساسي".
لذلك، قامت إنتل بتعديل مهمتها الابتكارية من أجل: إضافة قدرات الذكاء الاصطناعي إلى منتجات الأجهزة المختلفة، وتعزيز تعميم تطبيقات الذكاء الاصطناعي من خلال حلول برمجية مفتوحة ومتعددة البنى التحتية وتعزيز صعود "الاقتصاد الأساسي".
إن "نهج التسريع" الذي تتبعه إنتل لا يهدف فقط إلى تمكين تنفيذ التكنولوجيا وتعميمها بشكل أسرع، بل يهدف أيضًا إلى تشجيع التبني والابتكار والتغيير، مما يمهد الطريق للجيل القادم من التغييرات التكنولوجية.
فهل لدى إنتل هدف نهائي على هذا الطريق؟
ربما كما تم التأكيد عليه في Intel Innovation 2023: دع الذكاء الاصطناعي يكون في كل مكان (AI Everywhere).
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
عصر النماذج الكبيرة للذكاء الاصطناعي ≠ عصر الذكاء الاصطناعي بالنماذج الكبيرة فقط
** المؤلف 丨 جين لي **
** المصدر 丨 ** Qubit ** QbitAI **
ما هو نوع التكنولوجيا التي يمكن أن تنجو من معمودية الزمن وتظل جديدة؟
يمكن تلخيص الإجابة في نمط يشبه "الثلاثية" - الصعود والتطور والتطبيق على نطاق واسع، بالإضافة إلى تكرار تطوري آخر لهذه العملية.
إذا أخذنا التاريخ كدليل، قاد المحرك البخاري الثورة الصناعية الأولى، وعندما تطور إلى محرك الاحتراق الداخلي وأصبح شائعًا، كان المحرك الذي أحدث ثورة صناعية ثانية - الطاقة الكهربائية نفسها والمعدات المختلفة المتعلقة بها - في مهدها. تتجه المعدات نحو الابتكار التكراري في مجال الإلكترونيات الدقيقة، ولا تزال محركات الوقود المختلفة قيد التحسين والتعميم.
انطلاقًا من هذه القاعدة، على الرغم من أن نماذج اللغات الكبيرة (اختصار LLM) سيطرت على جميع الكلمات الرئيسية المتعلقة بالذكاء الاصطناعي وجذبت انتباه الجميع منذ ظهورها، فإن هذا لا يعني أنه "لم يكن هناك ذكاء اصطناعي قبل LLM".
في حين أن النماذج الكبيرة تسرق الأضواء، فإن الجيل الأقدم من تطبيقات التعلم الآلي التي كانت متخصصة في السابق في اتخاذ القرار، وكذلك تطبيقات التعلم العميق "التقليدية" التي تركز على قدرات الإدراك، ليست خاملة أيضًا، فهي تمر عبر أجهزتها الصاخبة. مرحلة المراهقة والدخول في مرحلة الممارسة الثابتة والعملية.
أطلقت إحدى الشركات المصنعة الكبرى للرقائق سلسلة من الأدلة العملية للذكاء الاصطناعي، والتي تستهدف ممارسات الذكاء الاصطناعي في مجالات التصنيع والطاقة والطب والتمويل والنقل والخدمات اللوجستية والتعليم.
في تحديث هذا العام للدليل العملي للذكاء الاصطناعي للخدمات اللوجستية والنقل والرعاية الصحية، تم تسجيل العديد من تطبيقات الذكاء الاصطناعي التي تم تنفيذها أو يجري تنفيذها، بالإضافة إلى كيفية نشرها بسلاسة وإطلاق العنان لإمكانات تسريع أدائها بشكل كامل. يتم استخدامها أيضًا في بعض الرؤوس المألوفة، وهي أمثلة تطبيقية للمؤسسات التي تتعمق في الخطوط الأمامية.
ولذلك، فإن الذكاء الاصطناعي لا يقتصر فقط على النماذج الكبيرة. عصر النماذج الكبيرة للذكاء الاصطناعي أيضًا ≠ عصر الذكاء الاصطناعي بالنماذج الكبيرة فقط.
لقد تم بالفعل تشغيل الذكاء الاصطناعي الناضج
ربما لا تزال غير قادر على تصديق أن تقنية الذكاء الاصطناعي تتخلف بالفعل حتى عن عمليات التسليم السريع الصغيرة.
هذا صحيح، وهو يشارك تقريبًا في العملية اللوجستية بأكملها: الطلب، والشحن، والفرز، والشحن، والتوزيع... يتعين على الذكاء الاصطناعي الآن "إدارة" كل شيء.
لنأخذ تقنية التعرف الضوئي على الحروف (OCR) الكلاسيكية كمثال، حيث يمكن القول أن مكانتها في "العالم التقني" اللوجستي تعتبر محورية، حيث تعمل على تحسين كفاءة العمل بشكل كبير.
على سبيل المثال، عندما يقوم المرسل بملء معلومات العنوان والهوية عند الشحن، ويقوم مستودع التجارة الإلكترونية بالتحقق من معلومات المنتج المشحون، يمكن استخدام التعرف الضوئي على الحروف لتحقيق الإدخال بنقرة واحدة.
ومع ازدياد كمال تكنولوجيا الذكاء الاصطناعي وتعمق تطبيقها، فقد حققت هذه السرعة "ليس هناك أسرع، فقط أسرع".
ونتيجة لذلك، "لقن الذكاء الاصطناعي الحالي يوندا درسًا"، فلم ترتفع الدقة إلى ما يقرب من 98% فحسب، بل "انخفض الوقت أيضًا": من 130 مللي ثانية إلى 114 مللي ثانية.
علاوة على ذلك، فإن التعرف الضوئي على الحروف ليس سوى جزء صغير من مشاركة الذكاء الاصطناعي في صناعة الخدمات اللوجستية. ألقِ نظرة على الصورة لتشعر بالقوة التي تلعبها الآن:
لكن أيها الأصدقاء، هذه مجرد حالة من الذكاء الاصطناعي الذي يعمل على تسريع آلاف الصناعات، وفي الواقع، فإن رحلاتنا اليومية مليئة أيضًا بـ "نكهة" الذكاء الاصطناعي.
على سبيل المثال، يمكن لتقنية تحليل الفيديو المدعومة بالذكاء الاصطناعي تحليل ظروف حركة المرور على الطرق السريعة في الوقت الفعلي.
سواء كان الأمر يتعلق بمراقبة تدفق حركة المرور، أو التعرف على لوحة ترخيص السيارة، أو التحذير من الحوادث، وما إلى ذلك، يمكن القول أن الذكاء الاصطناعي يتمتع برؤية بانورامية لكل شيء.
وبهذه الطريقة، يمكن التحكم في ظروف الطريق بشكل فعال ودقيق.
والمطارات مثال آخر. فالكاميرات التي تعمل بتقنية الذكاء الاصطناعي قادرة أيضا على تحديد الطائرات والمركبات والأفراد وانتهاكات الحدود بطريقة دقيقة. وهذا يوفر ضمانة معينة لسلامة منطقة الطيران.
……
ليس من الصعب أن نرى من خلال حالات الاستخدام الصغيرة المذكورة أعلاه أن الذكاء الاصطناعي "الناضج"، أو تطبيقات الذكاء الاصطناعي النجمية الشهيرة قبل بضع سنوات، قد لا تبدو شائعة، لكنها اخترقت بالفعل كل جانب من جوانب حياتنا، وأثرت على حياتنا. التركيز الرئيسي هو "خفض الإنفاق وتحسين الكفاءة".
إذن، ما السبب وراء هذا "التوفير في التكاليف ومكاسب الكفاءة"؟
لا تبالغ في الكذب، فقط قم بالإجابة ——
إن منصات Intel هي التي تساعد، وتحديداً معالجات Xeon®️ Scalable. وبالمثل، فإن الشركة المصنعة للرقائق التي ذكرناها أعلاه هي أيضًا شركة Intel، وهي شركة Intel التي قدمت أدلة عملية للذكاء الاصطناعي للعديد من الصناعات.
تتلخص ببساطة في: معالجات Xeon®️ القابلة للتطوير ومسرع الذكاء الاصطناعي المدمج، بالإضافة إلى سلسلة من أطر عمل الذكاء الاصطناعي وبرامج التحسين مثل OpenVINO™️ وoneAPI للمساعدة.
يوجد حاليًا عاملان فقط يؤثران على أداء تطبيقات الذكاء الاصطناعي: قوة الحوسبة وسرعة الوصول إلى البيانات.
لقد زاد عدد مراكز وحدة المعالجة المركزية الفردية في أحدث معالجات Xeon®️ القابلة للتطوير من الجيل الرابع إلى 60 مركزًا كحد أقصى. فيما يتعلق بسرعة الوصول إلى البيانات، تم تحسين أحجام ذاكرة التخزين المؤقت على جميع المستويات وعدد قنوات الذاكرة وسرعة الوصول إلى الذاكرة وما إلى ذلك إلى حد ما، بالإضافة إلى ذلك، تم دمج تقنية الذاكرة ذات النطاق الترددي العالي HBM أيضًا في سلسلة CPU Max.
بالإضافة إلى ذلك، تم أيضًا تحسين مجموعة تعليمات وحدة المعالجة المركزية، وتم دمج مسرعات الأجهزة مثل Intel®️ Advanced Matrix Extensions (Intel®️ AMX)، وهي المسؤولة عن حسابات المصفوفة وتسريع أعباء عمل التعلم العميق. -بت من تطبيقات الذكاء الاصطناعي المعجلة لوحدة المعالجة المركزية.
إنه يشبه إلى حد ما Tensor Core في وحدة معالجة الرسومات.
يتكون AMX من جزأين، أحدهما عبارة عن ملف تسجيل ثنائي الأبعاد بسعة 1 كيلو بايت، والآخر هو وحدة TMUL، والتي تُستخدم لتنفيذ تعليمات ضرب المصفوفات. يمكنه دعم كل من أنواع البيانات INT8 وBF16، ويتمتع BF16 بأداء حاسوبي أفضل من FP32.
بفضل مجموعة تعليمات AMX، تم تحسين الأداء بما يصل إلى 8 مرات أو حتى أعلى من مجموعة تعليمات الشبكة العصبية الموجهة VNNI المضمنة في الجيل السابق من معالج Xeon®️ القابل للتطوير.
بالإضافة إلى منصة الأجهزة الأساسية، فإن ما يساعد هذه الصناعات فعليًا على تنفيذ تطبيقات الذكاء الاصطناعي العملية هو سلسلة من أدوات برمجيات الذكاء الاصطناعي "الخاصة" الخاصة بشركة إنتل.
على سبيل المثال، لا يمكن فصل تسريع التعرف الضوئي على الحروف (OCR) المذكور سابقًا عن تحسين OpenVINO™️، والذي يلغي العديد من الحسابات الزائدة المطلوبة لجزء التدريب ويدعم بشكل أساسي جزء الاستدلال.
وهو أيضًا إطار عمل محسّن تم تصميمه خصيصًا لأجهزة Intel، ولا يستغرق الأمر سوى 5 أسطر من التعليمات البرمجية لإكمال استبدال الإطار الأصلي.
يمكن للمستخدمين تحسين معلمات التشغيل OpenVINO™️ لسيناريوهات الأعمال المختلفة.
مع مثل هذا المزيج من البرامج والأجهزة، فإن إنتل لا تطلق العنان لإمكانيات الحوسبة الخاصة بوحدة المعالجة المركزية فحسب، بل إنها تحقق أيضًا أداءً قريبًا من أداء وحدة معالجة الرسومات في سيناريوهات التفكير المنطقي الفعلية. كما أنها تتمتع بمزايا إضافية مثل التكلفة المنخفضة، والعتبة المنخفضة، والتكلفة المنخفضة. سهولة الاستعمال.
ومع ذلك، فهذه مجرد تحسينات لتقنيات الذكاء الاصطناعي الناضجة على منصة Intel®️، وقدرات إنتل أكثر من ذلك بكثير.
وهذا يعود إلى النموذج الكبير.
يتم أيضًا تسريع النماذج الكبيرة الشهيرة
في الوقت الحاضر، تتبع شركات التكنولوجيا الكبرى في جميع أنحاء العالم نماذج لغوية كبيرة، بعد كل شيء، تعتبرها دائرة التكنولوجيا الآن اتجاهًا للتطور المستقبلي.
على الرغم من مقارنتها بتقنيات وتطبيقات الذكاء الاصطناعي الناضجة، إلا أنها لا تزال بعيدة بعض الشيء عن التنفيذ على نطاق واسع، لكن ريادتها التكنولوجية لا جدال فيها، وحتى تطبيقات الذكاء الاصطناعي "الجيل الأقدم" من المتوقع أن يتم دمجها معها أو تحويلها بواسطتها. متجدد.
وباعتبارها مصدرًا أساسيًا لإخراج طاقة الحوسبة وتسريع أداء التطبيقات، تستعد إنتل أيضًا لليوم الممطر في هذه الساحة التنافسية وقد وضعت خططها بالفعل.
بادئ ذي بدء، بغض النظر عن مدى تقدم النموذج الكبير، يحتاج المزيد من الأشخاص إلى استخدامه لإدراك قيمته بالكامل. إذا كنت تريد "تشغيلها"، فإن التكلفة تمثل مشكلة طويلة الأمد في مواجهة حجمها الضخم.
ولذلك، كشفت إنتل النقاب عن "أداة سحرية لتقليل الوزن" محسنة يمكنها تقليص حجم نموذج لغة كبير يحتوي على مليار معلمة بمقدار 3/4 وتعزيز دقتها، ويمكنها أيضًا تحسين أداء الاستدلال للنماذج الكبيرة على إنتل بشكل فعال. ®️ منصة.
ثانيا، على مستوى الأجهزة، بذلت إنتل أيضا بعض الجهود.
على سبيل المثال، يستخدم ChatGLM-6B المشهور مؤخرًا معالج Intel®️ AMX المدمج من الجيل الرابع من معالج Xeon®️ القابل للتطوير لزيادة سرعة حساب الضبط الدقيق للنموذج بشكل كبير؛ ويستخدم HBM المدمج مع معالج سلسلة Xeon®️ CPU Max لتلبية احتياجات المستخدمين على نطاق واسع، مطلوب نطاق ترددي كبير للذاكرة لضبط النموذج.
بالإضافة إلى وحدة المعالجة المركزية، تمتلك إنتل أيضًا شريحة تسريع التعلم العميق Habana®️ Gaudi®️2، والتي يمكنها نشر 8 بطاقات تسريع (تسمى وحدة معالجة Habana، يشار إليها باسم HPU) في خادم واحد. تحتوي كل بطاقة على ذاكرة تصل إلى 96 GB، مما يوفر مساحة كبيرة للنماذج الكبيرة.
لذلك، حتى نموذج اللغة ذو مستوى 100 مليار مثل BLOOMZ مع 176 مليار معلمة يمكنه التحكم في تأخير الأداء إلى 3.7 ثانية بعد التحسين بواسطة Intel. بالنسبة للنموذج الأصغر BLOOMZ-7B الذي يحتوي على 7 مليارات معلمة، يبلغ زمن الوصول للجهاز الواحد في Gaudi®️2 حوالي 37.21% من الجيل الأول من Gaudi®️؛ وعندما يزيد عدد الأجهزة إلى 8، تنخفض هذه النسبة أيضًا إلى 24.33%.
ثم على مستوى البرنامج، بالنسبة لنماذج اللغات الكبيرة المشهورة مثل ChatGLM، تستطيع Intel أيضًا تحسينها عن طريق إنشاء نموذج OpenVINO™ ذي الحالة: ضغط الأوزان لتقليل استخدام النطاق الترددي للذاكرة وتحسين سرعة الاستدلال.
يعد هذا انعكاسًا مباشرًا لنهج إنتل "تكامل البرامج والأجهزة" في تطبيقات النماذج الكبيرة. علاوة على ذلك، لم تعد الأجهزة مقتصرة على وحدة المعالجة المركزية، ولكن هناك أيضًا Gaudi®️ الذي يمكنه منافسة وحدة معالجة الرسومات في كل من أداء التدريب والاستدلال وإبهار الجميع من حيث أداء التكلفة.
أخيرًا، فيما يتعلق بالأمان، حققت Intel أيضًا "الأفضل في كلا العالمين": يمكن لبيئة التنفيذ الموثوقة (TEE) المستندة إلى Intel®️ SGX/TDX توفير بيئة تشغيل أكثر أمانًا للنماذج الكبيرة دون تبادل الأداء. .
وهذا هو "نهج التسريع" الذي تتبعه شركة إنتل في عصر نماذج الذكاء الاصطناعي الكبيرة.
ما هي التغييرات الأخرى التي ستجلبها؟
بالنظر إلى تطور تكنولوجيا الذكاء الاصطناعي، ليس من الصعب أن تجد أن إنتل تطبق مبدأً واضحًا للغاية وهو الاستخدام هو الكلمة الأخيرة. حتى مجرد استخدامه في مراكز البيانات والحواف لا يكفي، فمن الأفضل أن يتمتع كل جهاز كمبيوتر وكل جهاز طرفي للمعلومات لكل شخص بالقدرة على تسريع تطبيقات الذكاء الاصطناعي بشكل مستقل من أجل تحقيق الرضا "الأساسي".
لذلك، قامت إنتل بتعديل مهمتها الابتكارية من أجل: إضافة قدرات الذكاء الاصطناعي إلى منتجات الأجهزة المختلفة، وتعزيز تعميم تطبيقات الذكاء الاصطناعي من خلال حلول برمجية مفتوحة ومتعددة البنى التحتية وتعزيز صعود "الاقتصاد الأساسي".
إن "نهج التسريع" الذي تتبعه إنتل لا يهدف فقط إلى تمكين تنفيذ التكنولوجيا وتعميمها بشكل أسرع، بل يهدف أيضًا إلى تشجيع التبني والابتكار والتغيير، مما يمهد الطريق للجيل القادم من التغييرات التكنولوجية.
فهل لدى إنتل هدف نهائي على هذا الطريق؟
ربما كما تم التأكيد عليه في Intel Innovation 2023: دع الذكاء الاصطناعي يكون في كل مكان (AI Everywhere).