تتعاون MediaTek مع Meta Lllama 2 LLM ، المصممة لتشغيل مهام الذكاء الاصطناعي التوليدية مباشرة على الأجهزة المحمولة ، دون معالجة قائمة على السحابة. هناك العديد من المزايا للقيام بذلك، ولكن هناك أيضًا مشاكل مقابلة.
يعد الذكاء الاصطناعي التوليدي أحد أهم التقنيات الناشئة، مدعومًا بأنظمة الدردشة ChatGPT من OpenAI وأنظمة الدردشة Bard من Google، بالإضافة إلى أنظمة إنشاء الصور مثل Stable Diffusion وDALL-E. ومع ذلك، لا يزال الأمر محدودًا إلى حد ما، لأن هذه الأدوات تستخدم مئات وحدات معالجة الرسومات في مراكز البيانات السحابية لإجراء الحسابات المطلوبة لكل استعلام.
ولكن في يوم من الأيام ، سنتمكن من تشغيل المهام التي تم إنشاؤها بواسطة الذكاء الاصطناعي مباشرة على الأجهزة المحمولة. أو في سيارة متصلة، أو في غرفة المعيشة وغرفة النوم والمطبخ، من خلال مكبرات الصوت الذكية مثل Amazon Echo أو Google Home أو Apple HomePod.
تعتقد شركة MediaTek أن هذا المستقبل أقرب مما نعتقد. أعلنت اليوم شركة أشباه الموصلات ومقرها تايوان عن شراكة مع Meta لدمج Lllama 2 LLM الخاص بالعملاق الاجتماعي مع أحدث جيل من APU ومنصة تطوير برمجيات NeuroPilot للشركة لتشغيل مهام الذكاء الاصطناعي التوليدية على الجهاز دون الاعتماد على المعالجة الخارجية.
بالطبع، هناك مشكلة في هذا: هذه المجموعة لن تقضي تمامًا على مراكز البيانات. نظرًا لحجم مجموعات بيانات LLM (عدد المعلمات التي تحتوي عليها) والأداء المطلوب لنظام التخزين، ما زلنا بحاجة إلى مركز بيانات، وإن كان على نطاق أصغر بكثير.
على سبيل المثال، تحتوي مجموعة البيانات "الصغيرة" الخاصة بـ Llama 2 على 7 مليار معلمة، أي حوالي 13 جيجابايت، وهي مناسبة لبعض وظائف الذكاء الاصطناعي التوليدية البدائية. ومع ذلك ، فإن إصدارًا أكبر من 72 مليار معلمة ، حتى مع تقنيات ضغط البيانات المتقدمة ، سيتطلب قدرًا كبيرًا نسبيًا من التخزين يتجاوز القدرات العملية للهواتف الذكية الحالية. في السنوات القليلة المقبلة ، سيكون حجم LLM قيد التطوير بسهولة من 10 إلى 100 ضعف حجم Llama 2 أو GPT-4 ، مع متطلبات تخزين في مئات الجيجابايت أو أكثر.
من الصعب تخزين ذلك على هاتف ذكي ولديه ما يكفي من عمليات IOPS لأداء قاعدة البيانات، لكنه بالتأكيد ليس صحيحًا بالنسبة لجهاز تخزين مؤقت مصمم لهذا الغرض مزود بفلاش سريع وتيرابايت من ذاكرة الوصول العشوائي. لذلك، مع Llama 2، أصبح من الممكن الآن استضافة جهاز مُحسّن لخدمة الأجهزة المحمولة في وحدة حامل واحدة دون استخدام حوسبة ثقيلة. إنه ليس هاتفًا، لكنه مثير للإعجاب على أي حال!
وتتوقع شركة MediaTek أن يتم إطلاق تطبيقات الذكاء الاصطناعي المستندة إلى Llama 2 على الهواتف الذكية المدعومة بالجيل التالي من شركة SoC الرائدة، والتي من المقرر أن تصل إلى السوق بحلول نهاية هذا العام.
لكي يتمكن الذكاء الاصطناعي التوليدي على الجهاز من الوصول إلى مجموعات البيانات هذه ، يجب على مشغلي الهاتف المحمول الاعتماد على شبكات الحافة منخفضة التأخير - مراكز البيانات الصغيرة / خزانات المعدات التي تتصل بسرعة بأبراج الجيل الخامس. ستكون مراكز البيانات هذه موجودة مباشرة على شبكة الناقل ، لذلك لن يحتاج LLM الذي يعمل على الهاتف الذكي إلى المرور عبر "قفزات" متعددة للشبكة قبل الوصول إلى بيانات المعلمات.
بالإضافة إلى تشغيل أحمال عمل الذكاء الاصطناعي على الأجهزة ذات المعالجات المتخصصة مثل MediaTek، يمكن أيضًا خلط LLMs الخاصة بالمجال مع أجهزة التخزين المؤقت هذه في مراكز البيانات الصغيرة في سيناريو "حافة الجهاز المقيدة". اقترب من عبء عمل التطبيق.
إذن ، ما هي فوائد استخدام الذكاء الاصطناعي التوليدي على الجهاز؟
تقليل زمن الاستجابة: أثناء معالجة البيانات على الجهاز، يتم تقليل أوقات الاستجابة بشكل كبير، خاصة إذا تم استخدام أساليب التخزين المؤقت المترجمة للأجزاء التي يتم الوصول إليها بشكل متكرر من مجموعة بيانات المعلمات.
** تحسين خصوصية البيانات: ** من خلال الاحتفاظ بالبيانات على الجهاز ، لا يتم نقل البيانات (مثل محادثات الدردشة أو التدريب المقدم من المستخدم) عبر مركز البيانات ، فقط من خلال بيانات الطراز.
تحسين كفاءة عرض النطاق الترددي: اليوم، تتطلب مهام الذكاء الاصطناعي التوليدية نقل جميع البيانات الموجودة في محادثة المستخدم ذهابًا وإيابًا إلى مركز البيانات. مع المعالجة المحلية، سيتم تنفيذ كمية كبيرة من البيانات على الجهاز.
** تحسين المرونة التشغيلية: ** من خلال الإنشاء على الجهاز ، يمكن للنظام الاستمرار في العمل حتى في حالة انقطاع الشبكة ، خاصةً إذا كان الجهاز يحتوي على ذاكرة تخزين مؤقت للمعلمات كبيرة بما يكفي.
كفاءة استخدام الطاقة: لا تتطلب مراكز البيانات عددًا كبيرًا من الموارد المكثفة حسابيًا، كما أنها لا تتطلب قدرًا كبيرًا من الطاقة لنقل البيانات من الأجهزة إلى مركز البيانات.
ومع ذلك، قد يتطلب تحقيق هذه الفوائد تقسيم أعباء العمل واستخدام تقنيات أخرى لموازنة التحميل لتفريغ التكاليف الحسابية وحمل الشبكة من مراكز البيانات المركزية.
بالإضافة إلى الحاجة المستمرة لمراكز بيانات طرفية سريعة الاتصال (وإن كان ذلك مع انخفاض كبير في المتطلبات الحسابية والطاقة)، هناك سؤال آخر: ما مدى قوة تشغيل LLM على أجهزة اليوم؟ على الرغم من أن البيانات الموجودة على الجهاز أقل قلقًا بشأن اعتراضها على الشبكة، إذا لم تتم إدارتها بشكل صحيح، فإن المخاطر الأمنية للبيانات الحساسة على الجهاز المحلي التي يتم اختراقها ستزداد أيضًا، وتحديث بيانات النموذج والحفاظ على البيانات على عدد كبير من البيانات الموزعة. أجهزة التخزين المؤقت الحافة يمثل الاتساق أيضًا تحديًا.
أخيرًا، هناك مسألة التكلفة: من الذي سيدفع مقابل كل مراكز البيانات الصغيرة هذه؟ يتم اعتماد شبكات الحافة حاليًا من قبل موفري خدمات الحافة مثل Equinix، وتتطلب خدمات مثل Netflix وiTunes من Apple شبكات حافة، كما أن مشغلي شبكات الهاتف المحمول مثل AT&T أو T-Mobile أو Verizon لا يحتاجون تقليديًا إلى شبكات حافة. سيحتاج مقدمو خدمات الذكاء الاصطناعي التوليدي مثل OpenAI/Microsoft وGoogle وMeta إلى اتخاذ ترتيبات مماثلة.
من الأمور التي يجب أخذها بعين الاعتبار الذكاء الاصطناعي المولد على الأجهزة، ولكن من الواضح أن شركات التكنولوجيا تفكر في ذلك. وفي غضون خمس سنوات، ربما يفكر المساعد الذكي الموجود على جهازك بنفسه. هل أنت مستعد لوضع الذكاء الاصطناعي في جيبك؟ إنه قادم ، وهو أقرب بكثير مما يتوقعه معظم الناس.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
MediaTek: عصر مهام الذكاء الاصطناعي التوليدية على الجانب المحمول قادم، دون الاعتماد على المعالجة السحابية
بقلم: جايسون بيرلو
المصدر: زد نت
يعد الذكاء الاصطناعي التوليدي أحد أهم التقنيات الناشئة، مدعومًا بأنظمة الدردشة ChatGPT من OpenAI وأنظمة الدردشة Bard من Google، بالإضافة إلى أنظمة إنشاء الصور مثل Stable Diffusion وDALL-E. ومع ذلك، لا يزال الأمر محدودًا إلى حد ما، لأن هذه الأدوات تستخدم مئات وحدات معالجة الرسومات في مراكز البيانات السحابية لإجراء الحسابات المطلوبة لكل استعلام.
ولكن في يوم من الأيام ، سنتمكن من تشغيل المهام التي تم إنشاؤها بواسطة الذكاء الاصطناعي مباشرة على الأجهزة المحمولة. أو في سيارة متصلة، أو في غرفة المعيشة وغرفة النوم والمطبخ، من خلال مكبرات الصوت الذكية مثل Amazon Echo أو Google Home أو Apple HomePod.
تعتقد شركة MediaTek أن هذا المستقبل أقرب مما نعتقد. أعلنت اليوم شركة أشباه الموصلات ومقرها تايوان عن شراكة مع Meta لدمج Lllama 2 LLM الخاص بالعملاق الاجتماعي مع أحدث جيل من APU ومنصة تطوير برمجيات NeuroPilot للشركة لتشغيل مهام الذكاء الاصطناعي التوليدية على الجهاز دون الاعتماد على المعالجة الخارجية.
بالطبع، هناك مشكلة في هذا: هذه المجموعة لن تقضي تمامًا على مراكز البيانات. نظرًا لحجم مجموعات بيانات LLM (عدد المعلمات التي تحتوي عليها) والأداء المطلوب لنظام التخزين، ما زلنا بحاجة إلى مركز بيانات، وإن كان على نطاق أصغر بكثير.
على سبيل المثال، تحتوي مجموعة البيانات "الصغيرة" الخاصة بـ Llama 2 على 7 مليار معلمة، أي حوالي 13 جيجابايت، وهي مناسبة لبعض وظائف الذكاء الاصطناعي التوليدية البدائية. ومع ذلك ، فإن إصدارًا أكبر من 72 مليار معلمة ، حتى مع تقنيات ضغط البيانات المتقدمة ، سيتطلب قدرًا كبيرًا نسبيًا من التخزين يتجاوز القدرات العملية للهواتف الذكية الحالية. في السنوات القليلة المقبلة ، سيكون حجم LLM قيد التطوير بسهولة من 10 إلى 100 ضعف حجم Llama 2 أو GPT-4 ، مع متطلبات تخزين في مئات الجيجابايت أو أكثر.
من الصعب تخزين ذلك على هاتف ذكي ولديه ما يكفي من عمليات IOPS لأداء قاعدة البيانات، لكنه بالتأكيد ليس صحيحًا بالنسبة لجهاز تخزين مؤقت مصمم لهذا الغرض مزود بفلاش سريع وتيرابايت من ذاكرة الوصول العشوائي. لذلك، مع Llama 2، أصبح من الممكن الآن استضافة جهاز مُحسّن لخدمة الأجهزة المحمولة في وحدة حامل واحدة دون استخدام حوسبة ثقيلة. إنه ليس هاتفًا، لكنه مثير للإعجاب على أي حال!
وتتوقع شركة MediaTek أن يتم إطلاق تطبيقات الذكاء الاصطناعي المستندة إلى Llama 2 على الهواتف الذكية المدعومة بالجيل التالي من شركة SoC الرائدة، والتي من المقرر أن تصل إلى السوق بحلول نهاية هذا العام.
لكي يتمكن الذكاء الاصطناعي التوليدي على الجهاز من الوصول إلى مجموعات البيانات هذه ، يجب على مشغلي الهاتف المحمول الاعتماد على شبكات الحافة منخفضة التأخير - مراكز البيانات الصغيرة / خزانات المعدات التي تتصل بسرعة بأبراج الجيل الخامس. ستكون مراكز البيانات هذه موجودة مباشرة على شبكة الناقل ، لذلك لن يحتاج LLM الذي يعمل على الهاتف الذكي إلى المرور عبر "قفزات" متعددة للشبكة قبل الوصول إلى بيانات المعلمات.
بالإضافة إلى تشغيل أحمال عمل الذكاء الاصطناعي على الأجهزة ذات المعالجات المتخصصة مثل MediaTek، يمكن أيضًا خلط LLMs الخاصة بالمجال مع أجهزة التخزين المؤقت هذه في مراكز البيانات الصغيرة في سيناريو "حافة الجهاز المقيدة". اقترب من عبء عمل التطبيق.
إذن ، ما هي فوائد استخدام الذكاء الاصطناعي التوليدي على الجهاز؟
ومع ذلك، قد يتطلب تحقيق هذه الفوائد تقسيم أعباء العمل واستخدام تقنيات أخرى لموازنة التحميل لتفريغ التكاليف الحسابية وحمل الشبكة من مراكز البيانات المركزية.
بالإضافة إلى الحاجة المستمرة لمراكز بيانات طرفية سريعة الاتصال (وإن كان ذلك مع انخفاض كبير في المتطلبات الحسابية والطاقة)، هناك سؤال آخر: ما مدى قوة تشغيل LLM على أجهزة اليوم؟ على الرغم من أن البيانات الموجودة على الجهاز أقل قلقًا بشأن اعتراضها على الشبكة، إذا لم تتم إدارتها بشكل صحيح، فإن المخاطر الأمنية للبيانات الحساسة على الجهاز المحلي التي يتم اختراقها ستزداد أيضًا، وتحديث بيانات النموذج والحفاظ على البيانات على عدد كبير من البيانات الموزعة. أجهزة التخزين المؤقت الحافة يمثل الاتساق أيضًا تحديًا.
أخيرًا، هناك مسألة التكلفة: من الذي سيدفع مقابل كل مراكز البيانات الصغيرة هذه؟ يتم اعتماد شبكات الحافة حاليًا من قبل موفري خدمات الحافة مثل Equinix، وتتطلب خدمات مثل Netflix وiTunes من Apple شبكات حافة، كما أن مشغلي شبكات الهاتف المحمول مثل AT&T أو T-Mobile أو Verizon لا يحتاجون تقليديًا إلى شبكات حافة. سيحتاج مقدمو خدمات الذكاء الاصطناعي التوليدي مثل OpenAI/Microsoft وGoogle وMeta إلى اتخاذ ترتيبات مماثلة.
من الأمور التي يجب أخذها بعين الاعتبار الذكاء الاصطناعي المولد على الأجهزة، ولكن من الواضح أن شركات التكنولوجيا تفكر في ذلك. وفي غضون خمس سنوات، ربما يفكر المساعد الذكي الموجود على جهازك بنفسه. هل أنت مستعد لوضع الذكاء الاصطناعي في جيبك؟ إنه قادم ، وهو أقرب بكثير مما يتوقعه معظم الناس.