تطلق Amazon cloud وظيفة وكيل AI ، مما يجعل AI مساعدًا بدلاً من الدردشة فقط

المصدر: الورقة

المراسل شاو ون

ستمكّن ميزة وكلاء Amazon Bedrock الشركات من بناء تطبيقات الذكاء الاصطناعي التي يمكنها أتمتة مهام محددة ، مثل إجراء حجوزات المطاعم ، بدلاً من مجرد الحصول على توصيات بشأن مكان تناول الطعام.

"يركز الكثير من الأشخاص على هذه النماذج وحجم النماذج ، لكنني أعتقد أن ما يهم حقًا هو كيفية إنشاء تطبيقات معهم ، وهذا سبب كبير لإصدارنا ميزة الوكلاء اليوم."

في 26 يوليو ، بالتوقيت المحلي ، تحدث سوامي سيفاسوبرامانيان ، نائب الرئيس العالمي لقاعدة بيانات Amazon Cloud Technology ، وتحليل البيانات والتعلم الآلي ، في قمة نيويورك.

في قمة نيويورك ، إحدى القمم السنوية لخدمات ويب أمازون (AWS) ، تركزت عدة إعلانات حول الذكاء الاصطناعي التوليدي. قال سوامي سيفاسوبرامانيان Swami Sivasubramanian ، نائب رئيس أمازون العالمي لقواعد بيانات التكنولوجيا السحابية وتحليلات البيانات والتعلم الآلي: "لقد وصلت هذه التكنولوجيا إلى نقطة تحول".

في 26 يوليو ، بالتوقيت الشرقي ، في قمة نيويورك ، أطلقت AWS وظيفة الوكلاء (الوكلاء) في Amazon Bedrock ، وهي خدمة ذكاء اصطناعي توليدية ، لمساعدة النماذج الأساسية على إكمال المهام المعقدة. قال سيفاسوبرامانيان: "سيسمح هذا للشركات ببناء تطبيقات ذكاء اصطناعي يمكنها أتمتة مهام محددة ، مثل حجز المطاعم ، بدلاً من مجرد الحصول على توصيات بشأن مكان تناول الطعام".

بالإضافة إلى ذلك ، أطلقت AWS أيضًا أدوات ذكاء اصطناعي جديدة ، بما في ذلك التوفر الرسمي لمساعد البرمجة Amazon CodeWhisperer ، و Amazon HealthScribe ، وهي خدمة طبية ذكية جديدة لإنشاء السجلات السريرية بعد زيارات المريض ، و Amazon Entity Resolution ، وهي خدمة تحليل. في الوقت نفسه ، أعلنت أن مثيلات Amazon EC2 P5 لتطبيقات الذكاء الاصطناعي عالية الأداء والحوسبة عالية الأداء متاحة رسميًا.

شارك Vasi Philomin ، نائب الرئيس العالمي للذكاء الاصطناعي التوليدي في Amazon Cloud Technology ، مع The Paper أنه من بين جميع الإصدارات ، فإن أكثر ما يثير قلقه ويفخر به هو وظيفة الوكلاء. "يركز الكثير من الأشخاص كثيرًا على هذه النماذج و حجم النماذج ، لكنني أعتقد أن المهم حقًا هو كيفية إنشاء التطبيقات منها ، وهذا سبب كبير لإصدارنا ميزة الوكلاء اليوم. "

** مسابقة وكلاء الذكاء الاصطناعي **

تعد نماذج الذكاء الاصطناعي التوليدية مثل GPT-4 من OpenAI أو Meta Llama 2 قوية ، لكنها لا تستطيع في الواقع أتمتة مهام معينة للمستخدم دون مساعدة إضافية ، مثل المكونات الإضافية.

يوفر Amazon Bedrock طريقة لإنشاء تطبيقات ذكاء اصطناعي توليدية من خلال نماذج مُدربة مسبقًا من الشركات الناشئة بالإضافة إلى تقنية Amazon السحابية نفسها ، دون الاستثمار في الخوادم. تتيح ميزة وكلاء Amazon Bedrock للشركات استخدام بياناتها الخاصة لتعليم النماذج الأساسية ثم إنشاء تطبيقات أخرى لإكمال المهام. يمكن للمطور اختيار النموذج الأساسي الذي يجب استخدامه ، وتقديم بعض الإرشادات ، واختيار البيانات التي يقرأها النموذج.

يشبه هذا النظام الإضافي الذي قدمته OpenAI مؤخرًا لـ GPT-4 و ChatGPT ، والذي يوسع قدرات النماذج من خلال السماح لهم بالاستفادة من واجهات برمجة التطبيقات وقواعد البيانات التابعة لجهات خارجية. في الواقع ، كان هناك مؤخرًا اتجاه نحو النماذج التوليدية "الشخصية" ، مع الشركات الناشئة مثل أدوات بناء الذكاء الاصطناعي السياقية لزيادة النماذج ببيانات المؤسسة.

على سبيل المثال ، يمكن لشركة السفر استخدام الذكاء الاصطناعي التوليدي لتقديم توصيات السفر ، ثم إنشاء وكيل آخر (وكلاء) لتلقي سجل سفر المستخدم واهتماماته ، ثم استخدام وكيل للعثور على جداول الرحلات ، وأخيراً إنشاء وكيل للحجز الذي اخترته رحلة جوية.

إن AWS ليست الوحيدة المتحمسة للوكلاء. في أبريل ، أخبر الرئيس التنفيذي لشركة Meta Mark Zuckerberg (مارك زوكربيرج) المستثمرين أيضًا أن لديهم فرصة لجلب عملاء الذكاء الاصطناعي (الوكلاء) "لمليارات الأشخاص بطريقة مفيدة وذات مغزى". في يوليو ، غاص سام ألتمان ، الرئيس التنفيذي لشركة OpenAI ، في وكلاء الذكاء الاصطناعي وكيف يمكن تنفيذها على أفضل وجه في مقابلة مع The Atlantic.

ذكرت رويترز في يوليو أن السباق على وكلاء الذكاء الاصطناعي "المستقلين" يجتاح وادي السيليكون. ويستشهد بشركة واحدة ، Inflection AI ، التي جمعت 1.3 مليار دولار من التمويل في نهاية يونيو. وفقًا لمؤسسيها في بودكاست ، تعمل الشركة على تطوير مساعد شخصي تقول إنه يمكن أن يعمل كمرشد أو يتولى مهام مثل كسب اعتمادات الطيران والفنادق بعد تأخير السفر.

في 26 يوليو ، قال Sivasubramanian في مقابلة مع وسائل الإعلام أن عملاء مثل Sony (SONY) و Ryanair (Ryanair) و Sun Life (Sun Life) جربوا Amazon Bedrock. قال Sivasubramanian إن Amazon Bedrock سيكون متاحًا لجميع العملاء "قريبًا". ورفض تحديد متى ، مضيفًا أن الشركة تهدف إلى معالجة تخصيص التكلفة ومراقبة الشركات أولاً.

تم إطلاق خدمة Amazon Bedrock في أبريل ، عندما قدمت Amazon Bedrock خدمة Amazon Titan (النموذج الأساسي الخاص بـ AWS) بالإضافة إلى النماذج التي تم إنشاؤها بواسطة Stable.ai و AI21Labs و Anthropic.

في قمة نيويورك هذه المرة ، أعلنت AWS عن إضافة Cohere كمورد أساسي للنموذج ، حيث انضمت إلى أحدث نموذج أساسي لروبوت الدردشة Anthropic and Stability AI. يتم تدريب نموذج إنشاء نص الأوامر في Cohere على متابعة مطالبات المستخدم وإرجاع الملخصات والنصوص والمحادثات ، ويمكن للأداة أيضًا استخراج المعلومات والإجابة على الأسئلة.

** يمكن لمنصة AWS الاتصال بشريحة Nvidia H100 **

في قمة نيويورك ، كشفت AWS أيضًا عن مثيلات Amazon EC2 P5 المدعومة بشريحة H100 من Nvidia. بطريقة ما ، يعد هذا معلمًا مهمًا في التعاون الذي يمتد لأكثر من عشر سنوات بين AWS و Nvidia.

تتمثل إحدى الميزات البارزة لوحدة معالجة الرسومات H100 في تحسين Transformer ، وهي تقنية رئيسية مستخدمة في نماذج اللغات الكبيرة. توفر مثيلات Amazon EC2 P5 8 وحدات معالجة رسومات NVIDIA H100 مع ذاكرة GPU ذات عرض نطاق عالٍ سعة 640 جيجابايت ، ومعالجات AMD EPYC من الجيل الثالث ، وذاكرة نظام 2 تيرابايت ، و 30 تيرابايت من تخزين NVMe المحلي لتسريع تطبيقات الذكاء الاصطناعي عالية الأداء والحوسبة.

يقلل Amazon EC2 P5 من وقت التدريب بما يصل إلى 6 مرات (من أيام إلى ساعات) مقارنة بالجيل السابق القائم على مثيلات GPU. وفقًا لـ AWS ، سيؤدي تعزيز الأداء هذا إلى تقليل تكاليف التدريب بنسبة 40٪ مقارنة بالجيل السابق.

في الواقع ، منذ إطلاق أول شريحة Amazon Nitro في عام 2013 ، تعد AWS أول مورد سحابي يطأ قدمه في الرقائق المطورة ذاتيًا.لديها بالفعل ثلاثة خطوط إنتاج من رقائق الشبكة ، ورقائق الخادم ، والتعلم الذاتي للذكاء الاصطناعي. رقائق مطورة. في أوائل عام 2023 ، تم إصدار Amazon Inferentia 2 المصمم لهذا الغرض (والذي يمكنه دعم الاستدلال الموزع من خلال اتصالات فائقة السرعة بين الرقائق) ، مما يدعم ما يصل إلى 175 مليار معلمة ، مما يجعله منافسًا قويًا لاستدلال النماذج على نطاق واسع.

فيما يتعلق بما إذا كان قلقًا من أن يؤدي توفير شريحة Nvidia's H100 إلى تقليل جاذبية شريحة AWS المطورة ذاتيًا ، استجاب Ferromin لتقنية Pengpai ("نرحب بالمنافسة. ستتحسن الأجهزة كل بضع سنوات. هذا هو المعيار. هناك مشكلة كبيرة صحيح الآن هو أن الذكاء الاصطناعي التوليدي مكلف للغاية ، وهذا هو السبب في عدم قيام أحد بوضعه فعليًا في أعباء عمل الإنتاج ، فلا يزال الجميع في المرحلة التجريبية. بمجرد أن يضعوه حقًا في أعباء عمل الإنتاج ، سوف يدركون أن 90٪ من التكلفة يتم إنشاؤها بواسطتها. أفضل سيناريو هو أنك لا تخسر المال في كل مكالمة ، بل تكسب المال بالفعل. لتحقيق ذلك ، أعتقد أننا بحاجة إلى المنافسة ".

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت