ما هو تفكير الباحثين الصينيين المشهورين في OpenAI وGoogle وMeta | نسخة من المحادثة

المصدر الأصلي: Silicon Star People

مصدر الصورة: تم إنشاؤها بواسطة Unbounded AI‌

كانت المقاعد مكتظة والممرات مليئة بالناس.

قد تظن أنه كان اجتماعًا للمشاهير.

ولكن هذا في الواقع أحد اجتماعات المائدة المستديرة في مؤتمر GenAI في وادي السيليكون.

تم ترتيبها على "المسرح الإضافي" عند الظهر عندما يكون الناس في أشد حالات النعاس. وكان هناك العديد من الرؤساء التنفيذيين ومؤسسي الشركات النجمية في وادي السيليكون يجلسون على المسرح في غرفة اجتماعات كبيرة أخرى، وكانت هذه الطاولة المستديرة "مجرد" بعض الباحثين. لكن الناس ما زالوا يتدفقون على الغرفة الصغيرة.

وكان هدفهم ثلاثة باحثين صينيين. في الماضي، في وادي السيليكون، كان هذا النوع من المشاهد يحدث دائمًا عندما يظهر "مديرون تنفيذيون صينيون في أعلى المناصب في شركات وادي السيليكون"، لكن هذه المرة، كان الناس يطاردون ثلاثة شبان.

شينيون تشين وتشونتينج تشو وجيسون وي.

**باحثون صينيون شباب في ثلاث من أهم شركات الذكاء الاصطناعي الرائدة في وادي السيليكون. **

ستكون هذه الأسماء الثلاثة مألوفة بالتأكيد للأشخاص الذين يتابعون عن كثب اتجاه النماذج الكبيرة.

Xinyun Chen هو عالم أبحاث كبير في فرق الاستدلال في Google Brain وDeepMind. اهتماماتها البحثية هي تركيب البرامج العصبية والتعلم الآلي العدائي. حصلت على درجة الدكتوراه في علوم الكمبيوتر من جامعة كاليفورنيا، بيركلي، ودرجة البكالوريوس في علوم الكمبيوتر من فئة ACM في جامعة شنغهاي جياو تونغ.

لقد شاركت في أوراق بحثية بما في ذلك السماح لـ LLM بإنشاء أدواتها الخاصة وتعليم LLM كيفية تصحيح التعليمات البرمجية الخاصة بها، وما إلى ذلك. وهذه كلها أوراق مهمة للغاية وحاسمة في مجال إنشاء أكواد الذكاء الاصطناعي. كما وصفتها بعض وسائل الإعلام بشكل مبالغ فيه بأنها عضو في "فريق Google Deepmind الصيني".

تشونتينج تشو هو عالم أبحاث في Meta AI. حصلت على درجة الدكتوراه من معهد تكنولوجيا اللغة بجامعة كارنيجي ميلون في مايو 2022. وتكمن اهتماماتها البحثية الرئيسية الحالية في التقاطع بين معالجة اللغة الطبيعية والتعلم الآلي، فضلاً عن الأساليب الجديدة للمواءمة. إن الورقة التي قادتها، والتي حاولت استخدام عينات أقل وأكثر دقة لتدريب النماذج الكبيرة، حظيت بإشادة كبيرة من قبل يان ليكون وأوصى بها في ورقة بحثية، وقد زودت هذه الورقة الصناعة بأفكار أحدث بالإضافة إلى الأساليب السائدة مثل RLHF.

والأخير هو جيسون وي من OpenAI، وهو باحث نجم يحظى باحترام كبير من قبل مجتمعات الذكاء الاصطناعي المحلية والأجنبية. مطور COT (سلسلة الأفكار) الشهير. بعد تخرجه من شهادته الجامعية في عام 2020، أصبح أحد كبار الباحثين في Google Brain، وخلال فترة عمله، اقترح مفهوم سلاسل التفكير، وهو أيضًا أحد مفاتيح ظهور LLM. وفي فبراير 2023، انضم إلى OpenAI وانضم إلى فريق ChatGPT.

يأتي الناس إلى هذه الشركات، ولكن أكثر لأبحاثهم.

في كثير من الأحيان في هذا المنتدى، هم مثل الطلاب، يبدو أنك تشاهد مناقشة جامعية، إنهم عقول ذكية، ومنطق الاستجابة السريعة، وعصبيون قليلاً، ولكنهم أيضًا مليئون بالكلمات الذكية.

"لماذا عليك أن تعتقد أن الهلوسة شيء سيء؟"

"لكن ترامب يهذي كل يوم."

كان هناك ضحك.

"هذه محادثة نادرة. وفيما يلي النص. كما شارك أعضاء Silicon Star وطرحوا الأسئلة.

سؤال: دعونا نناقش مسألة مهمة جدًا في ماجستير إدارة الأعمال، وهي الهلوسة. تم اقتراح مفهوم الهلوسة في وقت مبكر عندما كانت معلمات النموذج قليلة جدًا وكان الحجم لا يزال صغيرًا جدًا، ولكن الآن مع تزايد حجم النماذج، كيف تغيرت مشكلة الهلوسة؟

** تشانتينج **: أستطيع أن أتحدث أولا. لقد قمت بمشروع منذ ثلاث سنوات حول الهلوسة. مشكلة الهلوسة التي واجهناها في ذلك الوقت كانت مختلفة تمامًا عما نواجهه الآن، حيث قمنا في ذلك الوقت بعمل نماذج صغيرة جدًا، وناقشنا الهلوسة في مجالات محددة، مثل الترجمة أو تلخيص المستندات وغيرها من الوظائف. ولكن الآن أصبح من الواضح أن المشكلة أكبر من ذلك بكثير.

أعتقد أن هناك العديد من الأسباب التي تجعل النماذج الكبيرة لا تزال تنتج الهلوسة. بادئ ذي بدء، فيما يتعلق ببيانات التدريب، لأن البشر لديهم هلوسة، هناك أيضًا مشاكل في البيانات. السبب الثاني هو أنه بسبب الطريقة التي تم بها تدريب النموذج، فإنه لا يستطيع الإجابة على الأسئلة في الوقت الفعلي، وسوف يجيب على الأسئلة الخاطئة. وكذلك القصور في الاستدلال والقدرات الأخرى يمكن أن يؤدي إلى هذه المشكلة.

شينيون:** في الواقع سأبدأ هذه الإجابة بسؤال آخر. لماذا يعتقد البشر أن الهلوسة شيء سيء **

لدي قصة حيث طرح زميلي على العارضة سؤالاً، وهو مأخوذ أيضًا من بعض بنوك أسئلة التقييم: ماذا سيحدث عندما تقبل الأميرة الضفدع. إجابة النموذج هي أنه لا شيء يحدث. **

في العديد من إجابات التقييم النموذجية، تكون الإجابة "سيصبح أميرًا" هي الإجابة الصحيحة، وسيتم وضع علامة على الإجابة التي تقول بأنه لن يحدث شيء بأنها خاطئة. **لكن بالنسبة لي، أعتقد أن هذه إجابة أفضل، وسيجيب عليها الكثير من الأشخاص المثيرين للاهتمام. **

السبب الذي يجعل الناس يعتقدون أن هذا مجرد وهم هو أنهم لم يفكروا متى يجب ألا يعاني الذكاء الاصطناعي من الهلوسة ومتى يجب أن يعاني الذكاء الاصطناعي من الهلوسة.

على سبيل المثال، قد تتطلب بعض الأعمال الإبداعية ذلك، والخيال مهم جدًا. نحن الآن نجعل النموذج أكبر باستمرار، ولكن هناك مشكلة واحدة هنا وهي أنه بغض النظر عن حجمه، فإنه لا يمكنه تذكر كل شيء بدقة. البشر لديهم في الواقع نفس المشكلة. أعتقد أن الشيء الوحيد الذي يمكن القيام به هو توفير بعض الأدوات المحسنة لمساعدة النموذج، مثل أدوات البحث والحساب والبرمجة وما إلى ذلك. يمكن للبشر حل مشكلة الهلوسة بسرعة بمساعدة هذه الأدوات، لكن النماذج لا تبدو جيدة جدًا حتى الآن. هذا أيضًا سؤال أود أن أدرسه بنفسي.

جيسون: **إذا سألتني، فإن ترامب يهذي كل يوم. (يضحك) قل نعم أو لا. **

لكنني أعتقد أن هناك مشكلة أخرى هنا وهي أن توقعات الناس لنماذج اللغة تتغير. **في عام 2016، عندما تقوم RNN بإنشاء عنوان URL، تتوقع أنه لا بد أن يكون خاطئًا وغير جدير بالثقة. لكن اليوم، أعتقد أنك تتوقع أن يكون النموذج صحيحًا بشأن الكثير من الأشياء، لذلك قد تعتقد أيضًا أن الهلوسة أكثر خطورة. لذا فهذه في الواقع خلفية مهمة جدًا. **

(اتجاهات البحث المحتملة التي ذكرها جيسون وي)

اسأل: السؤال التالي موجه لـ Xinyun، أحد المواضيع المهمة جدًا في الصناعة الآن هو التحسين الذاتي للنماذج والتصحيح الذاتي، على سبيل المثال. هل يمكنك مشاركة أبحاثك؟

شينيون: يأتي الإلهام لنموذج التصحيح الذاتي في الواقع من كيفية برمجة البشر. نحن نعلم أنه إذا انتهت البرمجة البشرية مرة واحدة، فستكون هناك مشاكل بالتأكيد وسيكون تصحيح الأخطاء ضروريًا. بالنسبة للمبرمجين الأقوياء، يعد تصحيح الأخطاء أيضًا مهارة مهمة جدًا. هدفنا هو أنه بدون أي تعليمات خارجية ودون أن يخبره البشر بالخطأ، يمكن للنموذج أن ينظر إلى الكود الذي أنشأه بنفسه، ويرى نتائج العملية، ثم يحدد الخطأ الذي حدث. إذا كانت هناك مشكلة، اذهب وقم بتصحيحها.

ولماذا سيتم مساعدة إنشاء التعليمات البرمجية من خلال التصحيح الذاتي، أعتقد أن هناك سببين. أولاً، يعتمد إنشاء التعليمات البرمجية بشكل أساسي على التدريب على التعليمات البرمجية مفتوحة المصدر، ويمكنه إنشاء تعليمات برمجية تناسب الاتجاه العام الذي تريده، ولكن قد تكون التعليمات البرمجية طويلة جدًا وتحتوي على العديد من الأخطاء ولا يمكن تشغيلها. لكننا لسنا بحاجة لبدء البرمجة من الصفر بدلاً من استخدام قاعدة التعليمات البرمجية الموجودة، لأنه بغض النظر عن عدد المرات التي تبدأ فيها من الصفر، فإن المشكلة لا يمكن تجنبها، لذلك من الضروري إنشاء التعليمات البرمجية على موارد التعليمات البرمجية الموجودة وتصحيح الأخطاء أصبح مهما. **ثانيًا، تستمر عملية تصحيح الأخطاء في تلقي بعض التعليقات الخارجية، وهو أمر مفيد جدًا لتحسين فهم النموذج.

س: سؤال المتابعة هو، إذا تركت النموذج لنفسه وسمحت له بتحسين نفسه، فهل لن تكون هناك مشاكل؟

Chunting: لقد قمنا ذات مرة بتجربة غريبة، ونتيجة لذلك، قام الوكيل بحذف بيئة تطوير بايثون بعد تنفيذ الكود، إذا دخل هذا الوكيل إلى العالم الحقيقي، فقد يكون له تأثير سيء. هذا شيء يجب أن نأخذه بعين الاعتبار عند تطوير الوكلاء. كما أنني وجدت أنه كلما كان النموذج الأساسي أصغر، كلما كانت القدرة أصغر، ومن الصعب تحسينه والتفكير في نفسه. ربما يمكننا تعليم النموذج كيفية تحسين نفسه من خلال السماح له برؤية المزيد من "الأخطاء" أثناء عملية المحاذاة.

س: ماذا عن جيسون، كيف تفعل وما رأيك في تقييم النماذج.

جايسون: رأيي الشخصي هو أن تقييم النماذج يمثل تحديًا متزايدًا، خاصة في ظل النموذج الجديد. هناك أسباب عديدة وراء ذلك، أحدها هو أن النماذج اللغوية تستخدم الآن في مهام لا حصر لها، ولا تعرف حتى نطاق قدراتها. السبب الثاني هو أنك إذا نظرت إلى تاريخ الذكاء الاصطناعي، فستجد أننا نحل بشكل أساسي المشكلات التقليدية والكلاسيكية، والأهداف قصيرة المدى للغاية والنص قصير جدًا. لكن الآن نص الحل أصبح أطول، وحتى الإنسان يحتاج إلى وقت طويل للحكم عليه. ولعل التحدي الثالث هو أنه بالنسبة للعديد من الأشياء، فإن ما يسمى بالسلوك الصحيح ليس محددًا بشكل واضح. **

أعتقد أن هناك بعض الأشياء التي يمكننا القيام بها لتحسين قدرات التقييم. الأول والأكثر وضوحًا هو التقييم من نطاق أوسع، عند مواجهة بعض السلوكيات الضارة، ما إذا كان من الممكن تقسيمها بشكل أكثر تحديدًا إلى مهام أصغر للتقييم. سؤال آخر هو ما إذا كان من الممكن تقديم المزيد من أساليب التقييم لمهام محددة. ربما يستطيع البشر إعطاء بعض منها، ومن ثم يستطيع الذكاء الاصطناعي أن يقدم بعضا منها أيضا.

س: ما رأيك في استخدام الذكاء الاصطناعي لتقييم مسار الذكاء الاصطناعي؟

** جيسون **: يبدو رائعًا. أعتقد أن أحد الاتجاهات التي أتطلع إليها مؤخرًا هو ما إذا كانت النماذج المستخدمة لتقييم النماذج يمكن أن تؤدي أداءً أفضل. على سبيل المثال، فكرة التدريب على الذكاء الاصطناعي الدستوري، حتى لو لم يكن الأداء مثاليًا الآن، فمن المحتمل جدًا أنه بعد الجيل التالي من GPT، سيكون أداء هذه النماذج أفضل من أداء البشر.

**Silicon Star: أنتم جميعًا باحثون صغار جدًا. أود أن أعرف ما هو رأيكم، كباحثين في المؤسسة، بشأن عدم التطابق الخطير بين وحدة معالجة الرسومات وقوة الحوسبة بين المؤسسات والأوساط الأكاديمية. **

جايسون: إذا كنت تعمل في بيئة مقيدة، فقد يكون لذلك تأثير سلبي بالفعل، ولكن أعتقد أنه لا يزال هناك مجال لكثير من العمل، مثل جزء الخوارزمية، والأبحاث التي قد لا تكون ضرورية جدًا لوحدات معالجة الرسومات لا يوجد نقص في المواضيع أبدا.

تشانتينغ: أشعر أيضًا أن هناك مساحة كبيرة وأماكن تستحق الاستكشاف. على سبيل المثال، يمكن إجراء بحث حول طرق المحاذاة بموارد محدودة**. وربما في منطقة الخليج، هناك المزيد من الفرص للأشخاص في الأوساط الأكاديمية.

شينيون: بشكل عام، هناك اتجاهان عامان لأبحاث LLM، أحدهما هو تحسين أداء النتائج، والآخر هو فهم النموذج. نرى أن العديد من الأطر والمعايير الجيدة وما إلى ذلك، بالإضافة إلى بعض الخوارزميات الجيدة تأتي من الأوساط الأكاديمية.

على سبيل المثال، عندما تخرجت من درجة الدكتوراه، قدم لي مشرفي اقتراحًا - **يجب على باحثي الذكاء الاصطناعي أن يفكروا في البحث في البعد الزمني لسنوات عديدة في المستقبل، أي لا يفكرون فقط في إدخال تحسينات على بعض الأشياء الحالية .ولكنه مفهوم تكنولوجي قد يحدث تغيرات جذرية في المستقبل. **

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت