يانغ ليكون الحائز على جائزة تورينج: الطريقة الوحيدة لجعل منصات الذكاء الاصطناعي آمنة وجيدة وعملية هي المصدر المفتوح

المصدر: الورقة

المراسل تشانغ جينغ

"هناك أشخاص يريدون تنظيمًا شديدًا للذكاء الاصطناعي بشكل عام لأنهم يخشون عواقب الذكاء الاصطناعي. لأنهم يقولون إن كان بإمكان أي شخص إتقان الذكاء الاصطناعي ، إذا كان بإمكانه فعل أي شيء يريده باستخدام الذكاء الاصطناعي ، فسيكون الوضع كذلك خطير للغاية ، لذلك يجب أن يكون هناك تنظيم قوي للذكاء الاصطناعي. أنا لا أتفق مع ذلك تمامًا ".

لقد استغرق البشر وقتًا طويلاً لتأسيس آليات الأخلاق والحوكمة الحالية. إذا سمح للذكاء الاصطناعي بتطوير الوعي والذكاء مثل البشر ، فكيف يمكن للبشر تلبية متطلبات الأخلاق والحكم؟ ما هي آلية تدخل الإنسان في الذكاء الاصطناعي؟

في 6 يوليو ، افتتح المؤتمر العالمي للذكاء الاصطناعي لعام 2023 في شنغهاي. قال Yann LeCun ، الحائز على جائزة Turing لعام 2018 وكبير علماء الذكاء الاصطناعي لفريق Meta AI Basic Intelligence Research Institute ، في حفل الافتتاح إنه لا يوافق تمامًا على ذلك "لأن أي شخص يمكنه استخدام الذكاء الاصطناعي لفعل أي شيء ، فإن الموقف قد يكون خطيرًا جدًا. "، لذلك يحتاج الذكاء الاصطناعي إلى تنظيم صارم". على المدى الطويل ، الطريقة الوحيدة لجعل منصات الذكاء الاصطناعي آمنة وجيدة ومفيدة هي فتح المصدر لها.

تحدث يانغ ليكون عن كيف يصبح الذكاء الاصطناعي ذكيًا ويمكن التحكم فيه. "إذا كنت تعتقد أن طريقة تحقيق ذكاء اصطناعي على مستوى الإنسان تتمثل في إجراء LLM (نموذج لغة كبير) أكبر للارتداد الذاتي ثم استخدام اختبار بيانات متعدد النماذج ، فقد تعتقد أن أنظمة الذكاء الاصطناعي هذه ليست آمنة. حقيقة لا أعتقد أن هذا النظام يمكن أن يكون ذكيًا للغاية. أعتقد أن الطريقة التي يصبحون بها أذكياء هي أيضًا طريقة لجعلهم قابلين للتحكم ، أي مفهوم الذكاء الاصطناعي الذي يحركه الهدف. بشكل أساسي ، هو منحهم الأهداف قال يانغ ليكون ، أن بعض هذه الأهداف هي أهداف حددتها المهمة ، مثل هل أجاب النظام على السؤال؟ هل بدأ النظام سيارتك؟ هل النظام مسح الجدول؟ تعمل الأهداف الأخرى كسياج أمان ، مثل عدم إيذاء أي شخص.

يعتقد Yang Likun أن أنظمة الذكاء الاصطناعي هذه لن تخدع البشر أو تهيمن عليهم من خلال التسلل شيئًا فشيئًا. يمكن للبشر أن يضعوا أهدافًا تجبر أنظمة الذكاء الاصطناعي على الصدق ، مثل إجبار الذكاء الاصطناعي على الاستسلام للبشر ، والحرص على إثارة فضولهم ، ومنحهم إمكانية الوصول إلى الموارد التي لا ينبغي لهم امتلاكها. "لذلك أعتقد أن هذه الأنظمة ستكون قابلة للتحكم والتلاعب بشكل كامل. يمكن تصميم الأنظمة لتكون آمنة ، ولكنها ليست سهلة. تصميم هذه الأهداف ، وجعل النظام آمنًا ، سيكون تحديًا هندسيًا صعبًا."

لكن يانغ ليكون قال إن البشر ليسوا مضطرين إلى تصميمه بشكل جيد من البداية ، ولكن يمكنهم البدء ببناء نظام ذكي مثل الفأر. هدف البشر هو جعله فأرًا جيدًا. "سنضعهم في بيئة رمل أو بيئة محاكاة ونريد التأكد من أنهم آمنون ، وهي مشكلة مهمة لأن هناك بعض الأشخاص الذين يريدون عمومًا أن يخضع الذكاء الاصطناعي للتنظيم الشديد لأنهم خائفون من عواقب الذكاء الاصطناعي. لأنهم يقولون إن كان بإمكان أي شخص الحصول على الذكاء الاصطناعي ، إذا كان بإمكانه فعل أي شيء يريده باستخدام الذكاء الاصطناعي ، فقد يكون الموقف خطيرًا للغاية ، لذلك يجب أن يكون هناك تنظيم صارم للذكاء الاصطناعي. أتفق مع ذلك على الإطلاق. "

على العكس من ذلك ، يعتقد Yang Likun أنه على المدى الطويل ، فإن الطريقة الوحيدة لجعل منصات الذكاء الاصطناعي آمنة وجيدة وعملية هي فتح المصدر. في المستقبل ، سيتفاعل الجميع مع العالم الرقمي من خلال مساعدي الذكاء الاصطناعي ، ويجب أن تمر جميع المعلومات البشرية عبر مساعد الذكاء الاصطناعي هذا.إذا كانت التكنولوجيا تسيطر عليها بضع شركات ، فهذا ليس شيئًا جيدًا. "ستكون أنظمة الذكاء الاصطناعي المستقبلية كنزًا دفينًا لجميع المعارف البشرية ، ويجب أن تستند الطريقة التي يتم تدريبها بها إلى العديد من المصادر. لذلك سنرى المزيد من LLMs مفتوحة المصدر والمزيد من أنظمة الذكاء الاصطناعي مفتوحة المصدر في المستقبل."

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت