* مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود *
قال > LeCun إن الغالبية العظمى من الأقران الأكاديميين يدعمون بشدة البحث والتطوير المفتوح الذكاء الاصطناعي ، ولكن لا يزال هناك معارضون.
فيما يتعلق بمسألة المخاطر الذكاء الاصطناعي ، فإن كبار الشخصيات من جميع مناحي الحياة لديهم أيضا آراء مختلفة. أخذ بعض الناس زمام المبادرة في التوقيع على رسالة مشتركة تدعو إلى وقف فوري للمختبرات الذكاء الاصطناعي ، وهي وجهة نظر يدعمها ثلاثي التعلم العميق جيفري هينتون ويوشوا بينجيو وغيرهم.
قبل بضعة أيام فقط، أصدر بنجيو وهينتون وآخرون رسالة مشتركة بعنوان "إدارة المخاطر الذكاء الاصطناعي في عصر التطور السريع"، داعين الباحثين إلى اتخاذ تدابير حوكمة عاجلة لإعطاء الأولوية لممارسات السلامة والممارسات الأخلاقية قبل تطوير أنظمة الذكاء الاصطناعي، ودعوة الحكومات إلى اتخاذ إجراءات لإدارة المخاطر التي تشكلها الذكاء الاصطناعي.
يذكر المقال بعض تدابير الحوكمة العاجلة، مثل إشراك مؤسسات الدولة لمنع الناس من إساءة استخدام الذكاء الاصطناعي. لتحقيق التنظيم الفعال ، تحتاج الحكومات إلى فهم شامل للتطورات الذكاء الاصطناعي. وينبغي للمنظمين أن يتخذوا مجموعة من التدابير، مثل تسجيل النماذج، والحماية الفعالة للمبلغين عن المخالفات، ومراقبة تطوير النماذج واستخدام الحواسيب العملاقة. يحتاج المنظمون أيضا إلى الوصول إلى أنظمة الذكاء الاصطناعي المتقدمة لتقييم قدراتهم الخطرة قبل النشر.
ليس ذلك فحسب ، بل إلى الوراء قليلا ، في مايو من هذا العام ، أصدرت المنظمة الأمريكية غير الربحية مركز أمن الذكاء الاصطناعي بيانا يحذر من أنه يجب اعتبار الذكاء الاصطناعي خطرا على انقراض البشرية كوباء ، ومن بين أولئك الذين دعموا البيان أيضا هينتون وبينجيو وغيرهم.
في مايو ، استقال هينتون أيضا من وظيفته في Google من أجل التحدث عن المخاطر التي تشكلها الذكاء الاصطناعي. في مقابلة مع صحيفة نيويورك تايمز ، قال: "معظم الناس يعتقدون أنه بعيد. كنت أعتقد أن هذا لا يزال بعيدا ، ربما 30 إلى 50 عاما أو حتى أكثر. لكن من الواضح أنني لا أفكر بهذه الطريقة الآن".
وكما هو متوقع، في نظر كبار الشخصيات الذكاء الاصطناعي مثل هينتون، فإن إدارة المخاطر التي تشكلها الذكاء الاصطناعي مسألة ملحة للغاية.
ومع ذلك ، فإن يان ليكون ، أحد الثلاثة الكبار في التعلم العميق ، متفائل جدا بشأن تطور الذكاء الاصطناعي. كان يعارض إلى حد كبير التوقيع على رسالة مشتركة حول مخاطر الذكاء الاصطناعي ، بحجة أن تطور الذكاء الاصطناعي أبعد ما يكون عن تهديد البشرية.
الآن فقط، أجاب LeCun على بعض الأسئلة من مستخدمي الإنترنت حول مخاطر الذكاء الاصطناعي في التواصل مع مستخدمي X.
سأل مستخدم الإنترنت LeCun عن رأي LeCun في مقال «هذا هو تغير مناخه»: الخبراء الذين يساعدون ريشي سوناك في ختم إرثه»، الذي يجادل بأن الرسالة المشتركة الصادرة عن هينتون وبنجيو وآخرين قد غيرت تصور الناس الذكاء الاصطناعي، من رؤية الذكاء الاصطناعي كمساعد إلى الذكاء الاصطناعي كتهديد محتمل في البداية. يمضي المقال ليقول إنه في الأشهر الأخيرة ، وجد المراقبون في المملكة المتحدة المزيد والمزيد من المعلومات حول الجو المروع الذي يخلقه الذكاء الاصطناعي. في مارس/آذار، نشرت حكومة المملكة المتحدة ورقة بيضاء تعد بعدم خنق الابتكار في الذكاء الاصطناعي. ولكن بعد شهرين فقط، بدأت المملكة المتحدة تتحدث عن وضع حواجز حماية على الذكاء الاصطناعي وحث الولايات المتحدة على تبني خطتها لقواعد الذكاء الاصطناعي العالمية.
عنوان المقال:
كان رد فعل LeCun على المقال هو أنه لا يريد أن تنتشر مخاوف المملكة المتحدة بشأن المخاطر القدرية الذكاء الاصطناعي إلى بلدان أخرى.
بعد ذلك ، هناك التواصل بين مستخدمي LeCun و X الذي ذكرناه سابقا ، وإليك جميع إجابات LeCun:
"ألتمان وحسابيس وأمودي منخرطون في ضغوط ضخمة للشركات. إنهم يحاولون تنظيم صناعة الذكاء الاصطناعي. وأنت وجيف ويوشوا تعطي "ذخيرة" لأولئك الذين يضغطون من أجل فرض حظر على أبحاث الذكاء الاصطناعي المفتوحة.
إذا نجحت حملة الخوف الخاصة بك ، فستؤدي حتما إلى ما نعتبره أنا وأنت نتيجة كارثية: حفنة من الشركات ستسيطر على الذكاء الاصطناعي.
الغالبية العظمى من الأقران الأكاديميين يدعمون بشدة البحث والتطوير المفتوح الذكاء الاصطناعي. قليل من الناس يصدقون السيناريو المروع الذي تبشر به. أنت ويوشوا وجيف وستيوارت هم الاستثناءات الوحيدة.
مثل العديد من الناس ، أنا مؤيد كبير لمنصات الذكاء الاصطناعي المفتوحة لأنني أؤمن بمجموعة من القوى: إبداع الناس ، والديمقراطية ، وقوى السوق ، ولوائح المنتجات. أعلم أيضا أنه من الممكن إنتاج أنظمة الذكاء الاصطناعي آمنة وتحت سيطرتنا. وقد قدمت بالفعل مقترحات محددة لهذا الغرض. كل هذا سيحفز الناس على فعل الشيء الصحيح.
تكتب كما لو الذكاء الاصطناعي خلقت من فراغ ، إنها ظاهرة طبيعية خارجة عن سيطرتنا. لكن هذا ليس هو الحال. إنه يتقدم بسبب كل شخص نعرفه أنا وأنت. نحن وهم لدينا القدرة على بناء "الشيء الصحيح". إن اشتراط تنظيم البحث والتطوير (في مقابل نشر المنتجات) يعني ضمنا افتراض أن هؤلاء الأشخاص والمنظمات التي يخدمونها غير أكفاء أو متهورين أو مدمرين للذات أو أشرار. لكن هذا ليس هو الحال.
لقد توصلت إلى الكثير من الحجج لإثبات أن السيناريو المروع الذي تخاف منه سخيف. لن أخوض في الأمر هنا. لكن النقطة الأساسية هي أنه إذا كان نظام الذكاء الاصطناعي القوي مدفوعا بالأهداف ، بما في ذلك حواجز الحماية ، فهي آمنة ويمكن التحكم فيها لأنها تحدد تلك الحواجز والأهداف. (لا تعتمد LLMs ذاتية الانحدار الحالية على الهدف ، لذلك دعونا لا نستنتج من نقاط الضعف في LLMs ذاتية الانحدار).
عندما يتعلق الأمر بالمصدر المفتوح ، فإن تأثير أنشطتك سيكون عكس ما تبحث عنه تماما. في المستقبل ، ستكون أنظمة الذكاء الاصطناعي كنزا دفينا لكل المعرفة والثقافة البشرية ، وما نحتاجه هو منصة مفتوحة المصدر ومجانية حتى يتمكن الجميع من المساهمة فيها. الانفتاح هو السبيل الوحيد لمنصات الذكاء الاصطناعي لتعكس مجموعة كاملة من المعرفة والثقافة الإنسانية. يتطلب هذا أن تكون المساهمات في هذه المنصات من مصادر جماعية ، على غرار ويكيبيديا. ما لم تكن المنصة مفتوحة ، فلن ينجح ذلك.
إذا تم تنظيم منصات الذكاء الاصطناعي مفتوحة المصدر ، فلا بد أن يحدث سيناريو آخر ، وهو أن حفنة من الشركات ستسيطر على منصة الذكاء الاصطناعي ، وبالتالي ، الاعتماد الرقمي الكلي للناس. ماذا يعني هذا بالنسبة للديمقراطية؟ ماذا يعني هذا بالنسبة للتنوع الثقافي؟ هذا ما يبقيني مستيقظا في الليل".
أسفل تغريدة LeCun الطويلة ، هناك أيضا العديد من الأشخاص الذين "يدعمون" وجهات نظره.
إيرينا ريش ، أستاذة في قسم علوم الكمبيوتر وبحوث العمليات في جامعة مونتريال ، هي أيضا عضو أساسي في معهد ميلا - كيبيك الذكاء الاصطناعي. وقالت إنه ربما ينبغي على الباحثين الذين يدعمون الذكاء الاصطناعي المصادر المفتوحة التوقف عن التزام الصمت ويجب أن يقودوا الطريق في تطوير الذكاء الاصطناعي الناشئة.
كما قال مؤسس أمازون بيف جيزوس في قسم التعليقات إن مثل هذه المراجعات مهمة ومطلوبة.
قال مستخدمو الإنترنت إنه في البداية ، يمكن أن تؤدي مناقشة القضايا الأمنية إلى إثراء خيال الجميع للتكنولوجيا المستقبلية ، لكن الخيال العلمي المثير لا ينبغي أن يؤدي إلى ظهور سياسات احتكارية.
مدير المدونة ليكس فريدمان لديه المزيد ليتطلع إليه في هذا النقاش.
كما ستشكل المناقشات حول مخاطر الذكاء الاصطناعي مستقبل الذكاء الاصطناعي. عندما تسرق فكرة ما الأضواء ، يتبعها الناس بشكل أعمى. فقط عندما يتمكن الطرفان من الاستمرار في الانخراط في مناقشات عقلانية يمكنهما حقا رؤية "الوجه الحقيقي" الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
يجادل الفائزون بجائزة تورينج ، و LeCun: نظرية الانقراض الذكاء الاصطناعي لبنجيو ، هينتون ، وما إلى ذلك سخيفة
مصدر: قلب الآلة
قال > LeCun إن الغالبية العظمى من الأقران الأكاديميين يدعمون بشدة البحث والتطوير المفتوح الذكاء الاصطناعي ، ولكن لا يزال هناك معارضون.
فيما يتعلق بمسألة المخاطر الذكاء الاصطناعي ، فإن كبار الشخصيات من جميع مناحي الحياة لديهم أيضا آراء مختلفة. أخذ بعض الناس زمام المبادرة في التوقيع على رسالة مشتركة تدعو إلى وقف فوري للمختبرات الذكاء الاصطناعي ، وهي وجهة نظر يدعمها ثلاثي التعلم العميق جيفري هينتون ويوشوا بينجيو وغيرهم.
قبل بضعة أيام فقط، أصدر بنجيو وهينتون وآخرون رسالة مشتركة بعنوان "إدارة المخاطر الذكاء الاصطناعي في عصر التطور السريع"، داعين الباحثين إلى اتخاذ تدابير حوكمة عاجلة لإعطاء الأولوية لممارسات السلامة والممارسات الأخلاقية قبل تطوير أنظمة الذكاء الاصطناعي، ودعوة الحكومات إلى اتخاذ إجراءات لإدارة المخاطر التي تشكلها الذكاء الاصطناعي.
يذكر المقال بعض تدابير الحوكمة العاجلة، مثل إشراك مؤسسات الدولة لمنع الناس من إساءة استخدام الذكاء الاصطناعي. لتحقيق التنظيم الفعال ، تحتاج الحكومات إلى فهم شامل للتطورات الذكاء الاصطناعي. وينبغي للمنظمين أن يتخذوا مجموعة من التدابير، مثل تسجيل النماذج، والحماية الفعالة للمبلغين عن المخالفات، ومراقبة تطوير النماذج واستخدام الحواسيب العملاقة. يحتاج المنظمون أيضا إلى الوصول إلى أنظمة الذكاء الاصطناعي المتقدمة لتقييم قدراتهم الخطرة قبل النشر.
ليس ذلك فحسب ، بل إلى الوراء قليلا ، في مايو من هذا العام ، أصدرت المنظمة الأمريكية غير الربحية مركز أمن الذكاء الاصطناعي بيانا يحذر من أنه يجب اعتبار الذكاء الاصطناعي خطرا على انقراض البشرية كوباء ، ومن بين أولئك الذين دعموا البيان أيضا هينتون وبينجيو وغيرهم.
في مايو ، استقال هينتون أيضا من وظيفته في Google من أجل التحدث عن المخاطر التي تشكلها الذكاء الاصطناعي. في مقابلة مع صحيفة نيويورك تايمز ، قال: "معظم الناس يعتقدون أنه بعيد. كنت أعتقد أن هذا لا يزال بعيدا ، ربما 30 إلى 50 عاما أو حتى أكثر. لكن من الواضح أنني لا أفكر بهذه الطريقة الآن".
وكما هو متوقع، في نظر كبار الشخصيات الذكاء الاصطناعي مثل هينتون، فإن إدارة المخاطر التي تشكلها الذكاء الاصطناعي مسألة ملحة للغاية.
ومع ذلك ، فإن يان ليكون ، أحد الثلاثة الكبار في التعلم العميق ، متفائل جدا بشأن تطور الذكاء الاصطناعي. كان يعارض إلى حد كبير التوقيع على رسالة مشتركة حول مخاطر الذكاء الاصطناعي ، بحجة أن تطور الذكاء الاصطناعي أبعد ما يكون عن تهديد البشرية.
الآن فقط، أجاب LeCun على بعض الأسئلة من مستخدمي الإنترنت حول مخاطر الذكاء الاصطناعي في التواصل مع مستخدمي X.
كان رد فعل LeCun على المقال هو أنه لا يريد أن تنتشر مخاوف المملكة المتحدة بشأن المخاطر القدرية الذكاء الاصطناعي إلى بلدان أخرى.
"ألتمان وحسابيس وأمودي منخرطون في ضغوط ضخمة للشركات. إنهم يحاولون تنظيم صناعة الذكاء الاصطناعي. وأنت وجيف ويوشوا تعطي "ذخيرة" لأولئك الذين يضغطون من أجل فرض حظر على أبحاث الذكاء الاصطناعي المفتوحة.
إذا نجحت حملة الخوف الخاصة بك ، فستؤدي حتما إلى ما نعتبره أنا وأنت نتيجة كارثية: حفنة من الشركات ستسيطر على الذكاء الاصطناعي.
الغالبية العظمى من الأقران الأكاديميين يدعمون بشدة البحث والتطوير المفتوح الذكاء الاصطناعي. قليل من الناس يصدقون السيناريو المروع الذي تبشر به. أنت ويوشوا وجيف وستيوارت هم الاستثناءات الوحيدة.
مثل العديد من الناس ، أنا مؤيد كبير لمنصات الذكاء الاصطناعي المفتوحة لأنني أؤمن بمجموعة من القوى: إبداع الناس ، والديمقراطية ، وقوى السوق ، ولوائح المنتجات. أعلم أيضا أنه من الممكن إنتاج أنظمة الذكاء الاصطناعي آمنة وتحت سيطرتنا. وقد قدمت بالفعل مقترحات محددة لهذا الغرض. كل هذا سيحفز الناس على فعل الشيء الصحيح.
تكتب كما لو الذكاء الاصطناعي خلقت من فراغ ، إنها ظاهرة طبيعية خارجة عن سيطرتنا. لكن هذا ليس هو الحال. إنه يتقدم بسبب كل شخص نعرفه أنا وأنت. نحن وهم لدينا القدرة على بناء "الشيء الصحيح". إن اشتراط تنظيم البحث والتطوير (في مقابل نشر المنتجات) يعني ضمنا افتراض أن هؤلاء الأشخاص والمنظمات التي يخدمونها غير أكفاء أو متهورين أو مدمرين للذات أو أشرار. لكن هذا ليس هو الحال.
لقد توصلت إلى الكثير من الحجج لإثبات أن السيناريو المروع الذي تخاف منه سخيف. لن أخوض في الأمر هنا. لكن النقطة الأساسية هي أنه إذا كان نظام الذكاء الاصطناعي القوي مدفوعا بالأهداف ، بما في ذلك حواجز الحماية ، فهي آمنة ويمكن التحكم فيها لأنها تحدد تلك الحواجز والأهداف. (لا تعتمد LLMs ذاتية الانحدار الحالية على الهدف ، لذلك دعونا لا نستنتج من نقاط الضعف في LLMs ذاتية الانحدار).
عندما يتعلق الأمر بالمصدر المفتوح ، فإن تأثير أنشطتك سيكون عكس ما تبحث عنه تماما. في المستقبل ، ستكون أنظمة الذكاء الاصطناعي كنزا دفينا لكل المعرفة والثقافة البشرية ، وما نحتاجه هو منصة مفتوحة المصدر ومجانية حتى يتمكن الجميع من المساهمة فيها. الانفتاح هو السبيل الوحيد لمنصات الذكاء الاصطناعي لتعكس مجموعة كاملة من المعرفة والثقافة الإنسانية. يتطلب هذا أن تكون المساهمات في هذه المنصات من مصادر جماعية ، على غرار ويكيبيديا. ما لم تكن المنصة مفتوحة ، فلن ينجح ذلك.
إذا تم تنظيم منصات الذكاء الاصطناعي مفتوحة المصدر ، فلا بد أن يحدث سيناريو آخر ، وهو أن حفنة من الشركات ستسيطر على منصة الذكاء الاصطناعي ، وبالتالي ، الاعتماد الرقمي الكلي للناس. ماذا يعني هذا بالنسبة للديمقراطية؟ ماذا يعني هذا بالنسبة للتنوع الثقافي؟ هذا ما يبقيني مستيقظا في الليل".
أسفل تغريدة LeCun الطويلة ، هناك أيضا العديد من الأشخاص الذين "يدعمون" وجهات نظره.
إيرينا ريش ، أستاذة في قسم علوم الكمبيوتر وبحوث العمليات في جامعة مونتريال ، هي أيضا عضو أساسي في معهد ميلا - كيبيك الذكاء الاصطناعي. وقالت إنه ربما ينبغي على الباحثين الذين يدعمون الذكاء الاصطناعي المصادر المفتوحة التوقف عن التزام الصمت ويجب أن يقودوا الطريق في تطوير الذكاء الاصطناعي الناشئة.
مدير المدونة ليكس فريدمان لديه المزيد ليتطلع إليه في هذا النقاش.