* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *
من يخاف من الروبوتات؟ يبدو أن الكثير من الناس على هذا النحو. في الوقت الحالي ، فإن عدد الشخصيات البارزة التي تدلي ببيانات عامة أو توقع خطابات مفتوحة تحذر من المخاطر الكارثية للذكاء الاصطناعي مذهل.
تحدث المئات من العلماء وقادة الأعمال وصانعي السياسات ، من رواد التعلم العميق جيفري هينتون ويوشوا بينجيو ، إلى كبار المديرين التنفيذيين للذكاء الاصطناعي مثل سام التمان وديميس هاسابيس ، إلى نائب كاليفورنيا تيد ليو مع الرئيسة الإستونية السابقة كيرستي كالجولايد.
التأكيد الصارخ الذي وقعت عليه كل هذه الأرقام وغيرها الكثير كان بيانًا من 22 كلمة صدر قبل أسبوعين عن مركز أمان الذكاء الاصطناعي (CAIS) ، وهو منظمة بحثية مقرها سان فرانسيسكو ، والتي أعلنت أن "التخفيف من خطر الانقراض التي يمثلها الذكاء الاصطناعي يجب أن تكون أولوية عالمية ، إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية ".
هذه الصياغة متعمدة. قال دان هندريكس ، مدير CAIS: "إذا كنا سنستخدم بيان أسلوب اختبار Rorschach ، فسنقول" خطر وجودي "لأنه قد يعني الكثير من الأشياء لكثير من الأشخاص المختلفين". لكنهم أرادوا توضيحًا: إنه ليس حول انهيار الاقتصاد. قال هندريكس: "هذا هو السبب في أننا نتحدث عن" خطر الانقراض "، على الرغم من أن الكثيرين منا قلقون بشأن مخاطر أخرى مختلفة أيضًا".
لقد كنا هناك من قبل: عذاب الذكاء الاصطناعي يأتي مع ضجيج الذكاء الاصطناعي. لكن الأمر مختلف هذه المرة. لقد تحولت نافذة أوفرتون. ما كان ذات يوم وجهة نظر متطرفة أصبح الآن سائدًا ، حيث يستحوذ على عناوين الصحف واهتمام قادة العالم. قالت جينا بوريل ، مديرة الأبحاث في Data and Society ، وهي منظمة تدرس التأثير الاجتماعي للتكنولوجيا: "أصبحت أصوات القلق بشأن الذكاء الاصطناعي عالية جدًا بحيث لا يمكن تجاهلها".
ماذا حدث؟ هل أصبح الذكاء الاصطناعي حقًا (أكثر) خطورة؟ لماذا بدأ الأشخاص الذين أدخلوا هذه التكنولوجيا في المقام الأول الآن في دق ناقوس الخطر؟
من المسلم به أن هذه الآراء مقسمة في الميدان. في الأسبوع الماضي ، وصف كبير العلماء في Meta Yann LeCun ، الذي شارك جائزة Turing لعام 2018 مع Hinton و Bengio ، نظرية يوم القيامة بأنها "سخيفة". وقال أيدان جوميز ، الرئيس التنفيذي لشركة Cohere للذكاء الاصطناعي ، إنه "استخدام سخيف لعصرنا".
وبالمثل ، سخر آخرون من ذلك. قالت ميريديث ويتاكر ، رئيسة Signal: "لا يوجد دليل الآن أكثر مما كان عليه الحال في عام 1950 على أن الذكاء الاصطناعي سيشكل هذه المخاطر الوجودية". ويتاكر هو المؤسس المشارك والمدير السابق لمعهد الذكاء الاصطناعي الآن ، وهو مختبر أبحاث التي تدرس الآثار السياسية للذكاء الاصطناعي. "قصص الأشباح معدية - الخوف أمر مثير ومحفز حقًا."
قال بوريل: "إنها أيضًا طريقة للنظر إلى ما وراء كل ما يحدث اليوم". "إنه يظهر أننا لم نشهد ضررًا حقيقيًا أو خطيرًا".
** خوف قديم **
ظهرت مخاوف بشأن الآلات الجامحة وذاتية التحسين منذ آلان تورينج. قام المستقبليون مثل فيرنور فينج وراي كورزويل بترويج هذه الأفكار بالحديث عن ما يسمى بـ "التفرد" ، وهو تاريخ افتراضي يتفوق فيه الذكاء الاصطناعي على الذكاء البشري وتسيطر عليه الآلات.
لكن في قلب هذا القلق يكمن سؤال التحكم: إذا (أو متى) أصبحت الآلات أكثر ذكاءً ، فكيف يمكن للبشر الحفاظ على هيمنتهم؟ في ورقة بحثية نُشرت عام 2017 بعنوان "كيف يشكل الذكاء الاصطناعي خطرًا وجوديًا؟" ، توضح كارينا فولد ، فيلسوفة الذكاء الاصطناعي بجامعة تورنتو (والتي وقعت أيضًا على بيان CAIS) ، الحجج الأساسية وراء هذا القلق.
الحجة لها ثلاثة مقدمات رئيسية. أولاً ، من الممكن للبشر أن يصنعوا آلة فائقة الذكاء تفوق كل الذكاءات الأخرى. ثانيًا ، نحن نجازف بفقدان السيطرة على عوامل فائقة الذكاء قادرة على تجاوزنا. ثالثًا ، هناك احتمال أن يقوم عميل فائق الذكاء بأشياء لا نريده أن يفعلها.
بتجميع كل هذا معًا ، من الممكن إنشاء آلة تقوم بأشياء لا نريدها أن تفعلها ، بما في ذلك تدميرنا ، ولن نتمكن من إيقافها.
هناك أيضًا حالات مختلفة لهذا السيناريو. عندما أثار هينتون مخاوفه بشأن الذكاء الاصطناعي في مايو ، استشهد بمثال الروبوتات التي تعيد توجيه الشبكة لمنح نفسها المزيد من القوة. لكن الذكاء الخارق (أو AGI) ليس ضروريًا. يمكن للآلات الغبية أيضًا أن تكون كارثية إذا كان لديها مساحة كبيرة. تتضمن العديد من السيناريوهات عمليات نشر متهورة أو ضارة بدلاً من برامج الروبوت ذاتية الخدمة.
في ورقة بحثية نُشرت على الإنترنت الأسبوع الماضي ، قدم باحثا الذكاء الاصطناعي ستيوارت راسل وأندرو كريتش من جامعة كاليفورنيا ، بيركلي (الذي وقع أيضًا على بيان CAIS) تصنيفًا للمخاطر الوجودية. تتراوح هذه المخاطر من روبوتات المحادثة التي تقدم المشورة الفيروسية والتي تخبر الملايين بالتسرب من الكلية ، إلى الصناعات المستقلة التي تسعى إلى تحقيق غايات اقتصادية ضارة ، إلى قيام الدول القومية ببناء أسلحة عملاقة تعمل بالذكاء الاصطناعي.
في كثير من الحالات المتخيلة ، يحقق النموذج النظري أهدافه التي منحها الإنسان ، ولكن بطريقة لا تفيدنا. بالنسبة إلى Hendrycks ، الذي يدرس كيف تتصرف نماذج التعلم العميق أحيانًا بطرق غير متوقعة عند إعطاء مدخلات لم تظهر في بيانات التدريب ، يمكن أن يكون نظام الذكاء الاصطناعي كارثيًا لأنه مدمر وليس كلي القدرة. وقال: "إذا أعطيته هدفًا ووجد حلًا غريبًا ، فإنه يأخذنا في رحلة غريبة".
المشكلة في هذه العقود المستقبلية المحتملة هي أنها تعتمد على سلسلة من "ifs" تجعلها تبدو مثل خيال علمي. اعترف فولد نفسه بذلك. وكتبت: "لأن الأحداث التي تشكل أو تؤدي إلى [مخاطر وجودية] غير مسبوقة ، فإن الحجج التي تشكل مثل هذا التهديد يجب أن تكون ذات طبيعة نظرية". "ندرتها تجعل أي تكهنات حول كيف ومتى تحدث مثل هذه الأحداث غير موضوعية ولا يمكن التحقق منها تجريبياً."
فلماذا يؤمن الناس بهذه الأفكار أكثر من أي وقت مضى؟ يقول فرانسوا شوليت ، باحث الذكاء الاصطناعي في Google: "يتحدث الأشخاص المختلفون عن المخاطر لأسباب مختلفة ، ويمكن أن يعنونها بشكل مختلف". لكنها سرد لا يقاوم: "لطالما كانت المخاطر الوجودية قصة جيدة".
قال ويتاكر: "هناك عنصر أسطوري ، شبه ديني لا يمكن تجاهله". "أعتقد أننا بحاجة إلى إدراك أنه بالنظر إلى أن ما يتم وصفه ليس له قاعدة أدلة ، فهو أقرب إلى الاعتقاد ، والحماسة الدينية ، من الخطاب العلمي."
** عدوى يوم القيامة **
عندما بدأ باحثو التعلم العميق لأول مرة في تحقيق سلسلة من النجاحات - فكر في درجة التعرف على الصور التي حطمها هينتون وزملائه في مسابقة ImageNet لعام 2012 ، وأول انتصار AlphaGo لـ DeepMind على بطل بشري في عام 2015 ، سرعان ما تحول الضجيج إلى يوم القيامة أيضا. أطلق علماء بارزون مثل هوكينج وعالم الكونيات مارتن ريس ، بالإضافة إلى قادة التكنولوجيا البارزين مثل إيلون ماسك ، ناقوس الخطر بشأن المخاطر الوجودية. لكن هذه الشخصيات ليست خبراء في الذكاء الاصطناعي.
وقف أندرو نج على خشبة المسرح في سان خوسيه قبل ثماني سنوات ، وهو رائد التعلم العميق ثم كبير العلماء في بايدو ، ضحك على الفكرة.
قال Andrew Ng للجمهور في مؤتمر Nvidia GPU Technology لعام 2015: "في المستقبل البعيد ، قد يكون هناك سباق روبوت قاتل". "لكنني لست ملتزمًا اليوم بمنع الذكاء الاصطناعي من أن يصبح شريرًا بقدر ما أشعر بالقلق بشأن الزيادة السكانية على كوكب المريخ." (تم الإبلاغ عن تصريحات نج في ذلك الوقت من خلال موقع الأخبار التكنولوجي The Register.)
أندرو نج ، الذي شارك في تأسيس مختبر الذكاء الاصطناعي في Google في عام 2011 وهو الآن الرئيس التنفيذي لشركة Landing AI ، كرر هذه العبارة في المقابلات منذ ذلك الحين. لكنه الآن أقل تفاؤلاً. قال لي: "أنا متفتح الذهن وأتحدث إلى عدد قليل من الناس لمعرفة المزيد". "التطورات السريعة جعلت العلماء يعيدون التفكير في المخاطر."
مثل الكثيرين ، أعرب نج عن قلقه بشأن التطور السريع للذكاء الاصطناعي التوليدي وإمكانية إساءة استخدامه. وأشار في الشهر الماضي إلى أن الصورة التي انتشرت على نطاق واسع والتي تم إنتاجها بواسطة الذكاء الاصطناعي عن انفجار في البنتاغون أخافت الناس ، مما أدى إلى هبوط سوق الأسهم.
قال نج: "لسوء الحظ ، فإن الذكاء الاصطناعي قوي جدًا لدرجة أنه من المحتمل أيضًا أن يتسبب في مشاكل كبيرة". لكنه لم يتحدث عن الروبوتات القاتلة: "في الوقت الحالي ، ما زلت أجد صعوبة في رؤية كيف يمكن أن يؤدي الذكاء الاصطناعي إلى انقراضنا".
ما يختلف عما كان عليه من قبل هو الوعي الواسع بما يمكن أن يفعله الذكاء الاصطناعي. أتاح ChatGPT التكنولوجيا للجمهور أواخر العام الماضي. قال شوليت: "أصبح الذكاء الاصطناعي فجأة موضوعًا ساخنًا في الاتجاه السائد". "يأخذ الناس الذكاء الاصطناعي على محمل الجد لأنهم يرون قفزات مفاجئة في القدرات كنذير لمزيد من القفزات القادمة."
بالإضافة إلى ذلك ، يمكن أن تكون تجربة التحدث إلى chatbot مقلقة. المحادثة هي شيء يُفهم عمومًا على أنه شيء يفعله الناس مع أشخاص آخرين. قال ويتاكر: "إنه يضيف إحساسًا بالشرعية لفكرة أن يكون الذكاء الاصطناعي مثل الإنسان أو المحاور الواعي. أعتقد أنه يقود الناس إلى الاعتقاد بأنه إذا كان بإمكان الذكاء الاصطناعي محاكاة التواصل البشري ، فيمكنه أيضًا تنفيذ XYZ."
وقالت: "لهذا السبب بدأت أشعر أن الحديث عن مخاطر البقاء على قيد الحياة مناسب إلى حد ما - عمل استنتاجات بدون دليل".
يتطلع
لدينا سبب للغضب. بينما تلعب الهيئات التنظيمية دور اللحاق بالركب في صناعة التكنولوجيا ، فإن الأسئلة مطروحة على الطاولة حول نوع النشاط الذي يجب أو لا ينبغي تقييده. إن تسليط الضوء على المخاطر طويلة الأجل بدلاً من الأضرار قصيرة المدى (مثل التوظيف التمييزي أو المعلومات الخاطئة) يعيد تركيز المنظمين على مشاكل المستقبل الافتراضية.
قالت بوريل: "أظن أن التهديد بفرض قيود تنظيمية حقيقية قد أدى إلى اتخاذ موقف. قد يؤدي الحديث عن المخاطر الوجودية إلى إثبات مخاوف المنظمين دون تدمير فرص العمل". وقالت: "الذكاء الاصطناعي الخارق الذي يخون الإنسانية يبدو مخيفًا ، لكنه أيضًا من الواضح أن شيئًا لم يحدث بعد ".
إن المبالغة في المخاوف بشأن المخاطر الوجودية مفيدة أيضًا للأعمال التجارية بطرق أخرى. يشير شوليت إلى أن أفضل شركات الذكاء الاصطناعي بحاجة منا إلى الاعتقاد بأن الذكاء الاصطناعي العام قادم ، وهم من يصنعونه. وقال: "إذا كنت تريد أن يعتقد الناس أن ما تعمل عليه قوي ، فمن الجيد أن تجعلهم يخافون منه".
يأخذ ويتاكر وجهة نظر مماثلة. وقالت: "من المهم أن تصور نفسك على أنك منشئ كيان قد يكون أقوى من البشر".
لا شيء من هذا مهم إذا كان مجرد تسويق أو دعاية. لكن تحديد ما هو خطر وما هو ليس مخاطرة له عواقب. في عالم من الميزانيات المحدودة ومدى الاهتمام ، قد يتم التغاضي عن الإصابات الأقل خطورة من الحرب النووية لأننا لا نعتقد أنها أولويات.
قالت سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now: "هذا سؤال مهم ، لا سيما بالنظر إلى التركيز المتزايد على السلامة والأمن كإطار ضيق للتدخل السياسي".
عندما التقى رئيس الوزراء ريشي سوناك برؤساء شركات الذكاء الاصطناعي ، بما في ذلك سام التمان وديميس حسابيس ، في مايو ، أصدرت حكومة المملكة المتحدة بيانًا قالت فيه: "ناقش رئيس الوزراء والرؤساء التنفيذيون مخاطر التكنولوجيا ، من المعلومات المضللة وأمن الدولة ، إلى تهديد وجودي ".
في الأسبوع السابق ، أخبر ألتمان مجلس الشيوخ الأمريكي أن قلقه الأكبر هو أن صناعة الذكاء الاصطناعي ستلحق ضرراً كبيراً بالعالم. أثارت شهادة ألتمان دعوات لنوع جديد من الوكالات لمعالجة هذا الضرر غير المسبوق.
مع تحول نافذة أوفرتون ، هل حدث الضرر؟ "إذا كنا نتحدث عن المستقبل البعيد ، إذا كنا نتحدث عن المخاطر الأسطورية ، فإننا نعيد صياغة المشكلة بالكامل على أنها مشكلة موجودة في عالم خيالي ، ويمكن أن يوجد الحل في عالم خيالي ،" ويتاكر قال.
لكن ويتاكر أشار أيضًا إلى أن المناقشات السياسية حول الذكاء الاصطناعي مستمرة منذ سنوات ، أطول من المخاوف الأخيرة. قالت: "أنا لا أؤمن بالحتمية". "سنرى الضجيج يتم التصدي له. سوف يتلاشى."
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
مراجعة MIT للتكنولوجيا: كيف أصبحت المخاطر الوجودية أكبر شركة في مجال الذكاء الاصطناعي
بقلم: ويل دوغلاس هيفين
المصدر: MIT Technology Review
من يخاف من الروبوتات؟ يبدو أن الكثير من الناس على هذا النحو. في الوقت الحالي ، فإن عدد الشخصيات البارزة التي تدلي ببيانات عامة أو توقع خطابات مفتوحة تحذر من المخاطر الكارثية للذكاء الاصطناعي مذهل.
تحدث المئات من العلماء وقادة الأعمال وصانعي السياسات ، من رواد التعلم العميق جيفري هينتون ويوشوا بينجيو ، إلى كبار المديرين التنفيذيين للذكاء الاصطناعي مثل سام التمان وديميس هاسابيس ، إلى نائب كاليفورنيا تيد ليو مع الرئيسة الإستونية السابقة كيرستي كالجولايد.
التأكيد الصارخ الذي وقعت عليه كل هذه الأرقام وغيرها الكثير كان بيانًا من 22 كلمة صدر قبل أسبوعين عن مركز أمان الذكاء الاصطناعي (CAIS) ، وهو منظمة بحثية مقرها سان فرانسيسكو ، والتي أعلنت أن "التخفيف من خطر الانقراض التي يمثلها الذكاء الاصطناعي يجب أن تكون أولوية عالمية ، إلى جانب المخاطر المجتمعية الأخرى مثل الأوبئة والحرب النووية ".
هذه الصياغة متعمدة. قال دان هندريكس ، مدير CAIS: "إذا كنا سنستخدم بيان أسلوب اختبار Rorschach ، فسنقول" خطر وجودي "لأنه قد يعني الكثير من الأشياء لكثير من الأشخاص المختلفين". لكنهم أرادوا توضيحًا: إنه ليس حول انهيار الاقتصاد. قال هندريكس: "هذا هو السبب في أننا نتحدث عن" خطر الانقراض "، على الرغم من أن الكثيرين منا قلقون بشأن مخاطر أخرى مختلفة أيضًا".
لقد كنا هناك من قبل: عذاب الذكاء الاصطناعي يأتي مع ضجيج الذكاء الاصطناعي. لكن الأمر مختلف هذه المرة. لقد تحولت نافذة أوفرتون. ما كان ذات يوم وجهة نظر متطرفة أصبح الآن سائدًا ، حيث يستحوذ على عناوين الصحف واهتمام قادة العالم. قالت جينا بوريل ، مديرة الأبحاث في Data and Society ، وهي منظمة تدرس التأثير الاجتماعي للتكنولوجيا: "أصبحت أصوات القلق بشأن الذكاء الاصطناعي عالية جدًا بحيث لا يمكن تجاهلها".
ماذا حدث؟ هل أصبح الذكاء الاصطناعي حقًا (أكثر) خطورة؟ لماذا بدأ الأشخاص الذين أدخلوا هذه التكنولوجيا في المقام الأول الآن في دق ناقوس الخطر؟
من المسلم به أن هذه الآراء مقسمة في الميدان. في الأسبوع الماضي ، وصف كبير العلماء في Meta Yann LeCun ، الذي شارك جائزة Turing لعام 2018 مع Hinton و Bengio ، نظرية يوم القيامة بأنها "سخيفة". وقال أيدان جوميز ، الرئيس التنفيذي لشركة Cohere للذكاء الاصطناعي ، إنه "استخدام سخيف لعصرنا".
وبالمثل ، سخر آخرون من ذلك. قالت ميريديث ويتاكر ، رئيسة Signal: "لا يوجد دليل الآن أكثر مما كان عليه الحال في عام 1950 على أن الذكاء الاصطناعي سيشكل هذه المخاطر الوجودية". ويتاكر هو المؤسس المشارك والمدير السابق لمعهد الذكاء الاصطناعي الآن ، وهو مختبر أبحاث التي تدرس الآثار السياسية للذكاء الاصطناعي. "قصص الأشباح معدية - الخوف أمر مثير ومحفز حقًا."
قال بوريل: "إنها أيضًا طريقة للنظر إلى ما وراء كل ما يحدث اليوم". "إنه يظهر أننا لم نشهد ضررًا حقيقيًا أو خطيرًا".
** خوف قديم **
ظهرت مخاوف بشأن الآلات الجامحة وذاتية التحسين منذ آلان تورينج. قام المستقبليون مثل فيرنور فينج وراي كورزويل بترويج هذه الأفكار بالحديث عن ما يسمى بـ "التفرد" ، وهو تاريخ افتراضي يتفوق فيه الذكاء الاصطناعي على الذكاء البشري وتسيطر عليه الآلات.
لكن في قلب هذا القلق يكمن سؤال التحكم: إذا (أو متى) أصبحت الآلات أكثر ذكاءً ، فكيف يمكن للبشر الحفاظ على هيمنتهم؟ في ورقة بحثية نُشرت عام 2017 بعنوان "كيف يشكل الذكاء الاصطناعي خطرًا وجوديًا؟" ، توضح كارينا فولد ، فيلسوفة الذكاء الاصطناعي بجامعة تورنتو (والتي وقعت أيضًا على بيان CAIS) ، الحجج الأساسية وراء هذا القلق.
الحجة لها ثلاثة مقدمات رئيسية. أولاً ، من الممكن للبشر أن يصنعوا آلة فائقة الذكاء تفوق كل الذكاءات الأخرى. ثانيًا ، نحن نجازف بفقدان السيطرة على عوامل فائقة الذكاء قادرة على تجاوزنا. ثالثًا ، هناك احتمال أن يقوم عميل فائق الذكاء بأشياء لا نريده أن يفعلها.
بتجميع كل هذا معًا ، من الممكن إنشاء آلة تقوم بأشياء لا نريدها أن تفعلها ، بما في ذلك تدميرنا ، ولن نتمكن من إيقافها.
هناك أيضًا حالات مختلفة لهذا السيناريو. عندما أثار هينتون مخاوفه بشأن الذكاء الاصطناعي في مايو ، استشهد بمثال الروبوتات التي تعيد توجيه الشبكة لمنح نفسها المزيد من القوة. لكن الذكاء الخارق (أو AGI) ليس ضروريًا. يمكن للآلات الغبية أيضًا أن تكون كارثية إذا كان لديها مساحة كبيرة. تتضمن العديد من السيناريوهات عمليات نشر متهورة أو ضارة بدلاً من برامج الروبوت ذاتية الخدمة.
في ورقة بحثية نُشرت على الإنترنت الأسبوع الماضي ، قدم باحثا الذكاء الاصطناعي ستيوارت راسل وأندرو كريتش من جامعة كاليفورنيا ، بيركلي (الذي وقع أيضًا على بيان CAIS) تصنيفًا للمخاطر الوجودية. تتراوح هذه المخاطر من روبوتات المحادثة التي تقدم المشورة الفيروسية والتي تخبر الملايين بالتسرب من الكلية ، إلى الصناعات المستقلة التي تسعى إلى تحقيق غايات اقتصادية ضارة ، إلى قيام الدول القومية ببناء أسلحة عملاقة تعمل بالذكاء الاصطناعي.
في كثير من الحالات المتخيلة ، يحقق النموذج النظري أهدافه التي منحها الإنسان ، ولكن بطريقة لا تفيدنا. بالنسبة إلى Hendrycks ، الذي يدرس كيف تتصرف نماذج التعلم العميق أحيانًا بطرق غير متوقعة عند إعطاء مدخلات لم تظهر في بيانات التدريب ، يمكن أن يكون نظام الذكاء الاصطناعي كارثيًا لأنه مدمر وليس كلي القدرة. وقال: "إذا أعطيته هدفًا ووجد حلًا غريبًا ، فإنه يأخذنا في رحلة غريبة".
المشكلة في هذه العقود المستقبلية المحتملة هي أنها تعتمد على سلسلة من "ifs" تجعلها تبدو مثل خيال علمي. اعترف فولد نفسه بذلك. وكتبت: "لأن الأحداث التي تشكل أو تؤدي إلى [مخاطر وجودية] غير مسبوقة ، فإن الحجج التي تشكل مثل هذا التهديد يجب أن تكون ذات طبيعة نظرية". "ندرتها تجعل أي تكهنات حول كيف ومتى تحدث مثل هذه الأحداث غير موضوعية ولا يمكن التحقق منها تجريبياً."
فلماذا يؤمن الناس بهذه الأفكار أكثر من أي وقت مضى؟ يقول فرانسوا شوليت ، باحث الذكاء الاصطناعي في Google: "يتحدث الأشخاص المختلفون عن المخاطر لأسباب مختلفة ، ويمكن أن يعنونها بشكل مختلف". لكنها سرد لا يقاوم: "لطالما كانت المخاطر الوجودية قصة جيدة".
قال ويتاكر: "هناك عنصر أسطوري ، شبه ديني لا يمكن تجاهله". "أعتقد أننا بحاجة إلى إدراك أنه بالنظر إلى أن ما يتم وصفه ليس له قاعدة أدلة ، فهو أقرب إلى الاعتقاد ، والحماسة الدينية ، من الخطاب العلمي."
** عدوى يوم القيامة **
عندما بدأ باحثو التعلم العميق لأول مرة في تحقيق سلسلة من النجاحات - فكر في درجة التعرف على الصور التي حطمها هينتون وزملائه في مسابقة ImageNet لعام 2012 ، وأول انتصار AlphaGo لـ DeepMind على بطل بشري في عام 2015 ، سرعان ما تحول الضجيج إلى يوم القيامة أيضا. أطلق علماء بارزون مثل هوكينج وعالم الكونيات مارتن ريس ، بالإضافة إلى قادة التكنولوجيا البارزين مثل إيلون ماسك ، ناقوس الخطر بشأن المخاطر الوجودية. لكن هذه الشخصيات ليست خبراء في الذكاء الاصطناعي.
وقف أندرو نج على خشبة المسرح في سان خوسيه قبل ثماني سنوات ، وهو رائد التعلم العميق ثم كبير العلماء في بايدو ، ضحك على الفكرة.
قال Andrew Ng للجمهور في مؤتمر Nvidia GPU Technology لعام 2015: "في المستقبل البعيد ، قد يكون هناك سباق روبوت قاتل". "لكنني لست ملتزمًا اليوم بمنع الذكاء الاصطناعي من أن يصبح شريرًا بقدر ما أشعر بالقلق بشأن الزيادة السكانية على كوكب المريخ." (تم الإبلاغ عن تصريحات نج في ذلك الوقت من خلال موقع الأخبار التكنولوجي The Register.)
أندرو نج ، الذي شارك في تأسيس مختبر الذكاء الاصطناعي في Google في عام 2011 وهو الآن الرئيس التنفيذي لشركة Landing AI ، كرر هذه العبارة في المقابلات منذ ذلك الحين. لكنه الآن أقل تفاؤلاً. قال لي: "أنا متفتح الذهن وأتحدث إلى عدد قليل من الناس لمعرفة المزيد". "التطورات السريعة جعلت العلماء يعيدون التفكير في المخاطر."
مثل الكثيرين ، أعرب نج عن قلقه بشأن التطور السريع للذكاء الاصطناعي التوليدي وإمكانية إساءة استخدامه. وأشار في الشهر الماضي إلى أن الصورة التي انتشرت على نطاق واسع والتي تم إنتاجها بواسطة الذكاء الاصطناعي عن انفجار في البنتاغون أخافت الناس ، مما أدى إلى هبوط سوق الأسهم.
قال نج: "لسوء الحظ ، فإن الذكاء الاصطناعي قوي جدًا لدرجة أنه من المحتمل أيضًا أن يتسبب في مشاكل كبيرة". لكنه لم يتحدث عن الروبوتات القاتلة: "في الوقت الحالي ، ما زلت أجد صعوبة في رؤية كيف يمكن أن يؤدي الذكاء الاصطناعي إلى انقراضنا".
ما يختلف عما كان عليه من قبل هو الوعي الواسع بما يمكن أن يفعله الذكاء الاصطناعي. أتاح ChatGPT التكنولوجيا للجمهور أواخر العام الماضي. قال شوليت: "أصبح الذكاء الاصطناعي فجأة موضوعًا ساخنًا في الاتجاه السائد". "يأخذ الناس الذكاء الاصطناعي على محمل الجد لأنهم يرون قفزات مفاجئة في القدرات كنذير لمزيد من القفزات القادمة."
بالإضافة إلى ذلك ، يمكن أن تكون تجربة التحدث إلى chatbot مقلقة. المحادثة هي شيء يُفهم عمومًا على أنه شيء يفعله الناس مع أشخاص آخرين. قال ويتاكر: "إنه يضيف إحساسًا بالشرعية لفكرة أن يكون الذكاء الاصطناعي مثل الإنسان أو المحاور الواعي. أعتقد أنه يقود الناس إلى الاعتقاد بأنه إذا كان بإمكان الذكاء الاصطناعي محاكاة التواصل البشري ، فيمكنه أيضًا تنفيذ XYZ."
وقالت: "لهذا السبب بدأت أشعر أن الحديث عن مخاطر البقاء على قيد الحياة مناسب إلى حد ما - عمل استنتاجات بدون دليل".
يتطلع
لدينا سبب للغضب. بينما تلعب الهيئات التنظيمية دور اللحاق بالركب في صناعة التكنولوجيا ، فإن الأسئلة مطروحة على الطاولة حول نوع النشاط الذي يجب أو لا ينبغي تقييده. إن تسليط الضوء على المخاطر طويلة الأجل بدلاً من الأضرار قصيرة المدى (مثل التوظيف التمييزي أو المعلومات الخاطئة) يعيد تركيز المنظمين على مشاكل المستقبل الافتراضية.
قالت بوريل: "أظن أن التهديد بفرض قيود تنظيمية حقيقية قد أدى إلى اتخاذ موقف. قد يؤدي الحديث عن المخاطر الوجودية إلى إثبات مخاوف المنظمين دون تدمير فرص العمل". وقالت: "الذكاء الاصطناعي الخارق الذي يخون الإنسانية يبدو مخيفًا ، لكنه أيضًا من الواضح أن شيئًا لم يحدث بعد ".
إن المبالغة في المخاوف بشأن المخاطر الوجودية مفيدة أيضًا للأعمال التجارية بطرق أخرى. يشير شوليت إلى أن أفضل شركات الذكاء الاصطناعي بحاجة منا إلى الاعتقاد بأن الذكاء الاصطناعي العام قادم ، وهم من يصنعونه. وقال: "إذا كنت تريد أن يعتقد الناس أن ما تعمل عليه قوي ، فمن الجيد أن تجعلهم يخافون منه".
يأخذ ويتاكر وجهة نظر مماثلة. وقالت: "من المهم أن تصور نفسك على أنك منشئ كيان قد يكون أقوى من البشر".
لا شيء من هذا مهم إذا كان مجرد تسويق أو دعاية. لكن تحديد ما هو خطر وما هو ليس مخاطرة له عواقب. في عالم من الميزانيات المحدودة ومدى الاهتمام ، قد يتم التغاضي عن الإصابات الأقل خطورة من الحرب النووية لأننا لا نعتقد أنها أولويات.
قالت سارة مايرز ويست ، المديرة الإدارية لمعهد AI Now: "هذا سؤال مهم ، لا سيما بالنظر إلى التركيز المتزايد على السلامة والأمن كإطار ضيق للتدخل السياسي".
عندما التقى رئيس الوزراء ريشي سوناك برؤساء شركات الذكاء الاصطناعي ، بما في ذلك سام التمان وديميس حسابيس ، في مايو ، أصدرت حكومة المملكة المتحدة بيانًا قالت فيه: "ناقش رئيس الوزراء والرؤساء التنفيذيون مخاطر التكنولوجيا ، من المعلومات المضللة وأمن الدولة ، إلى تهديد وجودي ".
في الأسبوع السابق ، أخبر ألتمان مجلس الشيوخ الأمريكي أن قلقه الأكبر هو أن صناعة الذكاء الاصطناعي ستلحق ضرراً كبيراً بالعالم. أثارت شهادة ألتمان دعوات لنوع جديد من الوكالات لمعالجة هذا الضرر غير المسبوق.
مع تحول نافذة أوفرتون ، هل حدث الضرر؟ "إذا كنا نتحدث عن المستقبل البعيد ، إذا كنا نتحدث عن المخاطر الأسطورية ، فإننا نعيد صياغة المشكلة بالكامل على أنها مشكلة موجودة في عالم خيالي ، ويمكن أن يوجد الحل في عالم خيالي ،" ويتاكر قال.
لكن ويتاكر أشار أيضًا إلى أن المناقشات السياسية حول الذكاء الاصطناعي مستمرة منذ سنوات ، أطول من المخاوف الأخيرة. قالت: "أنا لا أؤمن بالحتمية". "سنرى الضجيج يتم التصدي له. سوف يتلاشى."