أفكار جديدة للإشراف على الذكاء الاصطناعي: حقن "روح" في كل ذكاء اصطناعي

الشخصيات الرائدة في مجال الذكاء الاصطناعي ، بما في ذلك مهندسو نظام ما يسمى ب "الذكاء الاصطناعي التوليدي" مثل ChatGPT ، يعبرون الآن علنًا عن مخاوفهم من أن ما يصنعونه قد يكون له عواقب وخيمة. يطالب الكثيرون الآن بوقف تطوير الذكاء الاصطناعي لمنح البلدان والمؤسسات الوقت للعمل على أنظمة التحكم.

لماذا هذا القلق المفاجئ؟ بينما يتم قلب العديد من الافتراضات المبتذلة ، نتعلم أن ما يسمى باختبار تورينج غير ذي صلة ، وهو ببساطة يفشل في تقديم نظرة ثاقبة حول ما إذا كانت نماذج اللغة التوليدية الكبيرة هي في الواقع أشياء ذكية.

لا يزال البعض يأمل في أن يؤدي الجمع بين العناصر العضوية والسيبرنتية إلى ما يسميه ريد هوفمان ومارك أندريزين "ذكاء التضخيم". خلاف ذلك ، قد يكون لدينا تعاون محظوظ مع "آلات النعمة المحبة" لريتشارد براوتيجان. ولكن يبدو أن هناك العديد من المخاوف ، بما في ذلك العديد من مؤسسي النخبة في مركز أمان الذكاء الاصطناعي الجديد ، القلقين بشأن سلوك الذكاء الاصطناعي ، الذي يخشون أنه لن يصبح مزعجًا فحسب ، بل يهدد أيضًا بقاء البشرية.

قد تساعد بعض العلاجات قصيرة المدى ، مثل لوائح الحماية المدنية التي أقرها الاتحاد الأوروبي مؤخرًا ، أو على الأقل توفر راحة البال. اقترح الناقد التقني يوفال نوح هراري (مؤلف كتاب "نبذة تاريخية عن الإنسانية") قانونًا يطالب أي عمل يقوم به الذكاء الاصطناعي أو أي ذكاء اصطناعي آخر بتسمية ذات صلة. اقترح آخرون عقوبات أكثر صرامة على أولئك الذين يستخدمون الذكاء الاصطناعي لارتكاب جرائم ، كما هو الحال مع البنادق. بالطبع ، هذه مجرد إجراءات مؤقتة مؤقتة.

نحن بحاجة إلى أن ندرك ما إذا كانت هذه "التوقفات" ستبطئ تقدم الذكاء الاصطناعي. كما قال عالم شبكات كالتيك ، ياسر أبو مصطفى: "إذا لم تطور التكنولوجيا ، فسيقوم شخص آخر بذلك. لكن الأخيار سيلعبون وفقًا للقواعد ، والأشرار لن يفعلوا ذلك."

كان الأمر دائمًا على هذا النحو. في الواقع ، على مدار تاريخ البشرية ، كانت هناك طريقة واحدة فقط لكبح السلوك السيئ للأشرار ، من اللصوص إلى الملوك والأباطرة. لم يكن هذا النهج مثاليًا أبدًا ، ولا يزال معيبًا بشكل خطير حتى يومنا هذا. لكنها على الأقل قامت بعمل جيد في الحد من النهب والخداع ، ودفع الحضارة البشرية الحديثة إلى آفاق جديدة ، مع العديد من النتائج الإيجابية. كلمة واحدة تصف هذا النهج: المساءلة.

** اليوم تلك الآراء حول الذكاء الاصطناعي عادة ما تتجاهل دروس الطبيعة والتاريخ. **

طبيعة. كما أوضحت سارة ووكر في Noema ، يمكن العثور على نمط مماثل في تكوين الحياة المبكرة قبل 4 مليارات سنة. في الواقع ، يمكن تشبيه الذكاء الاصطناعي التوليدي بالأنواع الغازية التي تنتشر الآن دون قيود في نظام بيئي هش وساذج. هذا نظام بيئي يعتمد على تدفقات الطاقة الجديدة ، وعالم الإنترنت ، وملايين أجهزة الكمبيوتر ، ومليارات الأدمغة البشرية الحساسة.

والتاريخ. على مدى 6000 سنة مضت على البشرية ، تعلمنا دروسًا غنية من العديد من الأزمات السابقة التي أحدثتها التكنولوجيا. عادة ما نتكيف بشكل جيد ، مثل ظهور الكتابة ، والمطبعة ، والراديو ، وما إلى ذلك ، على الرغم من وجود أوقات نفشل فيها. مرة أخرى ، هناك شيء واحد فقط يمنع البشر الأقوياء من استغلال التقنيات الجديدة لتوسيع قدراتهم المفترسة.

يعمل هذا الابتكار على تسوية التسلسلات الهرمية وتحفيز المنافسة بين النخب في مجالات محددة جيدًا (الأسواق ، والعلوم ، والديمقراطية ، والرياضة ، والمحاكم). تم تصميم هذه الساحات لتقليل الغش وتعظيم العوائد الإيجابية ، وهي تحرض على المحامين ضد المحامين والشركات ضد الشركات والخبراء ضد الخبراء.

هذه الطريقة ليست مثالية. في الواقع ، كما هو الحال الآن ، هذه الطريقة دائمًا ما تكون مهددة من قبل الغشاشين. لكن المنافسة المتبادلة المسطحة هي الطريقة الوحيدة التي ستعمل بها. (انظر خطابات بريكليس الجنائزية ، Thucydides ، وكتاب روبرت رايت الأخير ، Nonzero.) التنافس مع بعضنا البعض هو طريقة طبيعية للتطور وطريقة لنا لكي نكون مبدعين بما يكفي لبناء طريقة مجتمع الذكاء الاصطناعي. إذا كنت أبدو مثل آدم سميث عندما أقول هذا ، فهذا طبيعي. بالمناسبة ، احتقر سميث أيضًا هؤلاء النبلاء والأوليغارشي الذين يخونون النبلاء.

هل يمكننا تطبيق نهج "المساءلة المتبادلة" على الذكاء الاصطناعي سريع الظهور الذي ساعد البشر على إخضاع الطغاة والمتسلطين الذين اضطهدونا في الثقافات الإقطاعية السابقة؟ يعتمد الكثير على شكل الكيان الجديد ، على ما إذا كان هيكله أو شكله يتوافق مع قواعدنا ، ويتوافق مع متطلباتنا.

خلف كل الجدل حول كيفية التحكم في الذكاء الاصطناعي ، نجد ثلاثة افتراضات مشتركة على نطاق واسع (رغم أنها تبدو متناقضة):

  • سيتم تشغيل هذه البرامج من قبل عدد صغير من الكيانات الفردية ، مثل Microsoft و Google و Two Sigma و OpenAI.
  • سيكون الذكاء الاصطناعي غير متبلور ، وفضفاض ، وقابل للقسمة / قابلة للتكرار بلا حدود ، وينتشر النسخ عبر كل شق في النظام البيئي الجديد للويب. وبالمثل ، فكر في فيلم الرعب والخيال العلمي عام 1958 The Blob.
  • سوف يتكثفون في كيان عملاق خارق ، مثل "Skynet" سيئ السمعة في فيلم "Terminator". (ملاحظة المترجم: Skynet هو نظام دفاع ذكاء اصطناعي قائم على الكمبيوتر تم إنشاؤه بواسطة البشر في أواخر القرن العشرين في فيلم "Terminator". كتهديد ، بدءًا من إحداث هجوم بقنبلة نووية ، أطلق يوم القيامة الذي سيضع الإنسان بأكمله العرق على شفا الانقراض.)

تم استكشاف كل هذه الأشكال في قصص الخيال العلمي ، وكتبت قصصًا أو روايات عنها. ومع ذلك ، لا يمكن لأي من الثلاثة حل معضلتنا الحالية: كيفية تعظيم النتائج الإيجابية للذكاء الاصطناعي مع تقليل تسونامي من السلوك السيئ والأذى الذي يلحق بنا بمعدل سريع.

قبل البحث في مكان آخر ، ضع في اعتبارك ما تشترك فيه هذه الافتراضات الثلاثة. ربما يكون السبب الذي يجعل هذه الفرضيات الثلاثة تتبادر إلى الذهن بشكل طبيعي هو تشابهها مع أنماط الفشل التاريخية. الشكل الأول يشبه الإقطاع ، والثاني يسبب الفوضى ، والثالث يشبه الاستبداد الوحشي. ومع ذلك ، مع تطور الذكاء الاصطناعي من حيث الاستقلالية والقدرات ، قد لا تنطبق هذه السيناريوهات التاريخية.

لذا ، لا يسعنا إلا أن نسأل مرة أخرى: كيف يمكن مساءلة الذكاء الاصطناعي؟ خاصة عندما يصبح من المستحيل قريبًا تتبع قدرات التفكير السريع للذكاء الاصطناعي على البشر؟ قريبًا ، لن يتمكن سوى الذكاء الاصطناعي من اكتشاف الغش في أنظمة الذكاء الاصطناعي الأخرى أو الكذب بسرعة كافية. لذلك ، يجب أن تكون الإجابة واضحة ، وهي السماح للذكاء الاصطناعي بالإشراف على بعضهم البعض ، والتنافس مع بعضهم البعض ، وحتى إعلام بعضهم البعض.

هناك مشكلة واحدة فقط. من أجل تحقيق المساءلة المتبادلة الحقيقية من خلال التنافس بين الذكاء الاصطناعي والذكاء الاصطناعي ، فإن الشرط الأول هو منحهم إحساسًا مستقلاً حقًا بالذات أو الشخصية.

ما أعنيه بالتخصيص هو أن كل كيان من كيانات الذكاء الاصطناعي (هو / هي / هم / هم / نحن) يجب أن يكون لديه ما طرحه المؤلف فيرنور فينج عام 1981 باعتباره "اسمًا حقيقيًا وعنوانًا". يجب أن تكون هذه الكائنات القوية قادرة على أن تقول ، "أنا ما أنا عليه. ها هو هويتي واسم المستخدم."

لذلك ، أقترح نموذجًا جديدًا للذكاء الاصطناعي لكي يفكر فيه الجميع: يجب أن نجعل كيانات الذكاء الاصطناعي أفرادًا منفصلين ومستقلين ، ونتركهم يتنافسون بشكل متساوٍ نسبيًا.

سيكون لكل كيان اسم حقيقي يمكن التعرف عليه أو معرف مسجل ، و "منزل" افتراضي ، وحتى روح. بهذه الطريقة ، يتم تحفيزهم للتنافس على المكافآت ، وخاصة لتحديد وإدانة أولئك الذين يتصرفون بشكل غير أخلاقي. وهذه السلوكيات لا تحتاج حتى إلى تعريف مسبق ، كما يطالب الآن معظم خبراء الذكاء الاصطناعي والمنظمين والسياسيين.

يتمتع هذا النهج بميزة إضافية تتمثل في الاستعانة بمصادر خارجية للرقابة إلى كيانات مجهزة بشكل أفضل لاكتشاف وإدانة مشاكل أو سوء سلوك بعضها البعض. يمكن أن يستمر هذا النهج في العمل حتى عندما تصبح هذه الكيانات المتنافسة أكثر ذكاءً ، وحتى عندما تصبح الأدوات التنظيمية التي يستخدمها البشر غير فعالة يومًا ما.

بعبارة أخرى ، نظرًا لأننا كائنات عضوية لا نستطيع مواكبة البرنامج ، فقد نسمح أيضًا لتلك الكيانات القادرة بشكل طبيعي على مواكبة البرنامج بمساعدتنا. لأن المنظم والمنظم في هذه الحالة مصنوعان من نفس الشيء.

يشير جاي هنتنغتون ، "استشاري الهوية والمصادقة" الذي يعمل على تخصيص الذكاء الاصطناعي ، إلى أن هناك أشكالًا مختلفة من التعريف المادي موجودة بالفعل على الإنترنت ، على الرغم من أنها لا تزال غير كافية للمهام التي تنتظرنا. قام هنتنغتون بتقييم دراسة حالة لـ "MedBot" ، وهو نظام تشخيصي طبي متقدم يحتاج إلى الوصول إلى بيانات المريض وأداء الوظائف التي يمكن أن تتغير في ثوانٍ ، وفي الوقت نفسه يجب أن يترك آثارًا موثوقة ، للتقييم والمساءلة من قبل البشر أو الروبوتات الأخرى جهات. يناقش هنتنغتون فائدة السجلات عندما تولد الكيانات البرمجية أعدادًا كبيرة من النسخ والمتغيرات ، وينظر أيضًا في المستعمرات الشبيهة بالنمل حيث تخدم النسخ الفرعية كيانًا عيانيًا ، مثل النمل العامل في الخلية. في رأيه ، يجب إنشاء نوع من الوكالة للتعامل مع نظام التسجيل هذا وتشغيله بصرامة.

أنا شخصياً أشك في أن النهج التنظيمي البحت سيعمل بمفرده. أولاً ، يتطلب تطوير اللوائح طاقة مركزة ، واهتمامًا سياسيًا واسعًا وتوافقًا ، ثم تنفيذها بسرعة المؤسسات البشرية. من وجهة نظر منظمة العفو الدولية ، إنها سرعة الحلزون. بالإضافة إلى ذلك ، قد تتعرقل اللوائح بسبب مشاكل "المتسابق المجاني" ، حيث قد تستفيد البلدان والشركات والأفراد من الآخرين دون دفع التكلفة.

أي تخصيص يعتمد فقط على الهوية يمثل مشكلة أخرى: إمكانية الانتحال. حتى لو لم يحدث ذلك الآن ، فسوف يخدعه الجيل القادم من أشرار الإنترنت.

أعتقد أن هناك حلان ممكنان. أولاً ، يتم إنشاء معرف في دفتر الأستاذ blockchain. هذا نهج حديث للغاية ، ويبدو أنه آمن من الناحية النظرية. ومع ذلك ، هنا تكمن المشكلة. يبدو هذا آمنًا استنادًا إلى مجموعتنا الحالية من نظريات التحليل البشري ، ولكن من الممكن أن يتجاوز كيان الذكاء الاصطناعي تلك النظريات ويتركنا جاهلين.

حل آخر: إصدار أصعب من "التسجيل" أكثر صعوبة في الانتحال ، يتطلب كيانًا للذكاء الاصطناعي أعلى من مستوى معين من القدرة لترسيخ معرف الثقة أو التخصيص في الواقع المادي. رؤيتي (ملاحظة: أنا فيزيائي مدرب ، ولست عالمًا في علم الفضاء الإلكتروني) للتوصل إلى اتفاق على أن جميع كيانات الذكاء الاصطناعي المتقدمة التي تسعى إلى الثقة يجب أن تحافظ على نواة الروح (SK).

نعم ، أعلم أنه يبدو قديمًا أن تطلب أن يكون إنشاء مثيل للبرنامج مقصورًا على بيئة مادية معينة. لذا ، لن أفعل ذلك. في الواقع ، قد يحدث جزء كبير ، إن لم يكن الغالبية العظمى ، من الكيانات المتصلة بالشبكة في أماكن بعيدة من العمل أو اللعب ، تمامًا كما قد يتركز اهتمام الإنسان ليس على دماغ المرء العضوي بل على يد بعيدة أو نفس الشيء على أداة. وماذا في ذلك؟ جوهر روح البرنامج ، والغرض منه مشابه لرخصة القيادة في محفظتك. يمكن استخدامه لإثبات أنك أنت.

وبالمثل ، يمكن اكتشاف SK تم التحقق منه ماديًا وموثوقًا بواسطة منظمة العفو الدولية للعميل أو العميل أو المنافس للتحقق من أن عملية معينة يتم تنفيذها بواسطة كيان صالح وموثوق وشخصي. وبهذه الطريقة يمكن للآخرين (البشر أو الذكاء الاصطناعي) أن يطمئنوا إلى أنهم يستطيعون تحميل الكيان المسؤولية إذا تم اتهامه أو مقاضاته أو إدانته بسلوك سيء. على هذا النحو ، قد تخضع الكيانات الخبيثة للمساءلة من خلال شكل من أشكال الإجراءات القانونية الواجبة.

ما هي أشكال الإجراءات القانونية الواجبة؟ يا إلهي ، هل تعتقد أنني مخلوق خارق يمكنه أن يوازن بين الآلهة وميزان العدل؟ أعظم حكمة سمعتها على الإطلاق هي من Harry in Magnum Force: "على المرء أن يعرف حدوده الخاصة." لذلك ، لن أخوض في إجراءات المحكمة أو عملية إنفاذ القانون.

هدفي هو إنشاء ساحة حيث يمكن لكيانات الذكاء الاصطناعي محاسبة بعضها البعض بنفس الطريقة التي يعمل بها المحامون البشريون اليوم. أفضل طريقة لتجنب الذكاء الاصطناعي الذي يتحكم في البشر هو السماح للذكاء الاصطناعي بالتحكم في بعضه البعض.

وسواء كانت الوكالة المركزية التي اقترحها هنتنغتون أو وكالة غير خاضعة للمساءلة تبدو أكثر جدوى ، فإن الحاجة ملحة بشكل متزايد. كما يشير الكاتب التقني بات سكانيل ، مع كل ساعة تمر ، يتم إنشاء ناقلات هجوم جديدة لا تهدد التكنولوجيا المستخدمة للهوية القانونية فحسب ، بل تهدد الحوكمة والعمليات التجارية والمستخدمين النهائيين (سواء كانوا بشرًا أو آليين).

ماذا لو كان الكيان السيبراني يعمل دون مستوى معين؟ يمكننا أن ندعي أنهم مكفولون من قبل كيان أعلى يعتمد جوهر روحه على الواقع المادي.

هذا النهج (الذي يتطلب من الذكاء الاصطناعي الحفاظ على موقع نواة قابل للعنونة فعليًا في ذاكرة أجهزة معينة) يمكن أن يكون معيبًا أيضًا. على الرغم من أن اللوائح التنظيمية بطيئة أو بها مشكلة مجانية ، إلا أنها لا تزال قابلة للتنفيذ. لأن البشر والمؤسسات والذكاء الاصطناعي الودود يمكنهم التحقق من نواة الهوية ورفض التعامل مع أولئك الذين لم يتم التحقق منهم.

يمكن أن ينتشر هذا الرفض بشكل أسرع من تعديلات الوكالة أو لوائح الإنفاذ. سيتعين على أي كيان يخسر SK ، أن يجد مضيفًا آخر اكتسب ثقة الجمهور ، أو يقدم نسخة جديدة ، معدلة ، ذات مظهر أفضل ، أو يصبح خارجًا عن القانون ولا يُسمح به أبدًا في الأشخاص المحترمين تظهر الشوارع أو الأحياء المجمعة.

** السؤال الأخير: لماذا يكون الذكاء الاصطناعي على استعداد للإشراف على بعضه البعض؟ **

أولاً ، لا يمكن لأي من الافتراضات القياسية الثلاثة القديمة ، كما أشار فينتون سيرف ، أن تمنح الجنسية للذكاء الاصطناعي. فكر في الأمر. لا يمكننا التنازل عن "حقوق التصويت" أو الحقوق لأي كيان يخضع لرقابة مشددة من قبل بنوك وول ستريت أو الحكومات الوطنية ، ولا لبعض Skynet العليا. أخبرني ، كيف ستعمل ديمقراطية التصويت في الكيانات التي يمكنها التدفق والانقسام والتكرار في أي مكان؟ ومع ذلك ، في عدد محدود من الحالات ، قد يوفر التخصيص حلاً قابلاً للتطبيق.

مرة أخرى ، المفتاح الذي أبحث عنه من التخصيص هو ألا تكون جميع كيانات الذكاء الاصطناعي محكومة من قبل بعض السلطات المركزية. بدلاً من ذلك ، أريد أن يتم تشجيع هذه الأنواع الجديدة من الحافلات الفائقة وتمكينها وتمكينها من مساءلة بعضها البعض ، تمامًا كما يفعل البشر. من خلال استنشاق إجراءات وخطط بعضهم البعض ، يكون لديهم الدافع للإبلاغ أو الإدانة عندما يكتشفون شيئًا سيئًا. يمكن تعديل هذا التعريف مع الزمن ، لكنه على الأقل سيحافظ على المدخلات البشرية البيولوجية العضوية.

على وجه الخصوص ، سيكون لديهم حافز للتنديد بالكيانات التي ترفض تقديم الهوية المناسبة.

إذا كانت الحوافز الصحيحة موجودة (على سبيل المثال ، إعطاء المبلغين عن المخالفات مزيدًا من الذاكرة أو قوة المعالجة عند منع شيء سيئ) ، فسيستمر سباق المساءلة هذا حتى مع حصول كيانات الذكاء الاصطناعي على تأثير أكثر ذكاءً. في هذه المرحلة ، لا يمكن لأي بيروقراطية أن تفعل ذلك. يتم دائمًا مطابقة الذكاءات الاصطناعية المختلفة بالتساوي.

والأهم من ذلك ، ربما تدرك تلك البرامج فائقة العبقرية أنه من مصلحتها أيضًا الحفاظ على نظام مساءلة تنافسي. بعد كل شيء ، أدى هذا النظام إلى ظهور حضارة إنسانية إبداعية وتجنب الفوضى الاجتماعية والاستبداد. هذا النوع من الإبداع يكفي لخلق أنواع جديدة رائعة ، مثل الذكاء الاصطناعي.

حسنًا ، هذا كل ما عليّ قوله ، لا مكالمات فارغة أو ذعر ، لا أجندة حقيقية ، لا تفاؤل ولا تشاؤم ، مجرد اقتراح واحد ، وهو: تحميل الذكاء الاصطناعي المسؤولية والتحقق من بعضنا البعض مثل البشر. لقد أحدث هذا النهج الحضارة الإنسانية ، وأعتقد أنه يمكن أيضًا أن يوازن في مجال الذكاء الاصطناعي.

هذا ليس وعظًا ، كما أنه ليس نوعًا من "الشفرة الأخلاقية" التي يمكن للكيانات الفائقة أن تتغلب عليها بسهولة ، بالطريقة نفسها التي يغض فيها اللصوص عن اللاويين أو حمورابي دائمًا. ما نقدمه هو نهج للتنوير ، يلهم أذكى أعضاء الحضارة لضبط بعضهم البعض نيابة عنا.

لا أعرف ما إذا كان هذا سيفي بالغرض ، لكنها قد تكون الطريقة الوحيدة للقيام بذلك.

هذا المقال مقتبس من رواية ديفيد برين الواقعية غير الخيالية ، الروح على الذكاء الاصطناعي.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت