قال المخرج السينمائي كريستوفر نولان إنه تحدث مع علماء الذكاء الاصطناعي الذين يعيشون "لحظة أوبنهايمر" ويشعرون بالقلق بشأن التدمير المحتمل لإبداعاتهم. "أنا أروي قصة أوبنهايمر،" قال عن فيلمه عن السيرة الذاتية لأوبنهايمر، "لأنني أعتقد أنها قصة مهمة، وهي بالتأكيد قصة تحذيرية." في الواقع، قارن بعض الناس الترامان سام من OpenAI مع والد قنبلة ذرية.
أطلق على أوبنهايمر لقب "بروميثيوس أمريكا" من قبل كتاب سيرته لأنه فك من الآلهة سر النار النووية وتقسيم المادة وإطلاق طاقة مرعبة كان يخشى أن تحرق الحضارة الإنسانية.
ويتساءل ألتمان أيضًا عما إذا كان استخدامه لـ ChatGPT لتعزيز تطوير الذكاء الاصطناعي التوليدي يعد أيضًا "أمرًا سيئًا للغاية". وقال أمام جلسة استماع بمجلس الشيوخ: "إذا حدث خطأ في هذه التكنولوجيا، فقد يكون الأمر كارثيا".وغادر جريجوري هينتون، المعروف باسم الأب الروحي للذكاء الاصطناعي، شركة جوجل في مايو، قائلا إنه لا يحترم العمل الذي بذله طوال حياته. آلات أكثر ذكاء من البشر - أمر مؤسف جزئيا. وحذر من أنه "سيكون من الصعب للغاية بالنسبة لنا منع الجهات الفاعلة السيئة من استخدام الذكاء الاصطناعي للقيام بأشياء سيئة". وعلاوة على ذلك، تحدث آخرون من أقرانه عن "خطر انقراض الذكاء الاصطناعي"، ومقارنته بتهديدات وجودية أخرى مثل الحرب النووية. وتغير المناخ والأوبئة.
وفقا ليوفال نوح هراري (مؤلف كتاب "تاريخ موجز للإنسانية")، فإن القوة التدميرية للذكاء الاصطناعي التوليدي للمجتمع قد لا تقل عن قوة القنابل الذرية. وعلى حد تعبير أوبنهايمر من "بغفاد غيتا"، فإنه "العالم "المدمر"." هذه المرة، أصبح الإنسان العاقل آلهة، وقد تحل النسل غير العضوي الذي أنتجهم يومًا ما محل أسلافهم. في حديث له قبل بضع سنوات، عبّر هراري عن الأمر بهذه الطريقة: "يبدأ تاريخ البشرية عندما يخلق البشر آلهة. وعندما يصبح البشر آلهة، ينتهي تاريخ البشرية".
يشرح هراري والمؤلفان المشاركان تريستان هاريس وآزا راسكين في مقال حديث: "في البداية كانت اللغة. اللغة هي نظام تشغيل الثقافة الإنسانية. من اللغة نشأت الأسطورة والقانون، والآلهة والمال، والفن والعلوم، والصداقة، "الدول ورمز الكمبيوتر. إن إتقان الذكاء الاصطناعي الجديد للغة يعني أنه يمكنه الآن اختراق أنظمة تشغيل الحضارة والتلاعب بها. ومن خلال إتقان اللغة، يستولي الذكاء الاصطناعي على المفتاح الرئيسي للحضارة، من خزائن البنوك إلى كنيسة القيامة".
ومضوا في الكتابة:
منذ آلاف السنين، كنا نحن البشر نعيش في أحلام الآخرين. نحن نعبد الآلهة، ونسعى إلى المُثُل الجميلة، ونكرس حياتنا لقضايا تنبع من خيال الأنبياء، أو الشعراء، أو رجال الدولة. قريباً، سنجد أنفسنا أيضاً نعيش في وهم الذكاء دون البشري...
قريبًا سنواجه أخيرًا شيطان ديكارت، وكهف أفلاطون، والمايا البوذية. قد يخيم حجاب الوهم على البشرية جمعاء، وقد لا نتمكن أبدا من رفعه مرة أخرى - أو حتى أن ندرك وجوده.
إن احتمال قيام كيانات غير بشرية بكتابة رواياتنا أثار قلق المؤرخ والفيلسوف الإسرائيلي إلى حد أنه نصح الإنسان العاقل بشكل عاجل بالتوقف قبل تسليم السيطرة على عالمنا إلى التكنولوجيات التي نعمل على تمكينها. تعال وفكر مرتين.
وحذروا من أنه "يجب أن نكون على دراية بالذكاء الاصطناعي قبل أن تعتمد عليه سياساتنا واقتصادنا وحياتنا اليومية. وإذا انتظرنا حتى تحدث الفوضى لاتخاذ الإجراءات اللازمة، فسيكون الأوان قد فات".
احتمالية حدوث سيناريو "Terminator" منخفضة
كتب نائب رئيس Google Blaise Agüera Y Arcas وزملاؤه من معهد كيبيك للذكاء الاصطناعي في مجلة Noema أنهم لا يعتقدون أن المشهد الهوليوودي لفيلم "Terminator" سيظهر في المستقبل القريب. وبدلا من ذلك، فإنهم يشعرون بالقلق من أن التركيز على "التهديدات الوجودية" في المستقبل البعيد سوف يصرف الانتباه عن التخفيف من المخاطر الواضحة التي يشكلها الذكاء الاصطناعي على مجتمع اليوم.
قبل أن يتحول الذكاء الاصطناعي إلى الذكاء الفائق، فإن أسوأ مخاوفهم موجودة بالفعل: المراقبة الجماعية، والتضليل والتلاعب، وإساءة الاستخدام العسكري للذكاء الاصطناعي، والإزاحة الجماعية للوظائف.
بالنسبة لهذه المجموعة من العلماء والتقنيين، "يعد الانقراض بواسطة الذكاء الاصطناعي المارق سيناريو غير مرجح للغاية ويعتمد على افتراضات مشكوك فيها حول التطور طويل الأمد للحياة والذكاء والتكنولوجيا والمجتمع. وهو أيضا سيناريو غير محتمل". - سيناريو محتمل للغاية، حيث سيحتاج نظام الذكاء الاصطناعي الفائق الذكاء إلى التغلب على العديد من القيود والقيود المادية قبل أن يتمكن من "التمرد" بهذه الطريقة. هناك العديد من نقاط التفتيش الطبيعية التي يمكن للباحثين المساعدة في تخفيفها من خلال حل التحديات الملموسة والملحة. المخاطر دون جعل المخاطر الوجودية أولوية عالمية بشكل صريح.
من وجهة نظرهم، "هناك ثلاث طرق للحث على الانقراض: التنافس على الموارد، أو الصيد والإفراط في الاستهلاك، أو تغيير المناخ أو مكانته البيئية بحيث تؤدي الظروف البيئية إلى زواله. ولا ينطبق أي من هذه السيناريوهات الثلاثة على الذكاء الاصطناعي الحالي".
والأهم من ذلك، "في الوقت الحالي، يعتمد الذكاء الاصطناعي علينا، ومن المفترض أن يدرك الذكاء الفائق هذه الحقيقة ويسعى إلى حماية البشرية، حيث إننا مهمون لوجود الذكاء الاصطناعي مثل أهمية النباتات المنتجة للأكسجين لوجودنا. ولهذا السبب تطور الترابط بين الذكاء الاصطناعي والبشر أكثر احتمالا بكثير من نتيجة المنافسة".
إن دفع "ثمن لا نهائي" مقابل "النتيجة غير المحتملة" للانقراض يشبه تكريس كل براعتنا التكنولوجية لمقاومة احتمال واحد في المليون لاصطدام نيزك بالأرض وجعله أولوية قصوى لكوكب الأرض. ببساطة، "المخاطر الوجودية التي يفرضها الذكاء الاصطناعي الفائق الذكاء لا تستحق أن يتم تصنيفها جنبا إلى جنب مع تغير المناخ، والحرب النووية، والوقاية من الأوبئة كأولوية عالمية".
لحظة أخرى لأوبنهايمر
وأي مخاطر قد تنشأ عن المنافسة بين البشر والذكاء الفائق الناشئ، القريب والبعيد، لن تتفاقم إلا بسبب المنافسة بين الدول القومية.
في سنواته الأخيرة، تعرض أوبنهايمر للاضطهاد والعزلة، وتم إلغاء تصريحه الأمني من قبل لجنة الطاقة الذرية الأمريكية، حيث اعتبرته الحماسة المكارثية في أوائل الحرب الباردة زميلًا شيوعيًا. جريمته: معارضة نشر القنابل الهيدروجينية والدعوة إلى التعاون مع الدول الأخرى لضبط استخدام الأسلحة النووية.
وفي خطاب ألقاه أمام علماء الذكاء الاصطناعي في بكين في يونيو/حزيران الماضي، دعا ألتمان بالمثل إلى التعاون حول كيفية التحكم في استخدام الذكاء الاصطناعي. وقال "إن الصين لديها أفضل المواهب في مجال الذكاء الاصطناعي في العالم". إن التحكم في أنظمة الذكاء الاصطناعي المتقدمة "يتطلب أفضل العقول من جميع أنحاء العالم. ومع ظهور أنظمة الذكاء الاصطناعي القوية بشكل متزايد، أصبحت المخاطر على التعاون العالمي أكبر من أي وقت مضى."
ولا يملك المرء إلا أن يتساءل إلى متى سيظل حس ألتمان بالمسؤولية العلمية العامة، مثل شعور أوبنهايمر، غارقاً في المشاعر الهستيرية المناهضة للصين في واشنطن.
من بين المخاطر الواضحة والحالية التي يشكلها الذكاء الاصطناعي كيفية تسليحه. وكما يحذر هراري، فإن الوقت المناسب لمعالجة هذا التهديد هو الآن، وليس التحرك عندما يصبح حقيقة بعد فوات الأوان. وسوف تحتاج الجهات الفاعلة المسؤولة إلى الاستفادة من الحكمة القائلة بأن الآلات لا تستطيع نقلها والتعاون من أجل الحد من المخاطر. ويقترب الخطر الوجودي من أي وقت مضى إذا عانى ألتمان من لحظة أوبنهايمر أخرى.
وفي إشارة ترحيب، أقر وزير الخارجية الأمريكي أنتوني بلينكن ووزيرة التجارة جينا ريموندو بأنه "لا يمكن لأي دولة أو شركة تشكيل مستقبل الذكاء الاصطناعي بمفردها... فقط من خلال الاهتمام الجماعي والحكمة والتعاون من جانب المجتمع الدولي يمكننا أن نتمكن بشكل كامل من تحقيق ذلك". وتسخير إمكانات الذكاء الاصطناعي بشكل آمن."
ومع ذلك، فإن مبادراتهم حتى الآن، رغم أهميتها، كانت مقيدة بالمنافسة الاستراتيجية. بالنسبة للبلدان في جميع أنحاء العالم، فإن التحدي الأكثر خطورة هو كيفية التواصل المباشر قبل أن يخرج سباق تسلح الذكاء الاصطناعي عن السيطرة ويمنع الوضع من التفاقم.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
"أوبنهايمر" يصل إلى دور العرض، هل سيكون سام ألتمان هو التالي؟
بقلم: ناثان جاردلز
الأصل : نعمة
قال المخرج السينمائي كريستوفر نولان إنه تحدث مع علماء الذكاء الاصطناعي الذين يعيشون "لحظة أوبنهايمر" ويشعرون بالقلق بشأن التدمير المحتمل لإبداعاتهم. "أنا أروي قصة أوبنهايمر،" قال عن فيلمه عن السيرة الذاتية لأوبنهايمر، "لأنني أعتقد أنها قصة مهمة، وهي بالتأكيد قصة تحذيرية." في الواقع، قارن بعض الناس الترامان سام من OpenAI مع والد قنبلة ذرية.
أطلق على أوبنهايمر لقب "بروميثيوس أمريكا" من قبل كتاب سيرته لأنه فك من الآلهة سر النار النووية وتقسيم المادة وإطلاق طاقة مرعبة كان يخشى أن تحرق الحضارة الإنسانية.
ويتساءل ألتمان أيضًا عما إذا كان استخدامه لـ ChatGPT لتعزيز تطوير الذكاء الاصطناعي التوليدي يعد أيضًا "أمرًا سيئًا للغاية". وقال أمام جلسة استماع بمجلس الشيوخ: "إذا حدث خطأ في هذه التكنولوجيا، فقد يكون الأمر كارثيا".وغادر جريجوري هينتون، المعروف باسم الأب الروحي للذكاء الاصطناعي، شركة جوجل في مايو، قائلا إنه لا يحترم العمل الذي بذله طوال حياته. آلات أكثر ذكاء من البشر - أمر مؤسف جزئيا. وحذر من أنه "سيكون من الصعب للغاية بالنسبة لنا منع الجهات الفاعلة السيئة من استخدام الذكاء الاصطناعي للقيام بأشياء سيئة". وعلاوة على ذلك، تحدث آخرون من أقرانه عن "خطر انقراض الذكاء الاصطناعي"، ومقارنته بتهديدات وجودية أخرى مثل الحرب النووية. وتغير المناخ والأوبئة.
وفقا ليوفال نوح هراري (مؤلف كتاب "تاريخ موجز للإنسانية")، فإن القوة التدميرية للذكاء الاصطناعي التوليدي للمجتمع قد لا تقل عن قوة القنابل الذرية. وعلى حد تعبير أوبنهايمر من "بغفاد غيتا"، فإنه "العالم "المدمر"." هذه المرة، أصبح الإنسان العاقل آلهة، وقد تحل النسل غير العضوي الذي أنتجهم يومًا ما محل أسلافهم. في حديث له قبل بضع سنوات، عبّر هراري عن الأمر بهذه الطريقة: "يبدأ تاريخ البشرية عندما يخلق البشر آلهة. وعندما يصبح البشر آلهة، ينتهي تاريخ البشرية".
يشرح هراري والمؤلفان المشاركان تريستان هاريس وآزا راسكين في مقال حديث: "في البداية كانت اللغة. اللغة هي نظام تشغيل الثقافة الإنسانية. من اللغة نشأت الأسطورة والقانون، والآلهة والمال، والفن والعلوم، والصداقة، "الدول ورمز الكمبيوتر. إن إتقان الذكاء الاصطناعي الجديد للغة يعني أنه يمكنه الآن اختراق أنظمة تشغيل الحضارة والتلاعب بها. ومن خلال إتقان اللغة، يستولي الذكاء الاصطناعي على المفتاح الرئيسي للحضارة، من خزائن البنوك إلى كنيسة القيامة".
ومضوا في الكتابة:
إن احتمال قيام كيانات غير بشرية بكتابة رواياتنا أثار قلق المؤرخ والفيلسوف الإسرائيلي إلى حد أنه نصح الإنسان العاقل بشكل عاجل بالتوقف قبل تسليم السيطرة على عالمنا إلى التكنولوجيات التي نعمل على تمكينها. تعال وفكر مرتين.
وحذروا من أنه "يجب أن نكون على دراية بالذكاء الاصطناعي قبل أن تعتمد عليه سياساتنا واقتصادنا وحياتنا اليومية. وإذا انتظرنا حتى تحدث الفوضى لاتخاذ الإجراءات اللازمة، فسيكون الأوان قد فات".
احتمالية حدوث سيناريو "Terminator" منخفضة
كتب نائب رئيس Google Blaise Agüera Y Arcas وزملاؤه من معهد كيبيك للذكاء الاصطناعي في مجلة Noema أنهم لا يعتقدون أن المشهد الهوليوودي لفيلم "Terminator" سيظهر في المستقبل القريب. وبدلا من ذلك، فإنهم يشعرون بالقلق من أن التركيز على "التهديدات الوجودية" في المستقبل البعيد سوف يصرف الانتباه عن التخفيف من المخاطر الواضحة التي يشكلها الذكاء الاصطناعي على مجتمع اليوم.
قبل أن يتحول الذكاء الاصطناعي إلى الذكاء الفائق، فإن أسوأ مخاوفهم موجودة بالفعل: المراقبة الجماعية، والتضليل والتلاعب، وإساءة الاستخدام العسكري للذكاء الاصطناعي، والإزاحة الجماعية للوظائف.
بالنسبة لهذه المجموعة من العلماء والتقنيين، "يعد الانقراض بواسطة الذكاء الاصطناعي المارق سيناريو غير مرجح للغاية ويعتمد على افتراضات مشكوك فيها حول التطور طويل الأمد للحياة والذكاء والتكنولوجيا والمجتمع. وهو أيضا سيناريو غير محتمل". - سيناريو محتمل للغاية، حيث سيحتاج نظام الذكاء الاصطناعي الفائق الذكاء إلى التغلب على العديد من القيود والقيود المادية قبل أن يتمكن من "التمرد" بهذه الطريقة. هناك العديد من نقاط التفتيش الطبيعية التي يمكن للباحثين المساعدة في تخفيفها من خلال حل التحديات الملموسة والملحة. المخاطر دون جعل المخاطر الوجودية أولوية عالمية بشكل صريح.
من وجهة نظرهم، "هناك ثلاث طرق للحث على الانقراض: التنافس على الموارد، أو الصيد والإفراط في الاستهلاك، أو تغيير المناخ أو مكانته البيئية بحيث تؤدي الظروف البيئية إلى زواله. ولا ينطبق أي من هذه السيناريوهات الثلاثة على الذكاء الاصطناعي الحالي".
والأهم من ذلك، "في الوقت الحالي، يعتمد الذكاء الاصطناعي علينا، ومن المفترض أن يدرك الذكاء الفائق هذه الحقيقة ويسعى إلى حماية البشرية، حيث إننا مهمون لوجود الذكاء الاصطناعي مثل أهمية النباتات المنتجة للأكسجين لوجودنا. ولهذا السبب تطور الترابط بين الذكاء الاصطناعي والبشر أكثر احتمالا بكثير من نتيجة المنافسة".
إن دفع "ثمن لا نهائي" مقابل "النتيجة غير المحتملة" للانقراض يشبه تكريس كل براعتنا التكنولوجية لمقاومة احتمال واحد في المليون لاصطدام نيزك بالأرض وجعله أولوية قصوى لكوكب الأرض. ببساطة، "المخاطر الوجودية التي يفرضها الذكاء الاصطناعي الفائق الذكاء لا تستحق أن يتم تصنيفها جنبا إلى جنب مع تغير المناخ، والحرب النووية، والوقاية من الأوبئة كأولوية عالمية".
لحظة أخرى لأوبنهايمر
وأي مخاطر قد تنشأ عن المنافسة بين البشر والذكاء الفائق الناشئ، القريب والبعيد، لن تتفاقم إلا بسبب المنافسة بين الدول القومية.
في سنواته الأخيرة، تعرض أوبنهايمر للاضطهاد والعزلة، وتم إلغاء تصريحه الأمني من قبل لجنة الطاقة الذرية الأمريكية، حيث اعتبرته الحماسة المكارثية في أوائل الحرب الباردة زميلًا شيوعيًا. جريمته: معارضة نشر القنابل الهيدروجينية والدعوة إلى التعاون مع الدول الأخرى لضبط استخدام الأسلحة النووية.
وفي خطاب ألقاه أمام علماء الذكاء الاصطناعي في بكين في يونيو/حزيران الماضي، دعا ألتمان بالمثل إلى التعاون حول كيفية التحكم في استخدام الذكاء الاصطناعي. وقال "إن الصين لديها أفضل المواهب في مجال الذكاء الاصطناعي في العالم". إن التحكم في أنظمة الذكاء الاصطناعي المتقدمة "يتطلب أفضل العقول من جميع أنحاء العالم. ومع ظهور أنظمة الذكاء الاصطناعي القوية بشكل متزايد، أصبحت المخاطر على التعاون العالمي أكبر من أي وقت مضى."
ولا يملك المرء إلا أن يتساءل إلى متى سيظل حس ألتمان بالمسؤولية العلمية العامة، مثل شعور أوبنهايمر، غارقاً في المشاعر الهستيرية المناهضة للصين في واشنطن.
من بين المخاطر الواضحة والحالية التي يشكلها الذكاء الاصطناعي كيفية تسليحه. وكما يحذر هراري، فإن الوقت المناسب لمعالجة هذا التهديد هو الآن، وليس التحرك عندما يصبح حقيقة بعد فوات الأوان. وسوف تحتاج الجهات الفاعلة المسؤولة إلى الاستفادة من الحكمة القائلة بأن الآلات لا تستطيع نقلها والتعاون من أجل الحد من المخاطر. ويقترب الخطر الوجودي من أي وقت مضى إذا عانى ألتمان من لحظة أوبنهايمر أخرى.
وفي إشارة ترحيب، أقر وزير الخارجية الأمريكي أنتوني بلينكن ووزيرة التجارة جينا ريموندو بأنه "لا يمكن لأي دولة أو شركة تشكيل مستقبل الذكاء الاصطناعي بمفردها... فقط من خلال الاهتمام الجماعي والحكمة والتعاون من جانب المجتمع الدولي يمكننا أن نتمكن بشكل كامل من تحقيق ذلك". وتسخير إمكانات الذكاء الاصطناعي بشكل آمن."
ومع ذلك، فإن مبادراتهم حتى الآن، رغم أهميتها، كانت مقيدة بالمنافسة الاستراتيجية. بالنسبة للبلدان في جميع أنحاء العالم، فإن التحدي الأكثر خطورة هو كيفية التواصل المباشر قبل أن يخرج سباق تسلح الذكاء الاصطناعي عن السيطرة ويمنع الوضع من التفاقم.