ماذا قال عمالقة الذكاء الاصطناعي العالميون عندما اجتمعوا في مؤتمر الملح والحديد في عصر الذكاء الاصطناعي؟

ربما لم تكن هناك أبدًا تقنية أصبحت بسرعة محل إجماع المجتمع العلمي والتكنولوجي وحتى المجتمع بأكمله في غضون أشهر قليلة مثل النموذج الكبير للذكاء الاصطناعي. واليوم، يعتقد جميع عمالقة التكنولوجيا والحكومات الكبرى اعتقادًا راسخًا أن الذكاء الاصطناعي سيغير العالم ويغير كل شيء.

ولكن وراء هذا الإجماع الكبير، لا تزال هناك مشاكل كثيرة. فمن ناحية، فهي حقيقية ــ الاستبدال في العمل، وانتشار المحتوى الزائف، وعدم المساواة في حدود الاستخدام، وما إلى ذلك؛ ومن ناحية أخرى، فهي المشكلة الطويلة الأمد. -مصطلح الأعمال الفنية الإنسانية.يتم التعبير هنا عن "التهديد للحضارة". **وفقًا لمجلة "Wired"، فإن OpenAI نصت على آلية خروج في وثيقة مالية عندما يقوم الذكاء الاصطناعي بتدمير النظام الاقتصادي البشري. **

في يوليو من هذا العام، في حدث أقيم في مقر شركة IBM، قال زعيم الأغلبية في مجلس الشيوخ الأمريكي تشاك شومر إنه سيعقد سلسلة من مؤتمرات الذكاء الاصطناعي "لجلب أفضل الأشخاص إلى الطاولة والتعلم من بعضهم البعض". ، حاول التوصل إلى بعض الإجماع والحلول، ويستمع أعضاء مجلس الشيوخ وموظفونا وغيرهم." ** في النهاية، يأمل شومر في "وضع الأساس لتشريعات سياسة الذكاء الاصطناعي" بناءً على التبادلات التي جرت في الاجتماع. **

**بعد شهرين، بدأ الاجتماع. **شارك في الاجتماع المغلق 22 مشاركًا من كبرى شركات التكنولوجيا، وكان من بينهم الرئيس التنفيذي لشركة OpenAI سام ألتمان، والرئيس التنفيذي لشركة NVIDIA Huang Jenxun، والرئيس التنفيذي لشركة Google Sundar، بيتشاي، والرئيس التنفيذي لشركة Meta Mark Zuckerberg. وغيرهم، بالإضافة إلى مؤسس شركة مايكروسوفت بيل جيتس والرئيس التنفيذي السابق لشركة جوجل إريك شميدت، قادة تكنولوجيا الجيل السابق من الإنترنت.

يجب "السيطرة" على الذكاء الاصطناعي

لن ينكر أحد الإمكانات الهائلة التي يتمتع بها الذكاء الاصطناعي، ولكننا لا نزال نفتقر إلى الكثير من الإجماع حول المخاطر وتدابير السلامة والإشراف ومستقبل الذكاء الاصطناعي. والشيء الوحيد المؤكد هو أن البشر لا يستطيعون السماح تماما بالنمو الوحشي للذكاء الاصطناعي. ذكاء.

بعد مغادرة الاجتماع المغلق الأول، صرح إيلون ماسك، الرئيس التنفيذي لشركة Tesla وSpaceX وNeuralink، علنًا أن التجمع كان "تاريخيًا" وأنه يؤيد فكرة إنشاء وكالة جديدة لتنظيم الذكاء الاصطناعي. المخاطر الهائلة التي يشكلها الذكاء الاصطناعي.

وقال ماسك: "إن عواقب حدوث خطأ في الذكاء الاصطناعي خطيرة، لذا يتعين علينا أن نكون استباقيين وليس رد فعل. المشكلة في الواقع هي مشكلة تتعلق بالمخاطر الحضارية، والتي تنطوي على مخاطر محتملة على جميع البشر في جميع أنحاء العالم".

**لم يشرح ماسك بعمق الضرر المحدد الذي يلحقه ما يسمى بالذكاء الاصطناعي بالحضارة الإنسانية، ولكن عندما يصبح الذكاء الاصطناعي أكثر انخراطًا في إدارة ومراقبة شبكات الطاقة وأنظمة إمدادات المياه وأنظمة المركبات، فإن الأخطاء ستتسبب في حدوث خطأ الكثير من المشاكل ** . كما ذكر عالم الكمبيوتر والباحث في الذكاء الاصطناعي ديب راجي أن قرارات الذكاء الاصطناعي المتحيزة تؤثر على جميع جوانب المجتمع.

علاوة على ذلك، هناك أيضًا مخاوف بشرية طويلة الأمد بشأن الذكاء الاصطناعي.

ولكن كيف يمكننا تقليل ومنع المخاطر التي يشكلها الذكاء الاصطناعي؟ اقترح رئيس مايكروسوفت براد سميث أننا بحاجة إلى إنشاء "مكابح طوارئ" للمخاطر الهائلة التي قد يفرضها الذكاء الاصطناعي، وخاصة في أنظمة الذكاء الاصطناعي التي تدير البنية التحتية الحيوية مثل شبكات الطاقة وأنظمة المياه. "وبهذه الطريقة يمكننا ضمان أن إن التهديدات التي يخشاها الكثير من الناس تظل مجرد خيال علمي ولا تصبح حقيقة جديدة.

براد سميث، الصورة/

ويعتقد سميث أنه مثلما هو الحال مع قواطع الدائرة الموجودة في كل مبنى ومنزل والتي يمكنها إيقاف تشغيل نظام الطاقة على الفور إذا لزم الأمر، فإن أنظمة الذكاء الاصطناعي ستحتاج إلى "مكابح طوارئ" مماثلة لضمان عدم تأثر البشر بمثل هذه الأنظمة بأضرار جسيمة.

ومن قبيل الصدفة، أشار ويليام دالي، كبير العلماء والنائب الأول لرئيس شركة NVIDIA، أيضًا إلى أن مفتاح احتمالية حدوث أخطاء وأضرار جسيمة يسببها الذكاء الاصطناعي كبرنامج كمبيوتر يكمن في "المشاركة البشرية"، أي أن البشر يوضعون في موقف صعب. في الروابط الرئيسية لعمل الذكاء الاصطناعي، يتم تقييد بعض صلاحيات صنع القرار في الذكاء الاصطناعي. **

ويليام دالي، تصوير/نفيديا

"لذلك أعتقد أنه طالما أننا حريصون على كيفية نشر الذكاء الاصطناعي، ووضع البشر في الرابط الحيوي، فيمكننا التأكد من أن الذكاء الاصطناعي لا يتولى المسؤولية ويغلق شبكة الطاقة لدينا أو يتسبب في سقوط الطائرات من السماء. "، قال دالي.

**هل سيكون الذكاء الاصطناعي مفتوح المصدر بمثابة صندوق باندورا؟ **

في نهاية العام الماضي، عندما أصبح ChatGPT شائعًا لأول مرة في دائرة التكنولوجيا، أعرب بعض الأشخاص عن مخاوفهم بشأن استخدام نماذج الذكاء الاصطناعي في سلوكيات ضارة مثل الاحتيال. يبدو أن المصدر المفتوح يزيد من خطر "إساءة الاستخدام".

دارت إحدى المناقشات في المؤتمر حول نماذج الذكاء الاصطناعي "مفتوحة المصدر" التي يمكن للجمهور تنزيلها وتعديلها. يسمح الكود المفتوح لهذه النماذج للمؤسسات والباحثين باستخدام تقنية الذكاء الاصطناعي المشابهة لتلك الموجودة خلف ChatGPT دون استثمار مبالغ ضخمة من المال والموارد في التدريب.

لكن الأشرار قد يسيئون أيضًا استخدام أنظمة الذكاء الاصطناعي مفتوحة المصدر، بما في ذلك OpenAI، التي أوقفت المصدر المفتوح منذ GPT-3.5. وقال إيليا سوتسكيفر، المؤسس المشارك لـ OpenAI وكبير العلماء، "في غضون سنوات قليلة، سيرى الجميع بوضوح أن الذكاء الاصطناعي مفتوح المصدر الذكاء ليس حكيما."

إيليا سوتسكيفر يتحدث مع جين هسون هوانغ في GDC، الصورة/NVIDIA

**عندما سئل عن السبب، قال: "هذه النماذج قوية جدًا وستصبح أقوى وأقوى، وفي مرحلة ما، إذا أراد شخص ما ذلك، فسيكون من السهل إحداث الكثير من الضرر بهذه النماذج". **

بالإضافة إلى ذلك، ذكر مصطفى سليمان، المؤسس المشارك لشركة DeepMind والرئيس التنفيذي لشركة Inflection AI، أيضًا مخاطر المصادر المفتوحة منذ وقت ليس ببعيد، وأشار إلى أن المشكلة الرئيسية للذكاء الاصطناعي مفتوح المصدر هي أن "الانتشار السريع للسلطة" سيسمح فرد واحد سيسبب ضررًا غير مسبوق للعالم وتأثيره، "في العشرين عامًا القادمة، من المؤكد تقريبًا أن المصادر المفتوحة الساذجة ستتسبب في كارثة." **

مصطفى سليمان، 图/ديب مايند

ومع ذلك، من الواضح أن ميتا لا تتفق مع هذه التصريحات. ** رد الرئيس التنفيذي لشركة ميتا زوكربيرج بأن المصدر المفتوح "سيعمل على إضفاء الطابع الديمقراطي على الذكاء الاصطناعي، ويساعد على المنافسة العادلة، ويعزز الابتكار الفردي والشركات". **ولكن في الوقت نفسه، قال أيضًا إن النموذج مفتوح المصدر قد يجلب مخاطر، لكن Meta تقوم ببناء هذه التكنولوجيا بأمان قدر الإمكان.

عندما يلتقي الذكاء الاصطناعي بالمصادر المفتوحة، يظل هذا سؤالًا مفتوحًا.

اكتب في النهاية

قبل 2104 أعوام، بعد سبع سنوات من وفاة الإمبراطور وو من أسرة هان، عقدت محكمة هان مشاورة سياسية غير مسبوقة. وكانت إحدى القضايا الرئيسية هي إلغاء ومراجعة سياسة احتكار النبيذ الملح والحديد المملوكة للدولة والتي تم تنفيذها في عهد الإمبراطور. فترة وو، ولهذا الغرض، أطلق على "أكثر من ستين شخصًا فاضلاً وأديبًا" بالإضافة إلى المسؤولين الحكوميين مثل سانغ هونغ يانغ، الرقيب الإمبراطوري، فيما بعد اسم "مؤتمر الملح والحديد". ومع ذلك، كان مؤتمر الملح والحديد يناقش بشكل أساسي اتجاه السياسة الاقتصادية لأسرة هان.

على الرغم من اختلاف المواضيع وبيئة العصر مختلفة جدًا**، سواء كان مؤتمر الملح والحديد منذ أكثر من 2000 عام أو منتدى رؤى الذكاء الاصطناعي الحالي، إلا أننا جميعًا نواجه مشكلة كبيرة، ونأمل أن التواصل من خلال مناقشة "مجموعات المواهب" كأساس للتشريع. **

صورة / جوجل

في مقال حديث بمناسبة الذكرى السنوية الخامسة والعشرين لشركة Google، كتب الرئيس التنفيذي الحالي لشركة Google ساندر بيتشاي:

(جوجل) انضموا إلى المناقشة المهمة حول الكيفية التي ستشكل بها هذه التقنيات مجتمعنا، ثم اعملوا معًا للعثور على الإجابات. الذكاء الاصطناعي هو جزء أساسي من هذا. في حين أننا متحمسون لإمكانات الذكاء الاصطناعي في إفادة الناس والمجتمع**، فإننا نعلم أن الذكاء الاصطناعي، مثل أي تكنولوجيا في مراحلها المبكرة، يأتي مصحوبًا بتعقيدات ومخاطر. إن تطويرنا واستخدامنا للذكاء الاصطناعي يجب أن يعالج هذه المخاطر ويساعد في تطوير التكنولوجيا بشكل مسؤول. **

وبعد أيام قليلة، أصبحت ثماني شركات، بما في ذلك Adobe وCohere وIBM وNvidia وPalantir وSalesforce وScale AI وStable، الدفعة الثانية من الشركات التي توقع اتفاقية "التطوير المسؤول لتكنولوجيا الذكاء الاصطناعي". في كثير من الأحيان، عندما نواجه مشكلات لا يمكن حلها بواسطة فرد واحد أو شركة/حكومة واحدة، يتعين علينا أن ندرك قيمة "الجهود المشتركة".

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت