قالت شركة OpenAI ، مطورة ChatGPT ، يوم الأربعاء (الخامس) إن الشركة تخطط لاستثمار موارد كبيرة وإنشاء فريق بحث جديد لضمان أن الذكاء الاصطناعي (AI) آمن للبشر وتحقيق الإشراف الذاتي للذكاء الاصطناعي في نهاية المطاف.
كتب المؤسس المشارك لـ OpenAI إيليا سوتسكيفر وجان لايكي ، رئيس فريق تنسيق الذكاء الاصطناعي المكلف بتحسين أمن النظام ، في منشور بالمدونة "القوة الهائلة للذكاء الخارق يمكن أن تؤدي إلى إضعاف الإنسان ، أو حتى الانقراض". .
وكتبوا: "في الوقت الحالي ، ليس لدينا حل للتلاعب أو التحكم في الذكاء الاصطناعي الذي يحتمل أن يكون فائق الذكاء ومنعه من الخروج عن نطاق السيطرة".
تشير محاذاة الذكاء الاصطناعي إلى الحاجة إلى أن يتماشى سلوك الذكاء الاصطناعي مع اهتمامات المصمم وتوقعاته.
** تُستخدم قوة الحوسبة 20٪ لحل مشكلة خروج الذكاء الاصطناعي عن السيطرة **
يتنبأون بأن الذكاء الاصطناعي الخارق (أي الأنظمة الأكثر ذكاءً من البشر) قد يصل في هذا العقد (بحلول عام 2030) ، وأن البشر سيحتاجون إلى تقنية أفضل مما هو عليه حاليًا للتحكم في الذكاء الاصطناعي الفائق الذكاء ، لذلك يجب أن يكونوا في ما يسمى باختراق A في دراسة اتساق الذكاء الاصطناعي ، والتي تركز على ضمان أن يكون الذكاء الاصطناعي مفيدًا للبشر.
وفقًا لهم ، وبدعم من Microsoft (Microsoft) ، ** ستنفق شركة OpenAI 20٪ من قوتها الحاسوبية في السنوات الأربع المقبلة لحل مشكلة الذكاء الاصطناعي خارج نطاق السيطرة. ** بالإضافة إلى ذلك ، تقوم الشركة بتشكيل فريق جديد لتنظيم هذا العمل يسمى فريق التناسق الفائق.
يُذكر أن هدف الفريق هو إنشاء باحث ذكاء اصطناعي "على المستوى البشري" ، والذي يمكن بعد ذلك توسيعه بمقدار كبير من قوة الحوسبة. يقول OpenAI إن هذا يعني أنهم سيستخدمون التعليقات البشرية لتدريب نظام الذكاء الاصطناعي ، وتدريب نظام الذكاء الاصطناعي للمساعدة في التقييم البشري ، ثم أخيرًا تدريب نظام الذكاء الاصطناعي على إجراء دراسة الاتساق الفعلية.
** استجواب خبير **
ومع ذلك ، فقد شكك الخبراء في هذه الخطوة بمجرد الإعلان عنها. قال كونور ليهي ، أحد المدافعين عن السلامة في مجال الذكاء الاصطناعي ، إن خطة أوبن إيه آي كانت معيبة بشكل أساسي لأن نسخة أولية من الذكاء الاصطناعي يمكن أن تصل إلى "المستويات البشرية" يمكن أن تخرج عن نطاق السيطرة وتعيث فوضى قبل أن يتم استخدامها لحل مشاكل السلامة في الذكاء الاصطناعي. "
قال في مقابلة: "عليك أن تحل مشكلة الاتساق قبل أن تتمكن من بناء ذكاء على المستوى البشري ، وإلا فلن تتمكن من التحكم فيه افتراضيًا. أنا شخصياً لا أعتقد أنها خطة جيدة أو آمنة بشكل خاص".
لطالما كانت المخاطر المحتملة للذكاء الاصطناعي مصدر قلق كبير لباحثي الذكاء الاصطناعي والجمهور. في أبريل ، وقعت مجموعة من قادة وخبراء صناعة الذكاء الاصطناعي على رسالة مفتوحة تدعو إلى وقف تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من نموذج GPT-4 الجديد من OpenAI لمدة ستة أشهر على الأقل ، مشيرة إلى مخاطرها المحتملة على المجتمع والإنسانية.
أظهر استطلاع حديث للرأي أن أكثر من ثلثي الأمريكيين قلقون بشأن التأثير السلبي المحتمل للذكاء الاصطناعي ، ويعتقد 61٪ أن الذكاء الاصطناعي قد يهدد الحضارة الإنسانية.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
سيخرج Super AI في غضون سبع سنوات ، وتعتزم OpenAI استثمار "أموال كبيرة" لمنع الخروج عن السيطرة
** المصدر: ** Financial Association
** حرره Huang Junzhi **
قالت شركة OpenAI ، مطورة ChatGPT ، يوم الأربعاء (الخامس) إن الشركة تخطط لاستثمار موارد كبيرة وإنشاء فريق بحث جديد لضمان أن الذكاء الاصطناعي (AI) آمن للبشر وتحقيق الإشراف الذاتي للذكاء الاصطناعي في نهاية المطاف.
وكتبوا: "في الوقت الحالي ، ليس لدينا حل للتلاعب أو التحكم في الذكاء الاصطناعي الذي يحتمل أن يكون فائق الذكاء ومنعه من الخروج عن نطاق السيطرة".
** تُستخدم قوة الحوسبة 20٪ لحل مشكلة خروج الذكاء الاصطناعي عن السيطرة **
يتنبأون بأن الذكاء الاصطناعي الخارق (أي الأنظمة الأكثر ذكاءً من البشر) قد يصل في هذا العقد (بحلول عام 2030) ، وأن البشر سيحتاجون إلى تقنية أفضل مما هو عليه حاليًا للتحكم في الذكاء الاصطناعي الفائق الذكاء ، لذلك يجب أن يكونوا في ما يسمى باختراق A في دراسة اتساق الذكاء الاصطناعي ، والتي تركز على ضمان أن يكون الذكاء الاصطناعي مفيدًا للبشر.
وفقًا لهم ، وبدعم من Microsoft (Microsoft) ، ** ستنفق شركة OpenAI 20٪ من قوتها الحاسوبية في السنوات الأربع المقبلة لحل مشكلة الذكاء الاصطناعي خارج نطاق السيطرة. ** بالإضافة إلى ذلك ، تقوم الشركة بتشكيل فريق جديد لتنظيم هذا العمل يسمى فريق التناسق الفائق.
** استجواب خبير **
ومع ذلك ، فقد شكك الخبراء في هذه الخطوة بمجرد الإعلان عنها. قال كونور ليهي ، أحد المدافعين عن السلامة في مجال الذكاء الاصطناعي ، إن خطة أوبن إيه آي كانت معيبة بشكل أساسي لأن نسخة أولية من الذكاء الاصطناعي يمكن أن تصل إلى "المستويات البشرية" يمكن أن تخرج عن نطاق السيطرة وتعيث فوضى قبل أن يتم استخدامها لحل مشاكل السلامة في الذكاء الاصطناعي. "
قال في مقابلة: "عليك أن تحل مشكلة الاتساق قبل أن تتمكن من بناء ذكاء على المستوى البشري ، وإلا فلن تتمكن من التحكم فيه افتراضيًا. أنا شخصياً لا أعتقد أنها خطة جيدة أو آمنة بشكل خاص".
لطالما كانت المخاطر المحتملة للذكاء الاصطناعي مصدر قلق كبير لباحثي الذكاء الاصطناعي والجمهور. في أبريل ، وقعت مجموعة من قادة وخبراء صناعة الذكاء الاصطناعي على رسالة مفتوحة تدعو إلى وقف تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من نموذج GPT-4 الجديد من OpenAI لمدة ستة أشهر على الأقل ، مشيرة إلى مخاطرها المحتملة على المجتمع والإنسانية.
أظهر استطلاع حديث للرأي أن أكثر من ثلثي الأمريكيين قلقون بشأن التأثير السلبي المحتمل للذكاء الاصطناعي ، ويعتقد 61٪ أن الذكاء الاصطناعي قد يهدد الحضارة الإنسانية.