في الإدراك البشري ، يبدو أن الذكاء العام الاصطناعي (AGI) قد استخدم منذ فترة طويلة لتحديد الشكل النهائي للذكاء الاصطناعي والهدف النهائي للتنمية.
على الرغم من أن OpenAI حددت منذ فترة طويلة هدف الشركة لتحقيق الذكاء الاصطناعي العام. ولكن بالنسبة لما هو AGI ، لم يستطع الرئيس التنفيذي لشركة OpenAI Sam Altman نفسه تقديم تعريف محدد.
أما بالنسبة لموعد ظهور الذكاء الاصطناعي العام ، فهو موجود فقط في سيناريوهات السرد في المستقبل القريب التي طرحها الرؤساء ، ويبدو أنها في متناول اليد ، لكنها بعيدة.
اليوم ، على موقع البودكاست الأجنبي الشهير Substack ، كتب أحد المخضرمين في صناعة الذكاء الاصطناعي المسمى فالنتينو زوكا ، الذي يقف على وجهة النظر السردية للتاريخ البشري ، مقالًا مهيبًا يروي بشكل شامل وعميق قصة البشر والاصطناعية العامة. المخابرات ، المسافة بين الذكاء.
في المقالة ، يتم تعريف الذكاء الاصطناعي العام تقريبًا على أنه "نموذج يمكنه فهم العالم" ، وليس مجرد "نموذج يصف العالم".
وهو يعتقد أنه إذا أراد البشر حقًا تحقيق عالم الذكاء الاصطناعي العام ، فإنهم بحاجة إلى بناء "نظام يمكنه التشكيك في واقعهم والقدرة على استكشاف أنفسهم".
في عملية الاستكشاف الرائعة هذه ، ربما لا يمتلك أحد المؤهلات والقدرة على إعطاء خارطة طريق محددة.
كما أوضح عالما OpenAI كينيث ستانلي وجويل ليمان في كتابهما الأخير ، "لماذا لا يمكن التخطيط للعظمة" ، فإن السعي وراء العظمة له اتجاه ، لكن النتائج المحددة قد تكون غير متوقعة.
** كم نحن بعيدون عن الذكاء الاصطناعي العام؟ **
منذ حوالي 200000 عام ، بدأ الإنسان العاقل في المشي منتصباً على الأرض ، وفي الوقت نفسه ، بدأ أيضًا في السفر في مجال الفكر والمعرفة.
شكلت سلسلة من الاكتشافات والاختراعات في تاريخ البشرية تاريخ البشرية. لا يؤثر بعضها على لغتنا وتفكيرنا فحسب ، بل يؤثر أيضًا على تكويننا البيولوجي.
على سبيل المثال ، مكّن اكتشاف النار الإنسان البدائي من طهي الطعام. يوفر الطعام المطبوخ المزيد من الطاقة للدماغ ، وبالتالي تعزيز تنمية الذكاء البشري.
من اختراع العجلة إلى إنشاء المحرك البخاري ، بشرت البشرية بالثورة الصناعية. مهدت الكهرباء الطريق للتطورات التكنولوجية التي نمر بها اليوم ، وسرعت الطباعة من الانتشار الواسع للأفكار والثقافات الجديدة ، مما حفز تطور الابتكار البشري.
ومع ذلك ، فإن التقدم لا يأتي فقط من اكتشاف أبعاد مادية جديدة ، ولكن أيضًا من الأفكار الجديدة.
يعود تاريخ العالم الغربي من سقوط الإمبراطورية الرومانية إلى العصور الوسطى ، حيث شهد نهضة جديدة خلال عصر النهضة والتنوير.
ولكن مع نمو المعرفة البشرية ، بدأ الجنس البشري يدرك عدم أهميته.
بعد أكثر من ألفي عام من سقراط ، بدأ البشر "يعرفون أنهم لا يعرفون شيئًا" ، ولم يعد يُنظر إلى أرضنا على أنها مركز الكون. الكون نفسه يتوسع ، ونحن مجرد ذرة غبار فيه.
** تغيير مفهوم الواقع **
لكن أكبر تغيير في تصور الإنسان للعالم حدث في القرن العشرين.
في عام 1931 ، نشر كيرت جودل نظرية عدم الاكتمال.
بعد أربع سنوات فقط ، من أجل مواصلة موضوع "الاكتمال" ، نشر أينشتاين وبودولسكي وروزين ورقة بعنوان "هل يمكن اعتبار الإلهاء الميكانيكي الكمومي للواقع المادي مكتملاً؟" من؟)
بعد ذلك ، دحض نيلز بور هذه الورقة ، وأثبت صحة فيزياء الكم.
تُظهر نظرية جودل أنه حتى الرياضيات لا يمكنها إثبات كل شيء بشكل قاطع - فالبشر دائمًا لديهم حقائق غير قابلة للإثبات - بينما تُظهر نظرية الكم أن عالمنا يفتقر إلى اليقين ، مما يمنعنا من التنبؤ بأحداث معينة ، مثل سرعة وسرعة الإلكترونات.
على الرغم من تصريح أينشتاين الشهير بأن "الله لا يلعب النرد مع الكون ،" في جوهره ، فإن القيود البشرية تظهر بشكل كامل عندما يتعلق الأمر ببساطة بالتنبؤ أو فهم الأشياء في الفيزياء.
بغض النظر عن مدى صعوبة محاولة البشر تصميم عالم رياضي تديره القواعد التي صاغها البشر ، فإن هذا الكون المجرد دائمًا غير مكتمل ، وهناك بديهيات موضوعية لا يمكن إثباتها ولا يمكن إنكارها مخبأة فيه.
بالإضافة إلى الصياغة المجردة للرياضيات ، يتم التعبير عن العالم البشري أيضًا من خلال الفلسفة التي تصف الواقع.
لكن البشر يجدون أنفسهم غير قادرين على وصف هذه التمثيلات أو التعبير عنها بشكل كامل أو فهمها أو حتى تعريفها.
في بداية القرن العشرين ، كان مفهوم "الحقيقة" لا يزال غير مؤكد ، وكانت مفاهيم مثل "الفن" و "الجمال" و "الحياة" تفتقر إلى إجماع أساسي على مستوى التعريف.
وينطبق الشيء نفسه على العديد من المفاهيم الهامة الأخرى ، كما لا يمكن تعريف "الحكمة" و "الوعي" بوضوح من قبل البشر أنفسهم.
** تعريف الذكاء **
من أجل سد الفجوة في تعريف الذكاء ، في عام 2007 ، اقترح ليغ وهارت تعريف ذكاء الآلة في كتاب "المخابرات العامة": "يقيس الذكاء قدرة الوكيل (الوكيل) على تحقيق الأهداف في بيئة متغيرة . "
وبالمثل ، في "حل المشكلات والذكاء" ، يجادل هامبريك وبورجوين وألتمان بأن حل المشكلات ليس مجرد جانب أو سمة من سمات الذكاء ، ولكنه جوهر الذكاء.
هاتان العبارتان متشابهتان في وصف اللغة ، وكلاهما يعتقد أن "تحقيق هدف" يمكن ربطه بـ "حل مشكلة".
في كتاب "Mainstream Science on Intelligence: An الافتتاحية مع 52 موقعًا" ، لخص جوتفريدسون العديد من تعريفات الباحثين للذكاء من منظور أوسع:
"الذكاء هو قدرة عقلية عامة جدًا تشمل التفكير والتخطيط وحل المشكلات والتفكير المجرد وفهم الأفكار المعقدة والتعلم السريع والتعلم من التجربة. إنها ليست مجرد معرفة بالكتب أو مهارات أكاديمية ضيقة أو مهارات إجراء الاختبارات. بل بالأحرى ، فهو يعكس قدرة أوسع وأعمق لفهم ما يحيط به المرء - القدرة على "التقاط" أو "فهم" الأشياء أو "اكتشاف" ما يجب فعله ".
يأخذ هذا التعريف بناء الذكاء إلى ما هو أبعد من مجرد "مهارات حل المشكلات" ويقدم بعدين رئيسيين: القدرة على التعلم من التجربة والقدرة على فهم البيئة المحيطة.
بعبارة أخرى ، لا ينبغي النظر إلى الذكاء باعتباره قدرة مجردة لإيجاد حلول للمشاكل العامة ، بل على أنه قدرة ملموسة لتطبيق ما تعلمناه من التجارب السابقة على قدراتنا البيئية في المواقف المختلفة التي قد تنشأ.
هذا يؤكد الصلة الجوهرية بين الذكاء والتعلم.
في كتاب "كيف نتعلم" ، يعرّف ستانيسلاس ديهاين التعلم بأنه "التعلم هو عملية تكوين نموذج للعالم" ، مما يعني أن الذكاء هو أيضًا قدرة تتطلب فهم البيئة المحيطة وإنشاء نموذج داخلي لوصف بيئة.
لذلك ، يتطلب الذكاء أيضًا القدرة على إنشاء نماذج للعالم ، ولكن ليس فقط هذه القدرة.
** ما مدى ذكاء الآلات الحالية؟ **
عند مناقشة الذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الضيق (Narrow AI) ، غالبًا ما نؤكد الفرق بينهما.
الذكاء الاصطناعي الضيق (أو الذكاء الاصطناعي الضعيف) شائع جدًا وناجح ، وغالبًا ما يتفوق على البشر في مهام محددة.
على سبيل المثال ، هذا المثال المشهور ، في عام 2016 ، هزم الذكاء الاصطناعي الضيق AlphaGo بطل العالم Li Shidol بنتيجة 4 إلى 1 في لعبة Go ، وهو مثال جيد.
ومع ذلك ، في عام 2023 ، استخدم لاعب الشطرنج الهواة كيلين بيرلين التكتيكات التي لم يستطع الذكاء الاصطناعي التعامل معها للفوز بلعبة للبشر في ميدان Go ، مما يدل على أن الذكاء الاصطناعي الضيق له قيود في بعض الحالات.
إنه يفتقر إلى القدرة البشرية على التعرف على التكتيكات غير العادية والتكيف وفقًا لذلك.
علاوة على ذلك ، على المستوى الأساسي ، يدرك حتى عالم البيانات المبتدئ أن كل نموذج للتعلم الآلي يعتمد عليه الذكاء الاصطناعي يحتاج إلى تحقيق التوازن بين التحيز والتباين.
وهذا يعني التعلم من البيانات وفهم الحلول وتعميمها وليس مجرد الحفظ.
يستخدم الذكاء الاصطناعي الضيق طاقة الحوسبة وسعة الذاكرة لأجهزة الكمبيوتر لإنشاء نماذج معقدة بناءً على كميات كبيرة من البيانات المرصودة بسهولة نسبية.
ومع ذلك ، بمجرد أن تتغير الظروف قليلاً ، فإن هذه النماذج غالبًا ما تكون غير قابلة للتعميم.
سيكون الأمر كما لو أننا توصلنا إلى نظرية الجاذبية لوصف الأرض بناءً على الملاحظات ، فقط لنجد أن الأجسام أخف بكثير على القمر.
إذا استخدمنا المتغيرات بدلاً من الأرقام بناءً على معرفتنا النظرية للجاذبية ، فيمكننا فهم كيفية استخدام القيم الصحيحة للتنبؤ بسرعة بحجم الجاذبية على كل كوكب أو قمر.
ولكن إذا استخدمنا معادلات عددية بدون متغيرات ، فلن نتمكن من تعميم هذه المعادلات بشكل صحيح على الكواكب الأخرى دون إعادة كتابتها.
بعبارة أخرى ، قد لا يكون الذكاء الاصطناعي قادرًا على "التعلم" حقًا ، ولكن فقط استخلاص المعلومات أو الخبرة. لا يفهم الذكاء الاصطناعي من خلال تشكيل نموذج شامل للعالم ، ولكن فقط من خلال إنشاء ملخص للتعبير عنه.
** هل وصلنا بالفعل إلى الذكاء الاصطناعي العام حتى الآن؟ **
يُفهم الآن عمومًا أن الذكاء الاصطناعي العام يشير إلى: نظام ذكاء اصطناعي يمكنه الفهم والتفكير في مجالات معرفية متعددة على المستوى البشري أو أعلى ، أي الذكاء الاصطناعي القوي.
وذكائنا الاصطناعي الحالي لأداء مهام محددة هو مجرد ذكاء اصطناعي ضعيف ، مثل AlphaGO of Go.
يمثل AGI نظام ذكاء اصطناعي مع ذكاء على مستوى الإنسان يغطي مجالات مختلفة في مجال التفكير المجرد.
هذا يعني أن ما نحتاجه للذكاء الاصطناعي العام هو نموذج للعالم يتوافق مع التجربة ويمكنه تقديم تنبؤات دقيقة.
كما أشار إيفريت وليا وهوتر في "مراجعة أدبيات السلامة" (مراجعة أدبيات السلامة AGI): AGI ليس هنا بعد.
بالنسبة للسؤال "إلى أي مدى نحن بعيدون عن الذكاء الاصطناعي العام الحقيقي؟" ، تختلف التوقعات المختلفة على نطاق واسع.
لكنها تتفق مع آراء معظم الباحثين في مجال الذكاء الاصطناعي والمؤسسات الرسمية ، أي أن البشر على بعد بضع سنوات على الأقل من الذكاء الاصطناعي العام الحقيقي.
بعد إصدار GPT-4 ، الذي يواجه أقوى ذكاء اصطناعي في الوقت الحالي ، يعتبر الكثير من الناس أن GPT-4 هو شرارة الذكاء الاصطناعي العام.
في 13 أبريل ، أصدرت Microsoft ، شريكة OpenAI ، ورقة بعنوان "شرارات الذكاء الاصطناعي العام: تجارب مبكرة مع GPT-4" (شرارات الذكاء الاصطناعي العام: تجارب مبكرة مع GPT-4).
عنوان الورق:
الذي يذكر:
"لا يتقن GPT-4 اللغة فحسب ، بل يحل أيضًا المهام المتطورة التي تغطي الرياضيات ، والترميز ، والرؤية ، والطب ، والقانون ، وعلم النفس وغيرها من المجالات ، دون الحاجة إلى أي مطالبات خاصة.
وفي جميع المهام المذكورة أعلاه ، يكون مستوى أداء GPT-4 على قدم المساواة تقريبًا مع المستوى البشري. استنادًا إلى اتساع وعمق إمكانات GPT-4 ، نعتقد أنه يمكن اعتبارها بشكل معقول نسخة شبه كاملة من الذكاء الاصطناعي العام ولكنها ليست كاملة. "
ولكن كما علق مارتن ساب ، الأستاذ في جامعة كارنيجي ميلون ، فإن "شرارة الذكاء الاصطناعي العام" هي مجرد مثال لبعض الشركات الكبيرة بما في ذلك الأوراق البحثية مثل العلاقات العامة.
من ناحية أخرى ، يشير الباحث ورجل الأعمال الآلي رودني بروكس إلى فكرة خاطئة: "عند تقييم وظائف أنظمة مثل ChatGPT ، غالبًا ما نساوي الأداء بالقدرات."
تعني المساواة الخاطئة بين الأداء والقدرة أن GPT-4 يولد أوصافًا تلخيصية للعالم يعتبره فهمًا للعالم الحقيقي.
هذا له علاقة بالبيانات التي تم تدريب نموذج الذكاء الاصطناعي عليها.
يتم تدريب معظم نماذج اليوم على النص فقط ، وليس لديهم القدرة على التحدث والسمع والشم والعيش في العالم الحقيقي.
هذا الموقف مشابه لرواية أفلاطون عن الكهف ، فالناس الذين يعيشون في الكهف يمكنهم فقط رؤية الظل على الحائط ، لكنهم لا يستطيعون التعرف على الوجود الحقيقي للأشياء.
يتم ضمان صحة النماذج العالمية المدربة فقط على النص فقط من الناحية النحوية. لكنها في جوهرها لا تفهم ما تشير إليه اللغة ، وتفتقر إلى الحس السليم للتواصل المباشر مع البيئة.
القيود الرئيسية للنموذج الكبير الحالي
التحدي الأكثر إثارة للجدل لنماذج اللغة الكبيرة (LLMs) هو ميلهم إلى الهلوسة.
تشير الهلوسة إلى المواقف التي يقوم فيها النموذج بتزوير المراجع والحقائق ، أو عكس الاستنتاجات المنطقية ، والاستدلالات السببية ، وما إلى ذلك ، وإنشاء محتوى لا معنى له.
ينبع وهم النماذج اللغوية الكبيرة من عدم فهمهم للعلاقات السببية بين الأحداث.
في مقال "هل ChatGPT هو سبب جيد للسبب؟ تقييم شامل" ، أكد الباحثون هذه الحقيقة:
نماذج اللغة الكبيرة مثل ChatGPT ، بغض النظر عما إذا كانت هناك علاقة في الواقع ، فإنها تميل إلى افتراض وجود علاقة سببية بين الأحداث.
عنوان الورق:
استنتج الباحثون أخيرًا:
"إن ChatGPT هو شرح سببي ممتاز ، ولكنه ليس استنتاجًا سببيًا جيدًا."
وبالمثل ، يمكن أيضًا توسيع هذا الاستنتاج ليشمل LLMs الأخرى.
هذا يعني أن LLM بشكل أساسي لديه فقط القدرة على الاستقراء السببي من خلال الملاحظة ، ولكن ليس القدرة على الاستنتاج السببي.
يؤدي هذا أيضًا إلى قيود LLM. إذا كان الذكاء يعني التعلم من التجربة وتحويل المحتوى المتعلم إلى نموذج عالمي لفهم البيئة المحيطة ، فإن الاستدلال السببي ، كعنصر أساسي للتعلم ، غير ممكن للذكاء.جزء مفقود.
تفتقر LLM الحالية إلى هذا الجانب ، ولهذا السبب يعتقد Yann LeCun أن نموذج اللغة الكبيرة الحالي لا يمكن أن يصبح AGI.
ختاماً
كما يتضح من ولادة ميكانيكا الكم في أوائل القرن العشرين ، غالبًا ما يختلف الواقع عن حدسنا الذي تشكله الملاحظة اليومية.
اللغة والمعرفة والبيانات النصية وحتى الفيديو والصوت والمواد الأخرى التي نبنيها ليست سوى جزء محدود للغاية من الواقع الذي يمكننا تجربته.
مثلما نستكشف ونتعلم ونتقن واقعًا يتحدى حدسنا وخبرتنا ، فإن الذكاء الاصطناعي العام لن يتحقق حقًا إلا عندما نتمكن من بناء أنظمة لديها القدرة على التساؤل عن واقعها الخاص ، وقادرة على التحقيق الذاتي.
وعلى الأقل في هذه المرحلة ، يجب أن نبني نموذجًا يمكنه عمل استنتاجات سببية وفهم العالم.
هذا الاحتمال هو خطوة أخرى إلى الأمام في تاريخ البشرية ، مما يعني ضمناً فهمًا أكبر لطبيعة عالمنا.
على الرغم من أن ظهور الذكاء الاصطناعي العام سيضعف قيمتنا الفريدة وأهمية وجودنا ، من خلال التقدم المستمر وتوسيع الحدود المعرفية ، فإننا سوف نفهم بشكل أوضح حالة البشر في الكون ، والعلاقة بين البشر والعلاقة مع الكون.
مراجع:
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
GPT-4 مجرد شرارة من الذكاء الاصطناعي العام؟ LLM ستخرج في النهاية ، النموذج العالمي هو المستقبل
المصدر الأصلي: Xinzhiyuan
في الإدراك البشري ، يبدو أن الذكاء العام الاصطناعي (AGI) قد استخدم منذ فترة طويلة لتحديد الشكل النهائي للذكاء الاصطناعي والهدف النهائي للتنمية.
أما بالنسبة لموعد ظهور الذكاء الاصطناعي العام ، فهو موجود فقط في سيناريوهات السرد في المستقبل القريب التي طرحها الرؤساء ، ويبدو أنها في متناول اليد ، لكنها بعيدة.
اليوم ، على موقع البودكاست الأجنبي الشهير Substack ، كتب أحد المخضرمين في صناعة الذكاء الاصطناعي المسمى فالنتينو زوكا ، الذي يقف على وجهة النظر السردية للتاريخ البشري ، مقالًا مهيبًا يروي بشكل شامل وعميق قصة البشر والاصطناعية العامة. المخابرات ، المسافة بين الذكاء.
وهو يعتقد أنه إذا أراد البشر حقًا تحقيق عالم الذكاء الاصطناعي العام ، فإنهم بحاجة إلى بناء "نظام يمكنه التشكيك في واقعهم والقدرة على استكشاف أنفسهم".
في عملية الاستكشاف الرائعة هذه ، ربما لا يمتلك أحد المؤهلات والقدرة على إعطاء خارطة طريق محددة.
كما أوضح عالما OpenAI كينيث ستانلي وجويل ليمان في كتابهما الأخير ، "لماذا لا يمكن التخطيط للعظمة" ، فإن السعي وراء العظمة له اتجاه ، لكن النتائج المحددة قد تكون غير متوقعة.
** كم نحن بعيدون عن الذكاء الاصطناعي العام؟ **
منذ حوالي 200000 عام ، بدأ الإنسان العاقل في المشي منتصباً على الأرض ، وفي الوقت نفسه ، بدأ أيضًا في السفر في مجال الفكر والمعرفة.
شكلت سلسلة من الاكتشافات والاختراعات في تاريخ البشرية تاريخ البشرية. لا يؤثر بعضها على لغتنا وتفكيرنا فحسب ، بل يؤثر أيضًا على تكويننا البيولوجي.
على سبيل المثال ، مكّن اكتشاف النار الإنسان البدائي من طهي الطعام. يوفر الطعام المطبوخ المزيد من الطاقة للدماغ ، وبالتالي تعزيز تنمية الذكاء البشري.
من اختراع العجلة إلى إنشاء المحرك البخاري ، بشرت البشرية بالثورة الصناعية. مهدت الكهرباء الطريق للتطورات التكنولوجية التي نمر بها اليوم ، وسرعت الطباعة من الانتشار الواسع للأفكار والثقافات الجديدة ، مما حفز تطور الابتكار البشري.
ومع ذلك ، فإن التقدم لا يأتي فقط من اكتشاف أبعاد مادية جديدة ، ولكن أيضًا من الأفكار الجديدة.
يعود تاريخ العالم الغربي من سقوط الإمبراطورية الرومانية إلى العصور الوسطى ، حيث شهد نهضة جديدة خلال عصر النهضة والتنوير.
ولكن مع نمو المعرفة البشرية ، بدأ الجنس البشري يدرك عدم أهميته.
بعد أكثر من ألفي عام من سقراط ، بدأ البشر "يعرفون أنهم لا يعرفون شيئًا" ، ولم يعد يُنظر إلى أرضنا على أنها مركز الكون. الكون نفسه يتوسع ، ونحن مجرد ذرة غبار فيه.
** تغيير مفهوم الواقع **
لكن أكبر تغيير في تصور الإنسان للعالم حدث في القرن العشرين.
في عام 1931 ، نشر كيرت جودل نظرية عدم الاكتمال.
بعد أربع سنوات فقط ، من أجل مواصلة موضوع "الاكتمال" ، نشر أينشتاين وبودولسكي وروزين ورقة بعنوان "هل يمكن اعتبار الإلهاء الميكانيكي الكمومي للواقع المادي مكتملاً؟" من؟)
بعد ذلك ، دحض نيلز بور هذه الورقة ، وأثبت صحة فيزياء الكم.
تُظهر نظرية جودل أنه حتى الرياضيات لا يمكنها إثبات كل شيء بشكل قاطع - فالبشر دائمًا لديهم حقائق غير قابلة للإثبات - بينما تُظهر نظرية الكم أن عالمنا يفتقر إلى اليقين ، مما يمنعنا من التنبؤ بأحداث معينة ، مثل سرعة وسرعة الإلكترونات.
على الرغم من تصريح أينشتاين الشهير بأن "الله لا يلعب النرد مع الكون ،" في جوهره ، فإن القيود البشرية تظهر بشكل كامل عندما يتعلق الأمر ببساطة بالتنبؤ أو فهم الأشياء في الفيزياء.
بغض النظر عن مدى صعوبة محاولة البشر تصميم عالم رياضي تديره القواعد التي صاغها البشر ، فإن هذا الكون المجرد دائمًا غير مكتمل ، وهناك بديهيات موضوعية لا يمكن إثباتها ولا يمكن إنكارها مخبأة فيه.
بالإضافة إلى الصياغة المجردة للرياضيات ، يتم التعبير عن العالم البشري أيضًا من خلال الفلسفة التي تصف الواقع.
لكن البشر يجدون أنفسهم غير قادرين على وصف هذه التمثيلات أو التعبير عنها بشكل كامل أو فهمها أو حتى تعريفها.
في بداية القرن العشرين ، كان مفهوم "الحقيقة" لا يزال غير مؤكد ، وكانت مفاهيم مثل "الفن" و "الجمال" و "الحياة" تفتقر إلى إجماع أساسي على مستوى التعريف.
وينطبق الشيء نفسه على العديد من المفاهيم الهامة الأخرى ، كما لا يمكن تعريف "الحكمة" و "الوعي" بوضوح من قبل البشر أنفسهم.
** تعريف الذكاء **
من أجل سد الفجوة في تعريف الذكاء ، في عام 2007 ، اقترح ليغ وهارت تعريف ذكاء الآلة في كتاب "المخابرات العامة": "يقيس الذكاء قدرة الوكيل (الوكيل) على تحقيق الأهداف في بيئة متغيرة . "
وبالمثل ، في "حل المشكلات والذكاء" ، يجادل هامبريك وبورجوين وألتمان بأن حل المشكلات ليس مجرد جانب أو سمة من سمات الذكاء ، ولكنه جوهر الذكاء.
هاتان العبارتان متشابهتان في وصف اللغة ، وكلاهما يعتقد أن "تحقيق هدف" يمكن ربطه بـ "حل مشكلة".
"الذكاء هو قدرة عقلية عامة جدًا تشمل التفكير والتخطيط وحل المشكلات والتفكير المجرد وفهم الأفكار المعقدة والتعلم السريع والتعلم من التجربة. إنها ليست مجرد معرفة بالكتب أو مهارات أكاديمية ضيقة أو مهارات إجراء الاختبارات. بل بالأحرى ، فهو يعكس قدرة أوسع وأعمق لفهم ما يحيط به المرء - القدرة على "التقاط" أو "فهم" الأشياء أو "اكتشاف" ما يجب فعله ".
يأخذ هذا التعريف بناء الذكاء إلى ما هو أبعد من مجرد "مهارات حل المشكلات" ويقدم بعدين رئيسيين: القدرة على التعلم من التجربة والقدرة على فهم البيئة المحيطة.
بعبارة أخرى ، لا ينبغي النظر إلى الذكاء باعتباره قدرة مجردة لإيجاد حلول للمشاكل العامة ، بل على أنه قدرة ملموسة لتطبيق ما تعلمناه من التجارب السابقة على قدراتنا البيئية في المواقف المختلفة التي قد تنشأ.
هذا يؤكد الصلة الجوهرية بين الذكاء والتعلم.
في كتاب "كيف نتعلم" ، يعرّف ستانيسلاس ديهاين التعلم بأنه "التعلم هو عملية تكوين نموذج للعالم" ، مما يعني أن الذكاء هو أيضًا قدرة تتطلب فهم البيئة المحيطة وإنشاء نموذج داخلي لوصف بيئة.
لذلك ، يتطلب الذكاء أيضًا القدرة على إنشاء نماذج للعالم ، ولكن ليس فقط هذه القدرة.
** ما مدى ذكاء الآلات الحالية؟ **
عند مناقشة الذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الضيق (Narrow AI) ، غالبًا ما نؤكد الفرق بينهما.
الذكاء الاصطناعي الضيق (أو الذكاء الاصطناعي الضعيف) شائع جدًا وناجح ، وغالبًا ما يتفوق على البشر في مهام محددة.
على سبيل المثال ، هذا المثال المشهور ، في عام 2016 ، هزم الذكاء الاصطناعي الضيق AlphaGo بطل العالم Li Shidol بنتيجة 4 إلى 1 في لعبة Go ، وهو مثال جيد.
ومع ذلك ، في عام 2023 ، استخدم لاعب الشطرنج الهواة كيلين بيرلين التكتيكات التي لم يستطع الذكاء الاصطناعي التعامل معها للفوز بلعبة للبشر في ميدان Go ، مما يدل على أن الذكاء الاصطناعي الضيق له قيود في بعض الحالات.
إنه يفتقر إلى القدرة البشرية على التعرف على التكتيكات غير العادية والتكيف وفقًا لذلك.
علاوة على ذلك ، على المستوى الأساسي ، يدرك حتى عالم البيانات المبتدئ أن كل نموذج للتعلم الآلي يعتمد عليه الذكاء الاصطناعي يحتاج إلى تحقيق التوازن بين التحيز والتباين.
وهذا يعني التعلم من البيانات وفهم الحلول وتعميمها وليس مجرد الحفظ.
يستخدم الذكاء الاصطناعي الضيق طاقة الحوسبة وسعة الذاكرة لأجهزة الكمبيوتر لإنشاء نماذج معقدة بناءً على كميات كبيرة من البيانات المرصودة بسهولة نسبية.
ومع ذلك ، بمجرد أن تتغير الظروف قليلاً ، فإن هذه النماذج غالبًا ما تكون غير قابلة للتعميم.
سيكون الأمر كما لو أننا توصلنا إلى نظرية الجاذبية لوصف الأرض بناءً على الملاحظات ، فقط لنجد أن الأجسام أخف بكثير على القمر.
إذا استخدمنا المتغيرات بدلاً من الأرقام بناءً على معرفتنا النظرية للجاذبية ، فيمكننا فهم كيفية استخدام القيم الصحيحة للتنبؤ بسرعة بحجم الجاذبية على كل كوكب أو قمر.
ولكن إذا استخدمنا معادلات عددية بدون متغيرات ، فلن نتمكن من تعميم هذه المعادلات بشكل صحيح على الكواكب الأخرى دون إعادة كتابتها.
بعبارة أخرى ، قد لا يكون الذكاء الاصطناعي قادرًا على "التعلم" حقًا ، ولكن فقط استخلاص المعلومات أو الخبرة. لا يفهم الذكاء الاصطناعي من خلال تشكيل نموذج شامل للعالم ، ولكن فقط من خلال إنشاء ملخص للتعبير عنه.
** هل وصلنا بالفعل إلى الذكاء الاصطناعي العام حتى الآن؟ **
يُفهم الآن عمومًا أن الذكاء الاصطناعي العام يشير إلى: نظام ذكاء اصطناعي يمكنه الفهم والتفكير في مجالات معرفية متعددة على المستوى البشري أو أعلى ، أي الذكاء الاصطناعي القوي.
وذكائنا الاصطناعي الحالي لأداء مهام محددة هو مجرد ذكاء اصطناعي ضعيف ، مثل AlphaGO of Go.
يمثل AGI نظام ذكاء اصطناعي مع ذكاء على مستوى الإنسان يغطي مجالات مختلفة في مجال التفكير المجرد.
هذا يعني أن ما نحتاجه للذكاء الاصطناعي العام هو نموذج للعالم يتوافق مع التجربة ويمكنه تقديم تنبؤات دقيقة.
كما أشار إيفريت وليا وهوتر في "مراجعة أدبيات السلامة" (مراجعة أدبيات السلامة AGI): AGI ليس هنا بعد.
بالنسبة للسؤال "إلى أي مدى نحن بعيدون عن الذكاء الاصطناعي العام الحقيقي؟" ، تختلف التوقعات المختلفة على نطاق واسع.
لكنها تتفق مع آراء معظم الباحثين في مجال الذكاء الاصطناعي والمؤسسات الرسمية ، أي أن البشر على بعد بضع سنوات على الأقل من الذكاء الاصطناعي العام الحقيقي.
بعد إصدار GPT-4 ، الذي يواجه أقوى ذكاء اصطناعي في الوقت الحالي ، يعتبر الكثير من الناس أن GPT-4 هو شرارة الذكاء الاصطناعي العام.
في 13 أبريل ، أصدرت Microsoft ، شريكة OpenAI ، ورقة بعنوان "شرارات الذكاء الاصطناعي العام: تجارب مبكرة مع GPT-4" (شرارات الذكاء الاصطناعي العام: تجارب مبكرة مع GPT-4).
الذي يذكر:
"لا يتقن GPT-4 اللغة فحسب ، بل يحل أيضًا المهام المتطورة التي تغطي الرياضيات ، والترميز ، والرؤية ، والطب ، والقانون ، وعلم النفس وغيرها من المجالات ، دون الحاجة إلى أي مطالبات خاصة.
وفي جميع المهام المذكورة أعلاه ، يكون مستوى أداء GPT-4 على قدم المساواة تقريبًا مع المستوى البشري. استنادًا إلى اتساع وعمق إمكانات GPT-4 ، نعتقد أنه يمكن اعتبارها بشكل معقول نسخة شبه كاملة من الذكاء الاصطناعي العام ولكنها ليست كاملة. "
ولكن كما علق مارتن ساب ، الأستاذ في جامعة كارنيجي ميلون ، فإن "شرارة الذكاء الاصطناعي العام" هي مجرد مثال لبعض الشركات الكبيرة بما في ذلك الأوراق البحثية مثل العلاقات العامة.
من ناحية أخرى ، يشير الباحث ورجل الأعمال الآلي رودني بروكس إلى فكرة خاطئة: "عند تقييم وظائف أنظمة مثل ChatGPT ، غالبًا ما نساوي الأداء بالقدرات."
تعني المساواة الخاطئة بين الأداء والقدرة أن GPT-4 يولد أوصافًا تلخيصية للعالم يعتبره فهمًا للعالم الحقيقي.
هذا له علاقة بالبيانات التي تم تدريب نموذج الذكاء الاصطناعي عليها.
يتم تدريب معظم نماذج اليوم على النص فقط ، وليس لديهم القدرة على التحدث والسمع والشم والعيش في العالم الحقيقي.
هذا الموقف مشابه لرواية أفلاطون عن الكهف ، فالناس الذين يعيشون في الكهف يمكنهم فقط رؤية الظل على الحائط ، لكنهم لا يستطيعون التعرف على الوجود الحقيقي للأشياء.
القيود الرئيسية للنموذج الكبير الحالي
التحدي الأكثر إثارة للجدل لنماذج اللغة الكبيرة (LLMs) هو ميلهم إلى الهلوسة.
تشير الهلوسة إلى المواقف التي يقوم فيها النموذج بتزوير المراجع والحقائق ، أو عكس الاستنتاجات المنطقية ، والاستدلالات السببية ، وما إلى ذلك ، وإنشاء محتوى لا معنى له.
ينبع وهم النماذج اللغوية الكبيرة من عدم فهمهم للعلاقات السببية بين الأحداث.
في مقال "هل ChatGPT هو سبب جيد للسبب؟ تقييم شامل" ، أكد الباحثون هذه الحقيقة:
نماذج اللغة الكبيرة مثل ChatGPT ، بغض النظر عما إذا كانت هناك علاقة في الواقع ، فإنها تميل إلى افتراض وجود علاقة سببية بين الأحداث.
استنتج الباحثون أخيرًا:
"إن ChatGPT هو شرح سببي ممتاز ، ولكنه ليس استنتاجًا سببيًا جيدًا."
وبالمثل ، يمكن أيضًا توسيع هذا الاستنتاج ليشمل LLMs الأخرى.
هذا يعني أن LLM بشكل أساسي لديه فقط القدرة على الاستقراء السببي من خلال الملاحظة ، ولكن ليس القدرة على الاستنتاج السببي.
يؤدي هذا أيضًا إلى قيود LLM. إذا كان الذكاء يعني التعلم من التجربة وتحويل المحتوى المتعلم إلى نموذج عالمي لفهم البيئة المحيطة ، فإن الاستدلال السببي ، كعنصر أساسي للتعلم ، غير ممكن للذكاء.جزء مفقود.
تفتقر LLM الحالية إلى هذا الجانب ، ولهذا السبب يعتقد Yann LeCun أن نموذج اللغة الكبيرة الحالي لا يمكن أن يصبح AGI.
ختاماً
كما يتضح من ولادة ميكانيكا الكم في أوائل القرن العشرين ، غالبًا ما يختلف الواقع عن حدسنا الذي تشكله الملاحظة اليومية.
اللغة والمعرفة والبيانات النصية وحتى الفيديو والصوت والمواد الأخرى التي نبنيها ليست سوى جزء محدود للغاية من الواقع الذي يمكننا تجربته.
مثلما نستكشف ونتعلم ونتقن واقعًا يتحدى حدسنا وخبرتنا ، فإن الذكاء الاصطناعي العام لن يتحقق حقًا إلا عندما نتمكن من بناء أنظمة لديها القدرة على التساؤل عن واقعها الخاص ، وقادرة على التحقيق الذاتي.
وعلى الأقل في هذه المرحلة ، يجب أن نبني نموذجًا يمكنه عمل استنتاجات سببية وفهم العالم.
هذا الاحتمال هو خطوة أخرى إلى الأمام في تاريخ البشرية ، مما يعني ضمناً فهمًا أكبر لطبيعة عالمنا.
على الرغم من أن ظهور الذكاء الاصطناعي العام سيضعف قيمتنا الفريدة وأهمية وجودنا ، من خلال التقدم المستمر وتوسيع الحدود المعرفية ، فإننا سوف نفهم بشكل أوضح حالة البشر في الكون ، والعلاقة بين البشر والعلاقة مع الكون.
مراجع: