لقد كان ChatGPT رائجًا منذ أكثر من نصف عام. بالإضافة إلى التطور السريع ، بالإضافة إلى حل المشكلات الفنية ، قد يكون الامتثال هو المشكلة الكبيرة التالية بعد استدعاء الكونجرس لسام ألتمان ، وقد أجرت الآن FTC (لجنة التجارة الفيدرالية) أيضًا رسميًا تحقيق ChatGPT.
هذا يردد ما قاله بيل جيتس قبل أيام قليلة. في أحدث تدوينة له ، قال: الذكاء الاصطناعي هو أكثر الابتكارات تحويلية. صحيح أن هناك مخاطر ، لكن المخاطر يمكن السيطرة عليها أيضًا.
في منشور المدونة ، يناقش بيل جيتس بشكل أساسي مخاطر وتحديات الذكاء الاصطناعي وكيفية التعامل معها ، كما يقدم بعض الأمثلة والاقتراحات.
أعرب بيل جيتس لأول مرة عن تأكيده لمخاوف الناس بشأن الذكاء الاصطناعي اليوم - نحن الآن في عصر من التغييرات العميقة في الذكاء الاصطناعي ، وهو عصر غير مؤكد. لكنه متفائل بأن هذه المخاطر يمكن التحكم فيها.
ثانيًا ، سرد بيل جيتس أيضًا المخاطر التي يسببها الذكاء الاصطناعي الحالي ، بما في ذلك التزوير العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي ، والتي قد تدمر الانتخابات والديمقراطية ، وتسهل على الأفراد والحكومات شن هجمات ، وسحب وظائف الناس. يرث التحيزات البشرية ويصنع الأشياء ، لن يتعلم الطلاب الكتابة لأن الذكاء الاصطناعي سيفعل ذلك من أجلهم ، إلخ.
أخيرًا ، طرح بيل جيتس أيضًا سلسلة من المقترحات لتنظيم الذكاء الاصطناعي. على مستوى الحكومة الوطنية ، تحتاج الحكومات إلى تجميع الخبرات في مجال الذكاء الاصطناعي لصياغة القوانين واللوائح للتعامل مع الذكاء الاصطناعي ، للتعامل مع المعلومات المضللة والتزييف العميق ، والتهديدات الأمنية ، والتغيرات في سوق العمل ، والتأثير على التعليم.
فيما يتعلق بالحلول ، يحتاج القادة الحكوميون إلى التعاون مع الدول الأخرى ، وليس وحدها ، والقدرة على إجراء حوار مستنير ومدروس مع الناس.
بالإضافة إلى ذلك ، بالنسبة للمؤسسات ، يجب أن يكون لشركات الذكاء الاصطناعي موقف مسؤول ، ويجب تنفيذ العمل لضمان الأمن ، بما في ذلك حماية خصوصية الأشخاص وما إلى ذلك.
فيما يلي النص الكامل ، مترجم من GPT-4 ، حرره 36 كريبتون:
تبدو المخاطر التي يشكلها الذكاء الاصطناعي هائلة. ماذا عن أولئك الذين فقدوا وظائفهم ليحلوا محلهم آلات ذكية؟ هل سيؤثر الذكاء الاصطناعي على نتائج الانتخابات؟ ماذا لو قرر الذكاء الاصطناعي في المستقبل أنه لم تعد هناك حاجة للبشر ويريد التخلص منا؟
هذه أسئلة مشروعة ، وعلينا أن نتعامل بجدية مع المخاوف التي تثيرها. لكن لدينا كل الأسباب التي تجعلنا نعتقد أنه يمكننا التعامل معها: هذه ليست المرة الأولى التي يقدم فيها ابتكار كبير تهديدات جديدة يجب احتواؤها ، وقد واجهناها من قبل.
سواء كان ذلك بسبب ظهور السيارات أو ظهور الكمبيوتر الشخصي والإنترنت ، فقد عاش الناس لحظات تحويلية أخرى ، على الرغم من العديد من الاضطرابات ، انتهى بها الأمر إلى الأفضل. بعد فترة وجيزة من اصطدام السيارات الأولى بالطريق ، وقعت أولى الاصطدامات. ولكن بدلاً من حظر السيارات ، اعتمدنا حدود السرعة ومعايير السلامة ومتطلبات رخصة القيادة وقوانين القيادة تحت تأثير الكحول وقواعد الطريق الأخرى.
نحن الآن في المراحل الأولى من تحول عميق آخر ، عصر الذكاء الاصطناعي ، على غرار عصر عدم اليقين قبل حدود السرعة وأحزمة الأمان. يتغير الذكاء الاصطناعي بسرعة كبيرة لدرجة أنه ليس من الواضح ما الذي سيحدث بعد ذلك. نحن نواجه أسئلة كبيرة حول كيفية عمل التكنولوجيا الحالية ، وكيف يستخدمها الناس لأغراض خبيثة ، وكيف سيغيرنا الذكاء الاصطناعي كأفراد في المجتمع وكأفراد.
في مثل هذه اللحظات ، من الطبيعي أن تشعر بعدم الارتياح. لكن التاريخ يظهر أنه من الممكن مواجهة التحديات التي تفرضها التقنيات الجديدة.
لقد كتبت عن كيف سيحدث الذكاء الاصطناعي ثورة في حياتنا ، ويساعد في حل المشكلات في الصحة والتعليم وتغير المناخ وغير ذلك من الأمور التي بدت مستعصية على الحل في الماضي. تضع مؤسسة Gates هذه المسألة ضمن أولوياتها ، وقد شارك الرئيس التنفيذي لدينا ، Mark Suzman ، مؤخرًا أفكاره حول دور الذكاء الاصطناعي في الحد من عدم المساواة.
سأتحدث أكثر عن فوائد الذكاء الاصطناعي في المستقبل ، لكن في هذا المنشور أريد أن أتحدث عن المخاوف الأكثر شيوعًا التي أسمعها وأقرأها ، والتي أشارك الكثير منها ، وأشرح كيف أشعر بالقلق حيالهم.
من كل ما كتب حتى الآن عن مخاطر الذكاء الاصطناعي ، هناك شيء واحد واضح ، وهو أنه لا يوجد شخص واحد لديه كل الإجابات. نقطة أخرى واضحة بالنسبة لي هي أن مستقبل الذكاء الاصطناعي ليس قاتمًا كما يتخيله البعض ، وليس ورديًا كما يتخيله الآخرون. المخاطر حقيقية ، لكني متفائل بإمكانية إدارتها. بينما أناقش كل قضية واحدة تلو الأخرى ، سأعود إلى بعض الموضوعات:
العديد من المشاكل التي يثيرها الذكاء الاصطناعي لها سابقة تاريخية. سيكون لها تأثير كبير على التعليم ، على سبيل المثال ، لكن باستخدام الآلات الحاسبة المحمولة منذ عقود ، وفي الآونة الأخيرة السماح لأجهزة الكمبيوتر بدخول الفصول الدراسية ، يمكننا التعلم من النجاحات السابقة.
يمكن أيضًا حل العديد من المشكلات التي يسببها الذكاء الاصطناعي بمساعدة الذكاء الاصطناعي.
نحن بحاجة إلى تكييف القوانين القديمة وسن قوانين جديدة - تمامًا كما يجب أن تتكيف قوانين مكافحة الاحتيال الحالية مع عالم الإنترنت.
في هذه المقالة ، سأركز على المخاطر الحالية أو الوشيكة. لن أناقش ما سيحدث عندما نطور ذكاءً اصطناعيًا قادرًا على تعلم أي موضوع أو مهمة. بدلاً من ذلك ، أتحدث اليوم عن الذكاء الاصطناعي المصمم لهذا الغرض.
سواء وصلنا إلى هذه النقطة خلال عقد أو قرن ، سيحتاج المجتمع إلى مواجهة بعض الأسئلة العميقة. ماذا لو حدد الذكاء الاصطناعي الخارق أهدافه الخاصة؟ ماذا لو تعارضوا مع الأهداف البشرية؟ هل يجب علينا بناء ذكاء اصطناعي خارق؟
ومع ذلك ، لا ينبغي التغاضي عن المخاطر المباشرة عند النظر في هذه المخاطر طويلة الأجل. أنتقل الآن إلى هذه المخاطر قصيرة المدى.
** المحتوى الوهمي والمعلومات المضللة التي تنشئها منظمة العفو الدولية يمكن أن تدمر الانتخابات والديمقراطية **
إن استخدام التكنولوجيا لنشر الأكاذيب والمعلومات المضللة ليس بالأمر الجديد. ظل الناس ينشرون الأكاذيب من خلال الكتب والنشرات لعدة قرون. أصبحت هذه الممارسة أسهل مع ظهور معالجات النصوص وطابعات الليزر والبريد الإلكتروني والشبكات الاجتماعية.
لقد أدى الذكاء الاصطناعي إلى تضخيم مشكلة النص المزيف ، مما جعل من الممكن لأي شخص تقريبًا إنشاء صوت وفيديو مزيف ، يُعرف باسم التزييف العميق. إذا تلقيت رسالة صوتية تبدو مثل طفلك تقول "لقد تم اختطافي ، يرجى إرسال 1000 دولار إلى هذا الحساب المصرفي خلال الدقائق العشر القادمة ولا تتصل بالشرطة" ، فسيؤدي ذلك إلى إنشاء أكثر من نفس المحتوى. التأثير العاطفي المخيف للبريد.
على نطاق أوسع ، يمكن استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لمحاولة التأثير على نتائج الانتخابات. بالطبع ، لا يتطلب الأمر تقنية متطورة للتشكيك في الفائز الشرعي في الانتخابات ، لكن الذكاء الاصطناعي سيجعل العملية أسهل بكثير.
ظهرت بالفعل مقاطع فيديو مزيفة تحتوي على لقطات ملفقة لسياسيين معروفين. تخيل أنه في صباح يوم انتخابات مهمة ، انتشر مقطع فيديو لمرشح يسرق بنكًا. على الرغم من أنها كانت خاطئة ، فقد استغرقت المؤسسات الإخبارية والحملات عدة ساعات لإثبات ذلك. كم عدد الأشخاص الذين سيشاهدون هذا الفيديو ويغيرون تصويتهم في اللحظة الأخيرة؟ يمكن أن يغير ذلك نتيجة السباق ، خاصة إذا كان السباق قريبًا.
عندما أدلى سام التمان ، أحد مؤسسي منظمة Open AI ، بشهادته أمام لجنة في مجلس الشيوخ الأمريكي مؤخرًا ، أثار أعضاء مجلس الشيوخ من كلا الحزبين مخاوف بشأن تأثير الذكاء الاصطناعي على الانتخابات والديمقراطية. آمل أن يستمر هذا الموضوع في إثارة اهتمام الجميع. لم نحل حقًا مشكلة المعلومات المضللة والتزييف العميق. لكن هناك شيئان يجعلانني متفائلاً بحذر. أحدها أن الناس لديهم القدرة على تعلم عدم الثقة في كل شيء. لسنوات ، تم خداع مستخدمي البريد الإلكتروني من قبل شخص يتظاهر بأنه أمير نيجيري ، ووعد بمكافآت ضخمة لمشاركة أرقام بطاقات الائتمان. لكن في النهاية ، يتعلم معظم الناس التحقق مرة أخرى من رسائل البريد الإلكتروني هذه. نظرًا لأن عمليات الخداع تصبح أكثر تعقيدًا والعديد من الأهداف أكثر خداعًا ، فنحن بحاجة إلى خلق نفس الوعي للتزييف العميق.
الشيء الآخر الذي يجعلني متفائلًا هو أن الذكاء الاصطناعي لا يمكنه فقط إنشاء التزييف العميق ، ولكن أيضًا المساعدة في التعرف عليها. على سبيل المثال ، طورت إنتل كاشفًا للتزييف العميق ، بينما تعمل الوكالة الحكومية DARPA على كيفية تحديد ما إذا كان الفيديو أو الصوت قد تم التلاعب به.
ستكون عملية دائرية: يجد شخص ما طريقة لاكتشاف التزوير ، ويكتشف شخص آخر كيفية مواجهته ، ويطور شخص ما إجراءً مضادًا ، وما إلى ذلك. لن يكون نجاحًا مثاليًا ، لكننا لن نكون مقيدين أيضًا.
** يُسهل الذكاء الاصطناعي على البشر والحكومات شن الهجمات **
اليوم ، عندما يريد المتسللون العثور على خطأ في البرنامج ، فإنهم يكتبون التعليمات البرمجية من خلال القوة الغاشمة ، ويهاجمون نقاط الضعف المحتملة حتى يعثروا على الخطأ. هذا ينطوي على العديد من الالتفافات ، لذلك يستغرق وقتا وصبرا.
يجب على محترفي الأمن الذين يرغبون في محاربة المتسللين أن يفعلوا الشيء نفسه. يمثل كل برنامج تصحيح تقوم بتثبيته على هاتفك أو جهاز الكمبيوتر المحمول الخاص بك الكثير من الوقت الذي تقضيه في البحث عنه من قبل شخص حميد أو ضار.
ستعمل نماذج الذكاء الاصطناعي على تسريع هذه العملية من خلال مساعدة المتسللين على كتابة تعليمات برمجية أكثر كفاءة. سيكونون قادرين أيضًا على استخدام المعلومات العامة حول الأفراد ، مثل مكان عملهم ومن هم أصدقاؤهم ، لتطوير هجمات تصيد أكثر تقدمًا مما نراه اليوم.
والخبر السار هو أنه يمكن استخدام الذكاء الاصطناعي لأغراض خبيثة وجيدة. تحتاج فرق الأمن في الحكومة والقطاع الخاص إلى امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن يستغلها المجرمون. آمل أن تتوسع صناعة أمان البرمجيات في العمل الذي يقومون به بالفعل في هذا المجال ، يجب أن يكون همهم الأول.
لهذا السبب يجب ألا نحاول منع الناس مؤقتًا من تنفيذ تطورات جديدة في الذكاء الاصطناعي ، كما اقترح البعض. لن يتوقف مجرمو الإنترنت عن صنع أدوات جديدة ، وكذلك أولئك الذين يرغبون في استخدام الذكاء الاصطناعي لتصميم أسلحة نووية وهجمات الإرهاب البيولوجي ، وإيقافهم يحتاجون إلى الاستمرار بنفس الوتيرة.
هناك أيضًا مخاطر ذات صلة على المستوى العالمي: يمكن استخدام سباق تسلح للذكاء الاصطناعي لتصميم وشن هجمات إلكترونية ضد دول أخرى. تريد حكومة كل دولة أن تمتلك أقوى تقنية متاحة لردع هجمات الأعداء. يمكن أن يؤدي دافع "عدم ترك أحد أولاً" هذا إلى سباق لإنشاء أسلحة إلكترونية خطيرة بشكل متزايد. بهذه الطريقة ، سيكون الجميع أسوأ حالًا.
إنها فكرة مخيفة ، لكن لدينا التاريخ كدرس. على الرغم من عيوبه ، منع نظام عدم انتشار الأسلحة النووية في العالم الحرب النووية الشاملة التي نشأ جيلي مرعوبًا منها. يجب على الحكومات التفكير في إنشاء وكالة عالمية للذكاء الاصطناعي مماثلة للوكالة الدولية للطاقة الذرية.
** الذكاء الاصطناعي يأخذ الوظائف من الناس **
سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل في السنوات القادمة في مساعدة الناس على أداء وظائفهم بشكل أكثر كفاءة. هذا صحيح سواء كنت تعمل في مصنع أو في مكتب تتعامل مع مكالمات المبيعات والحسابات المستحقة الدفع. في النهاية ، ستكون مهارة الذكاء الاصطناعي في التعبير عن الأفكار جيدة بما يكفي بحيث يمكنها كتابة رسائل البريد الإلكتروني وإدارة البريد الوارد نيابة عنك. ستكون قادرًا على كتابة طلب بلغة إنجليزية بسيطة أو أي لغة أخرى وإنشاء تقرير وظيفي إعلامي.
كما قلت في مقالتي في شباط (فبراير) ، فإن زيادة الإنتاجية مفيدة للمجتمع. وهذا يترك المزيد من الوقت للأشخاص للقيام بأشياء أخرى ، سواء في العمل أو في المنزل. ولن تختفي أبدًا الحاجة إلى الأشخاص المتعاونين ، مثل التدريس ورعاية المرضى ورعاية المسنين.
لكن بعض العمال يحتاجون إلى الدعم وإعادة التدريب أثناء انتقالنا إلى مكان عمل يحركه الذكاء الاصطناعي. هذه هي مهمة الحكومات والشركات لإدارتها بشكل جيد حتى لا يُترك العمال وراء الركب ، دون هذا النوع من الاضطراب في حياة الناس الذي حدث عندما فقدت وظائف التصنيع في الولايات المتحدة.
ضع في اعتبارك أيضًا أن هذه ليست المرة الأولى التي تؤدي فيها التقنيات الجديدة إلى تغييرات كبيرة في سوق العمل. لا أعتقد أن تأثير الذكاء الاصطناعي سيكون ضخمًا مثل الثورة الصناعية ، لكنه بالتأكيد سيكون ضخمًا مثل ظهور الكمبيوتر الشخصي. تطبيقات معالجة الكلمات لم تلغي العمل المكتبي ، لكنها غيرته إلى الأبد. كان على أرباب العمل والموظفين التكيف ، وقد فعلوا ذلك. سيكون التحول الذي أحدثه الذكاء الاصطناعي تحولًا صعبًا ، ولكن هناك كل الأسباب للاعتقاد بأننا قادرون على تقليل الاضطراب في حياة الناس وسبل عيشهم.
** يرث الذكاء الاصطناعي تحيزاتنا ويصنعها **
الهلوسة ، وهي عندما يصدر الذكاء الاصطناعي بثقة بعض العبارات غير الصحيحة ، وعادة ما تحدث لأن الجهاز لا يفهم سياق طلبك. إذا طلبت من الذكاء الاصطناعي كتابة قصة قصيرة عن إجازة على القمر ، فقد يمنحك إجابة خيالية للغاية. ولكن إذا سمحت له بمساعدتك في التخطيط لرحلة إلى تنزانيا ، فقد يحاول توصيلك إلى فندق غير موجود.
هناك خطر آخر للذكاء الاصطناعي وهو أنه يعكس أو حتى يفاقم التحيزات القائمة حول هويات وأعراق وإثنيات معينة بين الجنسين وما إلى ذلك.
لفهم سبب ظهور مثل هذه الأوهام والتحيزات ، من المهم فهم كيفية عمل نماذج الذكاء الاصطناعي الحالية الأكثر شيوعًا. إنها في الأساس إصدارات معقدة للغاية من التعليمات البرمجية التي تسمح لتطبيق البريد الإلكتروني الخاص بك بالتنبؤ بالكلمة التالية التي ستكتبها: في بعض الحالات ، يتوفر كل النص تقريبًا على الويب ، ويقومون بمسح كميات هائلة من النصوص وتحليلها والبحث الأنماط في لغة الإنسان.
عندما تطرح سؤالاً على الذكاء الاصطناعي ، فإنه يبحث في الكلمات التي تستخدمها ثم يبحث عن النص الذي غالبًا ما يرتبط بهذه الكلمات. إذا كتبت "قائمة بمكونات الفطائر" ، فقد تلاحظ أن الكلمات "الدقيق والسكر والملح ومسحوق الخبز والحليب والبيض" تظهر بشكل متكرر مع العبارة. ثم ، بناءً على ما يعرفه عن الترتيب الذي تظهر به هذه الكلمات عادةً ، فإنه يولد إجابة (نماذج الذكاء الاصطناعي التي تعمل بهذه الطريقة تستخدم ما يسمى بالمحولات ، و GPT-4 هو أحد هذه النماذج).
تشرح هذه العملية لماذا يمكن للذكاء الاصطناعي أن يهلوس أو يكون متحيزًا ، دون أي فهم سياقي للأسئلة التي تطرحها أو الأشياء التي تخبرها بها. إذا أخبرته أنك ارتكبت خطأ إملائيًا ، فمن المحتمل أن يقول "آسف ، لقد ارتكبت خطأ إملائيًا". ولكن هذا مجرد وهم ، فهو لا يخطئ في كتابة أي شيء ، فهو يقول أنه بسبب مسحه لنص كافٍ لمعرفة أن عبارة "آسف ، لقد أخطأت في الكتابة" هي أحد الأشياء التي يكتبها الناس غالبًا بعد تصحيح الجملة.
وبالمثل ، ترث نماذج الذكاء الاصطناعي التحيزات المتأصلة في النص الذي تم تدريبهم عليه. إذا قرأ المرء الكثير من المقالات عن الأطباء ، وكانت المقالات تذكر في الغالب الأطباء الذكور ، فإن إجابته ستفترض أن معظم الأطباء هم من الرجال.
على الرغم من أن بعض الباحثين يجادلون بأن الهلوسة مشكلة متأصلة ، إلا أنني لا أتفق معها. أنا متفائل بأنه ، بمرور الوقت ، يمكننا تعليم نماذج الذكاء الاصطناعي لتمييز الحقيقة عن الخيال. على سبيل المثال ، قام Open AI بعمل واعد في هذا الشأن.
منظمات أخرى ، بما في ذلك معهد آلان تورينج والمعهد الوطني للمعايير والتكنولوجيا ، تعالج التحيز. يتمثل أحد الأساليب في دمج القيم الإنسانية والتفكير عالي المستوى في الذكاء الاصطناعي. إنه مشابه لكيفية عمل البشر المدركين لذواتهم: ربما تعتقد أن معظم الأطباء هم من الذكور ، لكنك على دراية كافية بهذا الافتراض لتعلم أنه يجب عليك محاربته بوعي. يمكن للذكاء الاصطناعي أن يعمل بطريقة مماثلة ، خاصة إذا تم تصميم النماذج من قبل أشخاص من خلفيات مختلفة.
في النهاية ، يجب على كل شخص يستخدم الذكاء الاصطناعي أن يكون على دراية بقضية التحيز وأن يكون مستخدمًا مطلعًا. يمكن أن تكون الورقة التي تطلب من الذكاء الاصطناعي صياغتها مليئة بالتحيز بقدر ما تحتوي على خطأ واقعي. تحتاج إلى التحقق من انحيازات الذكاء الاصطناعي الخاصة بك ، وكذلك تحيزاتك الخاصة.
** لن يتعلم الطلاب الكتابة لأن الذكاء الاصطناعي سيفعل ذلك نيابة عنهم **
يشعر العديد من المعلمين بالقلق من أن يؤدي الذكاء الاصطناعي إلى تعطيل عملهم مع الطلاب. في عصر يمكن لأي شخص لديه اتصال بالإنترنت استخدام الذكاء الاصطناعي لكتابة مسودة أولى محترمة لأطروحة ما ، ما الذي يمنع الطالب من تحويلها إلى أطروحة خاصة بهم؟
توجد بالفعل بعض أدوات الذكاء الاصطناعي التي تتعلم معرفة ما إذا كان أحد المقالات قد كتب بواسطة إنسان أو كمبيوتر ، بحيث يمكن للمدرسين معرفة ما إذا كان طلابهم يقومون بعملهم الخاص. ولكن بدلاً من محاولة ثني طلابهم عن استخدام الذكاء الاصطناعي في الكتابة ، فإن بعض المعلمين يشجعونه بالفعل.
في يناير ، نشرت مدرس اللغة الإنجليزية المخضرمة تدعى Cherie Shields مقالاً في Education Week. نشرت مقالًا عن كيفية استخدامها Chat GPT في الفصل الدراسي الخاص بها. تساعد Chat GPT طلابها من بدء مقال إلى كتابة مخطط تفصيلي وحتى تقديم ملاحظات حول مهامهم.
تكتب: "يجب أن يتبنى المعلمون تقنية الذكاء الاصطناعي كأداة أخرى يمكن للطلاب استخدامها. تمامًا كما علمنا الطلاب في السابق كيفية إجراء بحث جيد على Google ، يجب على المعلمين تصميم الوضوح حول كيفية مساعدة روبوتات Chat GPT في كتابة المقالات." إن وجود الذكاء الاصطناعي ومساعدة الطلاب على استخدامه يمكن أن يحدث ثورة في طريقة التدريس. "ليس لدى كل معلم الوقت لتعلم واستخدام أدوات جديدة ، ولكن المعلمين مثل Cherie Shields يقدمون حجة جيدة ، وهي أن هؤلاء المعلمين الذين لديهم الوقت سيستفيدون بشكل كبير .
هذا يذكرني بالعصر الذي أصبحت فيه الآلات الحاسبة الإلكترونية شائعة في السبعينيات والثمانينيات. يشعر بعض معلمي الرياضيات بالقلق من أن الطلاب سيتوقفون عن تعلم الحساب الأساسي ، لكن آخرين يتبنون التكنولوجيا الجديدة ويركزون على التفكير وراء الحساب.
يمكن أن يساعد الذكاء الاصطناعي أيضًا في الكتابة والتفكير النقدي. خاصة في الأيام الأولى ، عندما لا تزال الهلوسة والتحيز يمثلان مشكلة ، يمكن للمعلمين الحصول على الذكاء الاصطناعي لإنشاء مقالات ثم التحقق من الحقائق مع الطلاب. تزود المنظمات التعليمية غير الربحية مثل Khan Academy و OER Project المعلمين والطلاب بأدوات مجانية عبر الإنترنت تركز بشكل كبير على اختبار الادعاءات ، ولا توجد مهارة أكثر أهمية من معرفة كيفية قول الحقيقة من المزيف.
نحتاج حقًا إلى التأكد من أن البرامج التعليمية تساعد في سد فجوة التحصيل ، وليس جعلها أسوأ. برامج اليوم موجهة في المقام الأول نحو الطلاب الذين لديهم بالفعل الدافع للتعلم. يمكنه إنشاء خطة دراسية لك ، وربطك بموارد جيدة ، واختبار معلوماتك. ومع ذلك ، فإنه لا يعرف حتى الآن كيفية إشراكك في الموضوعات التي لا تهمك بعد. هذه مشكلة يحتاج المطورون إلى معالجتها بحيث يمكن لجميع أنواع الطلاب الاستفادة من الذكاء الاصطناعي.
**ما العمل التالي؟ **
أعتقد أن لدينا سببًا أكثر للتفاؤل بأننا نستطيع إدارة مخاطر الذكاء الاصطناعي مع تعظيم فوائده ، لكننا بحاجة إلى التحرك بسرعة.
تحتاج الحكومات إلى تطوير خبرة الذكاء الاصطناعي من أجل تطوير القوانين واللوائح للتعامل مع هذه التكنولوجيا الجديدة. إنهم بحاجة إلى التعامل مع المعلومات المضللة والتزييف العميق والتهديدات الأمنية والتغيرات في سوق العمل والتأثير على التعليم. مثال واحد فقط: يحتاج القانون إلى توضيح استخدامات التزييف العميق التي تعتبر قانونية وكيف يجب تصنيف التزييف العميق حتى يفهم الجميع أن ما يرونه أو يسمعونه مزيف.
يحتاج القادة السياسيون إلى أن يكونوا قادرين على الانخراط في حوار مستنير ومدروس مع الناخبين. كما يتعين عليهم أن يقرروا مقدار التعاون مع الدول الأخرى بشأن هذه القضايا ، بدلاً من أن يتعاونوا بمفردهم.
في القطاع الخاص ، تحتاج شركات الذكاء الاصطناعي إلى القيام بعملها بأمان ومسؤولية. وهذا يشمل حماية خصوصية الأشخاص ، والتأكد من أن نماذج الذكاء الاصطناعي الخاصة بهم تعكس القيم الإنسانية الأساسية ، وتقليل التحيز لإفادة أكبر عدد ممكن من الناس ، ومنع استغلال التكنولوجيا من قبل المجرمين أو الإرهابيين. ستحتاج الشركات في العديد من قطاعات الاقتصاد إلى مساعدة موظفيها على الانتقال إلى مكان عمل يركز على الذكاء الاصطناعي حتى لا يتخلف أحد عن الركب. ويجب أن يعرف العملاء دائمًا ما إذا كانوا يتفاعلون مع ذكاء اصطناعي أو إنسان.
أخيرًا ، أشجع الجميع على إيلاء أكبر قدر ممكن من الاهتمام لتطوير الذكاء الاصطناعي. هذا هو الابتكار الأكثر تحوّلًا الذي سنراه في حياتنا ، وسيعتمد النقاش العام الصحي على فهم الجميع للتكنولوجيا نفسها وفوائدها ومخاطرها. ستكون فوائد الذكاء الاصطناعي هائلة ، وأفضل سبب للاعتقاد بأنه يمكننا التحكم في المخاطر هو أننا تمكنا من ذلك.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
آخر منشور على مدونة بيل جيتس: مخاطر الذكاء الاصطناعي موجودة ولكن يمكن السيطرة عليها
المؤلف: Jin Qiong
لقد كان ChatGPT رائجًا منذ أكثر من نصف عام. بالإضافة إلى التطور السريع ، بالإضافة إلى حل المشكلات الفنية ، قد يكون الامتثال هو المشكلة الكبيرة التالية بعد استدعاء الكونجرس لسام ألتمان ، وقد أجرت الآن FTC (لجنة التجارة الفيدرالية) أيضًا رسميًا تحقيق ChatGPT.
هذا يردد ما قاله بيل جيتس قبل أيام قليلة. في أحدث تدوينة له ، قال: الذكاء الاصطناعي هو أكثر الابتكارات تحويلية. صحيح أن هناك مخاطر ، لكن المخاطر يمكن السيطرة عليها أيضًا.
في منشور المدونة ، يناقش بيل جيتس بشكل أساسي مخاطر وتحديات الذكاء الاصطناعي وكيفية التعامل معها ، كما يقدم بعض الأمثلة والاقتراحات.
أعرب بيل جيتس لأول مرة عن تأكيده لمخاوف الناس بشأن الذكاء الاصطناعي اليوم - نحن الآن في عصر من التغييرات العميقة في الذكاء الاصطناعي ، وهو عصر غير مؤكد. لكنه متفائل بأن هذه المخاطر يمكن التحكم فيها.
ثانيًا ، سرد بيل جيتس أيضًا المخاطر التي يسببها الذكاء الاصطناعي الحالي ، بما في ذلك التزوير العميق والمعلومات الخاطئة الناتجة عن الذكاء الاصطناعي ، والتي قد تدمر الانتخابات والديمقراطية ، وتسهل على الأفراد والحكومات شن هجمات ، وسحب وظائف الناس. يرث التحيزات البشرية ويصنع الأشياء ، لن يتعلم الطلاب الكتابة لأن الذكاء الاصطناعي سيفعل ذلك من أجلهم ، إلخ.
أخيرًا ، طرح بيل جيتس أيضًا سلسلة من المقترحات لتنظيم الذكاء الاصطناعي. على مستوى الحكومة الوطنية ، تحتاج الحكومات إلى تجميع الخبرات في مجال الذكاء الاصطناعي لصياغة القوانين واللوائح للتعامل مع الذكاء الاصطناعي ، للتعامل مع المعلومات المضللة والتزييف العميق ، والتهديدات الأمنية ، والتغيرات في سوق العمل ، والتأثير على التعليم.
فيما يتعلق بالحلول ، يحتاج القادة الحكوميون إلى التعاون مع الدول الأخرى ، وليس وحدها ، والقدرة على إجراء حوار مستنير ومدروس مع الناس.
بالإضافة إلى ذلك ، بالنسبة للمؤسسات ، يجب أن يكون لشركات الذكاء الاصطناعي موقف مسؤول ، ويجب تنفيذ العمل لضمان الأمن ، بما في ذلك حماية خصوصية الأشخاص وما إلى ذلك.
فيما يلي النص الكامل ، مترجم من GPT-4 ، حرره 36 كريبتون:
تبدو المخاطر التي يشكلها الذكاء الاصطناعي هائلة. ماذا عن أولئك الذين فقدوا وظائفهم ليحلوا محلهم آلات ذكية؟ هل سيؤثر الذكاء الاصطناعي على نتائج الانتخابات؟ ماذا لو قرر الذكاء الاصطناعي في المستقبل أنه لم تعد هناك حاجة للبشر ويريد التخلص منا؟
هذه أسئلة مشروعة ، وعلينا أن نتعامل بجدية مع المخاوف التي تثيرها. لكن لدينا كل الأسباب التي تجعلنا نعتقد أنه يمكننا التعامل معها: هذه ليست المرة الأولى التي يقدم فيها ابتكار كبير تهديدات جديدة يجب احتواؤها ، وقد واجهناها من قبل.
سواء كان ذلك بسبب ظهور السيارات أو ظهور الكمبيوتر الشخصي والإنترنت ، فقد عاش الناس لحظات تحويلية أخرى ، على الرغم من العديد من الاضطرابات ، انتهى بها الأمر إلى الأفضل. بعد فترة وجيزة من اصطدام السيارات الأولى بالطريق ، وقعت أولى الاصطدامات. ولكن بدلاً من حظر السيارات ، اعتمدنا حدود السرعة ومعايير السلامة ومتطلبات رخصة القيادة وقوانين القيادة تحت تأثير الكحول وقواعد الطريق الأخرى.
نحن الآن في المراحل الأولى من تحول عميق آخر ، عصر الذكاء الاصطناعي ، على غرار عصر عدم اليقين قبل حدود السرعة وأحزمة الأمان. يتغير الذكاء الاصطناعي بسرعة كبيرة لدرجة أنه ليس من الواضح ما الذي سيحدث بعد ذلك. نحن نواجه أسئلة كبيرة حول كيفية عمل التكنولوجيا الحالية ، وكيف يستخدمها الناس لأغراض خبيثة ، وكيف سيغيرنا الذكاء الاصطناعي كأفراد في المجتمع وكأفراد.
في مثل هذه اللحظات ، من الطبيعي أن تشعر بعدم الارتياح. لكن التاريخ يظهر أنه من الممكن مواجهة التحديات التي تفرضها التقنيات الجديدة.
لقد كتبت عن كيف سيحدث الذكاء الاصطناعي ثورة في حياتنا ، ويساعد في حل المشكلات في الصحة والتعليم وتغير المناخ وغير ذلك من الأمور التي بدت مستعصية على الحل في الماضي. تضع مؤسسة Gates هذه المسألة ضمن أولوياتها ، وقد شارك الرئيس التنفيذي لدينا ، Mark Suzman ، مؤخرًا أفكاره حول دور الذكاء الاصطناعي في الحد من عدم المساواة.
سأتحدث أكثر عن فوائد الذكاء الاصطناعي في المستقبل ، لكن في هذا المنشور أريد أن أتحدث عن المخاوف الأكثر شيوعًا التي أسمعها وأقرأها ، والتي أشارك الكثير منها ، وأشرح كيف أشعر بالقلق حيالهم.
من كل ما كتب حتى الآن عن مخاطر الذكاء الاصطناعي ، هناك شيء واحد واضح ، وهو أنه لا يوجد شخص واحد لديه كل الإجابات. نقطة أخرى واضحة بالنسبة لي هي أن مستقبل الذكاء الاصطناعي ليس قاتمًا كما يتخيله البعض ، وليس ورديًا كما يتخيله الآخرون. المخاطر حقيقية ، لكني متفائل بإمكانية إدارتها. بينما أناقش كل قضية واحدة تلو الأخرى ، سأعود إلى بعض الموضوعات:
في هذه المقالة ، سأركز على المخاطر الحالية أو الوشيكة. لن أناقش ما سيحدث عندما نطور ذكاءً اصطناعيًا قادرًا على تعلم أي موضوع أو مهمة. بدلاً من ذلك ، أتحدث اليوم عن الذكاء الاصطناعي المصمم لهذا الغرض.
سواء وصلنا إلى هذه النقطة خلال عقد أو قرن ، سيحتاج المجتمع إلى مواجهة بعض الأسئلة العميقة. ماذا لو حدد الذكاء الاصطناعي الخارق أهدافه الخاصة؟ ماذا لو تعارضوا مع الأهداف البشرية؟ هل يجب علينا بناء ذكاء اصطناعي خارق؟
ومع ذلك ، لا ينبغي التغاضي عن المخاطر المباشرة عند النظر في هذه المخاطر طويلة الأجل. أنتقل الآن إلى هذه المخاطر قصيرة المدى.
** المحتوى الوهمي والمعلومات المضللة التي تنشئها منظمة العفو الدولية يمكن أن تدمر الانتخابات والديمقراطية **
إن استخدام التكنولوجيا لنشر الأكاذيب والمعلومات المضللة ليس بالأمر الجديد. ظل الناس ينشرون الأكاذيب من خلال الكتب والنشرات لعدة قرون. أصبحت هذه الممارسة أسهل مع ظهور معالجات النصوص وطابعات الليزر والبريد الإلكتروني والشبكات الاجتماعية.
لقد أدى الذكاء الاصطناعي إلى تضخيم مشكلة النص المزيف ، مما جعل من الممكن لأي شخص تقريبًا إنشاء صوت وفيديو مزيف ، يُعرف باسم التزييف العميق. إذا تلقيت رسالة صوتية تبدو مثل طفلك تقول "لقد تم اختطافي ، يرجى إرسال 1000 دولار إلى هذا الحساب المصرفي خلال الدقائق العشر القادمة ولا تتصل بالشرطة" ، فسيؤدي ذلك إلى إنشاء أكثر من نفس المحتوى. التأثير العاطفي المخيف للبريد.
على نطاق أوسع ، يمكن استخدام تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي لمحاولة التأثير على نتائج الانتخابات. بالطبع ، لا يتطلب الأمر تقنية متطورة للتشكيك في الفائز الشرعي في الانتخابات ، لكن الذكاء الاصطناعي سيجعل العملية أسهل بكثير.
ظهرت بالفعل مقاطع فيديو مزيفة تحتوي على لقطات ملفقة لسياسيين معروفين. تخيل أنه في صباح يوم انتخابات مهمة ، انتشر مقطع فيديو لمرشح يسرق بنكًا. على الرغم من أنها كانت خاطئة ، فقد استغرقت المؤسسات الإخبارية والحملات عدة ساعات لإثبات ذلك. كم عدد الأشخاص الذين سيشاهدون هذا الفيديو ويغيرون تصويتهم في اللحظة الأخيرة؟ يمكن أن يغير ذلك نتيجة السباق ، خاصة إذا كان السباق قريبًا.
عندما أدلى سام التمان ، أحد مؤسسي منظمة Open AI ، بشهادته أمام لجنة في مجلس الشيوخ الأمريكي مؤخرًا ، أثار أعضاء مجلس الشيوخ من كلا الحزبين مخاوف بشأن تأثير الذكاء الاصطناعي على الانتخابات والديمقراطية. آمل أن يستمر هذا الموضوع في إثارة اهتمام الجميع. لم نحل حقًا مشكلة المعلومات المضللة والتزييف العميق. لكن هناك شيئان يجعلانني متفائلاً بحذر. أحدها أن الناس لديهم القدرة على تعلم عدم الثقة في كل شيء. لسنوات ، تم خداع مستخدمي البريد الإلكتروني من قبل شخص يتظاهر بأنه أمير نيجيري ، ووعد بمكافآت ضخمة لمشاركة أرقام بطاقات الائتمان. لكن في النهاية ، يتعلم معظم الناس التحقق مرة أخرى من رسائل البريد الإلكتروني هذه. نظرًا لأن عمليات الخداع تصبح أكثر تعقيدًا والعديد من الأهداف أكثر خداعًا ، فنحن بحاجة إلى خلق نفس الوعي للتزييف العميق.
الشيء الآخر الذي يجعلني متفائلًا هو أن الذكاء الاصطناعي لا يمكنه فقط إنشاء التزييف العميق ، ولكن أيضًا المساعدة في التعرف عليها. على سبيل المثال ، طورت إنتل كاشفًا للتزييف العميق ، بينما تعمل الوكالة الحكومية DARPA على كيفية تحديد ما إذا كان الفيديو أو الصوت قد تم التلاعب به.
ستكون عملية دائرية: يجد شخص ما طريقة لاكتشاف التزوير ، ويكتشف شخص آخر كيفية مواجهته ، ويطور شخص ما إجراءً مضادًا ، وما إلى ذلك. لن يكون نجاحًا مثاليًا ، لكننا لن نكون مقيدين أيضًا.
** يُسهل الذكاء الاصطناعي على البشر والحكومات شن الهجمات **
اليوم ، عندما يريد المتسللون العثور على خطأ في البرنامج ، فإنهم يكتبون التعليمات البرمجية من خلال القوة الغاشمة ، ويهاجمون نقاط الضعف المحتملة حتى يعثروا على الخطأ. هذا ينطوي على العديد من الالتفافات ، لذلك يستغرق وقتا وصبرا.
يجب على محترفي الأمن الذين يرغبون في محاربة المتسللين أن يفعلوا الشيء نفسه. يمثل كل برنامج تصحيح تقوم بتثبيته على هاتفك أو جهاز الكمبيوتر المحمول الخاص بك الكثير من الوقت الذي تقضيه في البحث عنه من قبل شخص حميد أو ضار.
ستعمل نماذج الذكاء الاصطناعي على تسريع هذه العملية من خلال مساعدة المتسللين على كتابة تعليمات برمجية أكثر كفاءة. سيكونون قادرين أيضًا على استخدام المعلومات العامة حول الأفراد ، مثل مكان عملهم ومن هم أصدقاؤهم ، لتطوير هجمات تصيد أكثر تقدمًا مما نراه اليوم.
والخبر السار هو أنه يمكن استخدام الذكاء الاصطناعي لأغراض خبيثة وجيدة. تحتاج فرق الأمن في الحكومة والقطاع الخاص إلى امتلاك أحدث الأدوات للعثور على الثغرات الأمنية وإصلاحها قبل أن يستغلها المجرمون. آمل أن تتوسع صناعة أمان البرمجيات في العمل الذي يقومون به بالفعل في هذا المجال ، يجب أن يكون همهم الأول.
لهذا السبب يجب ألا نحاول منع الناس مؤقتًا من تنفيذ تطورات جديدة في الذكاء الاصطناعي ، كما اقترح البعض. لن يتوقف مجرمو الإنترنت عن صنع أدوات جديدة ، وكذلك أولئك الذين يرغبون في استخدام الذكاء الاصطناعي لتصميم أسلحة نووية وهجمات الإرهاب البيولوجي ، وإيقافهم يحتاجون إلى الاستمرار بنفس الوتيرة.
هناك أيضًا مخاطر ذات صلة على المستوى العالمي: يمكن استخدام سباق تسلح للذكاء الاصطناعي لتصميم وشن هجمات إلكترونية ضد دول أخرى. تريد حكومة كل دولة أن تمتلك أقوى تقنية متاحة لردع هجمات الأعداء. يمكن أن يؤدي دافع "عدم ترك أحد أولاً" هذا إلى سباق لإنشاء أسلحة إلكترونية خطيرة بشكل متزايد. بهذه الطريقة ، سيكون الجميع أسوأ حالًا.
إنها فكرة مخيفة ، لكن لدينا التاريخ كدرس. على الرغم من عيوبه ، منع نظام عدم انتشار الأسلحة النووية في العالم الحرب النووية الشاملة التي نشأ جيلي مرعوبًا منها. يجب على الحكومات التفكير في إنشاء وكالة عالمية للذكاء الاصطناعي مماثلة للوكالة الدولية للطاقة الذرية.
** الذكاء الاصطناعي يأخذ الوظائف من الناس **
سيكون التأثير الرئيسي للذكاء الاصطناعي على العمل في السنوات القادمة في مساعدة الناس على أداء وظائفهم بشكل أكثر كفاءة. هذا صحيح سواء كنت تعمل في مصنع أو في مكتب تتعامل مع مكالمات المبيعات والحسابات المستحقة الدفع. في النهاية ، ستكون مهارة الذكاء الاصطناعي في التعبير عن الأفكار جيدة بما يكفي بحيث يمكنها كتابة رسائل البريد الإلكتروني وإدارة البريد الوارد نيابة عنك. ستكون قادرًا على كتابة طلب بلغة إنجليزية بسيطة أو أي لغة أخرى وإنشاء تقرير وظيفي إعلامي.
كما قلت في مقالتي في شباط (فبراير) ، فإن زيادة الإنتاجية مفيدة للمجتمع. وهذا يترك المزيد من الوقت للأشخاص للقيام بأشياء أخرى ، سواء في العمل أو في المنزل. ولن تختفي أبدًا الحاجة إلى الأشخاص المتعاونين ، مثل التدريس ورعاية المرضى ورعاية المسنين.
لكن بعض العمال يحتاجون إلى الدعم وإعادة التدريب أثناء انتقالنا إلى مكان عمل يحركه الذكاء الاصطناعي. هذه هي مهمة الحكومات والشركات لإدارتها بشكل جيد حتى لا يُترك العمال وراء الركب ، دون هذا النوع من الاضطراب في حياة الناس الذي حدث عندما فقدت وظائف التصنيع في الولايات المتحدة.
ضع في اعتبارك أيضًا أن هذه ليست المرة الأولى التي تؤدي فيها التقنيات الجديدة إلى تغييرات كبيرة في سوق العمل. لا أعتقد أن تأثير الذكاء الاصطناعي سيكون ضخمًا مثل الثورة الصناعية ، لكنه بالتأكيد سيكون ضخمًا مثل ظهور الكمبيوتر الشخصي. تطبيقات معالجة الكلمات لم تلغي العمل المكتبي ، لكنها غيرته إلى الأبد. كان على أرباب العمل والموظفين التكيف ، وقد فعلوا ذلك. سيكون التحول الذي أحدثه الذكاء الاصطناعي تحولًا صعبًا ، ولكن هناك كل الأسباب للاعتقاد بأننا قادرون على تقليل الاضطراب في حياة الناس وسبل عيشهم.
** يرث الذكاء الاصطناعي تحيزاتنا ويصنعها **
الهلوسة ، وهي عندما يصدر الذكاء الاصطناعي بثقة بعض العبارات غير الصحيحة ، وعادة ما تحدث لأن الجهاز لا يفهم سياق طلبك. إذا طلبت من الذكاء الاصطناعي كتابة قصة قصيرة عن إجازة على القمر ، فقد يمنحك إجابة خيالية للغاية. ولكن إذا سمحت له بمساعدتك في التخطيط لرحلة إلى تنزانيا ، فقد يحاول توصيلك إلى فندق غير موجود.
هناك خطر آخر للذكاء الاصطناعي وهو أنه يعكس أو حتى يفاقم التحيزات القائمة حول هويات وأعراق وإثنيات معينة بين الجنسين وما إلى ذلك.
لفهم سبب ظهور مثل هذه الأوهام والتحيزات ، من المهم فهم كيفية عمل نماذج الذكاء الاصطناعي الحالية الأكثر شيوعًا. إنها في الأساس إصدارات معقدة للغاية من التعليمات البرمجية التي تسمح لتطبيق البريد الإلكتروني الخاص بك بالتنبؤ بالكلمة التالية التي ستكتبها: في بعض الحالات ، يتوفر كل النص تقريبًا على الويب ، ويقومون بمسح كميات هائلة من النصوص وتحليلها والبحث الأنماط في لغة الإنسان.
عندما تطرح سؤالاً على الذكاء الاصطناعي ، فإنه يبحث في الكلمات التي تستخدمها ثم يبحث عن النص الذي غالبًا ما يرتبط بهذه الكلمات. إذا كتبت "قائمة بمكونات الفطائر" ، فقد تلاحظ أن الكلمات "الدقيق والسكر والملح ومسحوق الخبز والحليب والبيض" تظهر بشكل متكرر مع العبارة. ثم ، بناءً على ما يعرفه عن الترتيب الذي تظهر به هذه الكلمات عادةً ، فإنه يولد إجابة (نماذج الذكاء الاصطناعي التي تعمل بهذه الطريقة تستخدم ما يسمى بالمحولات ، و GPT-4 هو أحد هذه النماذج).
تشرح هذه العملية لماذا يمكن للذكاء الاصطناعي أن يهلوس أو يكون متحيزًا ، دون أي فهم سياقي للأسئلة التي تطرحها أو الأشياء التي تخبرها بها. إذا أخبرته أنك ارتكبت خطأ إملائيًا ، فمن المحتمل أن يقول "آسف ، لقد ارتكبت خطأ إملائيًا". ولكن هذا مجرد وهم ، فهو لا يخطئ في كتابة أي شيء ، فهو يقول أنه بسبب مسحه لنص كافٍ لمعرفة أن عبارة "آسف ، لقد أخطأت في الكتابة" هي أحد الأشياء التي يكتبها الناس غالبًا بعد تصحيح الجملة.
وبالمثل ، ترث نماذج الذكاء الاصطناعي التحيزات المتأصلة في النص الذي تم تدريبهم عليه. إذا قرأ المرء الكثير من المقالات عن الأطباء ، وكانت المقالات تذكر في الغالب الأطباء الذكور ، فإن إجابته ستفترض أن معظم الأطباء هم من الرجال.
على الرغم من أن بعض الباحثين يجادلون بأن الهلوسة مشكلة متأصلة ، إلا أنني لا أتفق معها. أنا متفائل بأنه ، بمرور الوقت ، يمكننا تعليم نماذج الذكاء الاصطناعي لتمييز الحقيقة عن الخيال. على سبيل المثال ، قام Open AI بعمل واعد في هذا الشأن.
منظمات أخرى ، بما في ذلك معهد آلان تورينج والمعهد الوطني للمعايير والتكنولوجيا ، تعالج التحيز. يتمثل أحد الأساليب في دمج القيم الإنسانية والتفكير عالي المستوى في الذكاء الاصطناعي. إنه مشابه لكيفية عمل البشر المدركين لذواتهم: ربما تعتقد أن معظم الأطباء هم من الذكور ، لكنك على دراية كافية بهذا الافتراض لتعلم أنه يجب عليك محاربته بوعي. يمكن للذكاء الاصطناعي أن يعمل بطريقة مماثلة ، خاصة إذا تم تصميم النماذج من قبل أشخاص من خلفيات مختلفة.
في النهاية ، يجب على كل شخص يستخدم الذكاء الاصطناعي أن يكون على دراية بقضية التحيز وأن يكون مستخدمًا مطلعًا. يمكن أن تكون الورقة التي تطلب من الذكاء الاصطناعي صياغتها مليئة بالتحيز بقدر ما تحتوي على خطأ واقعي. تحتاج إلى التحقق من انحيازات الذكاء الاصطناعي الخاصة بك ، وكذلك تحيزاتك الخاصة.
** لن يتعلم الطلاب الكتابة لأن الذكاء الاصطناعي سيفعل ذلك نيابة عنهم **
يشعر العديد من المعلمين بالقلق من أن يؤدي الذكاء الاصطناعي إلى تعطيل عملهم مع الطلاب. في عصر يمكن لأي شخص لديه اتصال بالإنترنت استخدام الذكاء الاصطناعي لكتابة مسودة أولى محترمة لأطروحة ما ، ما الذي يمنع الطالب من تحويلها إلى أطروحة خاصة بهم؟
توجد بالفعل بعض أدوات الذكاء الاصطناعي التي تتعلم معرفة ما إذا كان أحد المقالات قد كتب بواسطة إنسان أو كمبيوتر ، بحيث يمكن للمدرسين معرفة ما إذا كان طلابهم يقومون بعملهم الخاص. ولكن بدلاً من محاولة ثني طلابهم عن استخدام الذكاء الاصطناعي في الكتابة ، فإن بعض المعلمين يشجعونه بالفعل.
في يناير ، نشرت مدرس اللغة الإنجليزية المخضرمة تدعى Cherie Shields مقالاً في Education Week. نشرت مقالًا عن كيفية استخدامها Chat GPT في الفصل الدراسي الخاص بها. تساعد Chat GPT طلابها من بدء مقال إلى كتابة مخطط تفصيلي وحتى تقديم ملاحظات حول مهامهم.
تكتب: "يجب أن يتبنى المعلمون تقنية الذكاء الاصطناعي كأداة أخرى يمكن للطلاب استخدامها. تمامًا كما علمنا الطلاب في السابق كيفية إجراء بحث جيد على Google ، يجب على المعلمين تصميم الوضوح حول كيفية مساعدة روبوتات Chat GPT في كتابة المقالات." إن وجود الذكاء الاصطناعي ومساعدة الطلاب على استخدامه يمكن أن يحدث ثورة في طريقة التدريس. "ليس لدى كل معلم الوقت لتعلم واستخدام أدوات جديدة ، ولكن المعلمين مثل Cherie Shields يقدمون حجة جيدة ، وهي أن هؤلاء المعلمين الذين لديهم الوقت سيستفيدون بشكل كبير .
هذا يذكرني بالعصر الذي أصبحت فيه الآلات الحاسبة الإلكترونية شائعة في السبعينيات والثمانينيات. يشعر بعض معلمي الرياضيات بالقلق من أن الطلاب سيتوقفون عن تعلم الحساب الأساسي ، لكن آخرين يتبنون التكنولوجيا الجديدة ويركزون على التفكير وراء الحساب.
يمكن أن يساعد الذكاء الاصطناعي أيضًا في الكتابة والتفكير النقدي. خاصة في الأيام الأولى ، عندما لا تزال الهلوسة والتحيز يمثلان مشكلة ، يمكن للمعلمين الحصول على الذكاء الاصطناعي لإنشاء مقالات ثم التحقق من الحقائق مع الطلاب. تزود المنظمات التعليمية غير الربحية مثل Khan Academy و OER Project المعلمين والطلاب بأدوات مجانية عبر الإنترنت تركز بشكل كبير على اختبار الادعاءات ، ولا توجد مهارة أكثر أهمية من معرفة كيفية قول الحقيقة من المزيف.
نحتاج حقًا إلى التأكد من أن البرامج التعليمية تساعد في سد فجوة التحصيل ، وليس جعلها أسوأ. برامج اليوم موجهة في المقام الأول نحو الطلاب الذين لديهم بالفعل الدافع للتعلم. يمكنه إنشاء خطة دراسية لك ، وربطك بموارد جيدة ، واختبار معلوماتك. ومع ذلك ، فإنه لا يعرف حتى الآن كيفية إشراكك في الموضوعات التي لا تهمك بعد. هذه مشكلة يحتاج المطورون إلى معالجتها بحيث يمكن لجميع أنواع الطلاب الاستفادة من الذكاء الاصطناعي.
**ما العمل التالي؟ **
أعتقد أن لدينا سببًا أكثر للتفاؤل بأننا نستطيع إدارة مخاطر الذكاء الاصطناعي مع تعظيم فوائده ، لكننا بحاجة إلى التحرك بسرعة.
تحتاج الحكومات إلى تطوير خبرة الذكاء الاصطناعي من أجل تطوير القوانين واللوائح للتعامل مع هذه التكنولوجيا الجديدة. إنهم بحاجة إلى التعامل مع المعلومات المضللة والتزييف العميق والتهديدات الأمنية والتغيرات في سوق العمل والتأثير على التعليم. مثال واحد فقط: يحتاج القانون إلى توضيح استخدامات التزييف العميق التي تعتبر قانونية وكيف يجب تصنيف التزييف العميق حتى يفهم الجميع أن ما يرونه أو يسمعونه مزيف.
يحتاج القادة السياسيون إلى أن يكونوا قادرين على الانخراط في حوار مستنير ومدروس مع الناخبين. كما يتعين عليهم أن يقرروا مقدار التعاون مع الدول الأخرى بشأن هذه القضايا ، بدلاً من أن يتعاونوا بمفردهم.
في القطاع الخاص ، تحتاج شركات الذكاء الاصطناعي إلى القيام بعملها بأمان ومسؤولية. وهذا يشمل حماية خصوصية الأشخاص ، والتأكد من أن نماذج الذكاء الاصطناعي الخاصة بهم تعكس القيم الإنسانية الأساسية ، وتقليل التحيز لإفادة أكبر عدد ممكن من الناس ، ومنع استغلال التكنولوجيا من قبل المجرمين أو الإرهابيين. ستحتاج الشركات في العديد من قطاعات الاقتصاد إلى مساعدة موظفيها على الانتقال إلى مكان عمل يركز على الذكاء الاصطناعي حتى لا يتخلف أحد عن الركب. ويجب أن يعرف العملاء دائمًا ما إذا كانوا يتفاعلون مع ذكاء اصطناعي أو إنسان.
أخيرًا ، أشجع الجميع على إيلاء أكبر قدر ممكن من الاهتمام لتطوير الذكاء الاصطناعي. هذا هو الابتكار الأكثر تحوّلًا الذي سنراه في حياتنا ، وسيعتمد النقاش العام الصحي على فهم الجميع للتكنولوجيا نفسها وفوائدها ومخاطرها. ستكون فوائد الذكاء الاصطناعي هائلة ، وأفضل سبب للاعتقاد بأنه يمكننا التحكم في المخاطر هو أننا تمكنا من ذلك.