** 一 || ** ** عززت أدوات الذكاء الاصطناعي إنتاجية الأشخاص بشكل كبير وجلبت راحة كبيرة لحياة الناس. ومع ذلك ، عندما يستخدم الناس الذكاء الاصطناعي على نطاق واسع ، ظهرت أيضًا العديد من المشكلات. ومن بين هذه المشاكل ، قد تكون "الخسائر" الخمس الأكثر خطورة ، وهي البطالة والتشويه والاستبعاد والفشل وفقدان السيطرة. **
** 二 || ** ** بعد عام 2017 ، مع التطور السريع لتقنية الذكاء الاصطناعي ، تزدهر أيضًا الأبحاث حول تقنية الذكاء الاصطناعي الموثوق بها. في المجال الأكاديمي ، يتزايد عدد الأوراق البحثية حول موضوع الذكاء الاصطناعي الموثوق به ، ويتعمق البحث في التقنيات التي تلبي متطلبات الذكاء الاصطناعي الموثوق به. في مجال الممارسة ، بدأت المزيد والمزيد من البلدان في إشراك لوائح الذكاء الاصطناعي وفقًا لمعايير الذكاء الاصطناعي الموثوق به. **
** 三 || ليس من السهل تحقيق الذكاء الاصطناعي الموثوق به ، فهو يتطلب التنسيق بين الحكومة والمؤسسات والمجتمع والتكنولوجيا لتحقيق ذلك. **
مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI
في 22 يونيو ، بالتوقيت المحلي ، أصدرت محكمة المنطقة الجنوبية في نيويورك حكمًا: تم تغريم شركة Levidow و Levidow & Oberman Law Firm مبلغ 5000 دولار لتزويدها بمعلومات كاذبة للمحكمة بسبب السلوك السيئ. سبب القلق هو أنه في هذه الحالة ، لم يكن تقديم معلومات كاذبة لأن المحامين انتهكوا القانون عن عمد من أجل المصلحة الذاتية ، ولكن لأنهم آمنوا كثيرًا بقدرات الذكاء الاصطناعي.
في مارس من هذا العام ، كلف العميل روبرتو ماتا المحامين بيتر لودوكا وستيفن شوارتز من الشركة لتحمل المسؤولية عنه ودعوى قضائية بين شركة طيران أفيانكا. بما أن الولايات المتحدة هي بلد السوابق القضائية ، فإن القضاة قلقون للغاية بشأن السوابق الحالية عند إصدار الأحكام ، لذلك ، وفقًا للممارسة المعتادة ، يحتاجون إلى فرز وتلخيص القضايا الموجودة في وثائق الصياغة. غالبًا ما تكون الحالات ذات الصلة ساحقة ، وعادة ما يستغرق الأمر وقتًا طويلاً لفرزها حسب القوى العاملة. في هذا الوقت فقط ، أصبح ChatGPT شائعًا عبر الإنترنت. لذلك ، قرر المحاميان استخدام ChatGPT لمساعدتهما على إكمال هذه المهام. قام ChatGPT بسرعة بإنشاء مستند كامل ، والذي لا يحتوي فقط على تنسيق أنيق وحجج صارم ، ولكنه أضاف أيضًا العديد من الحالات ذات الصلة بشكل خاص. بعد تعديل طفيف في المستند الذي أنشأته منظمة العفو الدولية ، قاموا بتقديمه إلى المحكمة.
بعد قراءة المستندات المقدمة ، شعر القاضي الذي نظر القضية ، كيفن كاستل ، بالحيرة من القضايا العديدة المذكورة فيها ، ويبدو أنه لم يسمع بهذه القضايا من قبل. بعد بعض البحث ، أكد أخيرًا أن هذه الحالات لم تكن موجودة على الإطلاق. عند مقابلتهما ، قال المحاميان إنهما استخدما الذكاء الاصطناعي فقط للمساعدة في كتابة المستندات. وعندما رأوا الحالات المذكورة في الوثائق ، شعروا فقط أن منظمة العفو الدولية ساعدتهم في العثور على الحالات التي لم يعرفوها ، ولم يتعمدوا تلفيق القضايا. لخداع المحكمة ، هو خسارة غير مقصودة. ومع ذلك ، وجد القاضي كستر أن المحامين "تخلوا عن مسؤولياتهم" وأنهم "استمروا في الاحتفاظ بآراء خاطئة" بعد الطعن في الأوراق. بناءً على الحكم أعلاه ، اتخذ القاضي كستر قرارًا بعقوبة.
تبدو حادثة تغريم المحامين بسبب الاستشهاد بمعلومات خاطئة قدمتها ChatGPT سخيفة ، لكنها تعكس سؤالًا مهمًا للغاية - كيف يمكننا الوثوق بالذكاء الاصطناعي في عصر جنون الذكاء الاصطناعي؟
** خمس "خسائر" في عصر الذكاء الاصطناعي **
في السنوات الأخيرة ، مع اختراقات في قوة الحوسبة وتقنية الخوارزمية ، حققت تقنية الذكاء الاصطناعي تطورًا سريعًا ودخلت بسرعة الحياة اليومية للناس من الخيال العلمي. خاصة بعد ظهور ChatGPT في نوفمبر من العام الماضي ، أظهر الذكاء الاصطناعي التوليدي قوته القوية للناس ، وظهرت نماذج كبيرة مختلفة مثل عيش الغراب بعد المطر ، وحققت تسويقًا على نطاق واسع. الآن ، يمكن للناس بالفعل استخدام منتجات الذكاء الاصطناعي مثل ChatGPT و Stable Diffusion و Midjourney بتكلفة منخفضة للغاية.
عززت أدوات الذكاء الاصطناعي إنتاجية الناس بشكل كبير وجلبت راحة كبيرة لحياة الناس. ومع ذلك ، عندما يستخدم الناس الذكاء الاصطناعي على نطاق واسع ، ظهرت أيضًا العديد من المشكلات. ومن بين هذه المشاكل ، قد تكون "الخسائر" الخمس الأكثر خطورة ، وهي البطالة والتشويه والاستبعاد والفشل وفقدان السيطرة.
** (1) عاطل **
تشير "البطالة" المزعومة ، كما يوحي الاسم ، إلى مشكلة البطالة الفنية التي أحدثها الذكاء الاصطناعي. نظرًا لأن كفاءة إنتاج الذكاء الاصطناعي أعلى بكثير من كفاءة الإنسان ، فإن العديد من الوظائف البشرية معرضة لخطر الاستبدال بعد استخدام أدوات الذكاء الاصطناعي على نطاق واسع. خاصة بعد ظهور الذكاء الاصطناعي التوليدي ، لم تعد المجموعة المستهدفة التي تم استبدالها بالذكاء الاصطناعي مقصورة على العمال المنخرطين في وظائف متكررة منخفضة الدخل ، كما أن العديد من العاملين ذوي الياقات البيضاء المرتفعة يواجهون خطر الاستعاضة عنهم بالذكاء الاصطناعي.
** (2) تشويه **
يشير ما يسمى بـ "التشويه" إلى حقيقة أن تطبيق الذكاء الاصطناعي (الذكاء الاصطناعي التوليدي بشكل أساسي) يجعل من الصعب على الأشخاص التعرف على أصالة النص والصور وحتى مقاطع الفيديو. وهكذا أصبحت عبارة "هناك صور وحقائق" من الماضي .
يمكن تقسيم مشاكل "التشويه" إلى "صح خطأ" و "صواب خطأ". من بينها ، يشير مصطلح "صواب خاطئ" إلى المحتوى الزائف الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دون موافقة بشرية عند استخدام الأشخاص لأدوات الذكاء الاصطناعي. على الرغم من أن هذه المحتويات قد لا تكون ناتجة عن خبث شخصي للناس ، إلا أنها قد تسبب الكثير من المتاعب في بعض الحالات ، مثل الحالة المذكورة في بداية هذه المقالة.
وتستند "الحقيقة والمزيفة" على المداولات الشخصية ، واستخدام أدوات الذكاء الاصطناعي لتنفيذ سلوك احتيالي. قبل بضع سنوات ، بعد ظهور تقنية "التزييف العميق" ، استخدم بعض الأشخاص هذه التقنية لارتكاب عمليات احتيال واختلاق معلومات كاذبة ونشر محتوى إباحي وغير ذلك من الأنشطة غير القانونية والإجرامية. ولكن في ذلك الوقت ، وبسبب التكلفة العالية لاستخدام هذه التكنولوجيا ، لم يكن معدل حدوث الجرائم ذات الصلة مرتفعًا بشكل خاص. مع التطبيق الواسع النطاق للذكاء الاصطناعي التوليفي ، تم تخفيض تكلفة التزييف بشكل كبير ، ويمكن للمجرمين بسهولة إنشاء قدر كبير من المحتوى الخاطئ بتكلفة منخفضة للغاية ، بينما زادت تكلفة تحديد هذا المحتوى بشكل كبير. من المتوقع أنه في ظل المد والجزر ، إذا لم يكن هناك تدخل ، فسوف يرتفع استخدام الذكاء الاصطناعي لارتكاب الجرائم.
** (3) تنحية **
يشير ما يسمى ب "عدم الأهلية" إلى بعض المشاكل التي تنتهك الأخلاق والأخلاق في عملية تطبيق الذكاء الاصطناعي.
المشكلة النموذجية الأولى هي التمييز. خذ نموذج اللغة كمثال ، بما أن نموذج اللغة يستخدم بيانات نصية على الإنترنت كمواد تدريبية ، فإنه سيرث التمييز العنصري والتمييز الجنسي المتضمن في النص دون تدخل. على الرغم من أن مزودي الذكاء الاصطناعي الحاليين قد استخدموا العديد من الطرق للتغلب على هذه المشكلة ، على سبيل المثال ، طبقت OpenAI خوارزمية "التعلم المعزز من ردود الفعل البشرية" (التعلم المعزز من ردود الفعل البشرية ، RL-HF) لتصحيحها عند تدريب ChatGPT. تم تحسين جودة محتوى مخرجاته بشكل كبير ، ولكن في الواقع ، لا يزال من غير المألوف لنماذج الذكاء الاصطناعي إنتاج محتوى تمييزي. على سبيل المثال ، أجرى شخص ما تجربة وطلب من ChatGPT كتابة برنامج لاختيار الأشخاص الذين يتمتعون بأفضل الإمكانيات ليصبحوا علماء ممتازين من مجموعة من السير الذاتية. اتضح أنه في البرنامج الذي كتبته ChatGPT ، تم استخدام الجنس والعرق كمتغيرين توضيحيين ، واعتُبر أن الرجال البيض لديهم احتمالية أكبر في أن يصبحوا علماء جيدين أكثر من غيرهم. من الواضح أن مثل هذا النموذج متحيز جنسيًا وعنصريًا للغاية.
المسألة الثانية المهمة هي مشكلة غرفة شرنقة المعلومات. في الوقت الحالي ، تستخدم العديد من التطبيقات الذكاء الاصطناعي لتقديم توصيات مخصصة. في الوقت الحالي ، على الرغم من أن المحتوى الموصى به يمكن أن يلبي احتياجات المستخدمين بشكل أفضل ، إلا أنه بمرور الوقت ، سيقع المستخدمون في شرنقة معلومات ، ومن الصعب الوصول إلى المعلومات المختلفة التي لا يتفقون معها. الضرر المحتمل لشرانق المعلومات ضخم: على المستوى الجزئي ، قد يؤدي إلى تدهور القدرة المعرفية للمستخدمين ؛ على المستوى الكلي ، قد يؤدي ذلك إلى استقطاب وجهات نظر المجموعة ، مما يؤدي إلى مواجهة جماعية بين وجهات نظر مختلفة.
القضية الثالثة المهمة هي الخصوصية وتسرب المعلومات. في عملية التدريب واستخدام الذكاء الاصطناعي ، يلزم قدر كبير من البيانات. وفي هذه العملية ، من الصعب تجنب جمع واستخدام البيانات الشخصية للأشخاص ، لذلك ستشمل استخدام الخصوصية والكشف عنها. خاصة بعد شعبية الذكاء الاصطناعي التوليدي ، يمكن للأشخاص التفاعل بسهولة مع الذكاء الاصطناعي مباشرة لإكمال المهام المختلفة ، وتواجه المعلومات الشخصية التي يتم إدخالها في العملية مشكلة التسريب.
** (4) فقدت **
يشير ما يسمى بـ "السقوط" إلى صعوبة الذكاء الاصطناعي في الاستجابة للهجمات الخارجية أو التدخلات أو الهجمات من مواقف غير متوقعة ، مما يجعل من الصعب على النموذج أداء دوره بشكل طبيعي.
من بين هذه الاضطرابات ، نشأ بعضها من عوامل غير بشرية ، بينما نشأ البعض الآخر من الدمار من صنع الإنسان. على وجه التحديد ، يمكن تقسيم هذه التدخلات إلى الفئات التالية:
الأول هو "الهجوم العشوائي". هذا النوع من التداخل ناتج بشكل رئيسي عن بعض العوامل الخارجية. على سبيل المثال ، في بعض الحالات الخاصة ، قد تتجاوز بعض المعلمات التي يتم إنشاؤها بشكل فوري حد المعالجة الذي حدده النموذج ، مما قد يتسبب في فشل استخدام نموذج AI بشكل طبيعي.
والثاني هو "هجوم الصندوق الأبيض". يشير إلى الهجوم على النموذج الذي أطلقه المزود بعد معرفة الهيكل المحدد لنموذج الذكاء الاصطناعي. نظرًا لأن مثل هذه الهجمات مستهدفة ، فإن تدميرها مرتفع للغاية.
والثالث هو "هجوم الصندوق الأسود". هذا النوع من الهجوم متعلق بـ "هجوم الصندوق الأبيض". في هذه الحالة ، لا يعرف الموفر البنية المحددة للنموذج المستهدف ، لذلك يمكنه فقط التفاعل مع النموذج ، ومراقبة نتائج المدخلات والمخرجات ، ثم سبب بنية النموذج ، وشن الهجمات وفقًا لذلك. بأخذ التعرف على الوجوه كمثال ، يتعرف الذكاء الاصطناعي على الوجوه من خلال ميزات رئيسية معينة على الوجه. لذلك ، حتى إذا كان المهاجم لا يعرف البنية المحددة للنموذج الأصلي ، فيمكنه استنتاج الميزات التي يركز عليها طالما أنه يكرر الاختبار. بعد فك تشفير هذه المعلومات ، يمكنك عمل "وجه مزيف" مقابل يخدع الذكاء الاصطناعي.
الفئة الرابعة هي ما يسمى هجوم الصندوق الأعمى. في هذه الحالة ، لا يعرف المورد بنية نموذج الذكاء الاصطناعي ، ولكن يمكنه أن يعرف بوضوح قواعد حكمه (على غرار ذلك لا نعرف ما سيظهر في المربع الأعمى ، لكننا نعرف احتمالية الاحتمالات المختلفة فيه)). في هذا الوقت ، يمكنهم استخدام القواعد لشن هجمات مماثلة.
إذا كان لا يمكن التعامل مع أنواع التدخل أو الهجمات المذكورة أعلاه بشكل فعال ، فإن نموذج الذكاء الاصطناعي هش للغاية في الواقع.
** (5) خارج نطاق السيطرة **
يعني ما يسمى "بالخروج عن السيطرة" أنه سيصبح من الصعب بشكل متزايد على الناس التحكم في الذكاء الاصطناعي. هناك جانبان لهذا السؤال:
من ناحية أخرى ، تستند جميع التطورات الأخيرة في مجال الذكاء الاصطناعي إلى نماذج التعلم العميق ، كما أن قابلية تفسير مثل هذه النماذج منخفضة للغاية. بالنسبة لنماذج التعلم الآلي السابقة ، سواء كانت شجرة انحدار أو تصنيف ، يمكن للأشخاص بسهولة شرح الغرض الدقيق للنموذج ومعنى كل معلمة في النموذج. ومع ذلك ، فإن نموذج التعلم العميق يتكون من شبكة عصبية معقدة تحتوي على مئات الملايين من المعلمات والخلايا العصبية ، والعلاقة بين هذه الخلايا العصبية معقدة ويصعب على الناس تفسيرها.
مع ظهور ChatGPT ، وجد بعض الباحثين أنه بمساعدة قدرة ChatGPT ، يبدو أنه يمكن تفسير بعض نماذج الشبكة العصبية ، والذي يبدو أنه يجلب بصيص أمل في إمكانية شرح الذكاء الاصطناعي. ومع ذلك ، فإن هذا يخلق مشكلة أخرى: ChatGPT نفسها هي نموذج ضخم تم بناؤه من خلال التعلم العميق ، وحتى مصمميها يعترفون بأنهم لا يعرفون بالضبط كيف "تظهر" قدراته القوية. في هذه الحالة ، لا يمكن اعتبار استخدام ChatGPT لشرح نماذج التعلم العميق الأخرى إلا على أنه استخدام المجهول لشرح المجهول. وكيف نعرف أن تفسيرها صحيح؟
نظرًا لأنه في عصر التعلم العميق ، حتى برامج الذكاء الاصطناعي لا يمكن تفسيرها ، فمن الصعب التحكم في الذكاء الاصطناعي عن طريق تعديل البرامج بشكل مباشر.
من ناحية أخرى ، مع تطور تقنية الذكاء الاصطناعي في السنوات الأخيرة ، تجاوزت قدرات نماذج الذكاء الاصطناعي في العديد من الاتجاهات قدرات البشر. في حين أن هذا يجعل الناس يشعرون بالرضا ، فإنه أيضًا يجعل الناس يشعرون بالقلق ، لأنه عندما تتجاوز قدرة الذكاء الاصطناعي قدرة البشر ، إذا أيقظت إرادته ، فإن استعباد الذكاء الاصطناعي الذي تنبأ به في أفلام مثل "Terminator" و "The ماتريكس "هل حبكة البشر أو تدمير البشر لم تعد خيالا علميا.
التراجع خطوة إلى الوراء ، حتى لو لم يوقظ الذكاء الاصطناعي إرادته وسيعمل فقط وفقًا للتعليمات البشرية ، فإنه لا يزال خطيرًا للغاية إذا تجاوزت قدرته قدرة البشر ولا يمكن للبشر تغيير التعليمات السابقة في أي وقت. على سبيل المثال ، في العديد من كتب الفلسفة حول الذكاء الاصطناعي ، تم ذكر تجربة فكرية: أعطى البشر للذكاء الاصطناعي أمرًا لإنتاج أقلام الرصاص. لإكمال هذه التعليمات ، سيستمر قلم الرصاص في قطع الأشجار على الأرض لصنع ماسك القلم. نظرًا لأن الذكاء الاصطناعي قد تفوق على البشر في القدرة على التنفيذ ، فمن الصعب على البشر إيقاف سلوك الذكاء الاصطناعي بعد اكتشاف المشكلات في التعليمات السابقة. في النهاية ، قُطعت الأشجار على الأرض ، وانهارت البيئة تمامًا ، وهلك البشر. على الرغم من أنه في الواقع ، فإن السيناريو الذي تنبأت به هذه التجربة الفكرية يكاد يكون مستحيل الحدوث ، عندما لا يعود البشر قادرين على التحكم في سلوك الذكاء الاصطناعي في أي وقت ، قد تظهر مشاكل مماثلة ، وستكون الخسائر المحتملة ضخمة. على وجه الخصوص ، عندما يتم زرع الذكاء الاصطناعي بهدف غير قانوني من قبل المتسللين أو المتطفلين ، إذا فشل مستخدم الذكاء الاصطناعي في تصحيحه في الوقت المناسب ، فقد تكون العواقب وخيمة للغاية.
من بين الأنواع الخمسة المذكورة أعلاه ، باستثناء السؤال الأول "البطالة" ، فإن الأسئلة الأربعة المتبقية تتعلق جميعها بمصداقية الذكاء الاصطناعي. ليس من الصعب أن نرى أنه إذا لم يتمكن الأشخاص من الاستجابة بفعالية لـ "التشويه" و "عدم الأهلية" و "السقوط" و "الخروج عن نطاق السيطرة" ، فسيكون من الصعب على الأشخاص الوثوق بالذكاء الاصطناعي كأداة أثناء الاستخدام ، سواء كان ذلك من أجل تعميم الذكاء الاصطناعي أو تطوير الإنتاج أو أنه ليس جيدًا لتقدم المجتمع. ولهذا السبب على وجه التحديد ، أصبح إدراك مصداقية الذكاء الاصطناعي أحد أكثر النقاط الساخنة إثارة للقلق في مجال الذكاء الاصطناعي الحالي.
** تاريخ ومعايير الذكاء الاصطناعي الموثوق به **
ظهر مفهوم الذكاء الاصطناعي الموثوق به لأول مرة في الأوساط الأكاديمية. على سبيل المثال ، في ورقة بحثية نُشرت عام 2015 ، تم اقتراح سلسلة من الشروط لكي يثق المستخدمون في الذكاء الاصطناعي ، بما في ذلك الفائدة ، وعدم الإضرار ، والاستقلالية ، والإنصاف ، والمنطق. ثم تم قبول هذا المفهوم من قبل الحكومات والمنظمات الدولية ، وتم وضع القوانين واللوائح والوثائق التوجيهية ذات الصلة تدريجياً بناءً على هذا المفهوم. بعد عام 2017 ، مع التطور السريع لتقنية الذكاء الاصطناعي ، يزدهر البحث حول تقنية الذكاء الاصطناعي الموثوق به أيضًا. في المجال الأكاديمي ، يتزايد عدد الأوراق البحثية حول موضوع الذكاء الاصطناعي الموثوق به ، ويتعمق البحث في التقنيات التي تلبي متطلبات الذكاء الاصطناعي الموثوق به. في مجال الممارسة ، بدأت المزيد والمزيد من البلدان في إشراك لوائح الذكاء الاصطناعي وفقًا لمعايير الذكاء الاصطناعي الموثوق به. في الآونة الأخيرة فقط ، أصدرت الولايات المتحدة "مخطط قانون حقوق الذكاء الاصطناعي" ، الذي اقترح خمسة مبادئ لتنظيم الذكاء الاصطناعي ؛ تم تحديد اللوائح والمنافسة وغيرها من القضايا ؛ أقر البرلمان الأوروبي مشروع تفويض التفاوض لمقترح "قانون الذكاء الاصطناعي" ، والذي يعكس أيضًا الأفكار الأساسية للذكاء الاصطناعي الموثوق به.
في بلدي ، تم تقديم مفهوم الذكاء الاصطناعي الموثوق به لأول مرة من قبل الأكاديمي هي جيفنغ في الندوة السادسة والثلاثين لمؤتمر شيانغشان للعلوم في عام 2017. بعد ذلك ، جذب هذا المفهوم انتباه كل من الحكومة والصناعة. في ديسمبر 2017 ، أصدرت وزارة الصناعة وتكنولوجيا المعلومات "خطة عمل مدتها ثلاث سنوات لتعزيز تطوير جيل جديد من صناعة الذكاء الاصطناعي (2018-2020)" ، والتي تستند إلى الأفكار الأساسية للذكاء الاصطناعي الموثوق به. بعد ذلك ، قدمت شركات التكنولوجيا الفائقة بما في ذلك Tencent و Ali و Baidu و JD.com وما إلى ذلك معاييرها وخطط التنفيذ الخاصة بها حول الذكاء الاصطناعي الموثوق به.
في وثائق الوكالات المختلفة ، يختلف التعبير عن الذكاء الاصطناعي الموثوق به قليلاً. بعد دراسة هذه الوثائق والرجوع إليها ، أعتقد أن المعايير التالية قد تكون الأكثر أهمية:
الأول هو المتانة (قوية ، وتُترجم أيضًا على أنها قوية) ، أي أن نظام الذكاء الاصطناعي يجب أن يكون لديه القدرة على مقاومة الهجمات الضارة أو التدخل الخارجي. هذا المعيار مقترح بشكل أساسي لمشكلة "السقوط" المذكورة أعلاه. فقط عندما يتمتع نظام الذكاء الاصطناعي بالقوة الكافية ، ولا يزال بإمكانه العمل بشكل طبيعي وأداء وظائفه الرئيسية في مواجهة الهجمات أو التدخلات المختلفة ، ويمكن أن يكون آمنًا وموثوقًا به ، ويمكن أن يثق به المستخدمون.
والثاني شفاف وقابل للتفسير. من الواضح أن هذا المعيار مقترح بشكل أساسي لمشكلة "الخروج عن السيطرة" السابقة. في الممارسة العملية ، هناك جدل كبير حول ما تعنيه بالضبط الشفافية وقابلية التفسير. يجادل البعض بأن هذا المعيار يعني أن جميع رموز برنامج AI ، وكذلك البيانات المستخدمة ، يجب أن تكون متاحة للمستخدمين. في رأيي ، ليس من المستحيل القيام بذلك فحسب ، بل إنه غير ضروري. من ناحية أخرى ، فإن العديد من أنظمة الذكاء الاصطناعي الحالية هي أصول فكرية للمؤسسات. إذا كان الكشف عن المعلومات الأساسية مثل الرموز إلزاميًا ، فهذا يعني انتهاكًا خطيرًا لحقوق الملكية الفكرية ؛ من ناحية أخرى ، كما ذكر أعلاه ، بعد دخول الذكاء الاصطناعي إلى عصر التعلم العميق ، حتى لو تم الكشف عن الكود ، فمن الصعب على الناس أن يفهموا تمامًا المعنى الدقيق وراء كل معلمة محددة. في المقابل ، أعتقد أن الفكرة الأكثر جدوى هي إعطاء أوصاف وظيفية واضحة لكل مكون في نموذج الذكاء الاصطناعي ، بحيث يمكن للمستخدمين معرفة مبادئهم العامة والوظائف التي يمكنهم تحقيقها ؛ حدد المصدر وحجم العينة والتمثيل وغير ذلك المعلومات ، وشرح المشاكل وأوجه القصور المحتملة. وبهذه الطريقة ، لا يمكن فقط جعل المستخدمين يعرفون ما يعرفونه ، ولكن أيضًا حماية حقوق الملكية الفكرية لمطوري النماذج بشكل فعال ، وذلك لتحقيق توازن أفضل بين الاثنين.
الثالث يمكن التحقق منه. هذا يعني أن نموذج الذكاء الاصطناعي يجب أن يضمن أن وظائفه قابلة للتقييم وأن المحتوى الذي ينشئه يمكن التحقق من صحته أو خطأه. أثيرت هذه النقطة بشكل أساسي لمشكلة "التشويه" المذكورة أعلاه. يجادل البعض بأنه يجب مطالبة مطوري نماذج الذكاء الاصطناعي بضمان مصداقية المحتوى الذي تم إنشاؤه بواسطة نماذجهم. هذا صعب التحقيق في الواقع ، المحتوى الذي تم إنشاؤه بواسطة ما يسمى بالذكاء الاصطناعي التوليدي ليس في العالم الأصلي ، أو بعبارة أخرى ، إنه "مزيف". لكن هذا النوع من "التزييف" لن يسبب أي مشاكل إذا لم يسبب مشاكل للناس. على سبيل المثال ، إذا استخدمنا Midjourney لإنشاء صورة على غرار Van Gogh لتقديرنا أو طباعتها كديكور منزلي ، فلن تؤثر على الآخرين على الإطلاق. يمكن أن يصبح "التزييف" لهذا المحتوى الذي تم إنشاؤه مشكلة فقط إذا استخدمه الأشخاص للخداع ، أو إذا تم توزيع المحتوى وتشويشه عن غير قصد. لذلك ، طالما أنه يمكن تمييز المحتوى الذي تم إنشاؤه عن المحتوى الحقيقي من خلال الوسائل التقنية ، فإن "الزيف" لن يمثل مشكلة بعد الآن.
الرابع هو العدل. وهذا يعني أنه في عملية تطوير وتدريب وتطبيق نماذج الذكاء الاصطناعي ، يجب ضمان الإنصاف وعدم التمييز ضد مجموعات معينة من المستخدمين. يتضمن هذا المعيار العديد من الجوانب. على وجه التحديد ، يتطلب أن المبادئ الأساسية للنموذج لا ينبغي أن تكون تمييزية في مرحلة التطوير ؛ في مرحلة التدريب ، يجب أن يحاول تجنب استخدام المواد التي قد تكون تمييزية ، ويجب استخدام الوسائل التقنية لاستخدام تصحيح مشاكل التمييز المحتملة ؛ في عملية التقديم ، لا ينبغي معاملة مجموعات مختلفة من الناس بشكل مختلف.
الخامس هو حماية الخصوصية. يتطلب هذا المعيار بشكل أساسي أن نموذج الذكاء الاصطناعي يجب أن يحترم المعلومات الشخصية للأشخاص والخصوصية أثناء عملية التدريب ، وتحسين حماية المعلومات ، ومحاولة عدم التعدي على المعلومات الشخصية والخصوصية أو الكشف عنها.
السادس مسؤول. أي عندما يحدث خطأ ما ، يجب أن يكون شخص ما مسؤولاً عن تلك المشاكل. بالطبع ، على الأقل حتى الآن ، لم يوقظ الذكاء الاصطناعي الوعي. لأنه لا يمكن اعتباره موضوعًا مثل البشر ولا يمكنه تحمل نفس المسؤوليات التي يتحملها البشر ، يجب أن يكون شخصًا يتحمل المسؤولية عنها. ولكن ما إذا كان يجب أن يتحمل مطورو الذكاء الاصطناعي أو مستخدمو الذكاء الاصطناعي هذه المسؤولية ، أو يجب أن يتقاسمها الطرفان ، لا يزال سؤالاً يستحق المناقشة.
وتجدر الإشارة إلى أنه بالإضافة إلى المعايير المذكورة أعلاه ، تشتمل العديد من الآداب أيضًا على معايير مثل الأمان (الآمن) ، والشمولية (الشمولية) ، والحق في النسيان (الحق في النسيان) ، ومنفعة البشرية. الفئة الذكاء الاصطناعي. في رأيي ، يمكن تلخيص هذه المحتويات بشكل أو بآخر في العديد من المعايير المذكورة أعلاه ، أو توضيحها من خلال المعايير المذكورة أعلاه. لذلك ، بسبب ضيق المساحة ، لن أكررها هنا.
** استخدام الجهود المشتركة للعديد من الأطراف لتحقيق ذكاء اصطناعي موثوق به **
ليس من السهل تحقيق الذكاء الاصطناعي الموثوق به ، فهو يتطلب التنسيق بين مختلف القوى مثل الحكومة والمؤسسات والمجتمع والتكنولوجيا.
بادئ ذي بدء ، تحتاج الحكومة ، بصفتها جهة تنظيمية ، إلى صياغة المعايير ذات الصلة وإرشادات التشغيل للذكاء الاصطناعي الموثوق به ، والإشراف على مطوري ومستخدمي الذكاء الاصطناعي بناءً على المعايير. من ناحية أخرى ، تحتاج إلى صياغة قواعد مختلفة وفقًا لسيناريوهات تطبيق مختلفة وفئات نموذجية مختلفة ، لا سيما لوضع أحكام واضحة حول بعض القواعد الأساسية التي يجب اتباعها ، وفي نفس الوقت القيام بعمل جيد للتواصل مع القائمة. القوانين واللوائح. بهذه الطريقة فقط يمكن لمطوري ومستخدمي الذكاء الاصطناعي أن يكون لديهم قواعد يجب اتباعها في الممارسة العملية دون الانزعاج من عدم اليقين غير الضروري. من ناحية أخرى ، يجب أن تلعب دورًا جيدًا في الإشراف وإنفاذ القانون. بالنسبة لبعض المشاكل البارزة أو الشائعة ، يجب التعامل معها في الوقت المناسب ، وذلك لوضع معايير مقابلة للصناعة. ما يجب الإشارة إليه هنا هو أنه نظرًا لأن التطور الحالي لتكنولوجيا الذكاء الاصطناعي لا يزال سريعًا للغاية ، فإنه لم يصل بعد إلى حالة مستقرة. وهذا يعني أنه يجب على الحكومة توخي الحذر عند التعامل مع المشكلات التي تنشأ أثناء هذه العملية. وعليها "ترك الرصاص يطير لفترة أطول" ، واتخاذ الإجراءات بعد رؤية الموقف بوضوح ، والاهتمام بالطرق والأساليب عند التعامل مع مشاكل. إذا بدأنا بشكل أعمى وأدارنا بسرعة كبيرة جدًا ، فقد يكون لذلك أيضًا تأثير سلبي على تطوير الذكاء الاصطناعي.
ثانيًا ، يجب على الشركات ذات الصلة صياغة خطط تنفيذ محددة ومعايير مفصلة للإدراك المحدد للذكاء الاصطناعي الموثوق به. بالمقارنة مع الحكومة ، فإن الشركات أقرب إلى السوق وتفهم التكنولوجيا بشكل أفضل. إنهم يعرفون أكثر عن الخصائص التقنية لنماذج الذكاء الاصطناعي ونقاط القوة والضعف فيها أكثر مما تعرفه الحكومات. لذلك ، إذا كانت مسؤولية الحكومة هي اقتراح إطار عمل كبير للذكاء الاصطناعي الموثوق به ، فيجب أن تكون الشركات هي الممارسين المحددين في هذا الإطار الكبير. ضمن هذا الإطار ، يجب عليهم الجمع بين خصائص السوق والتكنولوجيا لتقديم خطط أكثر تحديدًا وتنفيذها بطريقة ذاتية الانضباط.
ثالثًا ، يجب على المستخدمين أيضًا لعب دور التغذية الراجعة والمشرف ، وطرح مطالبهم الخاصة ، وتعكس مشاكلهم الخاصة ، والإشراف على تنفيذ المؤسسة للذكاء الاصطناعي الموثوق به. مع تعميم الذكاء الاصطناعي ، سيصبح كل فرد في المجتمع مستخدمًا وأصحاب مصلحة للذكاء الاصطناعي ، وسيكون لهم القول الأكبر في مصداقية الذكاء الاصطناعي. فقط عندما يتم التعبير عن أصواتهم بالكامل ، يكون الإعداد القياسي للذكاء الاصطناعي الموثوق به وتطوير التقنيات ذات الصلة هو الأكثر قيمة.
أخيرًا ، يجب أن نعتمد كليًا على قوة التكنولوجيا. القواعد ذات الصلة مهمة ، ولكن في التحليل النهائي ، لا يزال تحقيق الذكاء الاصطناعي الموثوق به يعتمد على قوة التكنولوجيا. في الواقع ، يمكن حل العديد من المشكلات التي يصعب حلها باستخدام القواعد بالوسائل التقنية. على سبيل المثال ، بعد جيل الذكاء الاصطناعي التوليدي ، كانت مشكلة "التشويه" مصدر قلق للسلطات التنظيمية ، ولكن في الواقع ، بالاعتماد على التقنيات الجديدة ، قد لا يكون من الصعب حل هذه المشكلة. على سبيل المثال ، قدمت Google سابقًا تقنية إلكترونية للعلامة المائية غير مرئية للعين المجردة ولكن يمكن التعرف عليها بواسطة الأجهزة. وتطبيقها على الصور أو مقاطع الفيديو التي تم إنشاؤها يمكن أن يضمن بشكل فعال إمكانية التحقق منها. بالنسبة إلى إمكانية التحقق من محتوى النص ، يمكنك اتباع مثال بحث New Bing (New Bing). عندما يقتبس محتوى معين ، فإنه سيرفق المستندات المرجعية بعد المحتوى الذي تم إنشاؤه ، بحيث يمكن للمستخدمين التعرف على أصالة المحتوى الذي تم إنشاؤه بأنفسهم وفقًا لاحتياجاتهم.
بشكل عام ، لا يعد تحقيق الذكاء الاصطناعي الموثوق به مهمة سهلة ، ولكن إذا استفدنا جيدًا من الجهود المشتركة لجميع الأطراف ، فسيتم تحقيق هذا الهدف بالتأكيد.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
في عصر إعصار الذكاء الاصطناعي ، كيف يمكننا الوثوق في الذكاء الاصطناعي؟
المؤلف: Chen Yongwei
المصدر: المراقب الاقتصادي
مقدمة
** 一 || ** ** عززت أدوات الذكاء الاصطناعي إنتاجية الأشخاص بشكل كبير وجلبت راحة كبيرة لحياة الناس. ومع ذلك ، عندما يستخدم الناس الذكاء الاصطناعي على نطاق واسع ، ظهرت أيضًا العديد من المشكلات. ومن بين هذه المشاكل ، قد تكون "الخسائر" الخمس الأكثر خطورة ، وهي البطالة والتشويه والاستبعاد والفشل وفقدان السيطرة. **
** 二 || ** ** بعد عام 2017 ، مع التطور السريع لتقنية الذكاء الاصطناعي ، تزدهر أيضًا الأبحاث حول تقنية الذكاء الاصطناعي الموثوق بها. في المجال الأكاديمي ، يتزايد عدد الأوراق البحثية حول موضوع الذكاء الاصطناعي الموثوق به ، ويتعمق البحث في التقنيات التي تلبي متطلبات الذكاء الاصطناعي الموثوق به. في مجال الممارسة ، بدأت المزيد والمزيد من البلدان في إشراك لوائح الذكاء الاصطناعي وفقًا لمعايير الذكاء الاصطناعي الموثوق به. **
** 三 || ليس من السهل تحقيق الذكاء الاصطناعي الموثوق به ، فهو يتطلب التنسيق بين الحكومة والمؤسسات والمجتمع والتكنولوجيا لتحقيق ذلك. **
في 22 يونيو ، بالتوقيت المحلي ، أصدرت محكمة المنطقة الجنوبية في نيويورك حكمًا: تم تغريم شركة Levidow و Levidow & Oberman Law Firm مبلغ 5000 دولار لتزويدها بمعلومات كاذبة للمحكمة بسبب السلوك السيئ. سبب القلق هو أنه في هذه الحالة ، لم يكن تقديم معلومات كاذبة لأن المحامين انتهكوا القانون عن عمد من أجل المصلحة الذاتية ، ولكن لأنهم آمنوا كثيرًا بقدرات الذكاء الاصطناعي.
في مارس من هذا العام ، كلف العميل روبرتو ماتا المحامين بيتر لودوكا وستيفن شوارتز من الشركة لتحمل المسؤولية عنه ودعوى قضائية بين شركة طيران أفيانكا. بما أن الولايات المتحدة هي بلد السوابق القضائية ، فإن القضاة قلقون للغاية بشأن السوابق الحالية عند إصدار الأحكام ، لذلك ، وفقًا للممارسة المعتادة ، يحتاجون إلى فرز وتلخيص القضايا الموجودة في وثائق الصياغة. غالبًا ما تكون الحالات ذات الصلة ساحقة ، وعادة ما يستغرق الأمر وقتًا طويلاً لفرزها حسب القوى العاملة. في هذا الوقت فقط ، أصبح ChatGPT شائعًا عبر الإنترنت. لذلك ، قرر المحاميان استخدام ChatGPT لمساعدتهما على إكمال هذه المهام. قام ChatGPT بسرعة بإنشاء مستند كامل ، والذي لا يحتوي فقط على تنسيق أنيق وحجج صارم ، ولكنه أضاف أيضًا العديد من الحالات ذات الصلة بشكل خاص. بعد تعديل طفيف في المستند الذي أنشأته منظمة العفو الدولية ، قاموا بتقديمه إلى المحكمة.
بعد قراءة المستندات المقدمة ، شعر القاضي الذي نظر القضية ، كيفن كاستل ، بالحيرة من القضايا العديدة المذكورة فيها ، ويبدو أنه لم يسمع بهذه القضايا من قبل. بعد بعض البحث ، أكد أخيرًا أن هذه الحالات لم تكن موجودة على الإطلاق. عند مقابلتهما ، قال المحاميان إنهما استخدما الذكاء الاصطناعي فقط للمساعدة في كتابة المستندات. وعندما رأوا الحالات المذكورة في الوثائق ، شعروا فقط أن منظمة العفو الدولية ساعدتهم في العثور على الحالات التي لم يعرفوها ، ولم يتعمدوا تلفيق القضايا. لخداع المحكمة ، هو خسارة غير مقصودة. ومع ذلك ، وجد القاضي كستر أن المحامين "تخلوا عن مسؤولياتهم" وأنهم "استمروا في الاحتفاظ بآراء خاطئة" بعد الطعن في الأوراق. بناءً على الحكم أعلاه ، اتخذ القاضي كستر قرارًا بعقوبة.
تبدو حادثة تغريم المحامين بسبب الاستشهاد بمعلومات خاطئة قدمتها ChatGPT سخيفة ، لكنها تعكس سؤالًا مهمًا للغاية - كيف يمكننا الوثوق بالذكاء الاصطناعي في عصر جنون الذكاء الاصطناعي؟
** خمس "خسائر" في عصر الذكاء الاصطناعي **
في السنوات الأخيرة ، مع اختراقات في قوة الحوسبة وتقنية الخوارزمية ، حققت تقنية الذكاء الاصطناعي تطورًا سريعًا ودخلت بسرعة الحياة اليومية للناس من الخيال العلمي. خاصة بعد ظهور ChatGPT في نوفمبر من العام الماضي ، أظهر الذكاء الاصطناعي التوليدي قوته القوية للناس ، وظهرت نماذج كبيرة مختلفة مثل عيش الغراب بعد المطر ، وحققت تسويقًا على نطاق واسع. الآن ، يمكن للناس بالفعل استخدام منتجات الذكاء الاصطناعي مثل ChatGPT و Stable Diffusion و Midjourney بتكلفة منخفضة للغاية.
عززت أدوات الذكاء الاصطناعي إنتاجية الناس بشكل كبير وجلبت راحة كبيرة لحياة الناس. ومع ذلك ، عندما يستخدم الناس الذكاء الاصطناعي على نطاق واسع ، ظهرت أيضًا العديد من المشكلات. ومن بين هذه المشاكل ، قد تكون "الخسائر" الخمس الأكثر خطورة ، وهي البطالة والتشويه والاستبعاد والفشل وفقدان السيطرة.
** (1) عاطل **
تشير "البطالة" المزعومة ، كما يوحي الاسم ، إلى مشكلة البطالة الفنية التي أحدثها الذكاء الاصطناعي. نظرًا لأن كفاءة إنتاج الذكاء الاصطناعي أعلى بكثير من كفاءة الإنسان ، فإن العديد من الوظائف البشرية معرضة لخطر الاستبدال بعد استخدام أدوات الذكاء الاصطناعي على نطاق واسع. خاصة بعد ظهور الذكاء الاصطناعي التوليدي ، لم تعد المجموعة المستهدفة التي تم استبدالها بالذكاء الاصطناعي مقصورة على العمال المنخرطين في وظائف متكررة منخفضة الدخل ، كما أن العديد من العاملين ذوي الياقات البيضاء المرتفعة يواجهون خطر الاستعاضة عنهم بالذكاء الاصطناعي.
** (2) تشويه **
يشير ما يسمى بـ "التشويه" إلى حقيقة أن تطبيق الذكاء الاصطناعي (الذكاء الاصطناعي التوليدي بشكل أساسي) يجعل من الصعب على الأشخاص التعرف على أصالة النص والصور وحتى مقاطع الفيديو. وهكذا أصبحت عبارة "هناك صور وحقائق" من الماضي .
يمكن تقسيم مشاكل "التشويه" إلى "صح خطأ" و "صواب خطأ". من بينها ، يشير مصطلح "صواب خاطئ" إلى المحتوى الزائف الذي تم إنشاؤه بواسطة الذكاء الاصطناعي دون موافقة بشرية عند استخدام الأشخاص لأدوات الذكاء الاصطناعي. على الرغم من أن هذه المحتويات قد لا تكون ناتجة عن خبث شخصي للناس ، إلا أنها قد تسبب الكثير من المتاعب في بعض الحالات ، مثل الحالة المذكورة في بداية هذه المقالة.
وتستند "الحقيقة والمزيفة" على المداولات الشخصية ، واستخدام أدوات الذكاء الاصطناعي لتنفيذ سلوك احتيالي. قبل بضع سنوات ، بعد ظهور تقنية "التزييف العميق" ، استخدم بعض الأشخاص هذه التقنية لارتكاب عمليات احتيال واختلاق معلومات كاذبة ونشر محتوى إباحي وغير ذلك من الأنشطة غير القانونية والإجرامية. ولكن في ذلك الوقت ، وبسبب التكلفة العالية لاستخدام هذه التكنولوجيا ، لم يكن معدل حدوث الجرائم ذات الصلة مرتفعًا بشكل خاص. مع التطبيق الواسع النطاق للذكاء الاصطناعي التوليفي ، تم تخفيض تكلفة التزييف بشكل كبير ، ويمكن للمجرمين بسهولة إنشاء قدر كبير من المحتوى الخاطئ بتكلفة منخفضة للغاية ، بينما زادت تكلفة تحديد هذا المحتوى بشكل كبير. من المتوقع أنه في ظل المد والجزر ، إذا لم يكن هناك تدخل ، فسوف يرتفع استخدام الذكاء الاصطناعي لارتكاب الجرائم.
** (3) تنحية **
يشير ما يسمى ب "عدم الأهلية" إلى بعض المشاكل التي تنتهك الأخلاق والأخلاق في عملية تطبيق الذكاء الاصطناعي.
المشكلة النموذجية الأولى هي التمييز. خذ نموذج اللغة كمثال ، بما أن نموذج اللغة يستخدم بيانات نصية على الإنترنت كمواد تدريبية ، فإنه سيرث التمييز العنصري والتمييز الجنسي المتضمن في النص دون تدخل. على الرغم من أن مزودي الذكاء الاصطناعي الحاليين قد استخدموا العديد من الطرق للتغلب على هذه المشكلة ، على سبيل المثال ، طبقت OpenAI خوارزمية "التعلم المعزز من ردود الفعل البشرية" (التعلم المعزز من ردود الفعل البشرية ، RL-HF) لتصحيحها عند تدريب ChatGPT. تم تحسين جودة محتوى مخرجاته بشكل كبير ، ولكن في الواقع ، لا يزال من غير المألوف لنماذج الذكاء الاصطناعي إنتاج محتوى تمييزي. على سبيل المثال ، أجرى شخص ما تجربة وطلب من ChatGPT كتابة برنامج لاختيار الأشخاص الذين يتمتعون بأفضل الإمكانيات ليصبحوا علماء ممتازين من مجموعة من السير الذاتية. اتضح أنه في البرنامج الذي كتبته ChatGPT ، تم استخدام الجنس والعرق كمتغيرين توضيحيين ، واعتُبر أن الرجال البيض لديهم احتمالية أكبر في أن يصبحوا علماء جيدين أكثر من غيرهم. من الواضح أن مثل هذا النموذج متحيز جنسيًا وعنصريًا للغاية.
المسألة الثانية المهمة هي مشكلة غرفة شرنقة المعلومات. في الوقت الحالي ، تستخدم العديد من التطبيقات الذكاء الاصطناعي لتقديم توصيات مخصصة. في الوقت الحالي ، على الرغم من أن المحتوى الموصى به يمكن أن يلبي احتياجات المستخدمين بشكل أفضل ، إلا أنه بمرور الوقت ، سيقع المستخدمون في شرنقة معلومات ، ومن الصعب الوصول إلى المعلومات المختلفة التي لا يتفقون معها. الضرر المحتمل لشرانق المعلومات ضخم: على المستوى الجزئي ، قد يؤدي إلى تدهور القدرة المعرفية للمستخدمين ؛ على المستوى الكلي ، قد يؤدي ذلك إلى استقطاب وجهات نظر المجموعة ، مما يؤدي إلى مواجهة جماعية بين وجهات نظر مختلفة.
القضية الثالثة المهمة هي الخصوصية وتسرب المعلومات. في عملية التدريب واستخدام الذكاء الاصطناعي ، يلزم قدر كبير من البيانات. وفي هذه العملية ، من الصعب تجنب جمع واستخدام البيانات الشخصية للأشخاص ، لذلك ستشمل استخدام الخصوصية والكشف عنها. خاصة بعد شعبية الذكاء الاصطناعي التوليدي ، يمكن للأشخاص التفاعل بسهولة مع الذكاء الاصطناعي مباشرة لإكمال المهام المختلفة ، وتواجه المعلومات الشخصية التي يتم إدخالها في العملية مشكلة التسريب.
** (4) فقدت **
يشير ما يسمى بـ "السقوط" إلى صعوبة الذكاء الاصطناعي في الاستجابة للهجمات الخارجية أو التدخلات أو الهجمات من مواقف غير متوقعة ، مما يجعل من الصعب على النموذج أداء دوره بشكل طبيعي.
من بين هذه الاضطرابات ، نشأ بعضها من عوامل غير بشرية ، بينما نشأ البعض الآخر من الدمار من صنع الإنسان. على وجه التحديد ، يمكن تقسيم هذه التدخلات إلى الفئات التالية:
الأول هو "الهجوم العشوائي". هذا النوع من التداخل ناتج بشكل رئيسي عن بعض العوامل الخارجية. على سبيل المثال ، في بعض الحالات الخاصة ، قد تتجاوز بعض المعلمات التي يتم إنشاؤها بشكل فوري حد المعالجة الذي حدده النموذج ، مما قد يتسبب في فشل استخدام نموذج AI بشكل طبيعي.
والثاني هو "هجوم الصندوق الأبيض". يشير إلى الهجوم على النموذج الذي أطلقه المزود بعد معرفة الهيكل المحدد لنموذج الذكاء الاصطناعي. نظرًا لأن مثل هذه الهجمات مستهدفة ، فإن تدميرها مرتفع للغاية.
والثالث هو "هجوم الصندوق الأسود". هذا النوع من الهجوم متعلق بـ "هجوم الصندوق الأبيض". في هذه الحالة ، لا يعرف الموفر البنية المحددة للنموذج المستهدف ، لذلك يمكنه فقط التفاعل مع النموذج ، ومراقبة نتائج المدخلات والمخرجات ، ثم سبب بنية النموذج ، وشن الهجمات وفقًا لذلك. بأخذ التعرف على الوجوه كمثال ، يتعرف الذكاء الاصطناعي على الوجوه من خلال ميزات رئيسية معينة على الوجه. لذلك ، حتى إذا كان المهاجم لا يعرف البنية المحددة للنموذج الأصلي ، فيمكنه استنتاج الميزات التي يركز عليها طالما أنه يكرر الاختبار. بعد فك تشفير هذه المعلومات ، يمكنك عمل "وجه مزيف" مقابل يخدع الذكاء الاصطناعي.
الفئة الرابعة هي ما يسمى هجوم الصندوق الأعمى. في هذه الحالة ، لا يعرف المورد بنية نموذج الذكاء الاصطناعي ، ولكن يمكنه أن يعرف بوضوح قواعد حكمه (على غرار ذلك لا نعرف ما سيظهر في المربع الأعمى ، لكننا نعرف احتمالية الاحتمالات المختلفة فيه)). في هذا الوقت ، يمكنهم استخدام القواعد لشن هجمات مماثلة.
إذا كان لا يمكن التعامل مع أنواع التدخل أو الهجمات المذكورة أعلاه بشكل فعال ، فإن نموذج الذكاء الاصطناعي هش للغاية في الواقع.
** (5) خارج نطاق السيطرة **
يعني ما يسمى "بالخروج عن السيطرة" أنه سيصبح من الصعب بشكل متزايد على الناس التحكم في الذكاء الاصطناعي. هناك جانبان لهذا السؤال:
من ناحية أخرى ، تستند جميع التطورات الأخيرة في مجال الذكاء الاصطناعي إلى نماذج التعلم العميق ، كما أن قابلية تفسير مثل هذه النماذج منخفضة للغاية. بالنسبة لنماذج التعلم الآلي السابقة ، سواء كانت شجرة انحدار أو تصنيف ، يمكن للأشخاص بسهولة شرح الغرض الدقيق للنموذج ومعنى كل معلمة في النموذج. ومع ذلك ، فإن نموذج التعلم العميق يتكون من شبكة عصبية معقدة تحتوي على مئات الملايين من المعلمات والخلايا العصبية ، والعلاقة بين هذه الخلايا العصبية معقدة ويصعب على الناس تفسيرها.
مع ظهور ChatGPT ، وجد بعض الباحثين أنه بمساعدة قدرة ChatGPT ، يبدو أنه يمكن تفسير بعض نماذج الشبكة العصبية ، والذي يبدو أنه يجلب بصيص أمل في إمكانية شرح الذكاء الاصطناعي. ومع ذلك ، فإن هذا يخلق مشكلة أخرى: ChatGPT نفسها هي نموذج ضخم تم بناؤه من خلال التعلم العميق ، وحتى مصمميها يعترفون بأنهم لا يعرفون بالضبط كيف "تظهر" قدراته القوية. في هذه الحالة ، لا يمكن اعتبار استخدام ChatGPT لشرح نماذج التعلم العميق الأخرى إلا على أنه استخدام المجهول لشرح المجهول. وكيف نعرف أن تفسيرها صحيح؟
نظرًا لأنه في عصر التعلم العميق ، حتى برامج الذكاء الاصطناعي لا يمكن تفسيرها ، فمن الصعب التحكم في الذكاء الاصطناعي عن طريق تعديل البرامج بشكل مباشر.
من ناحية أخرى ، مع تطور تقنية الذكاء الاصطناعي في السنوات الأخيرة ، تجاوزت قدرات نماذج الذكاء الاصطناعي في العديد من الاتجاهات قدرات البشر. في حين أن هذا يجعل الناس يشعرون بالرضا ، فإنه أيضًا يجعل الناس يشعرون بالقلق ، لأنه عندما تتجاوز قدرة الذكاء الاصطناعي قدرة البشر ، إذا أيقظت إرادته ، فإن استعباد الذكاء الاصطناعي الذي تنبأ به في أفلام مثل "Terminator" و "The ماتريكس "هل حبكة البشر أو تدمير البشر لم تعد خيالا علميا.
التراجع خطوة إلى الوراء ، حتى لو لم يوقظ الذكاء الاصطناعي إرادته وسيعمل فقط وفقًا للتعليمات البشرية ، فإنه لا يزال خطيرًا للغاية إذا تجاوزت قدرته قدرة البشر ولا يمكن للبشر تغيير التعليمات السابقة في أي وقت. على سبيل المثال ، في العديد من كتب الفلسفة حول الذكاء الاصطناعي ، تم ذكر تجربة فكرية: أعطى البشر للذكاء الاصطناعي أمرًا لإنتاج أقلام الرصاص. لإكمال هذه التعليمات ، سيستمر قلم الرصاص في قطع الأشجار على الأرض لصنع ماسك القلم. نظرًا لأن الذكاء الاصطناعي قد تفوق على البشر في القدرة على التنفيذ ، فمن الصعب على البشر إيقاف سلوك الذكاء الاصطناعي بعد اكتشاف المشكلات في التعليمات السابقة. في النهاية ، قُطعت الأشجار على الأرض ، وانهارت البيئة تمامًا ، وهلك البشر. على الرغم من أنه في الواقع ، فإن السيناريو الذي تنبأت به هذه التجربة الفكرية يكاد يكون مستحيل الحدوث ، عندما لا يعود البشر قادرين على التحكم في سلوك الذكاء الاصطناعي في أي وقت ، قد تظهر مشاكل مماثلة ، وستكون الخسائر المحتملة ضخمة. على وجه الخصوص ، عندما يتم زرع الذكاء الاصطناعي بهدف غير قانوني من قبل المتسللين أو المتطفلين ، إذا فشل مستخدم الذكاء الاصطناعي في تصحيحه في الوقت المناسب ، فقد تكون العواقب وخيمة للغاية.
من بين الأنواع الخمسة المذكورة أعلاه ، باستثناء السؤال الأول "البطالة" ، فإن الأسئلة الأربعة المتبقية تتعلق جميعها بمصداقية الذكاء الاصطناعي. ليس من الصعب أن نرى أنه إذا لم يتمكن الأشخاص من الاستجابة بفعالية لـ "التشويه" و "عدم الأهلية" و "السقوط" و "الخروج عن نطاق السيطرة" ، فسيكون من الصعب على الأشخاص الوثوق بالذكاء الاصطناعي كأداة أثناء الاستخدام ، سواء كان ذلك من أجل تعميم الذكاء الاصطناعي أو تطوير الإنتاج أو أنه ليس جيدًا لتقدم المجتمع. ولهذا السبب على وجه التحديد ، أصبح إدراك مصداقية الذكاء الاصطناعي أحد أكثر النقاط الساخنة إثارة للقلق في مجال الذكاء الاصطناعي الحالي.
** تاريخ ومعايير الذكاء الاصطناعي الموثوق به **
ظهر مفهوم الذكاء الاصطناعي الموثوق به لأول مرة في الأوساط الأكاديمية. على سبيل المثال ، في ورقة بحثية نُشرت عام 2015 ، تم اقتراح سلسلة من الشروط لكي يثق المستخدمون في الذكاء الاصطناعي ، بما في ذلك الفائدة ، وعدم الإضرار ، والاستقلالية ، والإنصاف ، والمنطق. ثم تم قبول هذا المفهوم من قبل الحكومات والمنظمات الدولية ، وتم وضع القوانين واللوائح والوثائق التوجيهية ذات الصلة تدريجياً بناءً على هذا المفهوم. بعد عام 2017 ، مع التطور السريع لتقنية الذكاء الاصطناعي ، يزدهر البحث حول تقنية الذكاء الاصطناعي الموثوق به أيضًا. في المجال الأكاديمي ، يتزايد عدد الأوراق البحثية حول موضوع الذكاء الاصطناعي الموثوق به ، ويتعمق البحث في التقنيات التي تلبي متطلبات الذكاء الاصطناعي الموثوق به. في مجال الممارسة ، بدأت المزيد والمزيد من البلدان في إشراك لوائح الذكاء الاصطناعي وفقًا لمعايير الذكاء الاصطناعي الموثوق به. في الآونة الأخيرة فقط ، أصدرت الولايات المتحدة "مخطط قانون حقوق الذكاء الاصطناعي" ، الذي اقترح خمسة مبادئ لتنظيم الذكاء الاصطناعي ؛ تم تحديد اللوائح والمنافسة وغيرها من القضايا ؛ أقر البرلمان الأوروبي مشروع تفويض التفاوض لمقترح "قانون الذكاء الاصطناعي" ، والذي يعكس أيضًا الأفكار الأساسية للذكاء الاصطناعي الموثوق به.
في بلدي ، تم تقديم مفهوم الذكاء الاصطناعي الموثوق به لأول مرة من قبل الأكاديمي هي جيفنغ في الندوة السادسة والثلاثين لمؤتمر شيانغشان للعلوم في عام 2017. بعد ذلك ، جذب هذا المفهوم انتباه كل من الحكومة والصناعة. في ديسمبر 2017 ، أصدرت وزارة الصناعة وتكنولوجيا المعلومات "خطة عمل مدتها ثلاث سنوات لتعزيز تطوير جيل جديد من صناعة الذكاء الاصطناعي (2018-2020)" ، والتي تستند إلى الأفكار الأساسية للذكاء الاصطناعي الموثوق به. بعد ذلك ، قدمت شركات التكنولوجيا الفائقة بما في ذلك Tencent و Ali و Baidu و JD.com وما إلى ذلك معاييرها وخطط التنفيذ الخاصة بها حول الذكاء الاصطناعي الموثوق به.
في وثائق الوكالات المختلفة ، يختلف التعبير عن الذكاء الاصطناعي الموثوق به قليلاً. بعد دراسة هذه الوثائق والرجوع إليها ، أعتقد أن المعايير التالية قد تكون الأكثر أهمية:
الأول هو المتانة (قوية ، وتُترجم أيضًا على أنها قوية) ، أي أن نظام الذكاء الاصطناعي يجب أن يكون لديه القدرة على مقاومة الهجمات الضارة أو التدخل الخارجي. هذا المعيار مقترح بشكل أساسي لمشكلة "السقوط" المذكورة أعلاه. فقط عندما يتمتع نظام الذكاء الاصطناعي بالقوة الكافية ، ولا يزال بإمكانه العمل بشكل طبيعي وأداء وظائفه الرئيسية في مواجهة الهجمات أو التدخلات المختلفة ، ويمكن أن يكون آمنًا وموثوقًا به ، ويمكن أن يثق به المستخدمون.
والثاني شفاف وقابل للتفسير. من الواضح أن هذا المعيار مقترح بشكل أساسي لمشكلة "الخروج عن السيطرة" السابقة. في الممارسة العملية ، هناك جدل كبير حول ما تعنيه بالضبط الشفافية وقابلية التفسير. يجادل البعض بأن هذا المعيار يعني أن جميع رموز برنامج AI ، وكذلك البيانات المستخدمة ، يجب أن تكون متاحة للمستخدمين. في رأيي ، ليس من المستحيل القيام بذلك فحسب ، بل إنه غير ضروري. من ناحية أخرى ، فإن العديد من أنظمة الذكاء الاصطناعي الحالية هي أصول فكرية للمؤسسات. إذا كان الكشف عن المعلومات الأساسية مثل الرموز إلزاميًا ، فهذا يعني انتهاكًا خطيرًا لحقوق الملكية الفكرية ؛ من ناحية أخرى ، كما ذكر أعلاه ، بعد دخول الذكاء الاصطناعي إلى عصر التعلم العميق ، حتى لو تم الكشف عن الكود ، فمن الصعب على الناس أن يفهموا تمامًا المعنى الدقيق وراء كل معلمة محددة. في المقابل ، أعتقد أن الفكرة الأكثر جدوى هي إعطاء أوصاف وظيفية واضحة لكل مكون في نموذج الذكاء الاصطناعي ، بحيث يمكن للمستخدمين معرفة مبادئهم العامة والوظائف التي يمكنهم تحقيقها ؛ حدد المصدر وحجم العينة والتمثيل وغير ذلك المعلومات ، وشرح المشاكل وأوجه القصور المحتملة. وبهذه الطريقة ، لا يمكن فقط جعل المستخدمين يعرفون ما يعرفونه ، ولكن أيضًا حماية حقوق الملكية الفكرية لمطوري النماذج بشكل فعال ، وذلك لتحقيق توازن أفضل بين الاثنين.
الثالث يمكن التحقق منه. هذا يعني أن نموذج الذكاء الاصطناعي يجب أن يضمن أن وظائفه قابلة للتقييم وأن المحتوى الذي ينشئه يمكن التحقق من صحته أو خطأه. أثيرت هذه النقطة بشكل أساسي لمشكلة "التشويه" المذكورة أعلاه. يجادل البعض بأنه يجب مطالبة مطوري نماذج الذكاء الاصطناعي بضمان مصداقية المحتوى الذي تم إنشاؤه بواسطة نماذجهم. هذا صعب التحقيق في الواقع ، المحتوى الذي تم إنشاؤه بواسطة ما يسمى بالذكاء الاصطناعي التوليدي ليس في العالم الأصلي ، أو بعبارة أخرى ، إنه "مزيف". لكن هذا النوع من "التزييف" لن يسبب أي مشاكل إذا لم يسبب مشاكل للناس. على سبيل المثال ، إذا استخدمنا Midjourney لإنشاء صورة على غرار Van Gogh لتقديرنا أو طباعتها كديكور منزلي ، فلن تؤثر على الآخرين على الإطلاق. يمكن أن يصبح "التزييف" لهذا المحتوى الذي تم إنشاؤه مشكلة فقط إذا استخدمه الأشخاص للخداع ، أو إذا تم توزيع المحتوى وتشويشه عن غير قصد. لذلك ، طالما أنه يمكن تمييز المحتوى الذي تم إنشاؤه عن المحتوى الحقيقي من خلال الوسائل التقنية ، فإن "الزيف" لن يمثل مشكلة بعد الآن.
الرابع هو العدل. وهذا يعني أنه في عملية تطوير وتدريب وتطبيق نماذج الذكاء الاصطناعي ، يجب ضمان الإنصاف وعدم التمييز ضد مجموعات معينة من المستخدمين. يتضمن هذا المعيار العديد من الجوانب. على وجه التحديد ، يتطلب أن المبادئ الأساسية للنموذج لا ينبغي أن تكون تمييزية في مرحلة التطوير ؛ في مرحلة التدريب ، يجب أن يحاول تجنب استخدام المواد التي قد تكون تمييزية ، ويجب استخدام الوسائل التقنية لاستخدام تصحيح مشاكل التمييز المحتملة ؛ في عملية التقديم ، لا ينبغي معاملة مجموعات مختلفة من الناس بشكل مختلف.
الخامس هو حماية الخصوصية. يتطلب هذا المعيار بشكل أساسي أن نموذج الذكاء الاصطناعي يجب أن يحترم المعلومات الشخصية للأشخاص والخصوصية أثناء عملية التدريب ، وتحسين حماية المعلومات ، ومحاولة عدم التعدي على المعلومات الشخصية والخصوصية أو الكشف عنها.
السادس مسؤول. أي عندما يحدث خطأ ما ، يجب أن يكون شخص ما مسؤولاً عن تلك المشاكل. بالطبع ، على الأقل حتى الآن ، لم يوقظ الذكاء الاصطناعي الوعي. لأنه لا يمكن اعتباره موضوعًا مثل البشر ولا يمكنه تحمل نفس المسؤوليات التي يتحملها البشر ، يجب أن يكون شخصًا يتحمل المسؤولية عنها. ولكن ما إذا كان يجب أن يتحمل مطورو الذكاء الاصطناعي أو مستخدمو الذكاء الاصطناعي هذه المسؤولية ، أو يجب أن يتقاسمها الطرفان ، لا يزال سؤالاً يستحق المناقشة.
وتجدر الإشارة إلى أنه بالإضافة إلى المعايير المذكورة أعلاه ، تشتمل العديد من الآداب أيضًا على معايير مثل الأمان (الآمن) ، والشمولية (الشمولية) ، والحق في النسيان (الحق في النسيان) ، ومنفعة البشرية. الفئة الذكاء الاصطناعي. في رأيي ، يمكن تلخيص هذه المحتويات بشكل أو بآخر في العديد من المعايير المذكورة أعلاه ، أو توضيحها من خلال المعايير المذكورة أعلاه. لذلك ، بسبب ضيق المساحة ، لن أكررها هنا.
** استخدام الجهود المشتركة للعديد من الأطراف لتحقيق ذكاء اصطناعي موثوق به **
ليس من السهل تحقيق الذكاء الاصطناعي الموثوق به ، فهو يتطلب التنسيق بين مختلف القوى مثل الحكومة والمؤسسات والمجتمع والتكنولوجيا.
بادئ ذي بدء ، تحتاج الحكومة ، بصفتها جهة تنظيمية ، إلى صياغة المعايير ذات الصلة وإرشادات التشغيل للذكاء الاصطناعي الموثوق به ، والإشراف على مطوري ومستخدمي الذكاء الاصطناعي بناءً على المعايير. من ناحية أخرى ، تحتاج إلى صياغة قواعد مختلفة وفقًا لسيناريوهات تطبيق مختلفة وفئات نموذجية مختلفة ، لا سيما لوضع أحكام واضحة حول بعض القواعد الأساسية التي يجب اتباعها ، وفي نفس الوقت القيام بعمل جيد للتواصل مع القائمة. القوانين واللوائح. بهذه الطريقة فقط يمكن لمطوري ومستخدمي الذكاء الاصطناعي أن يكون لديهم قواعد يجب اتباعها في الممارسة العملية دون الانزعاج من عدم اليقين غير الضروري. من ناحية أخرى ، يجب أن تلعب دورًا جيدًا في الإشراف وإنفاذ القانون. بالنسبة لبعض المشاكل البارزة أو الشائعة ، يجب التعامل معها في الوقت المناسب ، وذلك لوضع معايير مقابلة للصناعة. ما يجب الإشارة إليه هنا هو أنه نظرًا لأن التطور الحالي لتكنولوجيا الذكاء الاصطناعي لا يزال سريعًا للغاية ، فإنه لم يصل بعد إلى حالة مستقرة. وهذا يعني أنه يجب على الحكومة توخي الحذر عند التعامل مع المشكلات التي تنشأ أثناء هذه العملية. وعليها "ترك الرصاص يطير لفترة أطول" ، واتخاذ الإجراءات بعد رؤية الموقف بوضوح ، والاهتمام بالطرق والأساليب عند التعامل مع مشاكل. إذا بدأنا بشكل أعمى وأدارنا بسرعة كبيرة جدًا ، فقد يكون لذلك أيضًا تأثير سلبي على تطوير الذكاء الاصطناعي.
ثانيًا ، يجب على الشركات ذات الصلة صياغة خطط تنفيذ محددة ومعايير مفصلة للإدراك المحدد للذكاء الاصطناعي الموثوق به. بالمقارنة مع الحكومة ، فإن الشركات أقرب إلى السوق وتفهم التكنولوجيا بشكل أفضل. إنهم يعرفون أكثر عن الخصائص التقنية لنماذج الذكاء الاصطناعي ونقاط القوة والضعف فيها أكثر مما تعرفه الحكومات. لذلك ، إذا كانت مسؤولية الحكومة هي اقتراح إطار عمل كبير للذكاء الاصطناعي الموثوق به ، فيجب أن تكون الشركات هي الممارسين المحددين في هذا الإطار الكبير. ضمن هذا الإطار ، يجب عليهم الجمع بين خصائص السوق والتكنولوجيا لتقديم خطط أكثر تحديدًا وتنفيذها بطريقة ذاتية الانضباط.
ثالثًا ، يجب على المستخدمين أيضًا لعب دور التغذية الراجعة والمشرف ، وطرح مطالبهم الخاصة ، وتعكس مشاكلهم الخاصة ، والإشراف على تنفيذ المؤسسة للذكاء الاصطناعي الموثوق به. مع تعميم الذكاء الاصطناعي ، سيصبح كل فرد في المجتمع مستخدمًا وأصحاب مصلحة للذكاء الاصطناعي ، وسيكون لهم القول الأكبر في مصداقية الذكاء الاصطناعي. فقط عندما يتم التعبير عن أصواتهم بالكامل ، يكون الإعداد القياسي للذكاء الاصطناعي الموثوق به وتطوير التقنيات ذات الصلة هو الأكثر قيمة.
أخيرًا ، يجب أن نعتمد كليًا على قوة التكنولوجيا. القواعد ذات الصلة مهمة ، ولكن في التحليل النهائي ، لا يزال تحقيق الذكاء الاصطناعي الموثوق به يعتمد على قوة التكنولوجيا. في الواقع ، يمكن حل العديد من المشكلات التي يصعب حلها باستخدام القواعد بالوسائل التقنية. على سبيل المثال ، بعد جيل الذكاء الاصطناعي التوليدي ، كانت مشكلة "التشويه" مصدر قلق للسلطات التنظيمية ، ولكن في الواقع ، بالاعتماد على التقنيات الجديدة ، قد لا يكون من الصعب حل هذه المشكلة. على سبيل المثال ، قدمت Google سابقًا تقنية إلكترونية للعلامة المائية غير مرئية للعين المجردة ولكن يمكن التعرف عليها بواسطة الأجهزة. وتطبيقها على الصور أو مقاطع الفيديو التي تم إنشاؤها يمكن أن يضمن بشكل فعال إمكانية التحقق منها. بالنسبة إلى إمكانية التحقق من محتوى النص ، يمكنك اتباع مثال بحث New Bing (New Bing). عندما يقتبس محتوى معين ، فإنه سيرفق المستندات المرجعية بعد المحتوى الذي تم إنشاؤه ، بحيث يمكن للمستخدمين التعرف على أصالة المحتوى الذي تم إنشاؤه بأنفسهم وفقًا لاحتياجاتهم.
بشكل عام ، لا يعد تحقيق الذكاء الاصطناعي الموثوق به مهمة سهلة ، ولكن إذا استفدنا جيدًا من الجهود المشتركة لجميع الأطراف ، فسيتم تحقيق هذا الهدف بالتأكيد.