تُظهِر النماذج اللغوية واسعة النطاق قدرات استدلالية مدهشة في معالجة اللغة الطبيعية، لكن آلياتها الأساسية ليست واضحة بعد. مع التطبيق الواسع النطاق لنماذج اللغة واسعة النطاق، يعد توضيح آليات تشغيل النماذج أمرًا بالغ الأهمية لأمن التطبيق، وقيود الأداء، والتأثيرات الاجتماعية التي يمكن التحكم فيها.
في الآونة الأخيرة، أصدرت العديد من المؤسسات البحثية في الصين والولايات المتحدة (معهد نيوجيرسي للتكنولوجيا، وجامعة جونز هوبكنز، وجامعة ويك فورست، وجامعة جورجيا، وجامعة شنغهاي جياو تونغ، وبايدو، وما إلى ذلك) مراجعة مشتركة لتكنولوجيا قابلية تفسير النماذج الكبيرة، على التوالي، تتم مراجعة تقنيات التفسير لنماذج الضبط الدقيق التقليدية والنماذج الكبيرة جدًا المستندة إلى ing بشكل شامل، وتتم مناقشة معايير التقييم وتحديات البحث المستقبلية لتفسير النماذج.
* رابط الورق:
رابط جيثب:
**ما هي الصعوبات في تفسير النماذج الكبيرة؟ **
لماذا يصعب تفسير النماذج الكبيرة؟ لقد اجتذب الأداء المذهل لنماذج اللغات الكبيرة في مهام معالجة اللغة الطبيعية اهتمامًا واسع النطاق من المجتمع. وفي الوقت نفسه، تعد كيفية تفسير الأداء المذهل للنماذج الكبيرة عبر المهام أحد التحديات الملحة التي تواجه الأوساط الأكاديمية. تختلف عن التعلم الآلي التقليدي أو نماذج التعلم العميق، حيث تتيح بنية النماذج الكبيرة جدًا والمواد التعليمية الضخمة للنماذج الكبيرة أن تتمتع بقدرات قوية على التفكير والتعميم. تتضمن العديد من الصعوبات الرئيسية في توفير إمكانية الترجمة الفورية لنماذج اللغات الكبيرة (LLMs) ما يلي:
تعقيد النموذج مرتفع. تختلف نماذج LLM عن نماذج التعلم العميق أو نماذج التعلم الآلي الإحصائية التقليدية قبل عصر LLM، فهي ضخمة الحجم وتحتوي على مليارات من المعلمات، وعمليات تمثيلها الداخلي واستدلالها معقدة للغاية، ومن الصعب شرح مخرجاتها المحددة.
الاعتماد القوي على البيانات. تعتمد LLMs على مجموعة نصية واسعة النطاق أثناء عملية التدريب، وقد يؤثر التحيز والأخطاء وما إلى ذلك في بيانات التدريب هذه على النموذج، ولكن من الصعب الحكم بشكل كامل على تأثير جودة بيانات التدريب على النموذج.
*طبيعة الصندوق الأسود. نحن عادة نفكر في LLMs كنماذج الصندوق الأسود، حتى بالنسبة للنماذج مفتوحة المصدر، مثل Llama-2. ومن الصعب بالنسبة لنا أن نحكم بشكل صريح على سلسلة الاستدلال الداخلي وعملية صنع القرار. ولا يمكننا تحليلها إلا على أساس المدخلات والمخرجات، الأمر الذي يجعل قابلية التفسير صعبة.
عدم اليقين الناتج. غالبًا ما تكون مخرجات LLMs غير مؤكدة، وقد يتم إنتاج مخرجات مختلفة لنفس المدخلات، مما يزيد أيضًا من صعوبة التفسير.
عدم كفاية مؤشرات التقييم. إن مؤشرات التقييم التلقائي الحالية لأنظمة الحوار ليست كافية لتعكس بشكل كامل قابلية تفسير النموذج، وهناك حاجة إلى المزيد من مؤشرات التقييم التي تأخذ في الاعتبار الفهم البشري.
نموذج التدريب للنماذج الكبيرة
من أجل تلخيص قابلية تفسير النماذج الكبيرة بشكل أفضل، قمنا بتقسيم نماذج التدريب للنماذج الكبيرة في BERT والمستويات الأعلى إلى نوعين: 1) نموذج الضبط الدقيق التقليدي؛ 2) النموذج القائم على ing.
** نموذج الضبط الدقيق التقليدي **
بالنسبة لنموذج الضبط الدقيق التقليدي، يتم أولاً تدريب نموذج اللغة الأساسي مسبقًا على مكتبة نصية أكبر غير مسماة، ثم يتم ضبطه بدقة من خلال مجموعات البيانات المصنفة من مجال معين. تشمل هذه النماذج الشائعة BERT، وRoBERTa، وELECTRA، وDeBERTa، وما إلى ذلك.
** النموذج القائم على جي **
يطبق النموذج القائم على ing التعلم بدون طلقة أو طلقة قليلة باستخدام s. مثل نموذج الضبط الدقيق التقليدي، يحتاج النموذج الأساسي إلى التدريب المسبق. ومع ذلك، عادةً ما يتم تنفيذ الضبط الدقيق بناءً على النموذج التعليمي من خلال ضبط التعليمات والتعلم المعزز من ردود الفعل البشرية (RLHF). تشمل هذه النماذج الشائعة GPT-3.5، وGPT 4، وClaude، وLLaMA-2-Chat، وAlpaca، وVicuna، وما إلى ذلك. عملية التدريب هي كما يلي:
شرح النموذج يعتمد على نموذج الضبط الدقيق التقليدي
يتضمن شرح النموذج المبني على نموذج الضبط الدقيق التقليدي شرحًا للتنبؤات الفردية (تفسير محلي) وشرحًا لمكونات المستوى الهيكلي للنموذج مثل الخلايا العصبية وطبقات الشبكة وما إلى ذلك (تفسير عالمي).
شرح جزئي
يشرح التفسير المحلي تنبؤات العينة الواحدة. تتضمن طرق الشرح الخاصة بها إسناد الميزة، والشرح المبني على الاهتمام، والشرح المبني على الأمثلة، وشرح اللغة الطبيعية.
1. يهدف إسناد الميزة إلى قياس مدى صلة كل ميزة إدخال (مثل الكلمة والعبارة ونطاق النص) بتنبؤات النماذج. يمكن تصنيف طرق إسناد الميزة على النحو التالي:
استنادًا إلى تفسير الاضطراب، لاحظ التأثير على نتائج المخرجات عن طريق تعديل ميزات إدخال محددة؛
بناءً على تفسير التدرج، يتم استخدام التفاضل الجزئي للمخرجات للمدخلات كمؤشر أهمية للمدخلات المقابلة؛
النماذج البديلة، باستخدام نماذج بسيطة يمكن للإنسان فهمها لتناسب المخرجات الفردية للنماذج المعقدة للحصول على أهمية كل مدخل؛
التقنيات القائمة على التحلل والتي تهدف إلى تحليل درجات ارتباط الميزات خطيًا.
التفسير القائم على الانتباه: غالبًا ما يُستخدم الانتباه كوسيلة للتركيز على الأجزاء الأكثر صلة بالمدخلات، لذلك قد يتعلم الانتباه المعلومات ذات الصلة التي يمكن استخدامها لشرح التنبؤات. تشمل التفسيرات الشائعة المتعلقة بالانتباه ما يلي:
تقنية تصور الانتباه لملاحظة التغيرات في درجات الانتباه بشكل حدسي على مقاييس مختلفة؛
التفسير القائم على الوظيفة، مثل الاشتقاق الجزئي للمخرجات مقابل الانتباه. ومع ذلك، فإن استخدام الاهتمام كمنظور بحثي لا يزال مثيرًا للجدل في المجتمع الأكاديمي.
يقوم الشرح المبني على العينة بالكشف عن النموذج وشرحه من منظور الحالات الفردية، وهو ينقسم بشكل أساسي إلى: العينات المتعارضة والعينات المضادة.
العينات المتعارضة هي بيانات يتم إنشاؤها بناءً على خصائص النموذج الحساسة جدًا للتغيرات الصغيرة، وفي معالجة اللغة الطبيعية يتم الحصول عليها عادةً عن طريق تعديل النص، وعادةً ما تؤدي تحويلات النص التي يصعب على البشر تمييزها إلى تنبؤات مختلفة بواسطة نموذج.
يتم الحصول على عينات مضادة عن طريق تشويه النص مثل النفي، وهو عادة اختبار لقدرة النموذج على الاستدلال السببي.
يستخدم شرح اللغة الطبيعية النص الأصلي والتفسيرات المعنونة يدويًا للتدريب النموذجي، بحيث يمكن للنموذج إنشاء عملية اتخاذ القرار لنموذج شرح اللغة الطبيعية.
شرح عالمي
يهدف التفسير العالمي إلى تقديم شرح أعلى ترتيبًا لآلية عمل نموذج كبير من مستوى النموذج بما في ذلك الخلايا العصبية والطبقات المخفية والكتل الأكبر. يستكشف بشكل أساسي المعرفة الدلالية المستفادة في مكونات الشبكة المختلفة.
الترجمة الفورية المبنية على المسبار تعتمد تقنية الترجمة المسبارية بشكل أساسي على اكتشاف المصنف. من خلال تدريب مصنف سطحي على نموذج مدرب مسبقًا أو نموذج مضبوط بدقة، ثم تقييمه على مجموعة بيانات محظورة، يمكن للمصنف تحديد ميزات اللغة. أو القدرة على التفكير.
تنشيط الخلايا العصبية يأخذ تحليل تنشيط الخلايا العصبية التقليدي في الاعتبار فقط جزءًا من الخلايا العصبية المهمة، ثم يتعلم العلاقة بين الخلايا العصبية والسمات الدلالية. في الآونة الأخيرة، تم استخدام GPT-4 أيضًا لشرح الخلايا العصبية، فبدلاً من اختيار بعض الخلايا العصبية للتفسير، يمكن استخدام GPT-4 لشرح جميع الخلايا العصبية.
يقوم التفسير المبني على المفهوم بتخطيط المدخلات لمجموعة من المفاهيم ثم يشرح النموذج عن طريق قياس أهمية المفاهيم للتنبؤات.
** شرح النموذج على أساس نموذج جي **
يتطلب شرح النموذج المعتمد على نموذج ing شرحين منفصلين للنموذج الأساسي والنموذج المساعد لتمييز قدرات النموذجين واستكشاف مسار التعلم النموذجي. وتشمل القضايا التي تم استكشافها بشكل رئيسي ما يلي: فوائد تقديم تفسيرات لنماذج التعلم قليل اللقطات، وفهم أصل التعلم قليل اللقطات وقدرات سلسلة التفكير.
شرح النموذج الأساسي
فوائد التفسيرات للتعلم النموذجي اكتشف ما إذا كانت التفسيرات مفيدة للتعلم النموذجي في سياق التعلم قليل اللقطات.
يستكشف التعلم الوضعي آلية التعلم الظرفي في النماذج الكبيرة، ويميز الفرق بين التعلم الظرفي في النماذج الكبيرة والنماذج المتوسطة.
تسلسل الأفكار اكتشف الأسباب التي تجعل تسلسل الأفكار يؤدي إلى تحسين أداء النموذج.
شرح النموذج المساعد
عادة ما يتم تدريب نماذج مساعد الأدوار الدقيقة مسبقًا للحصول على المعرفة الدلالية العامة، ثم اكتساب المعرفة بالمجال من خلال التعلم الخاضع للإشراف والتعلم المعزز. المرحلة التي تأتي فيها معرفة النموذج المساعد بشكل أساسي لا تزال بحاجة إلى الدراسة.
لا تزال دقة ومصداقية تنبؤات النماذج الكبيرة بالهلوسة والشكوك من القضايا المهمة في الأبحاث الحالية. على الرغم من القدرات الاستدلالية القوية التي تتمتع بها النماذج الكبيرة، إلا أن نتائجها غالبًا ما تعاني من التضليل والهلوسة. ويجلب عدم اليقين هذا في التنبؤ تحديات هائلة لتطبيقه على نطاق واسع.
تقييم الشروحات النموذجية
تشمل مؤشرات التقييم لتفسير النموذج المعقولية والإخلاص والاستقرار والمتانة وما إلى ذلك. تتحدث الورقة بشكل رئيسي عن بعدين معنيين على نطاق واسع: 1) العقلانية تجاه البشر، 2) الإخلاص للمنطق الداخلي للنموذج.
ركزت تقييمات تفسيرات نماذج الضبط الدقيق التقليدية بشكل أساسي على التفسيرات المحلية. غالبًا ما تتطلب المعقولية إجراء تقييم قياس لتفسيرات النماذج مقابل التفسيرات المشروحة بواسطة الإنسان مقابل المعايير المصممة. ويولي الإخلاص المزيد من الاهتمام لأداء المؤشرات الكمية. وبما أن المؤشرات المختلفة تركز على جوانب مختلفة من النموذج أو البيانات، فلا يزال هناك نقص في المعايير الموحدة لقياس الإخلاص. يتطلب التقييم بناءً على تفسير النموذج مزيدًا من البحث.
تحديات البحث المستقبلية
** 1. عدم وجود تفسير فعال وصحيح. ** التحدي يأتي من جانبين: 1) عدم وجود معايير لتصميم تفسيرات فعالة؛ 2) عدم وجود تفسيرات فعالة يؤدي إلى عدم وجود دعم لتقييم التفسيرات.
**2- أصل الظاهرة غير معروف. **يمكن استكشاف قدرة النماذج الكبيرة على الظهور من منظور النموذج والبيانات على التوالي، ومن منظور النموذج، 1) بنية النموذج التي تسبب ظاهرة الظهور، 2) الحد الأدنى لمقياس النموذج والتعقيد الذي يتمتع بأداء فائق في المهام عبر اللغات. من منظور البيانات، 1) مجموعة فرعية من البيانات التي تحدد تنبؤًا محددًا؛ 2) العلاقة بين القدرة الناشئة والتدريب النموذجي وتلوث البيانات؛ 3) تأثير جودة وكمية بيانات التدريب على التأثيرات الخاصة بالتدريب المسبق. التدريب والضبط.
**3. الفرق بين نموذج الضبط الدقيق ونموذج جي. ** إن الأداء المختلف للاثنين في التوزيع وخارج التوزيع يعني طرقًا مختلفة للاستدلال. 1) الاختلافات في نماذج الاستدلال عندما تكون البيانات قيد التوزيع؛ 2) مصادر الاختلافات في قوة النموذج عندما يتم توزيع البيانات بشكل مختلف.
**4. مشكلة تعلم الاختصارات للنماذج الكبيرة. ** في ظل النموذجين، توجد مشكلة التعلم المختصر للنموذج في جوانب مختلفة. على الرغم من أن النماذج الكبيرة تحتوي على مصادر بيانات وفيرة، إلا أن مشكلة التعلم بالاختصار يتم تخفيفها نسبيًا. لا يزال توضيح آلية تشكيل التعلم المختصر واقتراح الحلول أمرًا مهمًا لتعميم النموذج.
** 5. التكرار المتعمد. **مشكلة تكرار وحدات الانتباه موجودة على نطاق واسع في كلا النموذجين، ويمكن أن توفر دراسة تكرار الانتباه حلاً لتقنية ضغط النماذج.
** 6. السلامة والأخلاق. ** تعد إمكانية تفسير النماذج الكبيرة أمرًا بالغ الأهمية للتحكم في النموذج والحد من التأثير السلبي للنموذج. مثل التحيز والظلم وتلوث المعلومات والتلاعب الاجتماعي وغيرها من القضايا. إن بناء نماذج ذكاء اصطناعي قابلة للتفسير يمكن أن يتجنب بشكل فعال المشاكل المذكورة أعلاه ويشكل أنظمة ذكاء اصطناعي أخلاقية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
هل يمكنك فرز إمكانية تفسير النماذج الكبيرة؟ المراجعة هنا، مقال واحد للإجابة على أسئلتك
تُظهِر النماذج اللغوية واسعة النطاق قدرات استدلالية مدهشة في معالجة اللغة الطبيعية، لكن آلياتها الأساسية ليست واضحة بعد. مع التطبيق الواسع النطاق لنماذج اللغة واسعة النطاق، يعد توضيح آليات تشغيل النماذج أمرًا بالغ الأهمية لأمن التطبيق، وقيود الأداء، والتأثيرات الاجتماعية التي يمكن التحكم فيها.
في الآونة الأخيرة، أصدرت العديد من المؤسسات البحثية في الصين والولايات المتحدة (معهد نيوجيرسي للتكنولوجيا، وجامعة جونز هوبكنز، وجامعة ويك فورست، وجامعة جورجيا، وجامعة شنغهاي جياو تونغ، وبايدو، وما إلى ذلك) مراجعة مشتركة لتكنولوجيا قابلية تفسير النماذج الكبيرة، على التوالي، تتم مراجعة تقنيات التفسير لنماذج الضبط الدقيق التقليدية والنماذج الكبيرة جدًا المستندة إلى ing بشكل شامل، وتتم مناقشة معايير التقييم وتحديات البحث المستقبلية لتفسير النماذج.
لماذا يصعب تفسير النماذج الكبيرة؟ لقد اجتذب الأداء المذهل لنماذج اللغات الكبيرة في مهام معالجة اللغة الطبيعية اهتمامًا واسع النطاق من المجتمع. وفي الوقت نفسه، تعد كيفية تفسير الأداء المذهل للنماذج الكبيرة عبر المهام أحد التحديات الملحة التي تواجه الأوساط الأكاديمية. تختلف عن التعلم الآلي التقليدي أو نماذج التعلم العميق، حيث تتيح بنية النماذج الكبيرة جدًا والمواد التعليمية الضخمة للنماذج الكبيرة أن تتمتع بقدرات قوية على التفكير والتعميم. تتضمن العديد من الصعوبات الرئيسية في توفير إمكانية الترجمة الفورية لنماذج اللغات الكبيرة (LLMs) ما يلي:
نموذج التدريب للنماذج الكبيرة
من أجل تلخيص قابلية تفسير النماذج الكبيرة بشكل أفضل، قمنا بتقسيم نماذج التدريب للنماذج الكبيرة في BERT والمستويات الأعلى إلى نوعين: 1) نموذج الضبط الدقيق التقليدي؛ 2) النموذج القائم على ing.
** نموذج الضبط الدقيق التقليدي **
بالنسبة لنموذج الضبط الدقيق التقليدي، يتم أولاً تدريب نموذج اللغة الأساسي مسبقًا على مكتبة نصية أكبر غير مسماة، ثم يتم ضبطه بدقة من خلال مجموعات البيانات المصنفة من مجال معين. تشمل هذه النماذج الشائعة BERT، وRoBERTa، وELECTRA، وDeBERTa، وما إلى ذلك.
** النموذج القائم على جي **
يطبق النموذج القائم على ing التعلم بدون طلقة أو طلقة قليلة باستخدام s. مثل نموذج الضبط الدقيق التقليدي، يحتاج النموذج الأساسي إلى التدريب المسبق. ومع ذلك، عادةً ما يتم تنفيذ الضبط الدقيق بناءً على النموذج التعليمي من خلال ضبط التعليمات والتعلم المعزز من ردود الفعل البشرية (RLHF). تشمل هذه النماذج الشائعة GPT-3.5، وGPT 4، وClaude، وLLaMA-2-Chat، وAlpaca، وVicuna، وما إلى ذلك. عملية التدريب هي كما يلي:
يتضمن شرح النموذج المبني على نموذج الضبط الدقيق التقليدي شرحًا للتنبؤات الفردية (تفسير محلي) وشرحًا لمكونات المستوى الهيكلي للنموذج مثل الخلايا العصبية وطبقات الشبكة وما إلى ذلك (تفسير عالمي).
شرح جزئي
يشرح التفسير المحلي تنبؤات العينة الواحدة. تتضمن طرق الشرح الخاصة بها إسناد الميزة، والشرح المبني على الاهتمام، والشرح المبني على الأمثلة، وشرح اللغة الطبيعية.
شرح عالمي
يهدف التفسير العالمي إلى تقديم شرح أعلى ترتيبًا لآلية عمل نموذج كبير من مستوى النموذج بما في ذلك الخلايا العصبية والطبقات المخفية والكتل الأكبر. يستكشف بشكل أساسي المعرفة الدلالية المستفادة في مكونات الشبكة المختلفة.
** شرح النموذج على أساس نموذج جي **
يتطلب شرح النموذج المعتمد على نموذج ing شرحين منفصلين للنموذج الأساسي والنموذج المساعد لتمييز قدرات النموذجين واستكشاف مسار التعلم النموذجي. وتشمل القضايا التي تم استكشافها بشكل رئيسي ما يلي: فوائد تقديم تفسيرات لنماذج التعلم قليل اللقطات، وفهم أصل التعلم قليل اللقطات وقدرات سلسلة التفكير.
شرح النموذج الأساسي
شرح النموذج المساعد
تقييم الشروحات النموذجية
تشمل مؤشرات التقييم لتفسير النموذج المعقولية والإخلاص والاستقرار والمتانة وما إلى ذلك. تتحدث الورقة بشكل رئيسي عن بعدين معنيين على نطاق واسع: 1) العقلانية تجاه البشر، 2) الإخلاص للمنطق الداخلي للنموذج.
ركزت تقييمات تفسيرات نماذج الضبط الدقيق التقليدية بشكل أساسي على التفسيرات المحلية. غالبًا ما تتطلب المعقولية إجراء تقييم قياس لتفسيرات النماذج مقابل التفسيرات المشروحة بواسطة الإنسان مقابل المعايير المصممة. ويولي الإخلاص المزيد من الاهتمام لأداء المؤشرات الكمية. وبما أن المؤشرات المختلفة تركز على جوانب مختلفة من النموذج أو البيانات، فلا يزال هناك نقص في المعايير الموحدة لقياس الإخلاص. يتطلب التقييم بناءً على تفسير النموذج مزيدًا من البحث.
تحديات البحث المستقبلية
** 1. عدم وجود تفسير فعال وصحيح. ** التحدي يأتي من جانبين: 1) عدم وجود معايير لتصميم تفسيرات فعالة؛ 2) عدم وجود تفسيرات فعالة يؤدي إلى عدم وجود دعم لتقييم التفسيرات.
**2- أصل الظاهرة غير معروف. **يمكن استكشاف قدرة النماذج الكبيرة على الظهور من منظور النموذج والبيانات على التوالي، ومن منظور النموذج، 1) بنية النموذج التي تسبب ظاهرة الظهور، 2) الحد الأدنى لمقياس النموذج والتعقيد الذي يتمتع بأداء فائق في المهام عبر اللغات. من منظور البيانات، 1) مجموعة فرعية من البيانات التي تحدد تنبؤًا محددًا؛ 2) العلاقة بين القدرة الناشئة والتدريب النموذجي وتلوث البيانات؛ 3) تأثير جودة وكمية بيانات التدريب على التأثيرات الخاصة بالتدريب المسبق. التدريب والضبط.
**3. الفرق بين نموذج الضبط الدقيق ونموذج جي. ** إن الأداء المختلف للاثنين في التوزيع وخارج التوزيع يعني طرقًا مختلفة للاستدلال. 1) الاختلافات في نماذج الاستدلال عندما تكون البيانات قيد التوزيع؛ 2) مصادر الاختلافات في قوة النموذج عندما يتم توزيع البيانات بشكل مختلف.
**4. مشكلة تعلم الاختصارات للنماذج الكبيرة. ** في ظل النموذجين، توجد مشكلة التعلم المختصر للنموذج في جوانب مختلفة. على الرغم من أن النماذج الكبيرة تحتوي على مصادر بيانات وفيرة، إلا أن مشكلة التعلم بالاختصار يتم تخفيفها نسبيًا. لا يزال توضيح آلية تشكيل التعلم المختصر واقتراح الحلول أمرًا مهمًا لتعميم النموذج.
** 5. التكرار المتعمد. **مشكلة تكرار وحدات الانتباه موجودة على نطاق واسع في كلا النموذجين، ويمكن أن توفر دراسة تكرار الانتباه حلاً لتقنية ضغط النماذج.
** 6. السلامة والأخلاق. ** تعد إمكانية تفسير النماذج الكبيرة أمرًا بالغ الأهمية للتحكم في النموذج والحد من التأثير السلبي للنموذج. مثل التحيز والظلم وتلوث المعلومات والتلاعب الاجتماعي وغيرها من القضايا. إن بناء نماذج ذكاء اصطناعي قابلة للتفسير يمكن أن يتجنب بشكل فعال المشاكل المذكورة أعلاه ويشكل أنظمة ذكاء اصطناعي أخلاقية.