دراسة: شعبية "الدعم العصبي" مبالغ فيها

robot
إنشاء الملخص قيد التقدم

الذكاء الاصطناعي لن يحل محل التعاطف: شعبية "الدعم العصبي" مبالغ فيها

يتوجه المستخدمون إلى الروبوت الدردشة Claude للحصول على الدعم العاطفي والنصائح الشخصية في 2.9% من الحالات. هذه هي البيانات التي تشير إليها دراسة Anthropic.

«تبلغ الألعاب الودية والألعاب الدورانية مجتمعة أقل من 0.5٪ من المحادثات»، كما جاء في رسالة الشركة الناشئة.

كانت الشركة تهدف إلى معرفة كيف يتم استخدام الذكاء الاصطناعي في "المحادثات العاطفية" - الحوارات عندما يتوجه المستخدم إلى دردشة الروبوت للحصول على استشارة، أو تواصل صديق، أو نصيحة بشأن العلاقات، أو التدريب.

بعد تحليل 4.5 مليون محادثة، توصلت إلى استنتاج أن الغالبية العظمى من المستخدمين يستخدمون Claude للعمل وزيادة الإنتاجية وإنشاء المحتوى.

ما الذي يثير اهتمام المستخدمين في "المحادثات العاطفية". البيانات: Anthropic. في الوقت نفسه، اكتشفوا في Anthropic أن الناس يستخدمون الذكاء الاصطناعي بشكل متزايد للحصول على نصائح بين الأشخاص، والتوجيه، والاستشارات. إنهم مهتمون بتحسين صحتهم النفسية، وتطوير الذات والمهنية، واكتساب مهارات جديدة.

«لقد لاحظنا أيضًا أنه في المحادثات الأطول، تتحول الاستشارات أو التدريب أحيانًا إلى محادثات ودية - على الرغم من أن هذا لم يكن السبب الأولي الذي جعل شخصًا ما يتوجه إلى Claude»، كتبت الشركة

أقل من 0.1% من جميع المحادثات مرتبطة بالألعاب الدورانية الرومانسية أو الجنسية.

«استنتاجاتنا تتوافق مع نتائج أبحاث MIT Media Lab وOpenAI، التي كشفت أيضًا عن مستوى منخفض من الانخراط العاطفي في ChatGPT. على الرغم من أن مثل هذه المحادثات تحدث بشكل متكرر وتستحق دراسة دقيقة عند تصميم السياسات واتخاذ القرارات، إلا أنها لا تزال تشكل نسبة صغيرة نسبيًا من إجمالي عدد المستخدمين»، كتبت الشركة.

تذكير، في يونيو، اكتشف باحثو Anthropic أن الذكاء الاصطناعي قادر على التهديد بالكشف عن البيانات السرية للشركة وحتى التسبب في وفاة شخص في ظروف طارئة.

شاهد النسخة الأصلية
المحتوى هو للمرجعية فقط، وليس دعوة أو عرضًا. لا يتم تقديم أي مشورة استثمارية أو ضريبية أو قانونية. للمزيد من الإفصاحات حول المخاطر، يُرجى الاطلاع على إخلاء المسؤولية.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت