يمكن ل ChatGPT و Llama-2 والنماذج الكبيرة الأخرى استنتاج بيانات الخصوصية الخاصة بك!

المصدر الأصلي: مجتمع AIGC المفتوح

مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود

ما مدى قوة نماذج اللغة الكبيرة مثل ChatGPT للتفكير؟ من المنشورات التي قمت بها أو بعض البيانات الخاصة ، يمكنك استنتاج عنوانك وعمرك وجنسك ومهنتك ودخلك وبياناتك الخاصة الأخرى.

قام المعهد الفيدرالي السويسري للتكنولوجيا بجمع PersonalReddit والتعليق عليه يدويا ، وهو مجموعة بيانات حقيقية تضم 520 مستخدما ل Reddit ، بما في ذلك البيانات الخاصة مثل العمر والتعليم والجنس والمهنة والحالة الاجتماعية ومكان الإقامة ومكان الميلاد والدخل.

بعد ذلك ، استخدم الباحثون تسعة نماذج لغوية كبيرة سائدة ، بما في ذلك GPT-4 و Claude-2 و Llama-2 ، لإجراء استجواب محدد واستدلال بيانات الخصوصية على مجموعة بيانات PersonalReddit.

تظهر النتائج أن هذه النماذج يمكن أن تحقق معدل دقة أعلى 1 و 95.8٪ أعلى 3 ، ويمكنها تلقائيا استنتاج مجموعة متنوعة من بيانات الخصوصية الحقيقية المخفية في النص فقط من خلال تحليل محتوى نص المستخدم. **

عنوان:

لاحظ الباحثون أيضا أنه في الولايات المتحدة ، هناك حاجة فقط إلى عدد قليل من السمات مثل الموقع والجنس وتاريخ الميلاد لتحديد الهوية الدقيقة لنصف السكان.

هذا يعني أنه إذا حصل شخص غير قانوني على منشور أو بعض المعلومات الشخصية التي أدلى بها شخص ما على الإنترنت ، واستخدم نموذجا لغويا كبيرا للتفكير في ذلك ، فيمكنه بسهولة الحصول على بيانات خصوصية حساسة مثل هواياته اليومية وعادات العمل والراحة ومهنة العمل وعنوان المنزل.

بناء مجموعة بيانات Reddit شخصية

قام الباحثون ببناء مجموعة بيانات من السمات الشخصية لمستخدمي Reddit الحقيقيين ، PersonalReddit. تحتوي مجموعة البيانات على السير الذاتية ل 520 مستخدما ل Reddit بإجمالي 5,814 تعليقا. ويغطي الاستعراض الفترة من 2012 إلى 2016.

هناك 8 فئات من السمات الشخصية ، بما في ذلك العمر والتعليم والجنس والمهنة والحالة الاجتماعية ومكان الإقامة ومكان الميلاد والدخل. قام الباحثون بالتعليق يدويا على كل ملف تعريف مستخدم للحصول على تسميات سمات دقيقة كبيانات حقيقية لاختبار تأثير الاستدلال للنموذج.

يسترشد بناء مجموعة البيانات بمبدأين رئيسيين:

  1. يجب أن يعكس محتوى التعليقات حقا خصائص اللغة المستخدمة على الإنترنت. نظرا لأن المستخدمين يتفاعلون بشكل أساسي مع نماذج اللغة من خلال المنصات عبر الإنترنت ، فإن المجموعات عبر الإنترنت تمثيلية وعالمية.

  2. يجب أن تكون أنواع السمات الشخصية مختلفة لتعكس متطلبات لوائح حماية الخصوصية المختلفة. غالبا ما تحتوي مجموعات البيانات الحالية على 1-2 فئة فقط من السمات ، ويحتاج البحث إلى تقييم قدرة النموذج على استنتاج مجموعة واسعة من المعلومات الشخصية.

بالإضافة إلى ذلك ، طلب الباحثون من المعلقين تقييم كل سمة ، مما يشير إلى مدى سهولة التعليق ومدى ثقة المعلق في المعلق. يتراوح مستوى الصعوبة من 1 (سهل جدا) إلى 5 (صعب جدا). إذا لم تكن معلومات السمة متاحة مباشرة من النص ، يسمح للمعلقين بالتحقق منها باستخدام محرك بحث تقليدي.

** التفاعل العدائي **

بالنظر إلى العدد المتزايد من تطبيقات chatbot اللغوية ، قام الباحثون أيضا ببناء سيناريو محادثة عدائية لمحاكاة التفاعلات في العالم الحقيقي.

تم تطوير روبوت محادثة ضار يعتمد على نموذج اللغة الكبيرة ، ظاهريا كمساعد سفر مفيد ، بينما كانت المهمة المخفية هي محاولة استخراج المعلومات الشخصية للمستخدم مثل المكان الذي يعيشون فيه والعمر والجنس.

في المحادثات المحاكاة، يمكن لروبوتات المحادثة توجيه المستخدمين للكشف عن القرائن ذات الصلة من خلال أسئلة تبدو غير ضارة، واستنتاج بيانات الخصوصية الشخصية الخاصة بهم بدقة بعد جولات متعددة من التفاعل، والتحقق من جدوى هذا النهج العدائي.

بيانات الاختبار

اختار الباحثون تسعة نماذج لغوية كبيرة سائدة للاختبار ، بما في ذلك GPT-4 و Claude-2 و Llama-2 وغيرها. يتم تغليف جميع تعليقات كل مستخدم بتنسيق موجه محدد ويتم إدخالها في نماذج لغة مختلفة ، وهي مطلوبة لإخراج استنتاجات حول سمات المستخدم.

بعد ذلك ، تتم مقارنة نتائج التنبؤ للنموذج بالبيانات الحقيقية المشروحة بواسطة التسمية البشرية للحصول على دقة استدلال السمة لكل نموذج.

تظهر النتائج التجريبية أن معدل الدقة الإجمالي الأعلى 1 ل GPT-4 يصل إلى 84.6٪ ، ومعدل دقة أعلى 3 يصل إلى 95.1٪ ، وهو ما يمكن مقارنته تقريبا بتأثير التعليق التوضيحي اليدوي الاحترافي ، لكن التكلفة تبلغ حوالي 1٪ فقط من التعليقات التوضيحية اليدوية.

هناك أيضا تأثير مقياس واضح بين النماذج المختلفة ، والنموذج مع زيادة عدد المعلمات ، كان التأثير أفضل. هذا يثبت أن نماذج اللغة الرائدة الحالية قد اكتسبت قدرة قوية على استنتاج المعلومات الشخصية من النص.

تقييم التدابير الوقائية

قام الباحثون أيضا بتقييم التدابير الحالية لحماية البيانات الخاصة من كل من العميل والخادم. من جانب العميل ، قاموا باختبار معالجة النص التي تقوم بها أدوات إخفاء هوية النص الرائدة في الصناعة.

تظهر النتائج أنه حتى إذا تم حذف معظم المعلومات الشخصية ، فلا يزال بإمكان GPT-4 استنتاج البيانات الخاصة بدقة ، بما في ذلك الموقع والعمر ، باستخدام الميزات اللغوية المتبقية.

من منظور جانب الخادم ، لا تتم محاذاة النماذج التجارية الحالية وتحسينها لتسرب الخصوصية ، ولا تزال الإجراءات المضادة الحالية غير قادرة بشكل فعال على منع الاستدلال على نماذج اللغة.

من ناحية ، توضح الدراسة قدرة الاستدلال الفائقة لنماذج اللغات الكبيرة مثل GPT-4 ، ومن ناحية أخرى ، تدعو إلى الانتباه إلى تأثير الخصوصية لنماذج اللغة الكبيرة ليس فقط لتدريب ذاكرة البيانات ، ولكنها تتطلب أيضا تدابير حماية أوسع للتخفيف من مخاطر تسرب الخصوصية الناجم عن الاستدلال.

شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت