* مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود *
أداة جديدة تسمح للفنانين بإضافة تغييرات غير مرئية إلى وحدات البكسل في أعمالهم الفنية قبل تحميلها عبر الإنترنت ، مما يتسبب في تعطل النموذج التوليدي بطريقة فوضوية وغير متوقعة إذا تم تضمين الصور في مجموعة التدريب الذكاء الاصطناعي.
تم تصميم الأداة ، المسماة "Nightshade" ، للرد على الشركات الذكاء الاصطناعي التي تستخدم أعمال الفنانين لتدريب النماذج دون إذن المبدع. قد يؤدي استخدامها "لتسميم" بيانات التدريب هذه إلى الإضرار بالتكرارات المستقبلية لنماذج توليد الصور ، مثل DALL-E و Midjourney و Stable Diffusion ، مما يؤدي إلى خلط بعض مخرجاتها - الكلاب في القطط ، والسيارات في الأبقار ، وما إلى ذلك. تم تقديم الدراسة إلى مؤتمر أمن الكمبيوتر Usenix لمراجعة الأقران.
واجهت شركات الذكاء الاصطناعي مثل OpenAI و Meta و Google و Stability الذكاء الاصطناعي سلسلة من الدعاوى القضائية من فنانين يدعون أن موادهم المحمية بحقوق الطبع والنشر ومعلوماتهم الشخصية قد سرقت دون موافقة أو تعويض. وقال بن تشاو، الأستاذ في جامعة شيكاغو الذي قاد الفريق المؤسس ل Nightshade، إنه يأمل أن يوفر رادعا قويا لعدم احترام حقوق الطبع والنشر والملكية الفكرية للفنانين، مما يساعد على تحويل ميزان القوى من الشركات الذكاء الاصطناعي إلى الفنانين. لم تستجب Meta و Google و Stability الذكاء الاصطناعي و OpenAI لطلب MIT Technology Review للتعليق.
كما طور فريق تشاو أداة ، Glaze ، تسمح للفنانين "بإخفاء" أسلوبهم الشخصي لمنع السرقة من قبل الشركات الذكاء الاصطناعي. إنه يعمل بشكل مشابه ل Nightshade: تغيير وحدات البكسل في الصورة بطرق خفية غير مرئية للعين البشرية ، والتلاعب بنماذج التعلم الآلي لتفسير الصورة على أنها شيء مختلف عما تظهره بالفعل.
يعتزم الفريق دمج Nightshade في Glaze ، ويمكن للفنانين اختيار ما إذا كانوا سيستخدمون أداة يمكنها "تسميم" البيانات أم لا. يعتزم الفريق أيضا فتح المصدر Nightshade ، مما يعني أنه يمكن لأي شخص تعديله وإنشاء نسخته الخاصة. يقول تشاو إنه كلما زاد عدد الأشخاص الذين يستخدمونها ويصنعون نسختهم الخاصة ، زادت قوة الأداة. قد تحتوي مجموعات البيانات الخاصة بنماذج الذكاء الاصطناعي الكبيرة على مليارات الصور ، لذلك كلما زادت الصور السامة في النموذج ، زاد الضرر الناجم عن التكنولوجيا.
الهجمات المستهدفة
استغل Nightshade ثغرة أمنية في نماذج الذكاء الاصطناعي التوليدية التي تم تدريبها على كمية كبيرة من البيانات - في هذه الحالة ، الصور التي تم البحث عنها على الإنترنت. الباذنجان يدمر هذه الصور.
يمكن للفنانين الذين يرغبون في تحميل أعمالهم عبر الإنترنت ولكنهم لا يريدون أن يتم كشط صورتهم من قبل الشركات الذكاء الاصطناعي تحميلها على Glaze واختيار تغطيتها بأسلوب فني مختلف عن أسلوبهم. يمكنهم بعد ذلك أيضا اختيار استخدام Nightshade. بمجرد أن يأخذ مطورو الذكاء الاصطناعي المزيد من البيانات من الإنترنت لتعديل نماذج الذكاء الاصطناعي الحالية أو بناء نماذج جديدة ، تشق هذه العينات السامة طريقها إلى مجموعة بيانات النموذج ، مما يتسبب في فشل النموذج.
على سبيل المثال ، تتلاعب عينة من بيانات التسمم بالنموذج للاعتقاد بأن صورة القبعة هي كعكة وأن صورة حقيبة اليد هي محمصة. من الصعب تنظيف بيانات التسمم لأنها تتطلب من شركات التكنولوجيا العثور على كل عينة تالفة وحذفها بشق الأنفس.
اختبر الباحثون الهجوم على أحدث طراز من Stable Diffusion ونموذج الذكاء الاصطناعي الخاص بهم الذي تم تدريبه من الصفر. عندما أطعموا Stable Diffusion 50 صورة فقط للكلاب المسمومة وسمحوا لها بإنشاء صورهم الخاصة للكلاب ، بدأ الناتج يصبح غريبا - الكثير من الأطراف ، وجه كرتوني. بعد إدخال 300 عينة مسمومة ، يمكن للمهاجم التلاعب بالانتشار المستقر لتوليد صور للكلاب التي تشبه القطط.
نماذج الذكاء الاصطناعي التوليدية جيدة في إجراء روابط بين الكلمات ، مما يساهم أيضا في انتشار السمية. الباذنجان مصاب ليس فقط بكلمة "" ولكن أيضا بجميع المفاهيم المماثلة مثل "جرو" و "أجش" و "ذئب". ينطبق هذا الهجوم أيضا على الصور المعنية. على سبيل المثال ، إذا التقط النموذج صورة سامة ل "الفن الخيالي" الفوري ، التلاعب بالمثل بالمطالبات "التنين" و "القلعة في سيد الخواتم" لإخراج شيء آخر.
يقر تشاو بأنه من الممكن للأشخاص إساءة استخدام تقنيات تسميم البيانات لتنفيذ هجمات ضارة. لكنه قال أيضا إن المهاجمين يحتاجون إلى آلاف العينات المسمومة لإلحاق أضرار حقيقية بنماذج أكبر وأكثر قوة يتم تدريبها على مليارات عينات البيانات.
"لا نعرف حتى الآن دفاعات قوية ضد هذه الهجمات. لم نشهد هجمات على نماذج [التعلم الآلي] الحديثة حتى الآن ، لكنها على الأرجح مسألة وقت فقط. وقال فيتالي شماتيكوف، الأستاذ في جامعة كورنيل الذي يدرس سلامة نماذج الذكاء الاصطناعي، إنه لم يشارك في الدراسة. حان الوقت للنظر في الدفاع»، أضاف شماتيكوف.
كما لم يشارك غوتام كاماث، الأستاذ المساعد في جامعة واترلو الذي يدرس خصوصية البيانات وقوة النماذج الذكاء الاصطناعي، في الدراسة، لكنه قال إن العمل كان "رائعا".
وفقا لكاماث ، تظهر الدراسة أن نقاط الضعف "لا تختفي بطريقة سحرية مع هذه النماذج الجديدة ، بل إنها في الواقع تزداد سوءا" ، و "هذا صحيح بشكل خاص عندما تصبح هذه النماذج أكثر قوة ويثق بها الناس أكثر فأكثر ، لأن الخطر يزداد فقط بمرور الوقت ". "
** رادع قوي **
درس جونفنغ يانغ ، أستاذ علوم الكمبيوتر في جامعة كولومبيا ، أمن أنظمة التعلم العميق لكنه لم يشارك في الدراسة. وقال إنه إذا تمكنت Nightshade من جعل الشركات الذكاء الاصطناعي أكثر احتراما لحقوق الفنانين ، مثل أن تكون أكثر استعدادا لدفع الإتاوات ، فسيكون لها تأثير كبير.
اقترحت الذكاء الاصطناعي الشركات التي تطور نماذج توليد النص إلى صورة ، مثل Stability الذكاء الاصطناعي و OpenAI ، منح الفنانين خيار عدم استخدام صورهم لتدريب الإصدارات المستقبلية من النموذج. لكن الفنانين يقولون إن هذا لا يكفي. قالت إيفا تورينت ، الرسامة والفنانة التي استخدمت Glaze ، إن سياسة الخروج تتطلب من الفنانين اجتياز العقبات ، بينما لا تزال شركات التكنولوجيا تحتفظ بكل السلطة.
يأمل Toorenent أن يغير Nightshade ذلك.
وقالت: "هذا من شأنه أن يجعل [الشركات الذكاء الاصطناعي] تفكر مرتين لأنها قد تأخذ عملنا دون موافقتنا وتدمر نموذجها بالكامل". "
وقالت فنانة أخرى تدعى خريف بيفرلي إن أدوات مثل Nightshade وGlaze منحتها الثقة لنشر أعمالها على الإنترنت مرة أخرى. في السابق ، اكتشفت أن عملها قد تم كشطه في قاعدة بيانات صور LAION الخاصة بالحريق دون موافقة وإزالته من الإنترنت.
تقول: "أنا ممتنة حقا لأن لدينا أداة تساعد الفنانين على استعادة السيطرة على عملهم". "
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
300 صورة "مسمومة" SD ، أداة الهجوم المضاد للفنان Nightshade يريد تعليمها الذكاء الاصطناعي الرسم "درس"؟
كتبه ميليسا هيكيلا
المصدر: إم آي تي تكنولوجي ريفيو
أداة جديدة تسمح للفنانين بإضافة تغييرات غير مرئية إلى وحدات البكسل في أعمالهم الفنية قبل تحميلها عبر الإنترنت ، مما يتسبب في تعطل النموذج التوليدي بطريقة فوضوية وغير متوقعة إذا تم تضمين الصور في مجموعة التدريب الذكاء الاصطناعي.
تم تصميم الأداة ، المسماة "Nightshade" ، للرد على الشركات الذكاء الاصطناعي التي تستخدم أعمال الفنانين لتدريب النماذج دون إذن المبدع. قد يؤدي استخدامها "لتسميم" بيانات التدريب هذه إلى الإضرار بالتكرارات المستقبلية لنماذج توليد الصور ، مثل DALL-E و Midjourney و Stable Diffusion ، مما يؤدي إلى خلط بعض مخرجاتها - الكلاب في القطط ، والسيارات في الأبقار ، وما إلى ذلك. تم تقديم الدراسة إلى مؤتمر أمن الكمبيوتر Usenix لمراجعة الأقران.
واجهت شركات الذكاء الاصطناعي مثل OpenAI و Meta و Google و Stability الذكاء الاصطناعي سلسلة من الدعاوى القضائية من فنانين يدعون أن موادهم المحمية بحقوق الطبع والنشر ومعلوماتهم الشخصية قد سرقت دون موافقة أو تعويض. وقال بن تشاو، الأستاذ في جامعة شيكاغو الذي قاد الفريق المؤسس ل Nightshade، إنه يأمل أن يوفر رادعا قويا لعدم احترام حقوق الطبع والنشر والملكية الفكرية للفنانين، مما يساعد على تحويل ميزان القوى من الشركات الذكاء الاصطناعي إلى الفنانين. لم تستجب Meta و Google و Stability الذكاء الاصطناعي و OpenAI لطلب MIT Technology Review للتعليق.
كما طور فريق تشاو أداة ، Glaze ، تسمح للفنانين "بإخفاء" أسلوبهم الشخصي لمنع السرقة من قبل الشركات الذكاء الاصطناعي. إنه يعمل بشكل مشابه ل Nightshade: تغيير وحدات البكسل في الصورة بطرق خفية غير مرئية للعين البشرية ، والتلاعب بنماذج التعلم الآلي لتفسير الصورة على أنها شيء مختلف عما تظهره بالفعل.
يعتزم الفريق دمج Nightshade في Glaze ، ويمكن للفنانين اختيار ما إذا كانوا سيستخدمون أداة يمكنها "تسميم" البيانات أم لا. يعتزم الفريق أيضا فتح المصدر Nightshade ، مما يعني أنه يمكن لأي شخص تعديله وإنشاء نسخته الخاصة. يقول تشاو إنه كلما زاد عدد الأشخاص الذين يستخدمونها ويصنعون نسختهم الخاصة ، زادت قوة الأداة. قد تحتوي مجموعات البيانات الخاصة بنماذج الذكاء الاصطناعي الكبيرة على مليارات الصور ، لذلك كلما زادت الصور السامة في النموذج ، زاد الضرر الناجم عن التكنولوجيا.
الهجمات المستهدفة
استغل Nightshade ثغرة أمنية في نماذج الذكاء الاصطناعي التوليدية التي تم تدريبها على كمية كبيرة من البيانات - في هذه الحالة ، الصور التي تم البحث عنها على الإنترنت. الباذنجان يدمر هذه الصور.
يمكن للفنانين الذين يرغبون في تحميل أعمالهم عبر الإنترنت ولكنهم لا يريدون أن يتم كشط صورتهم من قبل الشركات الذكاء الاصطناعي تحميلها على Glaze واختيار تغطيتها بأسلوب فني مختلف عن أسلوبهم. يمكنهم بعد ذلك أيضا اختيار استخدام Nightshade. بمجرد أن يأخذ مطورو الذكاء الاصطناعي المزيد من البيانات من الإنترنت لتعديل نماذج الذكاء الاصطناعي الحالية أو بناء نماذج جديدة ، تشق هذه العينات السامة طريقها إلى مجموعة بيانات النموذج ، مما يتسبب في فشل النموذج.
على سبيل المثال ، تتلاعب عينة من بيانات التسمم بالنموذج للاعتقاد بأن صورة القبعة هي كعكة وأن صورة حقيبة اليد هي محمصة. من الصعب تنظيف بيانات التسمم لأنها تتطلب من شركات التكنولوجيا العثور على كل عينة تالفة وحذفها بشق الأنفس.
اختبر الباحثون الهجوم على أحدث طراز من Stable Diffusion ونموذج الذكاء الاصطناعي الخاص بهم الذي تم تدريبه من الصفر. عندما أطعموا Stable Diffusion 50 صورة فقط للكلاب المسمومة وسمحوا لها بإنشاء صورهم الخاصة للكلاب ، بدأ الناتج يصبح غريبا - الكثير من الأطراف ، وجه كرتوني. بعد إدخال 300 عينة مسمومة ، يمكن للمهاجم التلاعب بالانتشار المستقر لتوليد صور للكلاب التي تشبه القطط.
"لا نعرف حتى الآن دفاعات قوية ضد هذه الهجمات. لم نشهد هجمات على نماذج [التعلم الآلي] الحديثة حتى الآن ، لكنها على الأرجح مسألة وقت فقط. وقال فيتالي شماتيكوف، الأستاذ في جامعة كورنيل الذي يدرس سلامة نماذج الذكاء الاصطناعي، إنه لم يشارك في الدراسة. حان الوقت للنظر في الدفاع»، أضاف شماتيكوف.
كما لم يشارك غوتام كاماث، الأستاذ المساعد في جامعة واترلو الذي يدرس خصوصية البيانات وقوة النماذج الذكاء الاصطناعي، في الدراسة، لكنه قال إن العمل كان "رائعا".
وفقا لكاماث ، تظهر الدراسة أن نقاط الضعف "لا تختفي بطريقة سحرية مع هذه النماذج الجديدة ، بل إنها في الواقع تزداد سوءا" ، و "هذا صحيح بشكل خاص عندما تصبح هذه النماذج أكثر قوة ويثق بها الناس أكثر فأكثر ، لأن الخطر يزداد فقط بمرور الوقت ". "
** رادع قوي **
درس جونفنغ يانغ ، أستاذ علوم الكمبيوتر في جامعة كولومبيا ، أمن أنظمة التعلم العميق لكنه لم يشارك في الدراسة. وقال إنه إذا تمكنت Nightshade من جعل الشركات الذكاء الاصطناعي أكثر احتراما لحقوق الفنانين ، مثل أن تكون أكثر استعدادا لدفع الإتاوات ، فسيكون لها تأثير كبير.
اقترحت الذكاء الاصطناعي الشركات التي تطور نماذج توليد النص إلى صورة ، مثل Stability الذكاء الاصطناعي و OpenAI ، منح الفنانين خيار عدم استخدام صورهم لتدريب الإصدارات المستقبلية من النموذج. لكن الفنانين يقولون إن هذا لا يكفي. قالت إيفا تورينت ، الرسامة والفنانة التي استخدمت Glaze ، إن سياسة الخروج تتطلب من الفنانين اجتياز العقبات ، بينما لا تزال شركات التكنولوجيا تحتفظ بكل السلطة.
يأمل Toorenent أن يغير Nightshade ذلك.
وقالت: "هذا من شأنه أن يجعل [الشركات الذكاء الاصطناعي] تفكر مرتين لأنها قد تأخذ عملنا دون موافقتنا وتدمر نموذجها بالكامل". "
وقالت فنانة أخرى تدعى خريف بيفرلي إن أدوات مثل Nightshade وGlaze منحتها الثقة لنشر أعمالها على الإنترنت مرة أخرى. في السابق ، اكتشفت أن عملها قد تم كشطه في قاعدة بيانات صور LAION الخاصة بالحريق دون موافقة وإزالته من الإنترنت.
تقول: "أنا ممتنة حقا لأن لدينا أداة تساعد الفنانين على استعادة السيطرة على عملهم". "