لقد ابتكر البشر الذكاء الاصطناعي ، لكن الذكاء الاصطناعي يعيد تشكيل العالم الذي نعيش فيه أيضًا. مع انفجار تقنية النماذج اللغوية الضخمة ، بدأ الذكاء الاصطناعي في الاندماج بشكل أكبر في حياتنا ، ويحتاج البشر إلى التفكير في التدابير الأمنية الضرورية وتنفيذها في المراحل الأولى من تطويره لتجنب المخاطر المحتملة.
يمكن رؤية مشاكل الأمن السيبراني التي يواجهها الذكاء الاصطناعي في كل مكان. عندما أجرت Tencent Technology مقابلة مع Zhu Jun ، نائب عميد معهد الذكاء الاصطناعي بجامعة Tsinghua ، وكبير العلماء في معهد Beijing Zhiyuan لأبحاث الذكاء الاصطناعي و Ruilai Intelligence ، قال ** "في الواقع ، لا يوجد نظام شبكة آمن دائمًا و غير قابل للكسر في العالم. إذا لم يتم أخذ التكلفة في الاعتبار ، فسيستخدم المجرمون أساليب مختلفة لمهاجمة النظام ، ومن المستحيل الدفاع ضده ". **
لأكثر من 10 سنوات ، التزم Zhu Jun بحل مشكلة أمن الذكاء الاصطناعي. لقد اخترق نظرية Bayesian الأساسية والتقنيات الأساسية الكلاسيكية ، واقترح خوارزمية فعالة لنموذج الانتشار ، واحتضن المستوى الوطني المتخصص والجديد " الشركات العملاقة الصغيرة "من خلال تحويل الإنجازات ، وإرساء أساس متين لتطوير ذكاء اصطناعي آمن وموثوق.
لا يمكن تجاهل مخاطر الذكاء الاصطناعي نفسه. يتمتع الذكاء الاصطناعي بقدرات تعلم واستنتاج قوية ، ولكن هذه القدرة تؤدي أيضًا إلى الاعتماد الكبير لأنظمة الذكاء الاصطناعي على البيانات ، مما قد يعكس انحياز مصادر البيانات في اتخاذ القرارات والتوصيات. سلسلة من المخاوف ، تتحدى التوازن أخلاقيات الذكاء الاصطناعي والعدالة.
عندما يقع الذكاء الاصطناعي في أزمة ثقة أمنية ، كيف يجب أن نستجيب؟ عندما يصبح التطبيق التفاعلي للذكاء الاصطناعي والبشر أكثر شيوعًا ، كيف يمكننا منع مخاطر السلامة المحتملة؟ في هذا الحوار ، تحدث Zhu Jun عن طرق دفاعية محددة لتحسين أمان وموثوقية الذكاء الاصطناعي. نحن بحاجة إلى إيلاء اهتمام خاص لاستكشاف الآثار الأخلاقية والاجتماعية لسلامة الذكاء الاصطناعي ، وتجنب الوقوع في مستقبل مجهول وغير متحكم فيه.
ما يلي هو جوهر النص ، مع عمليات الحذف والتعديل على أساس عدم تغيير رغباتك:
** لا يوجد نظام شبكة آمن دائمًا **
** Tencent Technology: لقد عززت البحث في مجال الذكاء الاصطناعي مقابل الأمن. ما هي مشكلات الأمان التي سيحدثها التطبيق الحالي لتكنولوجيا الذكاء الاصطناعي؟ كيف يجب أن نحدد هذه القضايا الأمنية؟ **
** Zhu Jun: ** يتضمن الذكاء الاصطناعي العديد من العناصر الأساسية ، مثل البيانات ونموذج الخوارزمية وطبقة التطبيق. في كل عنصر ، نحتاج إلى التعامل مع مختلف القضايا الأمنية فيه.
على مستوى البيانات ، نحتاج إلى الاهتمام بقضايا الأمان مثل تسمم البيانات ، وتسرب البيانات ، وخصوصية المستخدم ، وحماية البيانات السرية الأساسية ؛ على مستوى النموذج ، نحتاج إلى التعامل مع قضايا الأمان مثل خوارزميات المواجهة. على سبيل المثال ، عند استخدام التعرف على الوجه لإلغاء القفل ، قد يقوم المهاجم بإلغاء تأمين نظام التحقق للهاتف المحمول المستهدف من خلال زوج من النظارات المضادة المصنوعة خصيصًا (أي "عينات الخصومة") ، مما يتسبب في مخاطر. بالإضافة إلى ذلك ، إذا تم زرع النموذج بشكل ضار بباب خلفي ، فسيتم تهديد أمان النموذج أيضًا ؛ على مستوى التطبيق ، أصبحت مشكلة الأمان للذكاء الاصطناعي أيضًا أكثر وضوحًا. على سبيل المثال ، يستخدم المجرمون التوليف العميق و AIGC والأدوات الأخرى لإنشاء محتوى زائف والانخراط في أغراض غير قانونية مثل الاحتيال والخداع. هذه كلها مشكلات أمنية يواجهها الذكاء الاصطناعي في الاستخدام الفعلي أو التطوير.
بالنسبة للحلول والإجراءات المضادة ، نحتاج إلى استخدام ** خوارزميات أكثر تقدمًا لتحديد هذه المحتويات تلقائيًا ** ، وهي مشكلة ساخنة وصعبة في مجال الذكاء الاصطناعي. ومع ذلك ، فإن هذه التكنولوجيا تشبه العلاقة بين "الرمح والدرع" ، وسيشجع تطوير التكنولوجيا التوليدية ظهور تقنيات الكشف والدفاع المقابلة. في الوقت نفسه ، تتطور التقنيات على جانبي الجيل والهجوم باستمرار. نظرًا لطبيعة التكنولوجيا نفسها ، لا يوجد نظام آمن دائمًا ويستحيل كسره. إذا لم يتم أخذ التكلفة في الاعتبار ، فسيستخدم المجرمون طرقًا مختلفة لمهاجمة النظام ، وهو أمر يصعب الوقاية منه.
لذلك ومن منظور التكنولوجيا ** نحتاج إلى التعامل معها في شكل "AI يتعرف على الذكاء الاصطناعي". لكن الدفاع في الواقع أصعب من الهجوم. في الوقت الحالي ، نبحث عن آليات مختلفة لتحسين القدرات الدفاعية للنموذج ، ونتخذ إجراءات وقائية مختلفة عند استخدام النموذج ونشره. على سبيل المثال ، في نظام التعرف على الوجوه ، نقوم بنشر جدار حماية للتعرف على الوجوه لاكتشاف العينات المشبوهة أو المضادة للهجوم وتصفيتها قبل أن تدخل العينات رابط التعرف النهائي ، وذلك لتحقيق الغرض من حماية النظام. في الوقت الحاضر ، تم تطبيق هذه التكنولوجيا في البنوك والصناعات الأخرى.
** تقنية Tencent: لقد ذكرت أن أي نظام شبكة به ثغرات أمنية. حاليًا ، تسبب ChatGPT في حدوث طفرة في التطبيقات الخارجية. لقد حقق تفاعلًا جيدًا. ما نوع المخاطر التي ستكون موجودة؟ **
** Zhu Jun: ** في الوقت الحاضر ، نماذج اللغات الكبيرة مثل ChatGPT في طور التطور السريع ، ولكنها في نفس الوقت تجلب أيضًا مخاطر محتملة - على سبيل المثال ، ستكون هناك بعض "هجمات الحقن". من وجهة نظر خوارزمية ، إذا قام شخص ما بحقن كلمات أو رموز معينة بدوافع خفية ، فقد يؤدي ذلك إلى حدوث ارتباك منطقي وأخطاء ناتجة في النموذج الكبير.
في نظام الحوار متعدد النواحي ، من الصعب الدفاع ضد هجمات الحقن. قد ينفذ المتسللون هجمات الحقن بطرق مختلفة ، وبسبب تقنية فهم السياق للنموذج واسع النطاق ، سيتأخر تأثير الهجوم ، وهو تحدٍ جديد لاكتشاف الخوارزمية والدفاع عنها. في هذا الصدد ، نحتاج إلى استخدام طريقة مشابهة للتعلم المعزز لعكس الخوارزمية لاكتشاف الكلمات التي قد يتم حقنها بشكل ضار والدفاع عنها. ** يمكن استخدام النظام براحة البال فقط إذا تم ضمان عدم حقن النظام بشكل ضار أثناء عملية التدريب ، أو عدم غرسه بأبواب خلفية ونقاط ضعف أخرى.
من منظور مستوى التطبيق ، قد تكون هناك أيضًا بعض مخاطر الاستخدام الخبيث لنظام الحوار ، مثل محاولة المتسللين تجاوز إجراءات الحماية ضد الحقن لإنشاء محتوى سيئ أو منخفض الجودة ، بما في ذلك المعلومات غير القانونية المتعلقة بالمواد الإباحية والعنف ، والتي ستصبح جزءًا من عملية المتابعة ، المشكلات التي تتطلب اكتشافًا وحلاً مستقلين.
** Tencent Technology: لقد تحدثنا للتو عن مشكلات أمان GPT ، فلنلقِ نظرة فاحصة: ما هي القدرة الدفاعية الأمنية لخادم GPT والنماذج الكبيرة الأخرى ، وهل يمكن أن يهاجمها المتسللون؟ **
** Zhu Jun: ** نظريًا ، هذا ممكن تمامًا. نظرًا لأنه نظام معلومات كبير ، فإن أي نظام سيكون به ثغرات. لذلك ، في عملية بناء النظام ، نحتاج إلى نشر طرق حماية مختلفة مقدمًا قدر الإمكان لتحسين أمان النظام. في الآونة الأخيرة ، رأينا أيضًا حالات ذات صلة: يستخدم بعض المهاجمين ChatGPT لإنشاء رموز هجوم تلقائية ، مما يسمح له بالعثور على الثغرات الأمنية في النظام المستهدف بشكل أكثر كفاءة ، وحتى استغلال المزيد من الثغرات الأمنية لشن الهجمات ، لذلك ستستمر المشكلات الأمنية في الوجود.
** لا يستطيع البشر تحديد مستوى ذكاء الذكاء الاصطناعي وقياسه بدقة **
** تقنية Tencent: بالإضافة إلى المخاطر الخفية لهجمات القراصنة ، نحن قلقون أيضًا بشأن المخاطر الأمنية للذكاء الاصطناعي نفسه. بادئ ذي بدء ، دعنا نركز على موضوع يناقشه الجميع حاليًا - هل تعتقد أن الذكاء الاصطناعي سينتج الوعي؟ **
** Zhu Jun: وجهة نظري الشخصية تميل أكثر إلى الاعتقاد بأن الأداء الحالي لـ "الوعي" في الذكاء الاصطناعي ليس واضحًا للغاية ، لأننا لا نستطيع تحديد وقياس الوعي بدقة. ** لذلك ، عند مراقبة أداء النموذج اللغوي ، سنجد أن النموذج الكبير لا يزال يعاني من مشاكل مثل الأخطاء الواقعية. في حين أن بعض الأخطاء تقرأ بطلاقة ، إلا أنها عند الفحص الدقيق ليست واقعية أو منطقية. هذه واحدة من العديد من المشاكل مع النموذج ، أن مستوى خصوصية الوعي لم يتم تقييمه بشكل كمي بالكامل.
تعتبر نماذج اللغة متعلمين أقوياء لأنهم يعرفون الكثير عن الجسد والنص أكثر من أي إنسان في العالم. على سبيل المثال ، قد يتمكن النموذج من الوصول إلى جميع المعلومات المتوفرة على الإنترنت تقريبًا ، مقارنةً بمصادر المعلومات المحدودة التي يمكن لكل منا الوصول إليها.
من منظور التنوع ، فإن الذكاء الاصطناعي هو بالتأكيد أفضل من أي شخص. ومع ذلك ، في بعض النواحي ، لا يمكن أن يصل أداء النموذج إلى المستوى البشري. لذلك ، يجب أن ننظر إلى النموذج من منظور التطور التكنولوجي الواقعي ، بما في ذلك الذكاء الاصطناعي العام والجوانب الأخرى التي يناقشها الجميع. أنا شخصياً أعتقد أن المستوى الحالي للتكنولوجيا لم يصل إلى الوضع الذي يكون فيه خارج نطاق السيطرة أو تطور فقط من خلال سيطرة الروبوت الخاص.
يمكن القول أن نماذج التعلم الآلي واسعة النطاق يمكن أن تستخدم شبكات معقدة مثل التعلم العميق لمعالجة البيانات ، والاستفادة من بعض الإدراك البشري من حيث الهندسة المعمارية والتصميم. ولكن بشكل عام ، هناك اختلافات كبيرة بين نماذج الشبكات العصبية الاصطناعية والأنظمة البيولوجية الحقيقية ، تتراوح من مقياس إلى هيكل. لذلك ، في الواقع ، لا يمكننا حاليًا تقييم مستوى الذكاء لأنظمة الذكاء الاصطناعي بوضوح ، أو تقييم ما إذا كانت لديها قدرات معرفية مثل العقل.
** Tencent Technology: أطلق بعض التجار مؤخرًا مفهوم "رفيق الذكاء الاصطناعي" - يمكن للأشخاص أن يقعوا في حب الذكاء الاصطناعي ويحتاجون إلى الدفع. هل تعتقد أن الذكاء الاصطناعي يمكنه فهم المشاعر البشرية؟ ما هي مخاطر الأمان الموجودة في عملية التفاعل مع الشركاء الافتراضيين؟ **
** Zhu Jun: ** لطالما كانت الحوسبة العاطفية موضوعًا كلاسيكيًا في مجال الذكاء الاصطناعي. من حيث العاطفة ، يمكن لتقنية الذكاء الاصطناعي محاكاة شخصية ما وتحديد حالتها العاطفية أو النفسية. ومع ذلك ، من الناحية الفنية ، لا يزال هناك العديد من المشاكل والتحديات في هذا المجال.
من الصعب جدًا تحقيق مستوى التواصل البشري الحقيقي. على سبيل المثال ، حتى إذا تحدثنا وجهًا لوجه أو استخدمنا نفس اللغة للحوار ، فمن الصعب أن نفهم حقًا عواطف بعضنا البعض أو أنشطتنا العقلية ، لأن كل فرد يستجيب لنفس المدخلات بآلاف الطرق. هذه النماذج الكبيرة التي نستخدمها الآن نموذجًا أساسيًا لهذه العملية ، لكن كل النمذجة تتطلب افتراضات مبسطة ومثالية. من المشكوك فيه ما إذا كانت هذه الافتراضات تنطبق على الجميع ، أو ما إذا كانت تتناسب بشكل جيد مع واقع كل فرد. من الصعب علينا التعبير بدقة عن مشاعر الجميع المعقدة بنموذج بسيط.
قد يتضمن هذا النموذج جوانب مختلفة مثل القضايا الاجتماعية والأخلاق والأخلاق ، وهناك العديد من المشاكل المحتملة التي تحتاج إلى حل. على الرغم من عدم وجود عتبات كثيرة للتنفيذ الفني ، وقد ظهر هذا النموذج بالفعل في الدول الأجنبية. ومع ذلك ، نحتاج إلى التفكير بعمق في تأثير هذا النموذج - على سبيل المثال ، قد يكون بعض الشباب أقل رغبة في إنفاق الطاقة على الحب الحقيقي أو الزواج ، وما إلى ذلك ، وقد يتسبب ذلك في مشاكل محتملة للاستقرار الاجتماعي.
بالإضافة إلى ذلك ، نحتاج إلى الانتباه إلى ما إذا كانت منتجات الذكاء الاصطناعي هذه ستكون متحيزة أو موجهة بشكل هادف ضد أفراد معينين ، الأمر الذي سيؤدي إلى مخاطر كبيرة. إذا تفاعلنا مع إنسان آلي كل يوم ، فسيتم توجيه المعلومات التي تم الحصول عليها بشكل طبيعي بواسطة الروبوت ، مما قد يؤثر على القيم الشخصية ، أو يتحكم في العواطف والسلوكيات الشخصية. على المدى الطويل ، قد يؤثر ذلك على العلاقة الاجتماعية بين الناس ويسبب تغييرات في سلوك المجتمع بأسره. لكن هذه ليست مشاكل يمكن حلها بالكامل عن طريق التكنولوجيا. بشكل عام ، مقارنة بالدول الأخرى ، سيكون بلدي أكثر حذرًا عند استخدام التقنيات الجديدة ، وسنقدم إنذارًا مبكرًا للمخاطر المحتملة ونتخذ بعض التدابير الوقائية.
** تشكيل الذكاء الاصطناعي الآمن: التعامل مع أفضل العارضين على أنهم "موجهون" **
** تقنية Tencent: إذا كان هناك خطأ في الذكاء الاصطناعي ، من منظور تقني ، ما العمل الذي يمكننا القيام به لتصحيح الخطأ في النموذج الكبير؟ **
** Zhu Jun: ** نظرًا لاختلاف بيانات التدريب والمستوى الفني ، على سبيل المثال ، نستخدم نفس السؤال لطرح نماذج كبيرة مختلفة ، قد تكون النتائج التي يقدمونها مختلفة ، وبعض النتائج جيدة ، ولكن بعضها خبيث أو سيئ نتيجة. لذلك ، من الضروري بالنسبة لنا توحيد وتحسين جودة هذه النماذج وإمكانية التحكم فيها.
عادةً ما تقوم بعض النماذج الكبيرة بالكثير من التدريب على المحاذاة والخصومة. على سبيل المثال ، قبل ظهور GPT-4 ، طرح المتخصصون في مجالات مختلفة أسئلة من زوايا مختلفة للتحقق من دقة النموذج لمعرفة ما إذا كان النظام سينتج نتائج غير متوافقة أو ضارة ، ومحاولة التنظيم والتعديل. ومع ذلك ، لا يزال هناك العديد من النماذج (بما في ذلك العديد من النماذج مفتوحة المصدر) التي لم تخضع لمثل هذا الاختبار الصارم أو التدريب العدائي ، لذلك ستكون هناك مخاطر أمنية مختلفة.
** أحد المسارات التقنية التي تستحق المحاولة هو معاملة أحد أفضل النماذج على أنه "مرشد" ** ، ثم إجبار النماذج الأخرى على محاكاة سلوك هذا النموذج بطريقة فعالة واقتصادية. بالطبع ، هناك المزيد من جوانب العمل الأخرى ، مثل العمل المعياري والمواءمة لكل نموذج محدد وفقًا للمتطلبات المعيارية للبلدان المختلفة.
بينما نتوقع أن تنتج هذه النماذج دائمًا نتائج متوافقة مع المواصفات عند استخدامها ، فإن احتمالية المخاطرة لا تنخفض أبدًا إلى الصفر. ** بالإضافة إلى ذلك ، عند استخدامه ، نحتاج أيضًا إلى مراعاة الأخلاق والقواعد القانونية وما إلى ذلك ، والتي تتطلب إدارة وتنظيمًا مشتركين من قبل مختلف الصناعات والمجالات ، حتى يتمكن النموذج من خدمة البشر بشكل أفضل.
** Tencent Technology: لقد ذكرنا للتو أنه من خلال التدريب المستمر لتصحيح وتقليل معدل الخطأ في النماذج الكبيرة ، كيف يمكننا قياس موثوقيتها؟ لقد شاركت بعمق في مجال التعلم العميق Bayesian. في رأيك ، كيفية بناء النماذج وتحسينها لتحسين دقة وموثوقية التنبؤات؟ **
** Zhu Jun: ** الصناعة لها هدف الدقة نفسه ، وعادة ما يتم قياسه بواسطة مؤشرات موضوعية ، وتتعلق المؤشرات المحددة بالمهام المحددة التي يتم تنفيذها. فيما يتعلق بالتصنيف والاعتراف ، سيتم استخدام دقة التعرف النهائية لتوجيه تدريب النموذج.
بالنسبة لمشاكل عدم اليقين ، مثل الشبكات العصبية ، وجدنا أنه في كثير من الحالات ، ستكون تنبؤاتها مفرطة في الثقة والتفاؤل. على سبيل المثال ، ناتج بعض النتائج هو في الأصل تنبؤ غامض أو غير مؤكد ، لكنه سيخبرك بنتيجة التوقع بثقة زائدة ، وهو ما نسميه "الثقة المفرطة".
لهذه الظاهرة أو المشكلة ، يمكن لتقنيات التعلم العميق باستخدام طرق بايز أن تميز عدم اليقين بشكل أفضل. يمكن اعتباره بشكل أساسي من العديد من الجوانب ، مثل العوامل غير المؤكدة التي قد تكون موجودة في نهاية الإدخال والعوامل غير المؤكدة التي قد تكون موجودة في نهاية النموذج ، وإعطاء ثقة أكثر انسجاما مع الوضع الفعلي. هذا النهج البايزي أكثر موثوقية من الشبكات العصبية.
** تقنية Tencent: غالبًا ما تكون بنية الشبكة في العالم الحقيقي معقدة للغاية ، بما في ذلك التغييرات الديناميكية متعددة المستويات والمتعددة الأبعاد والخصائص الأخرى ، والتي ستجلب تحديات كبيرة لإنشاء نموذج احتمالية الانتشار وتحسينه. الفريق الذي تقوده هو أحد أوائل الفرق المشاركة في البحث حول نظرية وخوارزمية نموذج احتمالية الانتشار في العالم. كيف يتخلص فريقك من الضوضاء وعدم اليقين في البيانات في بناء النموذج لتحسين متانة النموذج وموثوقيته؟ **
** Zhu Jun: ** نموذج الانتشار هو نموذج توليدي ، له عمليتان للانتشار الأمامي والانتشار العكسي. يحول الانتشار الأمامي الصورة إلى صورة ضوضاء غاوسي عشوائية تمامًا عن طريق إضافة التشويش تدريجياً. يبدأ الانتشار العكسي من توزيع بدون بنية تقريبًا ، ويزيل التشويش تدريجيًا ، ويتقارب إلى توزيع يمكنه وصف البيانات الحقيقية. يمكن إنشاء عينات جديدة من هذا التوزيع ، مثل إنشاء النصوص والصور والفيديو ، والتي تتم دراستها على نطاق واسع الآن.
تعد نماذج الانتشار واحدة من أكثر التقنيات أهمية في المجال التوليدي. من حيث المتانة ، فإن فكرة نماذج الانتشار تشبه أمثلة الخصومة. تحقق الأمثلة العدائية الغرض من الهجوم عن طريق إضافة ضوضاء محسّنة للخوارزمية في عملية التوليد. في المقابل ، يمكننا تحسين حجم واتجاه الضوضاء من خلال إيجاد التوزيع تدريجيًا في عملية الانتشار العكسي لتحسين متانة النموذج. يمكن أيضًا تطبيق هذه الطريقة لتوليد بيانات صاخبة لتحسين موثوقية ودقة النموذج.
** تقنية Tencent: كيف يمكننا تحسين دقة الذكاء الاصطناعي في تطبيق Vincent في اتجاهات أخرى؟ أنا قلق بشأن خوارزمية Wensheng ثلاثية الأبعاد الجديدة ProlificDreamer التي اقترحها فريقك مؤخرًا ، والتي يمكنها إنشاء محتوى ثلاثي الأبعاد فائق الجودة بدون أي بيانات ثلاثية الأبعاد. كيف يتعامل فريقك مع التنوع والغموض الدلالي لإنشاء محتوى أكثر دقة؟ نموذج ثلاثي الأبعاد؟ **
** Zhu Jun: ** بالمقارنة مع الأساليب التقليدية ثلاثية الأبعاد ، تستخدم الصناعة عادةً نموذجًا توليديًا ثنائي الأبعاد مدرب مسبقًا (مثل نموذج الانتشار) للتدريب على قاعدة بيانات الصور. عند القيام بالتوليد ثلاثي الأبعاد ، نحتاج إلى تعيين الصورة ثنائية الأبعاد التي تم إنشاؤها على النموذج ثلاثي الأبعاد ، الأمر الذي يتطلب خطوة وسيطة تسمى "التقطير". نظرًا لأن النموذج ثلاثي الأبعاد له بنية مكانية ، فنحن بحاجة إلى مراعاة الخصائص ثلاثية الأبعاد للكائن. لذلك ، نحتاج إلى مراقبة الكائنات من زوايا مختلفة وتقديم الصور ثنائية الأبعاد المقابلة ، ثم محاذاتها مع النموذج المدرب مسبقًا ، بحيث يمكن إنشاء الأصول ثلاثية الأبعاد ، وما إلى ذلك. ومع ذلك ، فإن هذا النهج له أيضًا بعض القيود. على سبيل المثال ، عادةً ما تكون النتائج التي تولدها مشبعة جدًا أو سلسة جدًا ، وتفتقر إلى المعلومات مثل التفاصيل والقوام.
لحل هذه المشكلة ، نحتاج إلى استكشاف تقنيات المستوى الأدنى. وجدنا أن هناك بعض الصعوبات الكامنة في استخدام خوارزمية التقطير لإيجاد نموذج ثلاثي الأبعاد واحد ، والتي يجب التغلب عليها من المبادئ الأساسية. تبحث الخوارزميات الحالية عن نوع من التطرف في الوظيفة الموضوعية ، على غرار "الخوارزمية الجشعة (خوارزمية الجشع)" ، ستجد فقط الحل الأمثل ، من أجل تحقيق هذا الغرض ، يغير العمل الحالي الوظيفة الموضوعية لجعلها أعلى في بعض المناطق ، وهو متوسط أكثر في مناطق أخرى ، يمكن لطريقة تعديل الوظيفة الموضوعية أن تجد الحل النهائي بسرعة.
للتغلب على صعوبات الأساليب المذكورة أعلاه ، نقوم بإعادة صياغة مشكلة إنشاء نص إلى ثلاثي الأبعاد كأخذ عينات من بعض التوزيع الذي قد يطيعه النموذج ثلاثي الأبعاد ، ثم نجعله ومواءمته مع النموذج ثنائي الأبعاد الذي تم تدريبه مسبقًا. ** ميزة طريقة أخذ العينات هذه هي أن النموذج ثنائي الأبعاد نفسه هو نموذج احتمالي ، ومعلومات الوصف أغنى من التحسين الجشع ؛ لهذا السبب ، استنتجنا خوارزمية تقطير متغيرة جديدة واستخدمناها بشكل أساسي في نفس العديد من التفاصيل التفصيلية للغاية والمشاهد ثلاثية الأبعاد المعقدة ، بما في ذلك الأصول عالية الدقة ، تم إنشاؤها في جزء صغير من الوقت.
النقطة الأساسية في طريقتنا هي أنها تقلل أو تزيل تمامًا الاعتماد على بيانات التدريب ثلاثي الأبعاد وتحسن بشكل كبير جودة التوليد. لقد تواصلت مؤخرًا مع الممارسين الذين يقومون بالرسومات ، ويشعرون أيضًا أن هذا التأثير مذهل للغاية. دعونا نرى الإمكانات العظيمة للقدرة على إنشاء صور ثلاثية الأبعاد عالية الجودة.
لمعالجة الغموض. بالنسبة لإدخال النص نفسه ، قد يكون لدى الأشخاص المختلفين مفاهيم مختلفة ، على سبيل المثال ، قد تشير كلمة "Apple" إلى Apple أو Apple Inc. أو منتجاتها. في نموذجنا ، يتم حل الغموض باستخدام نهج أخذ العينات القائم على الاحتمالية لتوليد العديد من النتائج المحتملة. ** على المدى الطويل ، يتطلب توضيح الغموض المزيد من الإشارات والمحاذاة لتحسين إمكانية التحكم والدقة ، مثل محاذاة النص والصور أو البيانات النمطية الأخرى. ** في المجالات اللغوية والوسائط المتعددة ، يكون المعنى النهائي متعلقًا بالسياق ذي الصلة.
حاليًا ، نحن نعمل مع العملاء في صناعات مختلفة لزيادة تحسين تقنية الجيل ثلاثي الأبعاد الخاصة بنا وجعلها أكثر نضجًا. في المجال ثلاثي الأبعاد ، تعتبر الأصول ثلاثية الأبعاد عالية الجودة ذات قيمة عالية. على سبيل المثال ، في سيناريوهات إنشاء أصول اللعبة ، تستخدم الشركات التقليدية عادةً الأساليب التقليدية مثل الهندسة أو الرسومات لإنشاء مكتبات الأصول ثلاثية الأبعاد وصيانتها ، الأمر الذي يتطلب استثمارًا كبيرًا للوقت. تقنيتنا يمكنها تحسين الكفاءة الإبداعية بشكل كبير وتقليل تكلفة الوقت.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
حوار مع Zhu Jun ، معهد الذكاء الاصطناعي ، جامعة تسينغهوا: ما هي المخاطر الأمنية المخفية في نموذج الذكاء الاصطناعي الشهير؟
النص: لي هايدان ، شركة Tencent Technology
لقد ابتكر البشر الذكاء الاصطناعي ، لكن الذكاء الاصطناعي يعيد تشكيل العالم الذي نعيش فيه أيضًا. مع انفجار تقنية النماذج اللغوية الضخمة ، بدأ الذكاء الاصطناعي في الاندماج بشكل أكبر في حياتنا ، ويحتاج البشر إلى التفكير في التدابير الأمنية الضرورية وتنفيذها في المراحل الأولى من تطويره لتجنب المخاطر المحتملة.
يمكن رؤية مشاكل الأمن السيبراني التي يواجهها الذكاء الاصطناعي في كل مكان. عندما أجرت Tencent Technology مقابلة مع Zhu Jun ، نائب عميد معهد الذكاء الاصطناعي بجامعة Tsinghua ، وكبير العلماء في معهد Beijing Zhiyuan لأبحاث الذكاء الاصطناعي و Ruilai Intelligence ، قال ** "في الواقع ، لا يوجد نظام شبكة آمن دائمًا و غير قابل للكسر في العالم. إذا لم يتم أخذ التكلفة في الاعتبار ، فسيستخدم المجرمون أساليب مختلفة لمهاجمة النظام ، ومن المستحيل الدفاع ضده ". **
لأكثر من 10 سنوات ، التزم Zhu Jun بحل مشكلة أمن الذكاء الاصطناعي. لقد اخترق نظرية Bayesian الأساسية والتقنيات الأساسية الكلاسيكية ، واقترح خوارزمية فعالة لنموذج الانتشار ، واحتضن المستوى الوطني المتخصص والجديد " الشركات العملاقة الصغيرة "من خلال تحويل الإنجازات ، وإرساء أساس متين لتطوير ذكاء اصطناعي آمن وموثوق.
لا يمكن تجاهل مخاطر الذكاء الاصطناعي نفسه. يتمتع الذكاء الاصطناعي بقدرات تعلم واستنتاج قوية ، ولكن هذه القدرة تؤدي أيضًا إلى الاعتماد الكبير لأنظمة الذكاء الاصطناعي على البيانات ، مما قد يعكس انحياز مصادر البيانات في اتخاذ القرارات والتوصيات. سلسلة من المخاوف ، تتحدى التوازن أخلاقيات الذكاء الاصطناعي والعدالة.
عندما يقع الذكاء الاصطناعي في أزمة ثقة أمنية ، كيف يجب أن نستجيب؟ عندما يصبح التطبيق التفاعلي للذكاء الاصطناعي والبشر أكثر شيوعًا ، كيف يمكننا منع مخاطر السلامة المحتملة؟ في هذا الحوار ، تحدث Zhu Jun عن طرق دفاعية محددة لتحسين أمان وموثوقية الذكاء الاصطناعي. نحن بحاجة إلى إيلاء اهتمام خاص لاستكشاف الآثار الأخلاقية والاجتماعية لسلامة الذكاء الاصطناعي ، وتجنب الوقوع في مستقبل مجهول وغير متحكم فيه.
ما يلي هو جوهر النص ، مع عمليات الحذف والتعديل على أساس عدم تغيير رغباتك:
** لا يوجد نظام شبكة آمن دائمًا **
** Tencent Technology: لقد عززت البحث في مجال الذكاء الاصطناعي مقابل الأمن. ما هي مشكلات الأمان التي سيحدثها التطبيق الحالي لتكنولوجيا الذكاء الاصطناعي؟ كيف يجب أن نحدد هذه القضايا الأمنية؟ **
** Zhu Jun: ** يتضمن الذكاء الاصطناعي العديد من العناصر الأساسية ، مثل البيانات ونموذج الخوارزمية وطبقة التطبيق. في كل عنصر ، نحتاج إلى التعامل مع مختلف القضايا الأمنية فيه.
على مستوى البيانات ، نحتاج إلى الاهتمام بقضايا الأمان مثل تسمم البيانات ، وتسرب البيانات ، وخصوصية المستخدم ، وحماية البيانات السرية الأساسية ؛ على مستوى النموذج ، نحتاج إلى التعامل مع قضايا الأمان مثل خوارزميات المواجهة. على سبيل المثال ، عند استخدام التعرف على الوجه لإلغاء القفل ، قد يقوم المهاجم بإلغاء تأمين نظام التحقق للهاتف المحمول المستهدف من خلال زوج من النظارات المضادة المصنوعة خصيصًا (أي "عينات الخصومة") ، مما يتسبب في مخاطر. بالإضافة إلى ذلك ، إذا تم زرع النموذج بشكل ضار بباب خلفي ، فسيتم تهديد أمان النموذج أيضًا ؛ على مستوى التطبيق ، أصبحت مشكلة الأمان للذكاء الاصطناعي أيضًا أكثر وضوحًا. على سبيل المثال ، يستخدم المجرمون التوليف العميق و AIGC والأدوات الأخرى لإنشاء محتوى زائف والانخراط في أغراض غير قانونية مثل الاحتيال والخداع. هذه كلها مشكلات أمنية يواجهها الذكاء الاصطناعي في الاستخدام الفعلي أو التطوير.
بالنسبة للحلول والإجراءات المضادة ، نحتاج إلى استخدام ** خوارزميات أكثر تقدمًا لتحديد هذه المحتويات تلقائيًا ** ، وهي مشكلة ساخنة وصعبة في مجال الذكاء الاصطناعي. ومع ذلك ، فإن هذه التكنولوجيا تشبه العلاقة بين "الرمح والدرع" ، وسيشجع تطوير التكنولوجيا التوليدية ظهور تقنيات الكشف والدفاع المقابلة. في الوقت نفسه ، تتطور التقنيات على جانبي الجيل والهجوم باستمرار. نظرًا لطبيعة التكنولوجيا نفسها ، لا يوجد نظام آمن دائمًا ويستحيل كسره. إذا لم يتم أخذ التكلفة في الاعتبار ، فسيستخدم المجرمون طرقًا مختلفة لمهاجمة النظام ، وهو أمر يصعب الوقاية منه.
لذلك ومن منظور التكنولوجيا ** نحتاج إلى التعامل معها في شكل "AI يتعرف على الذكاء الاصطناعي". لكن الدفاع في الواقع أصعب من الهجوم. في الوقت الحالي ، نبحث عن آليات مختلفة لتحسين القدرات الدفاعية للنموذج ، ونتخذ إجراءات وقائية مختلفة عند استخدام النموذج ونشره. على سبيل المثال ، في نظام التعرف على الوجوه ، نقوم بنشر جدار حماية للتعرف على الوجوه لاكتشاف العينات المشبوهة أو المضادة للهجوم وتصفيتها قبل أن تدخل العينات رابط التعرف النهائي ، وذلك لتحقيق الغرض من حماية النظام. في الوقت الحاضر ، تم تطبيق هذه التكنولوجيا في البنوك والصناعات الأخرى.
** تقنية Tencent: لقد ذكرت أن أي نظام شبكة به ثغرات أمنية. حاليًا ، تسبب ChatGPT في حدوث طفرة في التطبيقات الخارجية. لقد حقق تفاعلًا جيدًا. ما نوع المخاطر التي ستكون موجودة؟ **
** Zhu Jun: ** في الوقت الحاضر ، نماذج اللغات الكبيرة مثل ChatGPT في طور التطور السريع ، ولكنها في نفس الوقت تجلب أيضًا مخاطر محتملة - على سبيل المثال ، ستكون هناك بعض "هجمات الحقن". من وجهة نظر خوارزمية ، إذا قام شخص ما بحقن كلمات أو رموز معينة بدوافع خفية ، فقد يؤدي ذلك إلى حدوث ارتباك منطقي وأخطاء ناتجة في النموذج الكبير.
في نظام الحوار متعدد النواحي ، من الصعب الدفاع ضد هجمات الحقن. قد ينفذ المتسللون هجمات الحقن بطرق مختلفة ، وبسبب تقنية فهم السياق للنموذج واسع النطاق ، سيتأخر تأثير الهجوم ، وهو تحدٍ جديد لاكتشاف الخوارزمية والدفاع عنها. في هذا الصدد ، نحتاج إلى استخدام طريقة مشابهة للتعلم المعزز لعكس الخوارزمية لاكتشاف الكلمات التي قد يتم حقنها بشكل ضار والدفاع عنها. ** يمكن استخدام النظام براحة البال فقط إذا تم ضمان عدم حقن النظام بشكل ضار أثناء عملية التدريب ، أو عدم غرسه بأبواب خلفية ونقاط ضعف أخرى.
من منظور مستوى التطبيق ، قد تكون هناك أيضًا بعض مخاطر الاستخدام الخبيث لنظام الحوار ، مثل محاولة المتسللين تجاوز إجراءات الحماية ضد الحقن لإنشاء محتوى سيئ أو منخفض الجودة ، بما في ذلك المعلومات غير القانونية المتعلقة بالمواد الإباحية والعنف ، والتي ستصبح جزءًا من عملية المتابعة ، المشكلات التي تتطلب اكتشافًا وحلاً مستقلين.
** Tencent Technology: لقد تحدثنا للتو عن مشكلات أمان GPT ، فلنلقِ نظرة فاحصة: ما هي القدرة الدفاعية الأمنية لخادم GPT والنماذج الكبيرة الأخرى ، وهل يمكن أن يهاجمها المتسللون؟ **
** Zhu Jun: ** نظريًا ، هذا ممكن تمامًا. نظرًا لأنه نظام معلومات كبير ، فإن أي نظام سيكون به ثغرات. لذلك ، في عملية بناء النظام ، نحتاج إلى نشر طرق حماية مختلفة مقدمًا قدر الإمكان لتحسين أمان النظام. في الآونة الأخيرة ، رأينا أيضًا حالات ذات صلة: يستخدم بعض المهاجمين ChatGPT لإنشاء رموز هجوم تلقائية ، مما يسمح له بالعثور على الثغرات الأمنية في النظام المستهدف بشكل أكثر كفاءة ، وحتى استغلال المزيد من الثغرات الأمنية لشن الهجمات ، لذلك ستستمر المشكلات الأمنية في الوجود.
** لا يستطيع البشر تحديد مستوى ذكاء الذكاء الاصطناعي وقياسه بدقة **
** تقنية Tencent: بالإضافة إلى المخاطر الخفية لهجمات القراصنة ، نحن قلقون أيضًا بشأن المخاطر الأمنية للذكاء الاصطناعي نفسه. بادئ ذي بدء ، دعنا نركز على موضوع يناقشه الجميع حاليًا - هل تعتقد أن الذكاء الاصطناعي سينتج الوعي؟ **
** Zhu Jun: وجهة نظري الشخصية تميل أكثر إلى الاعتقاد بأن الأداء الحالي لـ "الوعي" في الذكاء الاصطناعي ليس واضحًا للغاية ، لأننا لا نستطيع تحديد وقياس الوعي بدقة. ** لذلك ، عند مراقبة أداء النموذج اللغوي ، سنجد أن النموذج الكبير لا يزال يعاني من مشاكل مثل الأخطاء الواقعية. في حين أن بعض الأخطاء تقرأ بطلاقة ، إلا أنها عند الفحص الدقيق ليست واقعية أو منطقية. هذه واحدة من العديد من المشاكل مع النموذج ، أن مستوى خصوصية الوعي لم يتم تقييمه بشكل كمي بالكامل.
تعتبر نماذج اللغة متعلمين أقوياء لأنهم يعرفون الكثير عن الجسد والنص أكثر من أي إنسان في العالم. على سبيل المثال ، قد يتمكن النموذج من الوصول إلى جميع المعلومات المتوفرة على الإنترنت تقريبًا ، مقارنةً بمصادر المعلومات المحدودة التي يمكن لكل منا الوصول إليها.
من منظور التنوع ، فإن الذكاء الاصطناعي هو بالتأكيد أفضل من أي شخص. ومع ذلك ، في بعض النواحي ، لا يمكن أن يصل أداء النموذج إلى المستوى البشري. لذلك ، يجب أن ننظر إلى النموذج من منظور التطور التكنولوجي الواقعي ، بما في ذلك الذكاء الاصطناعي العام والجوانب الأخرى التي يناقشها الجميع. أنا شخصياً أعتقد أن المستوى الحالي للتكنولوجيا لم يصل إلى الوضع الذي يكون فيه خارج نطاق السيطرة أو تطور فقط من خلال سيطرة الروبوت الخاص.
يمكن القول أن نماذج التعلم الآلي واسعة النطاق يمكن أن تستخدم شبكات معقدة مثل التعلم العميق لمعالجة البيانات ، والاستفادة من بعض الإدراك البشري من حيث الهندسة المعمارية والتصميم. ولكن بشكل عام ، هناك اختلافات كبيرة بين نماذج الشبكات العصبية الاصطناعية والأنظمة البيولوجية الحقيقية ، تتراوح من مقياس إلى هيكل. لذلك ، في الواقع ، لا يمكننا حاليًا تقييم مستوى الذكاء لأنظمة الذكاء الاصطناعي بوضوح ، أو تقييم ما إذا كانت لديها قدرات معرفية مثل العقل.
** Tencent Technology: أطلق بعض التجار مؤخرًا مفهوم "رفيق الذكاء الاصطناعي" - يمكن للأشخاص أن يقعوا في حب الذكاء الاصطناعي ويحتاجون إلى الدفع. هل تعتقد أن الذكاء الاصطناعي يمكنه فهم المشاعر البشرية؟ ما هي مخاطر الأمان الموجودة في عملية التفاعل مع الشركاء الافتراضيين؟ **
** Zhu Jun: ** لطالما كانت الحوسبة العاطفية موضوعًا كلاسيكيًا في مجال الذكاء الاصطناعي. من حيث العاطفة ، يمكن لتقنية الذكاء الاصطناعي محاكاة شخصية ما وتحديد حالتها العاطفية أو النفسية. ومع ذلك ، من الناحية الفنية ، لا يزال هناك العديد من المشاكل والتحديات في هذا المجال.
من الصعب جدًا تحقيق مستوى التواصل البشري الحقيقي. على سبيل المثال ، حتى إذا تحدثنا وجهًا لوجه أو استخدمنا نفس اللغة للحوار ، فمن الصعب أن نفهم حقًا عواطف بعضنا البعض أو أنشطتنا العقلية ، لأن كل فرد يستجيب لنفس المدخلات بآلاف الطرق. هذه النماذج الكبيرة التي نستخدمها الآن نموذجًا أساسيًا لهذه العملية ، لكن كل النمذجة تتطلب افتراضات مبسطة ومثالية. من المشكوك فيه ما إذا كانت هذه الافتراضات تنطبق على الجميع ، أو ما إذا كانت تتناسب بشكل جيد مع واقع كل فرد. من الصعب علينا التعبير بدقة عن مشاعر الجميع المعقدة بنموذج بسيط.
قد يتضمن هذا النموذج جوانب مختلفة مثل القضايا الاجتماعية والأخلاق والأخلاق ، وهناك العديد من المشاكل المحتملة التي تحتاج إلى حل. على الرغم من عدم وجود عتبات كثيرة للتنفيذ الفني ، وقد ظهر هذا النموذج بالفعل في الدول الأجنبية. ومع ذلك ، نحتاج إلى التفكير بعمق في تأثير هذا النموذج - على سبيل المثال ، قد يكون بعض الشباب أقل رغبة في إنفاق الطاقة على الحب الحقيقي أو الزواج ، وما إلى ذلك ، وقد يتسبب ذلك في مشاكل محتملة للاستقرار الاجتماعي.
بالإضافة إلى ذلك ، نحتاج إلى الانتباه إلى ما إذا كانت منتجات الذكاء الاصطناعي هذه ستكون متحيزة أو موجهة بشكل هادف ضد أفراد معينين ، الأمر الذي سيؤدي إلى مخاطر كبيرة. إذا تفاعلنا مع إنسان آلي كل يوم ، فسيتم توجيه المعلومات التي تم الحصول عليها بشكل طبيعي بواسطة الروبوت ، مما قد يؤثر على القيم الشخصية ، أو يتحكم في العواطف والسلوكيات الشخصية. على المدى الطويل ، قد يؤثر ذلك على العلاقة الاجتماعية بين الناس ويسبب تغييرات في سلوك المجتمع بأسره. لكن هذه ليست مشاكل يمكن حلها بالكامل عن طريق التكنولوجيا. بشكل عام ، مقارنة بالدول الأخرى ، سيكون بلدي أكثر حذرًا عند استخدام التقنيات الجديدة ، وسنقدم إنذارًا مبكرًا للمخاطر المحتملة ونتخذ بعض التدابير الوقائية.
** تشكيل الذكاء الاصطناعي الآمن: التعامل مع أفضل العارضين على أنهم "موجهون" **
** تقنية Tencent: إذا كان هناك خطأ في الذكاء الاصطناعي ، من منظور تقني ، ما العمل الذي يمكننا القيام به لتصحيح الخطأ في النموذج الكبير؟ **
** Zhu Jun: ** نظرًا لاختلاف بيانات التدريب والمستوى الفني ، على سبيل المثال ، نستخدم نفس السؤال لطرح نماذج كبيرة مختلفة ، قد تكون النتائج التي يقدمونها مختلفة ، وبعض النتائج جيدة ، ولكن بعضها خبيث أو سيئ نتيجة. لذلك ، من الضروري بالنسبة لنا توحيد وتحسين جودة هذه النماذج وإمكانية التحكم فيها.
عادةً ما تقوم بعض النماذج الكبيرة بالكثير من التدريب على المحاذاة والخصومة. على سبيل المثال ، قبل ظهور GPT-4 ، طرح المتخصصون في مجالات مختلفة أسئلة من زوايا مختلفة للتحقق من دقة النموذج لمعرفة ما إذا كان النظام سينتج نتائج غير متوافقة أو ضارة ، ومحاولة التنظيم والتعديل. ومع ذلك ، لا يزال هناك العديد من النماذج (بما في ذلك العديد من النماذج مفتوحة المصدر) التي لم تخضع لمثل هذا الاختبار الصارم أو التدريب العدائي ، لذلك ستكون هناك مخاطر أمنية مختلفة.
** أحد المسارات التقنية التي تستحق المحاولة هو معاملة أحد أفضل النماذج على أنه "مرشد" ** ، ثم إجبار النماذج الأخرى على محاكاة سلوك هذا النموذج بطريقة فعالة واقتصادية. بالطبع ، هناك المزيد من جوانب العمل الأخرى ، مثل العمل المعياري والمواءمة لكل نموذج محدد وفقًا للمتطلبات المعيارية للبلدان المختلفة.
بينما نتوقع أن تنتج هذه النماذج دائمًا نتائج متوافقة مع المواصفات عند استخدامها ، فإن احتمالية المخاطرة لا تنخفض أبدًا إلى الصفر. ** بالإضافة إلى ذلك ، عند استخدامه ، نحتاج أيضًا إلى مراعاة الأخلاق والقواعد القانونية وما إلى ذلك ، والتي تتطلب إدارة وتنظيمًا مشتركين من قبل مختلف الصناعات والمجالات ، حتى يتمكن النموذج من خدمة البشر بشكل أفضل.
** Tencent Technology: لقد ذكرنا للتو أنه من خلال التدريب المستمر لتصحيح وتقليل معدل الخطأ في النماذج الكبيرة ، كيف يمكننا قياس موثوقيتها؟ لقد شاركت بعمق في مجال التعلم العميق Bayesian. في رأيك ، كيفية بناء النماذج وتحسينها لتحسين دقة وموثوقية التنبؤات؟ **
** Zhu Jun: ** الصناعة لها هدف الدقة نفسه ، وعادة ما يتم قياسه بواسطة مؤشرات موضوعية ، وتتعلق المؤشرات المحددة بالمهام المحددة التي يتم تنفيذها. فيما يتعلق بالتصنيف والاعتراف ، سيتم استخدام دقة التعرف النهائية لتوجيه تدريب النموذج.
بالنسبة لمشاكل عدم اليقين ، مثل الشبكات العصبية ، وجدنا أنه في كثير من الحالات ، ستكون تنبؤاتها مفرطة في الثقة والتفاؤل. على سبيل المثال ، ناتج بعض النتائج هو في الأصل تنبؤ غامض أو غير مؤكد ، لكنه سيخبرك بنتيجة التوقع بثقة زائدة ، وهو ما نسميه "الثقة المفرطة".
لهذه الظاهرة أو المشكلة ، يمكن لتقنيات التعلم العميق باستخدام طرق بايز أن تميز عدم اليقين بشكل أفضل. يمكن اعتباره بشكل أساسي من العديد من الجوانب ، مثل العوامل غير المؤكدة التي قد تكون موجودة في نهاية الإدخال والعوامل غير المؤكدة التي قد تكون موجودة في نهاية النموذج ، وإعطاء ثقة أكثر انسجاما مع الوضع الفعلي. هذا النهج البايزي أكثر موثوقية من الشبكات العصبية.
** تقنية Tencent: غالبًا ما تكون بنية الشبكة في العالم الحقيقي معقدة للغاية ، بما في ذلك التغييرات الديناميكية متعددة المستويات والمتعددة الأبعاد والخصائص الأخرى ، والتي ستجلب تحديات كبيرة لإنشاء نموذج احتمالية الانتشار وتحسينه. الفريق الذي تقوده هو أحد أوائل الفرق المشاركة في البحث حول نظرية وخوارزمية نموذج احتمالية الانتشار في العالم. كيف يتخلص فريقك من الضوضاء وعدم اليقين في البيانات في بناء النموذج لتحسين متانة النموذج وموثوقيته؟ **
** Zhu Jun: ** نموذج الانتشار هو نموذج توليدي ، له عمليتان للانتشار الأمامي والانتشار العكسي. يحول الانتشار الأمامي الصورة إلى صورة ضوضاء غاوسي عشوائية تمامًا عن طريق إضافة التشويش تدريجياً. يبدأ الانتشار العكسي من توزيع بدون بنية تقريبًا ، ويزيل التشويش تدريجيًا ، ويتقارب إلى توزيع يمكنه وصف البيانات الحقيقية. يمكن إنشاء عينات جديدة من هذا التوزيع ، مثل إنشاء النصوص والصور والفيديو ، والتي تتم دراستها على نطاق واسع الآن.
تعد نماذج الانتشار واحدة من أكثر التقنيات أهمية في المجال التوليدي. من حيث المتانة ، فإن فكرة نماذج الانتشار تشبه أمثلة الخصومة. تحقق الأمثلة العدائية الغرض من الهجوم عن طريق إضافة ضوضاء محسّنة للخوارزمية في عملية التوليد. في المقابل ، يمكننا تحسين حجم واتجاه الضوضاء من خلال إيجاد التوزيع تدريجيًا في عملية الانتشار العكسي لتحسين متانة النموذج. يمكن أيضًا تطبيق هذه الطريقة لتوليد بيانات صاخبة لتحسين موثوقية ودقة النموذج.
** تقنية Tencent: كيف يمكننا تحسين دقة الذكاء الاصطناعي في تطبيق Vincent في اتجاهات أخرى؟ أنا قلق بشأن خوارزمية Wensheng ثلاثية الأبعاد الجديدة ProlificDreamer التي اقترحها فريقك مؤخرًا ، والتي يمكنها إنشاء محتوى ثلاثي الأبعاد فائق الجودة بدون أي بيانات ثلاثية الأبعاد. كيف يتعامل فريقك مع التنوع والغموض الدلالي لإنشاء محتوى أكثر دقة؟ نموذج ثلاثي الأبعاد؟ **
** Zhu Jun: ** بالمقارنة مع الأساليب التقليدية ثلاثية الأبعاد ، تستخدم الصناعة عادةً نموذجًا توليديًا ثنائي الأبعاد مدرب مسبقًا (مثل نموذج الانتشار) للتدريب على قاعدة بيانات الصور. عند القيام بالتوليد ثلاثي الأبعاد ، نحتاج إلى تعيين الصورة ثنائية الأبعاد التي تم إنشاؤها على النموذج ثلاثي الأبعاد ، الأمر الذي يتطلب خطوة وسيطة تسمى "التقطير". نظرًا لأن النموذج ثلاثي الأبعاد له بنية مكانية ، فنحن بحاجة إلى مراعاة الخصائص ثلاثية الأبعاد للكائن. لذلك ، نحتاج إلى مراقبة الكائنات من زوايا مختلفة وتقديم الصور ثنائية الأبعاد المقابلة ، ثم محاذاتها مع النموذج المدرب مسبقًا ، بحيث يمكن إنشاء الأصول ثلاثية الأبعاد ، وما إلى ذلك. ومع ذلك ، فإن هذا النهج له أيضًا بعض القيود. على سبيل المثال ، عادةً ما تكون النتائج التي تولدها مشبعة جدًا أو سلسة جدًا ، وتفتقر إلى المعلومات مثل التفاصيل والقوام.
لحل هذه المشكلة ، نحتاج إلى استكشاف تقنيات المستوى الأدنى. وجدنا أن هناك بعض الصعوبات الكامنة في استخدام خوارزمية التقطير لإيجاد نموذج ثلاثي الأبعاد واحد ، والتي يجب التغلب عليها من المبادئ الأساسية. تبحث الخوارزميات الحالية عن نوع من التطرف في الوظيفة الموضوعية ، على غرار "الخوارزمية الجشعة (خوارزمية الجشع)" ، ستجد فقط الحل الأمثل ، من أجل تحقيق هذا الغرض ، يغير العمل الحالي الوظيفة الموضوعية لجعلها أعلى في بعض المناطق ، وهو متوسط أكثر في مناطق أخرى ، يمكن لطريقة تعديل الوظيفة الموضوعية أن تجد الحل النهائي بسرعة.
للتغلب على صعوبات الأساليب المذكورة أعلاه ، نقوم بإعادة صياغة مشكلة إنشاء نص إلى ثلاثي الأبعاد كأخذ عينات من بعض التوزيع الذي قد يطيعه النموذج ثلاثي الأبعاد ، ثم نجعله ومواءمته مع النموذج ثنائي الأبعاد الذي تم تدريبه مسبقًا. ** ميزة طريقة أخذ العينات هذه هي أن النموذج ثنائي الأبعاد نفسه هو نموذج احتمالي ، ومعلومات الوصف أغنى من التحسين الجشع ؛ لهذا السبب ، استنتجنا خوارزمية تقطير متغيرة جديدة واستخدمناها بشكل أساسي في نفس العديد من التفاصيل التفصيلية للغاية والمشاهد ثلاثية الأبعاد المعقدة ، بما في ذلك الأصول عالية الدقة ، تم إنشاؤها في جزء صغير من الوقت.
النقطة الأساسية في طريقتنا هي أنها تقلل أو تزيل تمامًا الاعتماد على بيانات التدريب ثلاثي الأبعاد وتحسن بشكل كبير جودة التوليد. لقد تواصلت مؤخرًا مع الممارسين الذين يقومون بالرسومات ، ويشعرون أيضًا أن هذا التأثير مذهل للغاية. دعونا نرى الإمكانات العظيمة للقدرة على إنشاء صور ثلاثية الأبعاد عالية الجودة.
لمعالجة الغموض. بالنسبة لإدخال النص نفسه ، قد يكون لدى الأشخاص المختلفين مفاهيم مختلفة ، على سبيل المثال ، قد تشير كلمة "Apple" إلى Apple أو Apple Inc. أو منتجاتها. في نموذجنا ، يتم حل الغموض باستخدام نهج أخذ العينات القائم على الاحتمالية لتوليد العديد من النتائج المحتملة. ** على المدى الطويل ، يتطلب توضيح الغموض المزيد من الإشارات والمحاذاة لتحسين إمكانية التحكم والدقة ، مثل محاذاة النص والصور أو البيانات النمطية الأخرى. ** في المجالات اللغوية والوسائط المتعددة ، يكون المعنى النهائي متعلقًا بالسياق ذي الصلة.
حاليًا ، نحن نعمل مع العملاء في صناعات مختلفة لزيادة تحسين تقنية الجيل ثلاثي الأبعاد الخاصة بنا وجعلها أكثر نضجًا. في المجال ثلاثي الأبعاد ، تعتبر الأصول ثلاثية الأبعاد عالية الجودة ذات قيمة عالية. على سبيل المثال ، في سيناريوهات إنشاء أصول اللعبة ، تستخدم الشركات التقليدية عادةً الأساليب التقليدية مثل الهندسة أو الرسومات لإنشاء مكتبات الأصول ثلاثية الأبعاد وصيانتها ، الأمر الذي يتطلب استثمارًا كبيرًا للوقت. تقنيتنا يمكنها تحسين الكفاءة الإبداعية بشكل كبير وتقليل تكلفة الوقت.