كيف تثق في الذكاء الاصطناعي: ما هي الأفكار التي يوفرها التعلم الآلي بدون معرفة (ZKML)

ملخص

** مع تطور الذكاء الاصطناعي بسرعة لا يمكن تصورها ، فإنه سيثير حتماً مخاوف بشأن "الحافة" الأخرى لسيف الذكاء الاصطناعي - الثقة. ** الأول هو الخصوصية: في عصر الذكاء الاصطناعي ، كيف يمكن للبشر أن يثقوا في الذكاء الاصطناعي من منظور خصوصية البيانات؟ ربما تكون شفافية نموذج الذكاء الاصطناعي هي مفتاح القلق: القدرة على الظهور مثل نموذج لغة واسع النطاق ترقى إلى "الصندوق الأسود" التكنولوجي الذي لا يمكن اختراقه بالنسبة للبشر ، ولا يستطيع المستخدمون العاديون فهم كيفية عمل النموذج و نتائج العملية وكيفية الحصول عليها - الأمر الأكثر إزعاجًا هو أنه بصفتك مستخدمًا ، قد لا تعرف ما إذا كان نموذج الذكاء الاصطناعي الذي يقدمه مزود الخدمة يعمل على النحو الموعود. خاصة عند تطبيق خوارزميات ونماذج الذكاء الاصطناعي على بعض البيانات الحساسة ، مثل الرعاية الطبية ، والتمويل ، وتطبيقات الإنترنت ، وما إلى ذلك ، سواء كان نموذج الذكاء الاصطناعي متحيزًا (أو حتى موجهًا بشكل ضار) ، أو ما إذا كان مزود الخدمة يدير النموذج (و المعلمات ذات الصلة) بدقة كما وعدت ، أصبحت القضية الأكثر قلقًا للمستخدمين. تمتلك تقنية إثبات المعرفة الصفرية حلاً مستهدفًا في هذا الصدد ، لذلك أصبح التعلم الآلي بدون معرفة (ZKML) هو أحدث اتجاه للتطوير.

** اعتبار شامل لسلامة الحوسبة ، والتحسين التجريبي والخصوصية ، والجمع بين إثبات المعرفة الصفرية والذكاء الاصطناعي ، والتعلم الآلي بدون معرفة (Zero-Knowledge Machine Learning ، ZKML). ** في العصر الذي يقترب فيه المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أكثر فأكثر من المحتوى الذي ينشئه الإنسان ، يمكن أن تساعدنا الخصائص التقنية لإثبات المعرفة الصفرية السرية في تحديد أن المحتوى المحدد يتم إنشاؤه من خلال نموذج معين. لحماية الخصوصية ، تعد تقنية إثبات المعرفة الصفرية مهمة بشكل خاص ، أي أنه يمكن إكمال الإثبات والتحقق دون الكشف عن إدخال بيانات المستخدم أو التفاصيل المحددة للنموذج.

** خمس طرق لتطبيق براهين عدم المعرفة على التعلم الآلي: التكامل الحسابي ، وتكامل النموذج ، والتحقق ، والتدريب الموزع ، والمصادقة. ** يُظهر التطور السريع الأخير لنماذج اللغة واسعة النطاق (LLMs) أن هذه النماذج أصبحت أكثر ذكاءً ، وأن هذه النماذج تكمل الواجهة المهمة بين الخوارزميات والبشر: اللغة. لا يمكن إيقاف اتجاه الذكاء الاصطناعي العام (AGI) بالفعل ، ولكن استنادًا إلى نتائج تدريب النموذج الحالي ، يمكن للذكاء الاصطناعي تقليد البشر ذوي القدرات العالية في التفاعلات الرقمية بشكل مثالي - وتجاوز البشر بسرعة لا يمكن تصورها في التطور السريع. لتتعجب من هذه السرعة التطورية ، وحتى القلق بشأن الاستعاضة عنها بسرعة بالذكاء الاصطناعي.

** يستخدم مطورو المجتمع ZKML للتحقق من وظيفة توصية Twitter ، وهي مفيدة. ** تستخدم ميزة التوصية "For You" في Twitter خوارزمية توصية AI لتقطير ما يقرب من 500 مليون تغريدة يتم نشرها كل يوم في عدد قليل من التغريدات الشائعة ، والتي يتم عرضها في النهاية على الجدول الزمني للصفحة الرئيسية للمستخدم. في نهاية مارس 2023 ، فتح Twitter الخوارزمية ، ولكن نظرًا لعدم الإعلان عن تفاصيل النموذج ، لا يزال المستخدمون غير قادرين على التحقق مما إذا كانت الخوارزمية تعمل بدقة وبشكل كامل. يستخدم مطور المجتمع Daniel Kang وآخرون أدوات التشفير ZK-SNARKs للتحقق مما إذا كانت خوارزمية توصية Twitter صحيحة وتعمل تمامًا دون الكشف عن تفاصيل الخوارزمية - هذه هي النقطة الأكثر جاذبية لإثبات عدم المعرفة ، أي عدم الكشف عن أي معلومات محددة حول الكائن إثبات مصداقية المعلومات على أساس المعلومات (المعرفة الصفرية). من الناحية المثالية ، يمكن أن يستخدم Twitter ZK-SNARKS لنشر البراهين على نموذج التصنيف الخاص به - أدلة على أنه عندما يتم تطبيق النموذج على مستخدمين وتغريدات محددين ، فإنه ينتج ترتيبًا نهائيًا محددًا للإخراج. هذا الدليل هو أساس مصداقية النموذج: يمكن للمستخدمين التحقق من أن حساب خوارزمية النمط يعمل على النحو الموعود - أو إرساله إلى طرف ثالث للتدقيق. يتم كل هذا دون الكشف عن تفاصيل أوزان معلمات النموذج. وهذا يعني ، باستخدام الدليل النموذجي المعلن رسميًا ، يستخدم المستخدم الدليل للتحقق من أن التغريدة المحددة تعمل بأمانة كما وعد النموذج لتغريدات محددة مشكوك فيها.

** 1. الأفكار الأساسية **

مع تطور الذكاء الاصطناعي بسرعة لا يمكن تصورها ، فإنه سيثير حتما مخاوف بشأن "الحافة" الأخرى لسيف الذكاء الاصطناعي - الثقة. الأول هو الخصوصية: في عصر الذكاء الاصطناعي ، كيف يمكن للبشر أن يثقوا في الذكاء الاصطناعي من منظور الخصوصية؟ ربما تكون شفافية نموذج الذكاء الاصطناعي هي مفتاح القلق: القدرة على الظهور مثل نموذج لغة واسع النطاق ترقى إلى "الصندوق الأسود" التكنولوجي الذي لا يمكن اختراقه بالنسبة للبشر ، ولا يستطيع المستخدمون العاديون فهم كيفية عمل النموذج و نتائج العملية وكيفية الحصول عليها (النموذج نفسه مليء بقدرات غير مفهومة أو يمكن التنبؤ بها) - ما هو أكثر إزعاجًا هو أنك كمستخدم ، قد لا تعرف ما إذا كان نموذج الذكاء الاصطناعي الذي يقدمه مزود الخدمة يعمل على النحو الموعود . خاصة عند تطبيق خوارزميات ونماذج الذكاء الاصطناعي على بعض البيانات الحساسة ، مثل التطبيقات الطبية والمالية وتطبيقات الإنترنت وما إلى ذلك ، سواء كان نموذج الذكاء الاصطناعي متحيزًا (أو حتى موجهًا بشكل ضار) ، أو ما إذا كان مزود الخدمة يدير النموذج (وما يرتبط به) المعلمات) بدقة كما وعدت ، أصبحت القضية الأكثر قلقًا للمستخدمين.

تمتلك تقنية إثبات المعرفة الصفرية حلاً مستهدفًا في هذا الصدد ، لذلك أصبح التعلم الآلي بدون معرفة (ZKML) هو أحدث اتجاه للتطوير. تناقش هذه الورقة خصائص تقنية ZKML ، وسيناريوهات التطبيق المحتملة وبعض الحالات الملهمة ، وتجري بحثًا وتوضيحًا لاتجاه تطوير ZKML وتأثيره الصناعي المحتمل.

** 2. "الحافة الأخرى" لسيف الذكاء الاصطناعي: كيف تثق في الذكاء الاصطناعي؟ **

تقترب قدرات الذكاء الاصطناعي بسرعة من قدرات البشر ، وقد تجاوزت بالفعل البشر في العديد من المجالات المتخصصة. يشير التطور السريع الأخير لنماذج اللغة الكبيرة (LLMs) إلى أن هذه النماذج أصبحت أكثر ذكاءً ، وأن هذه النماذج تعمل على تحسين واجهة مهمة بين الخوارزميات والبشر: اللغة. لا يمكن إيقاف اتجاه الذكاء الاصطناعي العام (AGI) بالفعل ، ولكن استنادًا إلى نتائج تدريب النموذج الحالي ، يمكن للذكاء الاصطناعي تقليد البشر ذوي القدرات العالية في التفاعلات الرقمية بشكل مثالي - وتجاوز البشر بسرعة لا يمكن تصورها في مستوى التطور السريع. لقد أحرز نموذج اللغة تقدمًا كبيرًا مؤخرًا. حققت المنتجات التي يمثلها ChatGPT أداءً مذهلاً ، حيث وصلت إلى أكثر من 20٪ من القدرة البشرية في معظم التقييمات الروتينية. عند مقارنة GPT-3.5 و GPT-4 ، اللذان يفصل بينهما بضعة أشهر فقط ، مما يجعل البشر يجب أن نتعجب من هذه السرعة التطورية. ولكن على الجانب الآخر ، هناك قلق بشأن فقدان السيطرة على قدرات الذكاء الاصطناعي.

** الأول هو جانب الخصوصية. ** في عصر الذكاء الاصطناعي ، مع تطور تقنيات مثل التعرف على الوجوه ، يشعر المستخدمون دائمًا بالقلق من مخاطر تسرب البيانات أثناء تجربة خدمات الذكاء الاصطناعي. لقد أدى ذلك إلى ظهور بعض العقبات أمام تعزيز الذكاء الاصطناعي وتطويره - كيف تثق في الذكاء الاصطناعي من منظور الخصوصية؟

** ربما تكون شفافية نماذج الذكاء الاصطناعي هي المفتاح لمزيد من القلق. ** القدرة على الظهور بشكل مشابه للنماذج اللغوية واسعة النطاق ترقى إلى "الصندوق الأسود" التكنولوجي غير القابل للاختراق بالنسبة للبشر. لا يمكن للمستخدمين عمومًا فهم كيفية عمل النموذج وكيفية الحصول على النتائج (النموذج نفسه مليء بالقدرة التي هي يصعب فهمه أو التنبؤ به) - أكثر إزعاجًا ، حيث قد لا يعرف المستخدم ما إذا كان نموذج الذكاء الاصطناعي المقدم من مزود الخدمة يعمل على النحو الموعود. خاصة عند تطبيق خوارزميات ونماذج الذكاء الاصطناعي على بعض البيانات الحساسة ، مثل التطبيقات الطبية والمالية وتطبيقات الإنترنت وما إلى ذلك ، سواء كان نموذج الذكاء الاصطناعي متحيزًا (أو حتى موجهًا بشكل ضار) ، أو ما إذا كان مزود الخدمة يدير النموذج (وما يرتبط به) المعلمات) بدقة كما وعدت ، أصبحت القضية الأكثر قلقًا للمستخدمين. على سبيل المثال ، هل تقدم منصة التطبيقات الاجتماعية توصيات ذات صلة وفقًا لخوارزمية "المعاملة المتساوية"؟ هل التوصية الصادرة عن خوارزمية الذكاء الاصطناعي لمزود الخدمة المالية دقيقة وكاملة كما وعدت؟ هل هناك استهلاك غير ضروري في خطة الخدمة الطبية التي أوصى بها الذكاء الاصطناعي؟ هل يقبل مقدمو الخدمات تدقيق نماذج الذكاء الاصطناعي؟

ببساطة ، من ناحية أخرى ، لا يعرف المستخدمون الوضع الحقيقي لنموذج الذكاء الاصطناعي الذي يقدمه مزود الخدمة. وفي نفس الوقت ، فإنهم قلقون جدًا من أن النموذج ليس "تمييزيًا". نماذج الذكاء الاصطناعي هي تعتبر أنها تتضمن بعض العوامل المنحازة أو الأخرى الموجهة ، والتي ستجلب خسارة غير معروفة للمستخدمين أو تأثير سلبي.

من ناحية أخرى ، يبدو أن سرعة التطور الذاتي للذكاء الاصطناعي لا يمكن التنبؤ بها بشكل متزايد ، ويبدو أن نموذج خوارزمية الذكاء الاصطناعي القوي بشكل متزايد يتجاوز إمكانية التحكم البشري ، ** لذا أصبحت مسألة الثقة أخرى "حافة" السيف الحاد لمنظمة العفو الدولية ". **

من الضروري إنشاء ثقة المستخدم في الذكاء الاصطناعي من منظور خصوصية البيانات وشفافية النموذج وإمكانية التحكم في النموذج. يحتاج المستخدمون إلى القلق بشأن حماية الخصوصية وما إذا كان نموذج الخوارزمية يعمل بدقة وكاملة كما وعد ؛ ومع ذلك ، هذه ليست مهمة سهلة. من حيث شفافية النموذج ، لدى موفري النماذج مخاوف بشأن تدقيق النموذج والإشراف على أساس أسرار العمل وغيرها. وجهات نظر ؛ من ناحية أخرى ، ليس من السهل التحكم في تطور نموذج الخوارزمية نفسه ، ويجب أيضًا مراعاة عدم القدرة على التحكم.

من منظور حماية خصوصية بيانات المستخدم ، أجرينا أيضًا الكثير من الأبحاث في تقاريرنا السابقة مثل "AI and Data Elements Driven by Web3.0: الانفتاح والأمان والخصوصية". بعض تطبيقات Web3.0 ملهمة جدًا في هذا الصدد - - أي أن التدريب على نموذج الذكاء الاصطناعي يتم تنفيذه في إطار فرضية التأكيد الكامل لبيانات المستخدم وحماية خصوصية البيانات.

ومع ذلك ، فإن السوق الحالي غارق في الأداء المذهل للنماذج الكبيرة مثل Chatgpt ، ولم يأخذ في الاعتبار مشكلات الخصوصية للنموذج نفسه ، وقضايا الثقة بالنموذج (والثقة الناتجة عن عدم القدرة على التحكم) التي أحدثها التطور للخصائص "الناشئة" للخوارزمية ، ولكن على مستوى آخر ، كان المستخدمون دائمًا متشككين بشأن التشغيل الدقيق والكامل والصادق لما يسمى بالنموذج الحسابي. لذلك ، يجب حل مشكلة الثقة في الذكاء الاصطناعي من المستويات الثلاثة للمستخدمين ومقدمي الخدمات وعدم القدرة على التحكم في النموذج.

** 3. ZKML: الجمع بين إثبات عدم المعرفة والذكاء الاصطناعي يجلب الثقة **

** 3.1. إثبات عدم المعرفة: تنضج zk-SNARKS و zk-STARK وغيرها من التقنيات **

تم اقتراح Zero Knowledge Proof (Zero Knowledge Proof ، ZKP) لأول مرة من قبل شافي جولدواسر وسيلفيو ميكالي من معهد ماساتشوستس للتكنولوجيا في ورقة بعنوان "تعقيد المعرفة لأنظمة الإثبات التفاعلية" في عام 1985. ذكر المؤلف في الورقة أنه من الممكن لمؤلف إقناع المحقق بصحة البيانات دون الكشف عن البيانات المحددة. الدالة العامة f (x) وقيمة الإخراج y للدالة ، تخبر أليس بوب أنها تعرف قيمة x ، لكن بوب لا يصدقها. للقيام بذلك ، تستخدم أليس خوارزمية إثبات المعرفة الصفرية لإنشاء إثبات. يتحقق بوب من هذا الدليل لتأكيد ما إذا كانت أليس تعرف حقًا x الذي يفي بالوظيفة f.

على سبيل المثال ، باستخدام إثبات عدم المعرفة ، لا تحتاج إلى معرفة درجات اختبار Xiaoming ، ولكن يمكنك معرفة ما إذا كانت درجاته تفي بمتطلبات المستخدم - مثل ما إذا كان ناجحًا ، وما إذا كان المعدل الصحيح لملء الفراغات يتجاوز 60٪ وهكذا. في مجال الذكاء الاصطناعي ، جنبًا إلى جنب مع إثبات عدم المعرفة ، يمكنك الحصول على أداة ثقة موثوقة لنماذج الذكاء الاصطناعي.

يمكن أن يكون إثبات المعرفة الصفرية تفاعليًا ، أي يجب على المُثبِّت إثبات صحة البيانات مرة واحدة لكل مُحقق ؛ يمكن أيضًا أن يكون غير تفاعلي ، أي أن المُثبِت ينشئ إثباتًا ، وأي شخص يستخدم هذا الدليل يمكنه يتم التحقق منها.

تنقسم المعرفة الصفرية إلى إثبات وتحقق ، وبصفة عامة ، يكون الإثبات شبه خطي ، أي أن التحقق هو T \ * log (T).

بافتراض أن وقت التحقق هو مربع لوغاريتم عدد المعاملات ، فإن وقت التحقق من الجهاز لكتلة من 10000 معاملة هو

VTime = () 2 ~ (13.2) 2 ~ 177 مللي ثانية ؛ قم الآن بزيادة حجم الكتلة بمقدار مائة مرة (إلى 1 مليون tx / block) ، وقت التشغيل الجديد للمدقق هو VTime = (log2 1000000) 2 ~ 202 ~ 400 مللي ثانية. لذلك ، يمكننا أن نرى قابلية التوسع الفائقة ، ولهذا السبب ، نظريًا ، يمكن أن تصل tps إلى عدد غير محدود.

** التحقق سريع جدًا ، وكل الصعوبة تكمن في جزء الاستدلال. ** طالما أن سرعة إنشاء البراهين يمكن أن تستمر ، فإن التحقق عبر السلسلة بسيط للغاية. يوجد حاليًا العديد من تطبيقات إثبات عدم المعرفة ، مثل zk-SNARKS و zk-STARKS و PLONK و Bulletproofs. كل طريقة لها مزاياها وعيوبها من حيث حجم الإثبات ووقت الإثبات ووقت التحقق.

كلما كان إثبات عدم المعرفة الصفرية أكثر تعقيدًا وأكبر ، كلما ارتفع الأداء وقصر الوقت المطلوب للتحقق. كما هو مبين في الشكل أدناه ، فإن STARKs و Bulletproofs لا تتطلب إعدادات موثوقة. نظرًا لأن كمية بيانات المعاملات ترتفع من 1TX إلى 10،000TX ، فإن حجم الإثبات الأخير يزيد بشكل أقل. ميزة Bulletproofs هي أن حجم الإثبات عبارة عن تحويل لوغاريتمي (حتى لو كانت f و x كبيرة) ، فمن الممكن تخزين الدليل في الكتلة ، لكن التعقيد الحسابي للتحقق منه خطي. يمكن ملاحظة أن الخوارزميات المختلفة لديها العديد من النقاط الرئيسية التي يجب موازنتها ، وهناك أيضًا مجال كبير للترقية. ومع ذلك ، في عملية التشغيل الفعلية ، فإن صعوبة إنشاء البراهين أكبر بكثير مما يتصور. لذلك ، فإن الصناعة ملتزمون الآن بحل مشكلة توليد البراهين.سؤال.

على الرغم من أن تطوير تقنية إثبات المعرفة الصفرية لا يكفي لمطابقة مقياس نموذج اللغة الكبير (LLM) ، إلا أن تنفيذها الفني له سيناريوهات تطبيق ملهمة. يوفر إثبات عدم المعرفة حلاً موثوقًا به لثقة الذكاء الاصطناعي ، خاصة في تطوير السيف ذي الحدين للذكاء الاصطناعي.

** 3.2. التعلم الآلي بدون معرفة (ZKML): ذكاء اصطناعي غير موثوق به **

في عصر يقترب فيه المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي أكثر فأكثر من المحتوى الذي ينشئه الإنسان ، يمكن أن تساعدنا الخصائص التقنية لإثباتات المعرفة الصفرية السرية في تحديد أن المحتوى المحدد يتم إنشاؤه من خلال تطبيق نموذج معين. لحماية الخصوصية ، تعد تقنية إثبات المعرفة الصفرية مهمة بشكل خاص ، أي أنه يمكن إكمال الإثبات والتحقق دون الكشف عن إدخال بيانات المستخدم أو التفاصيل المحددة للنموذج. بالنظر إلى نزاهة الحوسبة والتحسين التجريبي والخصوصية ، ظهر الجمع بين إثبات المعرفة الصفرية والذكاء الاصطناعي ، والتعلم الآلي بدون معرفة (Zero-Knowledge Machine Learning ، ZKML).

فيما يلي خمس طرق يمكن من خلالها تطبيق براهين انعدام المعرفة على التعلم الآلي. بالإضافة إلى الوظائف الأساسية مثل التكامل الحسابي ، وسلامة النموذج ، وخصوصية المستخدم ، يمكن أن يؤدي التعلم الآلي الصفري أيضًا إلى توفير تدريب موزع - وهذا سيعزز تكامل الذكاء الاصطناعي وسلسلة الكتل ، وتحديد الأشخاص في غابة الذكاء الاصطناعي (يمكن العثور على هذا الجزء في تقريرنا "رؤية Web3 لمؤسس OpenAI: Worldcoin تنشئ جواز سفر رقميًا للذكاء الاصطناعي").

إن الطلب على قوة الحوسبة للنموذج الكبير للذكاء الاصطناعي واضح للجميع.في هذا الوقت ، من خلال تداخل براهين ZK في تطبيقات الذكاء الاصطناعي ، يتم وضع متطلبات جديدة على قوة حوسبة الأجهزة. لا تزال الحالة الفنية الحالية لأنظمة المعرفة الصفرية جنبًا إلى جنب مع الأجهزة عالية الأداء غير قادرة على إثبات أي شيء كبير مثل نماذج اللغات الكبيرة (LLMs) المتاحة حاليًا ، ولكن تم إحراز بعض التقدم في إنشاء أدلة لنماذج أصغر. وفقًا لفريق Modulus Labs ، تم اختبار نظام إثبات ZK الحالي مقابل نماذج مختلفة بأحجام مختلفة. يمكن أن تعمل أنظمة الإثبات مثل plonky2 في حوالي 50 ثانية على جهاز AWS قوي لإنشاء أدلة لنماذج بمقياس يبلغ حوالي 18 مليون معلمة.

من حيث الأجهزة ، تشمل خيارات الأجهزة الحالية لتقنية ZK GPU أو FPGA أو ASIC. وتجدر الإشارة إلى أن إثبات المعرفة الصفرية لا يزال في المرحلة الأولى من التطوير ، ولا يزال هناك القليل من التوحيد القياسي ، ويتم تحديث الخوارزمية وتغييرها باستمرار. كل خوارزمية لها خصائصها الخاصة وهي مناسبة للأجهزة المختلفة ، وسيتم تحسين كل خوارزمية إلى حد معين كما يتطلب تطوير المشروع ، لذلك من الصعب تحديد الخوارزمية الأفضل تحديدًا.

وتجدر الإشارة إلى أنه فيما يتعلق بالجمع بين نماذج ZK و AI الكبيرة ، لا يوجد بحث واضح حول تقييم أنظمة الأجهزة الحالية ، لذلك ، لا تزال هناك متغيرات وإمكانيات كبيرة من حيث متطلبات الأجهزة المستقبلية.

** 3.3. حالة مُلهمة: التحقق من صحة خوارزمية تصنيف توصيات Twitter **

تستخدم وظيفة التوصية "For You" في Twitter خوارزمية توصية AI لتحسين ما يقرب من 500 مليون تغريدة يتم نشرها يوميًا في عدد قليل من التغريدات الشائعة ، والتي يتم عرضها أخيرًا على الجدول الزمني "For You" على الصفحة الرئيسية للمستخدم. تستخرج التوصية المعلومات الكامنة من التغريدات والمستخدم وبيانات التفاعل لتتمكن من تقديم توصيات أكثر صلة. في نهاية مارس 2023 ، فتح موقع Twitter الخوارزمية التي تختار وترتب المنشورات على الجدول الزمني لميزة التوصية "For You". تكون عملية التوصية على النحو التالي تقريبًا:

  1. إنشاء ميزات سلوك المستخدم من التفاعل بين المستخدمين والموقع ، والحصول على أفضل التغريدات من مصادر توصية مختلفة ؛

  2. استخدم نموذج خوارزمية الذكاء الاصطناعي لترتيب كل تغريدة ؛

  3. تطبيق الاستدلال والفلاتر ، مثل تصفية التغريدات التي حظرها المستخدمون والتغريدات التي شاهدوها ، وما إلى ذلك.

الوحدة الأساسية لخوارزمية التوصية هي الخدمة المسؤولة عن إنشاء وتقديم الجدول الزمني لك - Home Mixer. تعمل الخدمة بمثابة العمود الفقري الحسابي الذي يربط بين مصادر المرشحين المختلفة ، ووظائف التسجيل ، والاستدلال ، والمرشحات.

تتنبأ وظيفة التوصية "من أجلك" بمدى ملاءمة كل تغريدة مرشح وتحرزها بناءً على ما يقرب من 1500 توصية من المحتمل أن تكون ذات صلة بالمرشح. يقول موقع Twitter الرسمي أنه في هذه المرحلة ، يتم التعامل مع جميع تغريدات المرشحين على قدم المساواة. يتم تحقيق الترتيب الأساسي من خلال شبكة عصبية تضم حوالي 48 مليون معلمة ، والتي يتم تدريبها باستمرار على تفاعلات التغريدات لتحسينها. تأخذ آلية الترتيب هذه في الاعتبار الآلاف من الميزات والمخرجات عشر أو نحو ذلك من التصنيفات لتسجيل كل تغريدة ، حيث يمثل كل تصنيف احتمال المشاركة ، ثم يصنف التغريدات بناءً على هذه الدرجات.

على الرغم من أن هذه خطوة مهمة نحو الشفافية في خوارزمية توصيات Twitter ، لا يزال المستخدمون غير قادرين على التحقق مما إذا كانت الخوارزمية تعمل بدقة وبشكل كامل - أحد الأسباب الرئيسية هو تفاصيل الوزن المحددة في نموذج الخوارزمية المستخدم لترتيب التغريدات لحماية خصوصية المستخدم. السبب لم يتم الإعلان عنه. لذلك ، لا تزال شفافية الخوارزمية موضع شك.

باستخدام تقنية ZKML (Zero-Knowledge Machine Learning) ، يمكن لتويتر إثبات ما إذا كانت تفاصيل وزن نموذج الخوارزمية دقيقة وكاملة (ما إذا كان النموذج ومعلماته "متساويتين مع مستخدمين مختلفين") ، مما يجعل نموذج الخوارزمية حماية خصوصية وهناك توازن جميل بين الشفافية.

يستخدم مطور المجتمع Daniel Kang وآخرون أدوات التشفير ZK-SNARKs للتحقق مما إذا كانت خوارزمية توصية Twitter صحيحة وتعمل تمامًا دون الكشف عن تفاصيل الخوارزمية - هذه هي النقطة الأكثر جاذبية لإثبات عدم المعرفة ، أي عدم الكشف عن أي معلومات محددة حول الكائن إثبات مصداقية المعلومات على أساس المعلومات (المعرفة الصفرية). من الناحية المثالية ، يمكن أن يستخدم Twitter ZK-SNARKS لنشر البراهين على نموذج التصنيف الخاص به - أدلة على أنه عندما يتم تطبيق النموذج على مستخدمين وتغريدات محددين ، فإنه ينتج ترتيبًا نهائيًا محددًا للإخراج. هذه الشهادة هي أساس مصداقية النموذج: يمكن للمستخدمين التحقق من أن حساب خوارزمية النمط يعمل على النحو الموعود - أو إرساله إلى طرف ثالث للتدقيق. يتم كل هذا دون الكشف عن تفاصيل أوزان معلمات النموذج. وهذا يعني ، باستخدام الدليل النموذجي المعلن رسميًا ، يستخدم المستخدم الدليل للتحقق من أن التغريدة المحددة تعمل بأمانة كما وعد النموذج لتغريدات محددة مشكوك فيها.

لنفترض أن المستخدم يعتقد أن الجدول الزمني لميزة التوصية "لك" مشكوك فيه - معتقدًا أن بعض التغريدات يجب أن تحتل مرتبة أعلى (أو أقل). إذا كان بإمكان Twitter تشغيل وظيفة إثبات ZKML ، فيمكن للمستخدمين استخدام الدليل الرسمي للتحقق من تصنيف التغريدات المشتبه بها مقارنة بالتغريدات الأخرى في الجدول الزمني (النتيجة المحسوبة تتوافق مع الترتيب). تشير الدرجات غير المتطابقة إلى أن النموذج الحسابي بالنسبة لتلك التغريدات المحددة التي لم تكن تعمل بأمانة (كانت متنوعة بشكل مصطنع في بعض المعايير). يمكن فهم أنه على الرغم من أن المسؤول لا يعلن عن التفاصيل المحددة للنموذج ، ولكن وفقًا للنموذج ، يتم تقديم عصا سحرية (الدليل الذي تم إنشاؤه بواسطة النموذج). يمكن لأي تغريدة باستخدام هذه العصا السحرية أن تعرض درجة التصنيف ذات الصلة - ووفقًا لهذه العصا السحرية ، لا يمكن استعادة التفاصيل الخاصة للنموذج. لذلك ، يتم تدقيق تفاصيل النموذج الرسمي مع الحفاظ على خصوصية التفاصيل.

من منظور النموذج ، مع حماية خصوصية النموذج ، لا يزال من الممكن أن يؤدي استخدام تقنية ZKML إلى جعل النموذج يكتسب التدقيق وثقة المستخدم.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت