Yapay zekaya nasıl güvenilir: sıfır bilgili makine öğrenimi (ZKML) hangi fikirleri sağlar?

Özet

**Yapay zeka akıl almaz bir hızla geliştikçe, kaçınılmaz olarak yapay zeka kılıcının diğer "uç noktası" olan güven hakkında endişeleri artıracaktır. **Birincisi gizlilik: Yapay zeka çağında, insanlar veri gizliliği açısından yapay zekaya nasıl güvenebilir? Belki de AI modelinin şeffaflığı endişelenmenin anahtarıdır: büyük ölçekli bir dil modeli gibi ortaya çıkma yeteneği, insanlar için aşılmaz bir teknolojik "kara kutu" ile eşdeğerdir ve sıradan kullanıcılar modelin nasıl çalıştığını anlayamaz ve operasyonun sonuçları Ve nasıl elde edilir - daha da sıkıntılı olanı, bir kullanıcı olarak, servis sağlayıcının sağladığı AI modelinin söz verildiği gibi çalışıp çalışmadığını bilmiyor olabilirsiniz. Özellikle tıbbi, finansal, internet uygulamaları gibi bazı hassas veriler üzerinde AI algoritmaları ve modelleri uygularken, AI modelinin önyargılı (hatta kötü niyetli) olup olmadığı veya modeli hizmet sağlayıcının çalıştırıp çalıştırmadığı (ve ilgili parametreler) tam olarak söz verildiği gibi, kullanıcıların en çok endişe duyduğu konu haline geldi. Sıfır bilgi kanıtı teknolojisinin bu konuda hedeflenen bir çözümü vardır, bu nedenle sıfır bilgi makine öğrenimi (ZKML) en son geliştirme yönü haline geldi.

**Bilgi işlem bütünlüğü, buluşsal optimizasyon ve mahremiyetin kapsamlı değerlendirmesi, sıfır bilgi kanıtı ve yapay zeka kombinasyonu, sıfır bilgi makine öğrenimi (Sıfır Bilgi Makine Öğrenimi, ZKML) ortaya çıktı. **Yapay zeka tarafından oluşturulan içeriğin insan tarafından oluşturulan içeriğe giderek daha da yaklaştığı bir çağda, sıfır bilgili gizli kanıtın teknik özellikleri, belirli içeriğin belirli bir model aracılığıyla üretildiğini belirlememize yardımcı olabilir. Gizliliğin korunması için, sıfır bilgi kanıtı teknolojisi özellikle önemlidir, yani kanıt ve doğrulama, kullanıcı veri girişi veya modelin belirli ayrıntıları ifşa edilmeden tamamlanabilir.

**Sıfır bilgi kanıtlarının makine öğrenimine uygulanmasının beş yolu: hesaplama bütünlüğü, model bütünlüğü, doğrulama, dağıtılmış eğitim ve kimlik doğrulama. **Büyük ölçekli dil modellerinin (LLM'ler) son hızlı gelişimi, bu modellerin giderek daha akıllı hale geldiğini ve bu modellerin algoritmalar ve insanlar arasındaki önemli arayüzü, yani dili tamamladığını gösteriyor. Genel yapay zeka (AGI) eğilimi zaten durdurulamaz, ancak mevcut model eğitim sonuçlarına bakılırsa, yapay zeka dijital etkileşimlerde yüksek kapasiteli insanları mükemmel bir şekilde taklit edebilir ve hızlı evrimde hayal edilemeyecek bir hızla insanları geçebilir. bu evrimsel hıza hayret etmek ve hatta yerini hızla yapay zekanın alması konusunda endişelenmek.

**Topluluk geliştiricileri, öğretici olan Twitter öneri işlevini doğrulamak için ZKML'yi kullanır. **Twitter'ın "Sizin İçin" öneri özelliği, her gün yayınlanan yaklaşık 500 milyon tweet'i, sonunda kullanıcının ana sayfasının zaman çizelgesinde görüntülenen bir avuç popüler tweet'e ayırmak için bir AI öneri algoritması kullanır. Mart 2023'ün sonunda Twitter, algoritmayı açık kaynaklı hale getirdi, ancak modelin ayrıntıları halka açıklanmadığı için kullanıcılar algoritmanın doğru ve eksiksiz çalışıp çalışmadığını hala doğrulayamıyor. Topluluk geliştiricisi Daniel Kang ve diğerleri, Twitter tavsiye algoritmasının doğru olup olmadığını ve algoritma ayrıntılarını ifşa etmeden tamamen çalışıp çalışmadığını kontrol etmek için kriptografik araçlar ZK-SNARK'ları kullanıyor - bu, sıfır bilgi kanıtının en çekici noktası, yani hakkında herhangi bir özel bilgi ifşa etmemek nesne Bilginin öncülündeki bilginin güvenilirliğini kanıtlayın (sıfır bilgi). İdeal olarak Twitter, sıralama modelinin kanıtlarını yayınlamak için ZK-SNARKS'ı kullanabilir; bu, modelin belirli kullanıcılara ve tweet'lere uygulandığında, belirli bir nihai çıktı sıralaması ürettiğinin kanıtlarıdır. Bu kanıt, modelin güvenilirliğinin temelidir: kullanıcılar, model algoritmasının hesaplamasının söz verildiği gibi çalıştığını doğrulayabilir veya denetim için üçüncü bir tarafa gönderebilir. Tüm bunlar, model parametre ağırlıklarının ayrıntıları açıklanmadan yapılır. Diğer bir deyişle, kullanıcı, resmi olarak duyurulan model kanıtını kullanarak, kanıtı belirli tweet'in belirli şüpheli tweet'ler için model tarafından vaat edildiği gibi dürüst bir şekilde çalıştığını doğrulamak için kullanır.

1. Temel Fikirler

Yapay zeka hayal edilemeyecek bir hızla geliştikçe, kaçınılmaz olarak yapay zeka kılıcının diğer "uç noktası" olan güven hakkında endişeleri artıracaktır. Birincisi mahremiyet: Yapay zeka çağında, insanlar mahremiyet açısından yapay zekaya nasıl güvenebilir? Belki de AI modelinin şeffaflığı endişelenmenin anahtarıdır: büyük ölçekli bir dil modeli gibi ortaya çıkma yeteneği, insanlar için aşılmaz bir teknolojik "kara kutu" ile eşdeğerdir ve sıradan kullanıcılar modelin nasıl çalıştığını anlayamaz ve operasyonun sonuçları ve nasıl elde edileceği (modelin kendisi anlaşılmaz veya öngörülebilir yeteneklerle doludur) - daha da zahmetli olan şu ki, bir kullanıcı olarak, servis sağlayıcı tarafından sağlanan AI modelinin söz verildiği gibi çalışıp çalışmadığını bilmiyor olabilirsiniz. . Özellikle tıbbi, finansal, internet uygulamaları gibi bazı hassas veriler üzerinde AI algoritmaları ve modelleri uygularken, AI modelinin önyargılı (hatta kötü niyetli) olup olmadığı veya modeli hizmet sağlayıcının çalıştırıp çalıştırmadığı (ve ilgili parametreler) tam olarak söz verildiği gibi, kullanıcıların en çok endişe duyduğu konu haline geldi.

Sıfır bilgi kanıtı teknolojisinin bu konuda hedeflenen bir çözümü vardır, bu nedenle sıfır bilgi makine öğrenimi (ZKML) en son geliştirme yönü haline geldi. Bu makale, ZKML teknolojisinin özelliklerini, potansiyel uygulama senaryolarını ve bazı ilham verici durumları tartışıyor ve ZKML'nin gelişim yönü ve olası endüstriyel etkisi hakkında bir araştırma ve detaylandırma yapıyor.

**2. AI kılıcının "diğer kenarı": AI'ya nasıl güvenilir? **

Yapay zekanın yetenekleri hızla insanlarınkine yaklaşıyor ve birçok niş alanda şimdiden insanları geride bıraktı. Büyük dil modellerinin (LLM'ler) yakın zamandaki hızlı gelişimi, bu modellerin giderek daha akıllı hale geldiğini ve bu modellerin algoritmalar ve insanlar arasındaki önemli bir arayüzü iyileştirdiğini gösteriyor: dil. Genel yapay zeka (AGI) eğilimi zaten durdurulamaz, ancak mevcut model eğitim sonuçlarına bakılırsa, yapay zeka dijital etkileşimlerde yüksek kapasiteli insanları mükemmel bir şekilde taklit edebilir ve hızlı evrim seviyesinde hayal edilemeyecek bir hızla insanları geçebilir. Dil modeli son zamanlarda önemli ilerleme kaydetti. ChatGPT tarafından temsil edilen ürünler, çoğu rutin değerlendirmede insan yeteneğinin %20'sinden fazlasına ulaşarak inanılmaz bir performans gösterdi. Yalnızca birkaç ay arayla olan GPT-3.5 ve GPT-4'ü karşılaştırırken, İnsanları Bu evrimsel hıza hayret etmek zorundayım. Ancak diğer tarafta, AI yeteneklerinin kontrolünü kaybetme endişesi var.

**Birincisi gizlilik yönüdür. **Yapay zeka çağında yüz tanıma gibi teknolojilerin gelişmesiyle birlikte kullanıcılar yapay zeka hizmetlerini deneyimlerken her zaman veri sızıntısı riskinden endişe duyarlar. Bu, yapay zekanın tanıtımına ve geliştirilmesine belirli engeller getirdi - gizlilik açısından yapay zekaya nasıl güvenilir?

**Belki de AI modellerinin şeffaflığı, daha fazla endişenin anahtarıdır. **Büyük ölçekli dil modellerine benzer şekilde ortaya çıkma yeteneği, insanlar için aşılmaz bir teknolojik "kara kutu" ile eşdeğerdir. Genel kullanıcılar, modelin nasıl çalıştığını ve sonuçların nasıl elde edildiğini anlayamaz (modelin kendisi, sahip olunan Yetenek ile doludur. anlaşılması veya tahmin edilmesi zor) - daha zahmetli, çünkü bir kullanıcı hizmet sağlayıcı tarafından sağlanan AI modelinin söz verildiği gibi çalışıp çalışmadığını bilemeyebilir. Özellikle tıbbi, finansal, internet uygulamaları gibi bazı hassas veriler üzerinde AI algoritmaları ve modelleri uygularken, AI modelinin önyargılı (hatta kötü niyetli) olup olmadığı veya modeli hizmet sağlayıcının çalıştırıp çalıştırmadığı (ve ilgili parametreler) tam olarak söz verildiği gibi, kullanıcıların en çok endişe duyduğu konu haline geldi. Örneğin, sosyal uygulama platformu "eşit muamele" algoritmasına göre ilgili önerilerde bulunuyor mu? Finansal hizmet sağlayıcının AI algoritmasından gelen tavsiye, söz verildiği kadar doğru ve eksiksiz mi? AI tarafından önerilen tıbbi hizmet planında gereksiz tüketim var mı? Hizmet sağlayıcılar yapay zeka modellerinin denetlenmesini kabul ediyor mu?

Basitçe söylemek gerekirse, kullanıcılar bir yandan hizmet sağlayıcı tarafından sağlanan AI modelinin gerçek durumunu bilmezken, aynı zamanda modelin "ayrımcı" olmadığından çok endişe duyuyorlar. kullanıcılara bilinmeyen kayıp veya olumsuz etki getirecek bazı taraflı veya diğer odaklı faktörleri içerdiği kabul edilir.

Öte yandan, AI'nın kendi kendine evrim hızı giderek daha fazla tahmin edilemez hale geliyor ve giderek daha güçlü hale gelen AI algoritma modeli, insan kontrolünün olasılığının giderek daha ötesinde görünüyor,** bu nedenle güven konusu başka bir hale geldi. AI'nın keskin kılıcının "kenarı". **

Veri gizliliği, model şeffaflığı ve model kontrol edilebilirliği açısından yapay zekaya kullanıcı güveni oluşturmak gerekir. Kullanıcıların gizliliğin korunması ve algoritma modelinin söz verildiği gibi doğru ve eksiksiz çalışıp çalışmadığı konusunda endişelenmesi gerekir, ancak bu kolay bir iş değildir.Model şeffaflığı açısından, model sağlayıcılar iş sırlarına ve diğer bilgilere dayalı olarak model denetimi ve gözetimi konusunda endişelere sahiptir. Öte yandan, algoritma modelinin evrimini kontrol etmek kolay değildir ve bu kontrol edilemezliğin de dikkate alınması gerekir.

Kullanıcı verilerinin gizliliğinin korunması açısından, "Web3.0 Tarafından Yönlendirilen Yapay Zeka ve Veri Öğeleri: Açıklık, Güvenlik ve Gizlilik" gibi önceki raporlarımızda da birçok araştırma yaptık. Web3.0'ın bazı uygulamaları çok ilham verici bu bağlamda — — Yani, yapay zeka modeli eğitimi, eksiksiz kullanıcı verisi onayı ve veri gizliliği koruması öncülünde gerçekleştirilir.

Bununla birlikte, mevcut pazar, Chatgpt gibi büyük modellerin çarpıcı performansı karşısında şaşkına dönmüştür ve modelin gizlilik sorunlarını, modelin evrimin getirdiği güven sorunlarını (ve kontrol edilemezliğin getirdiği güveni) dikkate almamıştır. Ancak başka bir düzeyde, kullanıcılar algoritmik model olarak adlandırılan modelin doğru, eksiksiz ve dürüst işleyişi konusunda her zaman şüpheci olmuşlardır. Bu nedenle, AI'nın güven sorunu, üç kullanıcı, hizmet sağlayıcı ve model kontrol edilemezliği seviyesinden çözülmelidir.

3. ZKML: Sıfır bilgi kanıtı ve yapay zekanın birleşimi güven getirir

3.1. Sıfır bilgi kanıtı: zk-SNARKS, zk-STARK ve diğer teknolojiler olgunlaşıyor

Sıfır Bilgi Kanıtı (Zero Knowledge Proof, ZKP) ilk olarak MIT'den Shafi Goldwasser ve Silvio Micali tarafından 1985 yılında "Knowledge Complexity of Interactive Proof Systems" başlıklı bir makalede önerildi. Yazar, makalede, bir kanıtlayıcının, doğrulayıcıyı belirli verileri ifşa etmeden verilerin gerçekliğine ikna etmesinin mümkün olduğundan bahsetmiştir. Genel işlev f(x) ve bir işlevin çıktı değeri y, Alice, Bob'a x'in değerini bildiğini, ancak Bob'un buna inanmadığını söyler. Bunu yapmak için Alice, bir kanıt oluşturmak için sıfır bilgili bir kanıt algoritması kullanır. Bob, Alice'in f fonksiyonunu sağlayan x'i gerçekten bilip bilmediğini doğrulamak için bu kanıtı doğrular.

Örneğin, sıfır bilgi kanıtını kullanarak, Xiaoming'in test puanlarını bilmenize gerek yoktur, ancak puanlarının kullanıcının gereksinimlerini karşılayıp karşılamadığını öğrenebilirsiniz; %60 vb. Yapay zeka alanında, sıfır bilgi kanıtıyla birleştiğinde, yapay zeka modelleri için güvenilir bir güven aracına sahip olabilirsiniz.

Sıfır bilgi ispatı etkileşimli olabilir, yani kanıtlayıcı her doğrulayıcıya verilerin gerçekliğini bir kez kanıtlamak zorundadır; etkileşimsiz de olabilir, yani kanıtlayıcı bir kanıt oluşturur ve bu kanıtı kullanan herkes bunu yapabilir. doğrulanacak

Sıfır bilgi, ispat ve doğrulama olarak ikiye ayrılır.Genel olarak, ispat yarı-doğrusaldır, yani doğrulama T*log(T) şeklindedir.

Doğrulama süresinin işlem sayısının logaritmasının karesi olduğunu varsayarsak, 10.000 işlemlik bir blok için makine doğrulama süresi

VTime = ( )2 ~ (13.2)2 ~ 177 ms; şimdi blok boyutunu yüz kat artırın (1 milyon tx/bloğa), doğrulayıcının yeni çalışma süresi VTime = (log2 1000000)2 ~ 202 ~ 400 ms. Bu nedenle, süper ölçeklenebilirliğini görebiliriz, bu nedenle teorik olarak tps sınırsıza ulaşabilir.

**Doğrulama çok hızlıdır ve tüm zorluk kanıt üretme kısmındadır. **Kanıt üretme hızı devam edebildiği sürece, zincir üzerinde doğrulama çok basittir. Şu anda zk-SNARKS, zk-STARKS, PLONK ve Bulletproofs gibi sıfır bilgi kanıtlarının birçok uygulaması bulunmaktadır. Her yöntemin kanıt boyutu, kanıtlama süresi ve doğrulama süresi açısından kendi avantajları ve dezavantajları vardır.

Sıfır bilgi kanıtı ne kadar karmaşık ve büyük olursa, performans o kadar yüksek ve doğrulama için gereken süre o kadar kısa olur. Aşağıdaki şekilde gösterildiği gibi, STARK'lar ve Bulletproof'lar güvenilir ayarlar gerektirmez.İşlem verisi miktarı 1TX'ten 10.000TX'e çıktıkça, ikinci kanıtın boyutu daha da az artar. Bulletproofs'un avantajı, ispatın boyutunun logaritmik bir dönüşüm olmasıdır (f ve x büyük olsa bile), ispatı blokta depolamak mümkündür, ancak doğrulamasının hesaplama karmaşıklığı doğrusaldır. Görüldüğü gibi çeşitli algoritmaların tartılması gereken birçok kilit noktası vardır ve ayrıca yükseltme için çok yer vardır.Ancak fiili çalışma sürecinde kanıt üretmenin zorluğu sanıldığından çok daha fazladır.Bu nedenle endüstri şimdi kanıt üretme problemini çözmeye kararlı.soru.

Sıfır bilgi kanıtı teknolojisinin geliştirilmesi, büyük bir dil modelinin (LLM) ölçeğini karşılamak için yeterli olmasa da, teknik uygulamasının ilham verici uygulama senaryoları vardır. Özellikle AI çift kenarlı kılıcın geliştirilmesinde sıfır bilgi kanıtı, AI güveni için güvenilir bir çözüm sağlar.

3.2. Sıfır Bilgi Makine Öğrenimi (ZKML): Güvensiz Yapay Zeka

Yapay zeka tarafından oluşturulan içeriğin insan tarafından oluşturulan içeriğe giderek daha da yaklaştığı bir çağda, sıfır bilgili gizli kanıtların teknik özellikleri, belirli bir model uygulanarak belirli içeriğin üretildiğini belirlememize yardımcı olabilir. Gizliliğin korunması için, sıfır bilgi kanıtı teknolojisi özellikle önemlidir, yani kanıt ve doğrulama, kullanıcı veri girişi veya modelin belirli ayrıntıları ifşa edilmeden tamamlanabilir. Bilgi işlemin bütünlüğü, buluşsal optimizasyon ve gizlilik göz önüne alındığında, sıfır bilgi kanıtı ve yapay zekanın birleşimi, sıfır bilgi makine öğrenimi (Sıfır Bilgi Makine Öğrenimi, ZKML) ortaya çıktı.

İşte sıfır bilgi kanıtlarının makine öğrenimine uygulanabileceği beş yol. Sıfır bilgili makine öğrenimi, hesaplama bütünlüğü, model bütünlüğü ve kullanıcı gizliliği gibi temel işlevlere ek olarak, dağıtılmış eğitimi de beraberinde getirebilir - bu, AI ile blok zincirinin entegrasyonunu ve AI ormanındaki kişilerin tanımlanmasını teşvik edecektir. (Bu bölüm, "OpenAI Kurucusunun Web3 Vizyonu: Worldcoin Yapay Zeka Dijital Pasaportu Oluşturuyor" raporumuzda bulunabilir).

AI büyük modelinin bilgi işlem gücüne olan talep herkes için açıktır. Şu anda, ZK kanıtlarını AI uygulamalarına serpiştirerek, donanım bilgi işlem gücüne yeni talepler getiriliyor. Yüksek performanslı donanımla birleştirilmiş sıfır bilgi sistemleri için mevcut teknoloji, halen mevcut olan büyük dil modelleri (LLM'ler) kadar büyük bir şeyi kanıtlayamıyor, ancak daha küçük modeller için kanıtlar oluşturma konusunda bazı ilerlemeler kaydedildi. Modulus Labs ekibine göre, mevcut ZK kanıt sistemi farklı boyutlardaki çeşitli modellere karşı test edildi. Plonky2 gibi prova sistemleri, yaklaşık 18 milyon parametre ölçeğine sahip modeller için provalar oluşturmak üzere güçlü bir AWS makinesinde yaklaşık 50 saniyede çalışabilir.

Donanım açısından, ZK teknolojisi için mevcut donanım seçenekleri arasında GPU, FPGA veya ASIC bulunur. Sıfır bilgi kanıtının hala geliştirmenin ilk aşamasında olduğu, hala çok az standardizasyon olduğu ve algoritmanın sürekli güncellenip değiştirildiği belirtilmelidir. Her algoritmanın kendine has özellikleri vardır ve farklı donanımlar için uygundur ve her algoritma, projenin gelişimi gerektirdikçe belirli ölçüde iyileştirilecektir, bu nedenle hangi algoritmanın en iyi olduğunu özel olarak değerlendirmek zordur.

ZK ve AI büyük modellerinin kombinasyonu açısından, mevcut donanım sistemlerinin değerlendirilmesine ilişkin net bir araştırma olmadığı, bu nedenle gelecekteki donanım gereksinimleri açısından hala büyük değişkenler ve potansiyeller olduğu belirtilmelidir.

3.3. İlham Veren Vaka: Twitter Tavsiye Derecelendirme Algoritmasının Doğrulanması

Twitter'ın "Sizin İçin" öneri işlevi, her gün gönderilen yaklaşık 500 milyon tweet'i, sonunda kullanıcının ana sayfasındaki "Sizin İçin" zaman çizelgesinde görüntülenen bir avuç popüler tweet'e dönüştürmek için bir AI öneri algoritması kullanır. Öneri, daha alakalı öneriler sunabilmek için tweet, kullanıcı ve etkileşim verilerinden gizli bilgileri çıkarır. Mart 2023'ün sonunda Twitter, "Sizin İçin" öneri özelliği için gönderileri zaman çizelgesinde seçen ve sıralayan algoritmayı açık kaynaklı hale getirdi. Öneri süreci kabaca şu şekildedir:

  1. Kullanıcılar ve web sitesi arasındaki etkileşimden kullanıcı davranışı özellikleri oluşturun ve farklı öneri kaynaklarından en iyi tweet'leri elde edin;

  2. Her tweet'i sıralamak için AI algoritma modelini kullanın;

  3. Kullanıcıların engellediği tweet'leri ve gördükleri tweet'leri filtrelemek gibi buluşsal yöntemler ve filtreler uygulayın.

Öneri algoritmasının temel modülü, Sizin İçin zaman çizelgesi - Home Mixer'ı oluşturmaktan ve sağlamaktan sorumlu hizmettir. Hizmet, farklı aday kaynakları, puanlama işlevlerini, buluşsal yöntemleri ve filtreleri birbirine bağlayan algoritmik bir omurga görevi görür.

"Sizin İçin" öneri işlevi, potansiyel olarak alakalı yaklaşık 1.500 aday önerisine dayalı olarak her bir aday tweet'inin alaka düzeyini tahmin eder ve puanlar. Twitter'ın resmi internet sitesi, bu aşamada tüm aday tweet'lerin eşit muamele gördüğünü söylüyor. Çekirdek sıralama, optimize etmek için sürekli olarak tweet etkileşimleri konusunda eğitilen yaklaşık 48 milyon parametreden oluşan bir sinir ağı aracılığıyla elde edilir. Bu sıralama mekanizması, binlerce özelliği göz önünde bulundurur ve her tweet'i puanlamak için on kadar etiket çıkarır; burada her etiket, etkileşim olasılığını temsil eder ve ardından tweet'leri bu puanlara göre sıralar.

Bu, Twitter'ın öneri algoritmasında şeffaflığa yönelik önemli bir adım olsa da, kullanıcılar yine de algoritmanın doğru ve eksiksiz çalışıp çalışmadığını doğrulayamıyor. Bunun ana nedenlerinden biri, kullanıcı gizliliğini korumak için tweet'leri sıralamak için kullanılan algoritma modelindeki belirli ağırlık ayrıntıları kamuoyuna açıklanmadı. Bu nedenle, algoritmanın şeffaflığı hala şüphelidir.

Twitter, ZKML (Sıfır Bilgi Makine Öğrenimi) teknolojisini kullanarak, algoritma modeli ağırlık ayrıntılarının doğru ve eksiksiz olup olmadığını (model ve parametrelerinin "farklı kullanıcılara eşit olup olmadığı") kanıtlayabilir, bu da algoritma modeli gizliliğini korur ve Vardır. şeffaflık arasında güzel bir denge.

Topluluk geliştiricisi Daniel Kang ve diğerleri, Twitter tavsiye algoritmasının doğru olup olmadığını ve algoritma ayrıntılarını ifşa etmeden tamamen çalışıp çalışmadığını kontrol etmek için kriptografik araçlar ZK-SNARK'ları kullanıyor - bu, sıfır bilgi kanıtının en çekici noktası, yani hakkında herhangi bir özel bilgi ifşa etmemek nesne Bilginin öncülündeki bilginin güvenilirliğini kanıtlayın (sıfır bilgi). İdeal olarak Twitter, sıralama modelinin kanıtlarını yayınlamak için ZK-SNARKS'ı kullanabilir; bu, modelin belirli kullanıcılara ve tweet'lere uygulandığında, belirli bir nihai çıktı sıralaması ürettiğinin kanıtlarıdır. Bu tasdik, modelin güvenilirliğinin temelidir: kullanıcılar, model algoritmasının hesaplamasının söz verildiği gibi çalıştığını doğrulayabilir veya denetim için üçüncü bir tarafa gönderebilir. Tüm bunlar, model parametre ağırlıklarının ayrıntıları açıklanmadan yapılır. Diğer bir deyişle, kullanıcı, resmi olarak duyurulan model kanıtını kullanarak, kanıtı belirli tweet'in belirli şüpheli tweet'ler için model tarafından vaat edildiği gibi dürüst bir şekilde çalıştığını doğrulamak için kullanır.

Diyelim ki bir kullanıcı "Sizin İçin" öneri özelliğinin zaman çizelgesinin şüpheli olduğunu düşünüyor - belirli tweet'lerin daha yüksek (veya daha düşük) sıralanması gerektiğini düşünüyor. Twitter, ZKML doğrulama işlevini başlatabilirse, kullanıcılar şüpheli tweet'in zaman çizelgesindeki diğer tweet'lere kıyasla nasıl sıralandığını kontrol etmek için resmi kanıtı kullanabilir (hesaplanan puan, sıralamaya karşılık gelir).Eşleşmeyen puanlar, algoritmik modelin bu belirli tweet'ler için dürüstçe çalışmıyordu (bazı parametrelerde yapay olarak değiştirildi). Yetkili, modelin spesifik detaylarını açıklamasa da modele göre sihirli bir değnek (modelin kanıtı) verdiği anlaşılmaktadır.Ancak modelin özel detayları geri yüklenemez. Bu nedenle resmi modelin detayları denetlenirken detayların mahremiyeti korunur.

Model açısından bakıldığında, modelin gizliliği korunurken, ZKML teknolojisinin kullanılması modelin denetim ve kullanıcı güveni kazanmasını sağlayabilir.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)