Cara mempercayai AI: ide apa yang disediakan oleh pembelajaran mesin tanpa pengetahuan (ZKML).

Ringkasan

**Saat AI berkembang dengan kecepatan yang tak terbayangkan, hal itu pasti akan menimbulkan kekhawatiran tentang "tepi" lain dari pedang AI - kepercayaan. **Yang pertama adalah privasi: di era AI, bagaimana manusia bisa mempercayai AI dari perspektif privasi data? Mungkin transparansi model AI adalah kunci untuk mengkhawatirkan: kemampuan untuk muncul seperti model bahasa skala besar sama saja dengan "kotak hitam" teknologi yang tidak dapat ditembus bagi manusia, dan pengguna biasa tidak dapat memahami cara kerja model dan hasil operasi Dan cara mendapatkannya - yang lebih merepotkan adalah sebagai pengguna, Anda mungkin tidak tahu apakah model AI yang disediakan oleh penyedia layanan berfungsi seperti yang dijanjikan. Terutama saat menerapkan algoritme dan model AI pada beberapa data sensitif, seperti medis, keuangan, aplikasi Internet, dll., apakah model AI itu bias (atau bahkan berorientasi jahat), atau apakah penyedia layanan menjalankan model (dan terkait parameter) akurat seperti yang dijanjikan, telah menjadi masalah yang paling diperhatikan pengguna. Teknologi pembuktian tanpa pengetahuan memiliki solusi yang ditargetkan dalam hal ini, sehingga pembelajaran mesin tanpa pengetahuan (ZKML) telah menjadi arah pengembangan terbaru.

**Pertimbangan komprehensif tentang integritas komputasi, pengoptimalan heuristik, dan privasi, kombinasi bukti tanpa pengetahuan dan AI, pembelajaran mesin tanpa pengetahuan (Zero-Knowledge Machine Learning, ZKML) muncul. **Di era ketika konten buatan AI semakin dekat dengan konten buatan manusia, karakteristik teknis dari bukti rahasia tanpa pengetahuan dapat membantu kami menentukan bahwa konten tertentu dihasilkan melalui model tertentu. Untuk perlindungan privasi, teknologi bukti tanpa pengetahuan sangat penting, yaitu bukti dan verifikasi dapat diselesaikan tanpa mengungkapkan input data pengguna atau detail spesifik model.

**Lima cara pembuktian tanpa pengetahuan diterapkan pada pembelajaran mesin: integritas komputasional, integritas model, verifikasi, pelatihan terdistribusi, dan autentikasi. ** Perkembangan pesat model bahasa skala besar (LLM) baru-baru ini menunjukkan bahwa model ini menjadi semakin cerdas, dan model ini melengkapi antarmuka penting antara algoritme dan manusia: bahasa. Tren kecerdasan buatan umum (AGI) sudah tak terbendung, tetapi menilai dari hasil pelatihan model saat ini, AI dapat dengan sempurna meniru manusia berkapasitas tinggi dalam interaksi digital—dan mengungguli manusia dengan kecepatan yang tak terbayangkan dalam evolusi cepat Tingkat manusia telah untuk mengagumi kecepatan evolusi ini, dan bahkan khawatir akan segera digantikan oleh AI.

** Pengembang komunitas menggunakan ZKML untuk memverifikasi fungsi rekomendasi Twitter, yang bersifat instruktif. **Fitur rekomendasi "Untuk Anda" Twitter menggunakan algoritme rekomendasi AI untuk menyaring sekitar 500 juta tweet yang diposting setiap hari menjadi beberapa tweet populer, yang pada akhirnya ditampilkan di timeline beranda pengguna. Pada akhir Maret 2023, Twitter membuat algoritme menjadi sumber terbuka, tetapi karena detail modelnya belum dipublikasikan, pengguna masih belum dapat memverifikasi apakah algoritme berjalan akurat dan lengkap. Pengembang komunitas Daniel Kang dan lainnya menggunakan alat kriptografi ZK-SNARKs untuk memeriksa apakah algoritme rekomendasi Twitter benar dan berjalan sepenuhnya tanpa mengungkapkan detail algoritme-ini adalah poin paling menarik dari bukti tanpa pengetahuan, yaitu, tidak mengungkapkan informasi spesifik apa pun tentang objek Buktikan kredibilitas informasi pada premis informasi (zero knowledge). Idealnya, Twitter dapat menggunakan ZK-SNARKS untuk menerbitkan bukti model peringkatnya — bukti bahwa ketika model diterapkan ke pengguna dan tweet tertentu, ia menghasilkan peringkat hasil akhir tertentu. Bukti ini adalah dasar untuk kepercayaan model: pengguna dapat memverifikasi bahwa perhitungan algoritma pola bekerja seperti yang dijanjikan - atau mengirimkannya ke pihak ketiga untuk diaudit. Ini semua dilakukan tanpa mengungkapkan detail bobot parameter model. Artinya, dengan menggunakan bukti model yang diumumkan secara resmi, pengguna menggunakan bukti tersebut untuk memverifikasi bahwa tweet tertentu beroperasi dengan jujur seperti yang dijanjikan oleh model untuk tweet tertentu yang dipertanyakan.

1. Ide Inti

Saat AI berkembang dengan kecepatan yang tak terbayangkan, hal itu pasti akan menimbulkan kekhawatiran tentang "tepi" lain dari pedang AI - kepercayaan. Yang pertama adalah privasi: di era AI, bagaimana manusia bisa mempercayai AI dari sudut pandang privasi? Mungkin transparansi model AI adalah kunci untuk mengkhawatirkan: kemampuan untuk muncul seperti model bahasa skala besar sama saja dengan "kotak hitam" teknologi yang tidak dapat ditembus bagi manusia, dan pengguna biasa tidak dapat memahami cara kerja model dan hasil operasi Dan cara mendapatkannya (model itu sendiri penuh dengan kemampuan yang tidak dapat dipahami atau diprediksi) - yang lebih merepotkan adalah sebagai pengguna, Anda mungkin tidak tahu apakah model AI yang disediakan oleh penyedia layanan berfungsi seperti yang dijanjikan . Terutama saat menerapkan algoritme dan model AI pada beberapa data sensitif, seperti medis, keuangan, aplikasi Internet, dll., apakah model AI itu bias (atau bahkan berorientasi jahat), atau apakah penyedia layanan menjalankan model (dan terkait parameter) akurat seperti yang dijanjikan, telah menjadi masalah yang paling diperhatikan pengguna.

Teknologi pembuktian tanpa pengetahuan memiliki solusi yang ditargetkan dalam hal ini, sehingga pembelajaran mesin tanpa pengetahuan (ZKML) telah menjadi arah pengembangan terbaru. Makalah ini membahas karakteristik teknologi ZKML, skenario aplikasi potensial dan beberapa kasus inspiratif, serta melakukan penelitian dan elaborasi tentang arah pengembangan ZKML dan kemungkinan dampak industrinya.

**2. "Tepi lain" dari pedang AI: bagaimana cara mempercayai AI? **

Kemampuan kecerdasan buatan dengan cepat mendekati manusia, dan telah melampaui manusia di banyak domain khusus. Perkembangan pesat model bahasa besar (LLM) baru-baru ini menunjukkan bahwa model ini menjadi semakin cerdas, dan model ini menyempurnakan antarmuka penting antara algoritme dan manusia: bahasa. Tren kecerdasan buatan umum (AGI) sudah tak terbendung, tetapi menilai dari hasil pelatihan model saat ini, AI dapat dengan sempurna meniru manusia berkapasitas tinggi dalam interaksi digital—dan mengungguli manusia dengan kecepatan yang tak terbayangkan dalam tingkat evolusi yang cepat. Model bahasa telah membuat kemajuan yang signifikan baru-baru ini. Produk yang diwakili oleh ChatGPT telah tampil luar biasa, mencapai lebih dari 20% kemampuan manusia di sebagian besar evaluasi rutin. Saat membandingkan GPT-3.5 dan GPT-4, yang hanya berjarak beberapa bulan, membuat Manusia harus mengagumi kecepatan evolusi ini. Namun di sisi lain adalah kekhawatiran akan hilangnya kendali atas kemampuan AI.

**Pertama adalah aspek privasi. **Di era AI, dengan perkembangan teknologi seperti pengenalan wajah, pengguna selalu khawatir dengan risiko kebocoran data saat menggunakan layanan AI. Ini telah membawa hambatan tertentu untuk promosi dan pengembangan AI - bagaimana mempercayai AI dari perspektif privasi?

**Mungkin transparansi model AI adalah kunci untuk perhatian lebih. **Kemampuan untuk muncul mirip dengan model bahasa berskala besar sama saja dengan "kotak hitam" teknologi yang tidak dapat ditembus bagi manusia. Pengguna umum tidak dapat memahami bagaimana model beroperasi dan bagaimana hasil diperoleh (model itu sendiri penuh dengan Kemampuan yang sulit dipahami atau diprediksi) - lebih merepotkan, karena pengguna mungkin tidak tahu apakah model AI yang disediakan oleh penyedia layanan berfungsi seperti yang dijanjikan. Terutama saat menerapkan algoritme dan model AI pada beberapa data sensitif, seperti medis, keuangan, aplikasi Internet, dll., apakah model AI itu bias (atau bahkan berorientasi jahat), atau apakah penyedia layanan menjalankan model (dan terkait parameter) akurat seperti yang dijanjikan, telah menjadi masalah yang paling diperhatikan pengguna. Misalnya, apakah platform aplikasi sosial membuat rekomendasi yang relevan menurut algoritme "perlakuan setara"? Apakah rekomendasi dari algoritma AI penyedia jasa keuangan seakurat dan selengkap yang dijanjikan? Apakah ada konsumsi yang tidak perlu dalam rencana layanan medis yang direkomendasikan oleh AI? Apakah penyedia layanan menerima audit model AI?

Sederhananya, di satu sisi, pengguna tidak mengetahui situasi sebenarnya dari model AI yang disediakan oleh penyedia layanan, di saat yang sama, mereka sangat khawatir model tersebut tidak "diskriminatif". dianggap mencakup beberapa faktor bias atau berorientasi lain, yang akan membawa kerugian atau dampak negatif yang tidak diketahui pengguna.

Di sisi lain, kecepatan evolusi diri AI tampaknya semakin tidak dapat diprediksi, dan model algoritme AI yang semakin kuat tampaknya semakin melampaui kemungkinan kendali manusia,** sehingga masalah kepercayaan menjadi masalah lain. "tepi" pedang tajam AI ". **

Penting untuk membangun kepercayaan pengguna pada AI dari perspektif privasi data, transparansi model, dan kemampuan kontrol model. Pengguna perlu khawatir tentang perlindungan privasi dan apakah model algoritme berjalan akurat dan lengkap seperti yang dijanjikan; Namun, ini bukan tugas yang mudah. Dalam hal transparansi model, penyedia model khawatir tentang audit model dan pengawasan berdasarkan rahasia bisnis dan lainnya. perspektif; Di sisi lain, evolusi model algoritma itu sendiri tidak mudah dikendalikan, dan ketidakterkendalian ini juga perlu dipertimbangkan.

Dari perspektif perlindungan privasi data pengguna, kami juga telah melakukan banyak penelitian dalam laporan kami sebelumnya seperti "AI dan Data Elements Driven by Web3.0: Openness, Security and Privacy". Beberapa aplikasi Web3.0 sangat menginspirasi dalam hal ini— — Yaitu, pelatihan model AI dilakukan berdasarkan premis konfirmasi data pengguna yang lengkap dan perlindungan privasi data.

Namun, pasar saat ini kewalahan oleh kinerja model besar yang menakjubkan seperti Chatgpt, dan belum mempertimbangkan masalah privasi model itu sendiri, masalah kepercayaan model (dan kepercayaan yang ditimbulkan oleh ketidakkontrolan) yang dibawa oleh evolusi. dari karakteristik "muncul" dari algoritme, Namun di level lain, pengguna selalu skeptis tentang operasi yang akurat, lengkap, dan jujur dari apa yang disebut model algoritmik. Oleh karena itu, masalah kepercayaan AI harus diselesaikan dari tiga tingkat pengguna, penyedia layanan, dan model yang tidak dapat dikendalikan.

3. ZKML: Kombinasi bukti tanpa pengetahuan dan AI menghadirkan kepercayaan

3.1. Bukti tanpa pengetahuan: zk-SNARKS, zk-STARK, dan teknologi lainnya semakin matang

Zero Knowledge Proof (Zero Knowledge Proof, ZKP) pertama kali diusulkan oleh Shafi Goldwasser dan Silvio Micali dari MIT dalam makalah berjudul “Knowledge Complexity of Interactive Proof Systems” pada tahun 1985. Penulis menyebutkan di makalah bahwa adalah mungkin bagi seorang pembukti untuk meyakinkan pemverifikasi tentang keaslian data tanpa mengungkapkan data spesifiknya. Fungsi publik f(x) dan nilai keluaran y dari suatu fungsi, Alice memberi tahu Bob bahwa dia mengetahui nilai x, tetapi Bob tidak mempercayainya. Untuk melakukan ini, Alice menggunakan algoritme bukti tanpa pengetahuan untuk menghasilkan bukti. Bob memverifikasi bukti ini untuk memastikan apakah Alice benar-benar mengetahui x yang memenuhi fungsi f.

Misalnya, dengan menggunakan bukti tanpa pengetahuan, Anda tidak perlu mengetahui nilai ujian Xiaoming, tetapi Anda dapat mengetahui apakah nilainya memenuhi persyaratan pengguna—seperti apakah ia lulus, apakah tingkat pengisian yang benar melebihi 60%, dan seterusnya. Di bidang AI, dikombinasikan dengan bukti tanpa pengetahuan, Anda dapat memiliki alat kepercayaan yang andal untuk model AI.

Bukti zero-knowledge dapat bersifat interaktif, yaitu pembuktian harus membuktikan keaslian data satu kali kepada setiap verifier; bisa juga non-interaktif, yaitu pembuktian dibuat oleh pembuktian, dan siapa saja yang menggunakan pembuktian ini dapat diverifikasi.

Nol pengetahuan dibagi menjadi bukti dan verifikasi Secara umum, buktinya quasi-linear, yaitu verifikasinya adalah T*log(T).

Asumsikan bahwa waktu verifikasi adalah kuadrat dari logaritma jumlah transaksi, maka waktu verifikasi mesin untuk blok 10.000 transaksi adalah

VTime = ( )2 ~ (13.2)2 ~ 177 ms; sekarang tingkatkan ukuran blok seratus kali lipat (menjadi 1 juta tx/blok), waktu berjalan validator yang baru adalah VTime = (log2 1000000)2 ~ 202 ~ 400 Nona . Oleh karena itu, kita dapat melihat skalabilitasnya yang super, itulah sebabnya, secara teoritis, tps dapat mencapai tidak terbatas.

**Verifikasi sangat cepat, dan semua kesulitan terletak pada pembuatan bukti. **Selama kecepatan menghasilkan bukti dapat mengikuti, maka verifikasi on-chain sangat sederhana. Saat ini sudah banyak penerapan zero-knowledge proof, seperti zk-SNARKS, zk-STARKS, PLONK, dan Bulletproofs. Setiap metode memiliki kelebihan dan kekurangannya masing-masing dalam hal ukuran pembuktian, waktu pembuktian, dan waktu verifikasi.

Semakin kompleks dan besar bukti tanpa pengetahuan, semakin tinggi kinerjanya dan semakin pendek waktu yang diperlukan untuk verifikasi. Seperti yang ditunjukkan pada gambar di bawah ini, STARK dan Antipeluru tidak memerlukan pengaturan tepercaya. Karena jumlah data transaksi melonjak dari 1TX menjadi 10.000TX, ukuran bukti yang terakhir semakin berkurang. Keuntungan dari Antipeluru adalah bahwa ukuran buktinya adalah transformasi logaritmik (bahkan jika f dan x besar), dimungkinkan untuk menyimpan bukti di dalam blok, tetapi kompleksitas komputasi dari verifikasinya adalah linier. Terlihat bahwa berbagai algoritme memiliki banyak poin utama untuk ditimbang, dan juga banyak ruang untuk peningkatan. Namun, dalam proses operasi yang sebenarnya, kesulitan untuk menghasilkan bukti jauh lebih besar dari yang dibayangkan. Oleh karena itu, industri ini sekarang berkomitmen untuk memecahkan masalah menghasilkan bukti.pertanyaan.

Meskipun pengembangan teknologi bukti tanpa pengetahuan tidak cukup untuk menyamai skala model bahasa besar (LLM), implementasi teknisnya memiliki skenario aplikasi yang menginspirasi. Terutama dalam pengembangan pedang bermata dua AI, zero-knowledge proof memberikan solusi andal untuk kepercayaan AI.

3.2. Zero Knowledge Machine Learning (ZKML): AI Tanpa Tepercaya

Di era ketika konten buatan AI semakin dekat dengan konten buatan manusia, karakteristik teknis dari bukti rahasia tanpa pengetahuan dapat membantu kami menentukan bahwa konten tertentu dihasilkan dengan menerapkan model tertentu. Untuk perlindungan privasi, teknologi bukti tanpa pengetahuan sangat penting, yaitu bukti dan verifikasi dapat diselesaikan tanpa mengungkapkan input data pengguna atau detail spesifik model. Mempertimbangkan integritas komputasi, pengoptimalan heuristik, dan privasi, serta kombinasi bukti tanpa pengetahuan dan AI, pembelajaran mesin tanpa pengetahuan (Zero-Knowledge Machine Learning, ZKML) muncul.

Berikut adalah lima cara pembuktian tanpa pengetahuan dapat diterapkan pada pembelajaran mesin. Selain fungsi dasar seperti integritas komputasi, integritas model, dan privasi pengguna, pembelajaran mesin tanpa pengetahuan juga dapat menghasilkan pelatihan terdistribusi - ini akan mendorong integrasi AI dan blockchain, dan mengidentifikasi orang-orang di hutan AI (Bagian ini dapat ditemukan di laporan kami "Visi Web3 Pendiri OpenAI: Worldcoin Membuat Paspor Digital AI").

Permintaan daya komputasi model besar AI sudah jelas bagi semua orang. Saat ini, dengan memasukkan bukti ZK ke dalam aplikasi AI, tuntutan baru ditempatkan pada daya komputasi perangkat keras. Keadaan seni saat ini untuk sistem tanpa pengetahuan yang dikombinasikan dengan perangkat keras berkinerja tinggi masih tidak dapat membuktikan apa pun sebesar model bahasa besar (LLM) yang tersedia saat ini, tetapi beberapa kemajuan telah dibuat dalam menciptakan bukti untuk model yang lebih kecil. Menurut tim Modulus Labs, sistem bukti ZK yang ada telah diuji terhadap berbagai model dengan ukuran berbeda. Sistem pembuktian seperti plonky2 dapat berjalan dalam waktu sekitar 50 detik pada mesin AWS yang kuat untuk membuat pembuktian bagi model dengan skala sekitar 18 juta parameter.

Dalam hal perangkat keras, opsi perangkat keras saat ini untuk teknologi ZK termasuk GPU, FPGA, atau ASIC. Perlu dicatat bahwa bukti tanpa pengetahuan masih dalam tahap awal pengembangan, masih ada sedikit standarisasi, dan algoritme terus diperbarui dan diubah. Setiap algoritme memiliki karakteristiknya sendiri dan cocok untuk perangkat keras yang berbeda, dan setiap algoritme akan ditingkatkan sampai batas tertentu sesuai kebutuhan pengembangan proyek, sehingga sulit untuk secara spesifik mengevaluasi algoritme mana yang terbaik.

Perlu dicatat bahwa dalam hal kombinasi model besar ZK dan AI, belum ada penelitian yang jelas tentang evaluasi sistem perangkat keras yang ada, oleh karena itu masih ada variabel dan potensi besar dalam hal kebutuhan perangkat keras di masa mendatang.

3.3. Kasus Inspiratif: Memvalidasi Algoritma Peringkat Rekomendasi Twitter

Fungsi rekomendasi "Untuk Anda" Twitter menggunakan algoritme rekomendasi AI untuk menyempurnakan sekitar 500 juta tweet yang diposting setiap hari menjadi beberapa tweet populer, yang akhirnya ditampilkan di garis waktu "Untuk Anda" di beranda pengguna. Rekomendasi tersebut mengekstrak informasi laten dari tweet, pengguna, dan data interaksi agar dapat memberikan rekomendasi yang lebih relevan. Pada akhir Maret 2023, Twitter membuka sumber algoritme yang memilih dan memeringkat postingan di linimasa untuk fitur rekomendasi "Untuk Anda". Proses rekomendasi kira-kira sebagai berikut:

  1. Menghasilkan fitur perilaku pengguna dari interaksi antara pengguna dan situs web, dan mendapatkan tweet terbaik dari berbagai sumber rekomendasi;

  2. Gunakan model algoritme AI untuk menentukan peringkat setiap tweet;

  3. Terapkan heuristik dan filter, seperti memfilter tweet yang telah diblokir pengguna dan tweet yang mereka lihat, dll.

Modul inti dari algoritme rekomendasi adalah layanan yang bertanggung jawab untuk membangun dan menyediakan timeline Untuk Anda - Home Mixer. Layanan bertindak sebagai tulang punggung algoritmik yang menghubungkan berbagai sumber kandidat, fungsi penilaian, heuristik, dan filter.

Fungsi rekomendasi "Untuk Anda" memprediksi dan menilai relevansi setiap tweet kandidat berdasarkan sekitar 1.500 rekomendasi kandidat yang berpotensi relevan. Situs resmi Twitter mengatakan bahwa pada tahap ini, semua tweet kandidat diperlakukan sama. Peringkat inti dicapai melalui jaringan saraf dengan sekitar 48 juta parameter, yang terus dilatih untuk mengoptimalkan interaksi tweet. Mekanisme pemeringkatan ini mempertimbangkan ribuan fitur dan menghasilkan sepuluh atau lebih label untuk menilai setiap tweet, di mana setiap label mewakili kemungkinan keterlibatan, dan kemudian memberi peringkat tweet berdasarkan skor ini.

Meskipun ini merupakan langkah penting menuju transparansi dalam algoritme rekomendasi Twitter, pengguna masih belum dapat memverifikasi apakah algoritme berjalan akurat dan lengkap—salah satu alasan utamanya adalah detail bobot spesifik dalam model algoritme yang digunakan untuk memberi peringkat tweet guna melindungi privasi pengguna. tidak dipublikasikan. Oleh karena itu, transparansi algoritma masih diragukan.

Menggunakan teknologi ZKML (Zero-Knowledge Machine Learning), Twitter dapat membuktikan apakah detail bobot model algoritme akurat dan lengkap (apakah model dan parameternya "sama dengan pengguna yang berbeda"), yang membuat perlindungan privasi model algoritme dan Ada keseimbangan yang bagus antara transparansi.

Pengembang komunitas Daniel Kang dan lainnya menggunakan alat kriptografi ZK-SNARKs untuk memeriksa apakah algoritme rekomendasi Twitter benar dan berjalan sepenuhnya tanpa mengungkapkan detail algoritme-ini adalah poin paling menarik dari bukti tanpa pengetahuan, yaitu, tidak mengungkapkan informasi spesifik apa pun tentang objek Buktikan kredibilitas informasi pada premis informasi (zero knowledge). Idealnya, Twitter dapat menggunakan ZK-SNARKS untuk menerbitkan bukti model peringkatnya — bukti bahwa ketika model diterapkan ke pengguna dan tweet tertentu, ia menghasilkan peringkat hasil akhir tertentu. Bukti ini adalah dasar untuk kepercayaan model: pengguna dapat memverifikasi bahwa perhitungan algoritma pola bekerja seperti yang dijanjikan - atau mengirimkannya ke pihak ketiga untuk diaudit. Ini semua dilakukan tanpa mengungkapkan detail bobot parameter model. Dengan kata lain, dengan menggunakan bukti model yang diumumkan secara resmi, pengguna menggunakan bukti tersebut untuk memverifikasi bahwa tweet tertentu beroperasi dengan jujur seperti yang dijanjikan oleh model untuk tweet tertentu yang dipertanyakan.

Katakanlah pengguna menganggap garis waktu fitur rekomendasi "Untuk Anda" dipertanyakan — berpikir bahwa tweet tertentu harus diberi peringkat lebih tinggi (atau lebih rendah). Jika Twitter dapat meluncurkan fungsi bukti ZKML, pengguna dapat menggunakan bukti resmi untuk memeriksa bagaimana peringkat tweet yang dicurigai dibandingkan dengan tweet lain di timeline (skor yang dihitung sesuai dengan peringkat).Skor yang tidak cocok menunjukkan bahwa model algoritmik untuk tweet tertentu itu tidak beroperasi dengan jujur (divariasikan secara artifisial dalam beberapa parameter). Dapat dipahami bahwa meskipun pejabat tersebut tidak mengumumkan detail spesifik dari model tersebut, ia memberikan tongkat ajaib (bukti model) sesuai dengan model tersebut. Namun, detail pribadi model tersebut tidak dapat dikembalikan. Oleh karena itu, detail model resmi diaudit sementara privasi detailnya tetap terjaga.

Dari perspektif model, sekaligus melindungi privasi model, penggunaan teknologi ZKML masih dapat membuat model mendapatkan audit dan kepercayaan pengguna.

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)