Tentang ZKML: ZKML (Zero Knowledge Machine Learning) adalah teknologi pembelajaran mesin yang menggabungkan Bukti Tanpa Pengetahuan (Zero-Knowledge Proofs) dan algoritme pembelajaran mesin untuk memecahkan masalah perlindungan privasi dalam pembelajaran mesin.
Tentang daya komputasi terdistribusi: Daya komputasi terdistribusi mengacu pada penguraian tugas komputasi menjadi beberapa tugas kecil, dan menugaskan tugas kecil ini ke beberapa komputer atau prosesor untuk diproses guna mencapai komputasi yang efisien.
Status AI dan Web3: Kawanan Kabur dan Pertumbuhan Entropi
Dalam "Out of Control: The New Biology of Machines, Society, and the Economy", Kevin Kelly pernah mengajukan sebuah fenomena: koloni lebah akan melakukan keputusan pemilihan dalam tarian kelompok sesuai dengan manajemen terdistribusi, dan seluruh koloni lebah akan mengikutinya. tarian kelompok Kawanan lebah terbesar di dunia menjadi tuan rumah suatu acara. Ini juga yang disebut "jiwa sarang" yang disebutkan oleh Maurice Maeterlinck - setiap lebah dapat membuat keputusannya sendiri, membimbing lebah lain untuk mengonfirmasi, dan keputusan akhir benar-benar dipilih oleh kelompok.
Hukum peningkatan dan ketidakteraturan entropi itu sendiri mengikuti hukum termodinamika, dan visualisasi teoretis dalam fisika adalah memasukkan sejumlah molekul ke dalam kotak kosong dan menghitung profil distribusi akhir. Khusus untuk orang-orang, massa yang dihasilkan oleh algoritme dapat menunjukkan hukum kelompok meskipun ada perbedaan pemikiran individu, seringkali dibatasi dalam kotak kosong karena faktor-faktor seperti waktu, dan akhirnya membuat keputusan konsensus.
Tentu saja, aturan kelompok mungkin tidak benar, tetapi para pemimpin opini yang dapat mewakili konsensus dan menarik konsensus mereka sendiri adalah individu super mutlak. Tetapi dalam banyak kasus, konsensus tidak mengejar persetujuan lengkap dan tanpa syarat dari setiap orang, tetapi hanya mengharuskan kelompok tersebut memiliki identitas umum.
Kami tidak membahas di sini apakah AI akan menyesatkan manusia, sebenarnya sudah banyak diskusi seperti itu, apakah itu sejumlah besar sampah yang dihasilkan oleh aplikasi kecerdasan buatan yang mencemari keaslian data jaringan, atau karena pengambilan keputusan kelompok kesalahan akan menyebabkan beberapa insiden pergi ke situasi yang lebih berbahaya.
Situasi AI saat ini memiliki monopoli alami.Misalnya, pelatihan dan penerapan model besar membutuhkan banyak sumber daya komputasi dan data, tetapi hanya sejumlah kecil perusahaan dan institusi yang memiliki kondisi ini. Ratusan juta data ini dianggap sebagai harta karun oleh setiap pemilik monopoli, belum lagi berbagi sumber, bahkan akses bersama tidak mungkin dilakukan.
Ini telah menyebabkan pemborosan data yang sangat besar. Setiap proyek AI skala besar harus berulang kali mengumpulkan data pengguna, dan akhirnya pemenang mengambil semuanya — apakah itu merger dan akuisisi atau penjualan, memperluas proyek raksasa individu, atau Internet tradisional Logika rodeo balap.
Banyak orang mengatakan bahwa AI dan Web3 adalah dua hal yang berbeda dan tidak ada hubungannya - paruh pertama kalimat benar, ini adalah dua jalur yang berbeda, tetapi paruh kedua kalimat bermasalah, menggunakan teknologi terdistribusi untuk membatasi monopoli buatan kecerdasan, Dan penggunaan teknologi kecerdasan buatan untuk mempromosikan pembentukan mekanisme konsensus yang terdesentralisasi hanyalah hal yang wajar.
Pengurangan Bawah: Biarkan AI Membentuk Mekanisme Konsensus Grup Terdistribusi Nyata
Inti dari kecerdasan buatan terletak pada manusia itu sendiri, dan mesin serta model hanyalah spekulasi dan peniruan pemikiran manusia. Yang disebut kelompok sebenarnya sulit untuk mengabstraksi kelompok tersebut, karena yang kita lihat sehari-hari masih merupakan individu yang nyata. Tapi modelnya adalah menggunakan data masif untuk belajar dan menyesuaikan, dan akhirnya mensimulasikan bentuk grup. Jangan mengevaluasi hasil seperti apa yang akan dihasilkan oleh model ini, karena insiden kelompok yang melakukan kejahatan tidak terjadi sekali atau dua kali. Tetapi model tersebut memang mewakili generasi dari mekanisme konsensus ini.
Misalnya, untuk DAO tertentu, jika mekanisme tata kelola diterapkan, pasti akan mempengaruhi efisiensi, Alasannya adalah pembentukan konsensus kelompok adalah hal yang merepotkan, belum lagi rangkaian pemungutan suara, statistik, dll. Jika tata kelola DAO diwujudkan dalam bentuk model AI, dan semua pengumpulan data berasal dari data ucapan semua orang di DAO, maka keputusan keluaran sebenarnya akan lebih mendekati konsensus kelompok.
Konsensus kelompok dari satu model dapat dilatih sesuai dengan skema di atas, tetapi masih merupakan pulau bagi individu-individu ini. Jika ada sistem kecerdasan kolektif untuk membentuk grup AI, masing-masing model AI dalam sistem ini akan saling bekerja sama untuk memecahkan masalah yang kompleks, bahkan akan berpengaruh besar pada pemberdayaan tingkat konsensus.
Untuk koleksi kecil, Anda dapat membangun ekologi secara mandiri, atau membentuk koleksi kooperatif dengan koleksi lain untuk memenuhi daya komputasi super besar atau transaksi data secara lebih efisien dan dengan biaya rendah. Tapi inilah masalahnya lagi Status quo antara berbagai database model benar-benar tidak percaya dan menjaga dari orang lain-inilah letak atribut alami dari blockchain: melalui de-trusting, untuk mencapai keamanan yang benar-benar terdistribusi di antara mesin AI Interaksi yang efisien .
Otak cerdas global dapat membuat model algoritme AI yang awalnya independen dan berfungsi tunggal bekerja sama satu sama lain, menjalankan proses algoritme cerdas yang kompleks secara internal, dan membentuk jaringan konsensus kelompok terdistribusi yang dapat terus tumbuh. Ini juga merupakan signifikansi terbesar dari pemberdayaan AI di Web3.
Privasi vs. Monopoli Data? Kombinasi ZK dan pembelajaran mesin
Manusia harus mengambil tindakan pencegahan yang ditargetkan apakah melawan AI untuk melakukan kejahatan atau berdasarkan perlindungan privasi dan ketakutan akan monopoli data. Masalah intinya adalah kita tidak tahu bagaimana kesimpulan itu ditarik. Demikian pula, operator model tidak bermaksud menjawab pertanyaan ini. Dan untuk kombinasi otak cerdas global yang kami sebutkan di atas, bahkan lebih diperlukan untuk menyelesaikan masalah ini, jika tidak, tidak ada pihak data yang mau berbagi intinya dengan orang lain.
ZKML (Zero Knowledge Machine Learning) adalah teknologi yang menggunakan bukti tanpa pengetahuan untuk pembelajaran mesin. Zero-Knowledge Proofs (ZKP), yaitu pembukti (prover) dapat meyakinkan pemverifikasi (verifier) tentang keaslian data tanpa mengungkapkan data yang spesifik.
Dikutip dengan kasus teoretis. Ada Sudoku standar berukuran 9×9. Syarat penyelesaiannya adalah mengisi angka dari 1 sampai 9 pada sembilan petak, sehingga setiap angka hanya dapat muncul satu kali dalam setiap baris, kolom, dan petak. Jadi bagaimana orang yang menyusun teka-teki ini dapat membuktikan kepada penantang bahwa Sudoku memiliki solusi tanpa mengungkapkan jawabannya?
Anda hanya perlu menutupi isian dengan jawabannya, dan kemudian meminta penantang untuk secara acak memilih beberapa baris atau kolom, mengocok semua angka dan memverifikasi bahwa semuanya satu sampai sembilan. Ini adalah perwujudan bukti tanpa pengetahuan sederhana.
Teknologi bukti tanpa pengetahuan memiliki tiga karakteristik kelengkapan, kebenaran, dan tanpa pengetahuan, yaitu membuktikan kesimpulan tanpa mengungkapkan detail apa pun. Sumber teknologinya dapat mencerminkan kesederhanaan.Dalam konteks enkripsi homomorfik, kesulitan verifikasi jauh lebih rendah daripada kesulitan menghasilkan bukti.
Pembelajaran Mesin adalah penggunaan algoritme dan model untuk memungkinkan sistem komputer belajar dan meningkatkan dari data. Belajar dari pengalaman melalui otomatisasi memungkinkan sistem untuk melakukan tugas secara otomatis seperti prediksi, klasifikasi, pengelompokan, dan pengoptimalan berdasarkan data dan model.
Pada intinya, pembelajaran mesin adalah tentang membangun model yang belajar dari data dan membuat prediksi serta keputusan secara otomatis. Pembangunan model ini biasanya memerlukan tiga elemen kunci: kumpulan data, algoritme, dan evaluasi model. Kumpulan data adalah dasar pembelajaran mesin dan berisi sampel data untuk pelatihan dan pengujian model pembelajaran mesin. Algoritma adalah jantung dari model pembelajaran mesin, yang menentukan bagaimana model belajar dan memprediksi dari data. Evaluasi model adalah bagian penting dari pembelajaran mesin, yang digunakan untuk mengevaluasi kinerja dan akurasi model, dan memutuskan apakah model perlu dioptimalkan dan ditingkatkan.
Dalam pembelajaran mesin tradisional, kumpulan data biasanya perlu dikumpulkan di tempat terpusat untuk pelatihan, yang berarti pemilik data harus berbagi data dengan pihak ketiga, yang dapat menyebabkan risiko kebocoran data atau kebocoran privasi. Dengan ZKML, pemilik data dapat berbagi kumpulan data dengan orang lain tanpa mengungkapkan datanya, yang dicapai dengan menggunakan bukti tanpa pengetahuan.
Ketika bukti tanpa pengetahuan diterapkan pada pemberdayaan pembelajaran mesin, efeknya harus dapat diprediksi, yang memecahkan masalah kotak hitam privasi dan monopoli data yang telah lama terjadi: apakah pihak proyek dapat menggunakannya tanpa mengungkapkan input data pengguna atau spesifik detail model Setelah menyelesaikan bukti dan verifikasi, apakah mungkin setiap koleksi berbagi data atau modelnya sendiri untuk berfungsi tanpa mengungkapkan data pribadi? Tentunya teknologi saat ini masih awal, dan dalam praktiknya pasti akan banyak masalah, hal ini tidak menghalangi imajinasi kita, dan banyak tim yang sudah berkembang.
Apakah situasi ini akan membawa prostitusi gratis dari database kecil ke database besar? Ketika Anda mempertimbangkan masalah tata kelola, itu kembali ke pemikiran Web3 kami. Inti dari Crypto terletak pada tata kelola. Baik itu melalui banyak aplikasi atau berbagi, Anda harus mendapatkan insentif yang layak Anda dapatkan. Apakah itu melalui mekanisme Pow asli, PoS atau PoR terbaru (mekanisme bukti reputasi), semuanya memberikan jaminan untuk efek insentif.
Daya komputasi terdistribusi: narasi inovatif yang terjalin dengan kebohongan dan kenyataan
Jaringan daya komputasi terdesentralisasi selalu menjadi skenario yang hangat disebutkan dalam lingkaran enkripsi.Lagipula, model besar AI membutuhkan daya komputasi yang luar biasa, dan jaringan daya komputasi terpusat tidak hanya akan menyebabkan pemborosan sumber daya tetapi juga membentuk monopoli yang substansial—jika dibandingkan di akhirnya, jumlah GPU adalah hal terakhir yang diperjuangkan, yang terlalu membosankan.
Inti dari jaringan daya komputasi yang terdesentralisasi adalah untuk mengintegrasikan sumber daya komputasi yang tersebar di berbagai lokasi dan perangkat yang berbeda. Keuntungan utama yang sering disebutkan adalah: menyediakan kemampuan komputasi terdistribusi, menyelesaikan masalah privasi, meningkatkan kredibilitas dan keandalan model kecerdasan buatan, mendukung penerapan dan pengoperasian yang cepat dalam berbagai skenario aplikasi, dan menyediakan skema penyimpanan dan pengelolaan data yang terdesentralisasi. Benar, melalui daya komputasi terdesentralisasi, siapa pun dapat menjalankan model AI dan mengujinya pada set data on-chain nyata dari pengguna di seluruh dunia, sehingga mereka dapat menikmati layanan komputasi yang lebih fleksibel, efisien, dan berbiaya rendah.
Pada saat yang sama, daya komputasi terdesentralisasi dapat mengatasi masalah privasi dengan membuat kerangka kerja yang kuat untuk melindungi keamanan dan privasi data pengguna. Ini juga menyediakan proses komputasi yang transparan dan dapat diverifikasi, meningkatkan kredibilitas dan keandalan model kecerdasan buatan, dan menyediakan sumber daya komputasi yang fleksibel dan dapat diskalakan untuk penerapan dan pengoperasian yang cepat dalam berbagai skenario aplikasi.
Kami melihat pelatihan model dari proses komputasi terpusat yang lengkap, langkah-langkahnya biasanya dibagi menjadi: persiapan data, segmentasi data, transmisi data antar perangkat, pelatihan paralel, agregasi gradien, pembaruan parameter, sinkronisasi, dan pelatihan berulang. Dalam proses ini, bahkan jika ruang komputer terpusat menggunakan kluster peralatan komputasi berkinerja tinggi dan berbagi tugas komputasi melalui koneksi jaringan berkecepatan tinggi, biaya komunikasi yang tinggi telah menjadi salah satu batasan terbesar dari jaringan daya komputasi terdesentralisasi.
Oleh karena itu, meskipun jaringan daya komputasi terdesentralisasi memiliki banyak kelebihan dan potensi, jalur pengembangannya masih berliku-liku sesuai dengan biaya komunikasi saat ini dan kesulitan pengoperasian yang sebenarnya. Dalam praktiknya, mewujudkan jaringan daya komputasi terdesentralisasi membutuhkan banyak masalah teknis praktis, apakah itu bagaimana memastikan keandalan dan keamanan node, bagaimana mengelola dan menjadwalkan sumber daya komputasi terdistribusi secara efektif, atau bagaimana mencapai transmisi data dan Komunikasi yang efisien, dll. ., Saya khawatir itu sebenarnya masalah besar.
Tail: Harapan untuk idealis
Kembali ke realitas komersial saat ini, narasi integrasi mendalam AI dan Web3 terlihat begitu indah, tetapi modal dan pengguna memberi tahu kami lebih banyak dengan tindakan praktis bahwa ini ditakdirkan untuk menjadi perjalanan inovasi yang sangat sulit, kecuali jika proyeknya bisa seperti OpenAI , sambil mempertahankan pendukung keuangan yang kuat selagi kita kuat, jika tidak, biaya penelitian dan pengembangan yang tidak berdasar dan model bisnis yang tidak jelas akan menghancurkan kita sepenuhnya.
Apakah itu AI atau Web3, mereka sekarang berada dalam tahap pengembangan yang sangat awal, seperti gelembung Internet di akhir abad lalu, dan baru sepuluh tahun kemudian zaman keemasan yang sebenarnya secara resmi dimulai. McCarthy berfantasi tentang merancang kecerdasan buatan dengan kecerdasan manusia dalam satu liburan, tetapi baru hampir tujuh puluh tahun kemudian kami mengambil langkah kritis menuju kecerdasan buatan.
Hal yang sama berlaku untuk Web3 + AI. Kami telah menentukan kebenaran jalan ke depan, dan sisanya akan diserahkan kepada waktu.
**Ketika gelombang waktu memudar, orang-orang dan benda-benda yang berdiri itu adalah landasan transisi kita dari fiksi ilmiah ke kenyataan. **
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ZKML dan Komputasi Terdistribusi: Narasi Tata Kelola Potensial untuk AI dan Web3
Status AI dan Web3: Kawanan Kabur dan Pertumbuhan Entropi
Dalam "Out of Control: The New Biology of Machines, Society, and the Economy", Kevin Kelly pernah mengajukan sebuah fenomena: koloni lebah akan melakukan keputusan pemilihan dalam tarian kelompok sesuai dengan manajemen terdistribusi, dan seluruh koloni lebah akan mengikutinya. tarian kelompok Kawanan lebah terbesar di dunia menjadi tuan rumah suatu acara. Ini juga yang disebut "jiwa sarang" yang disebutkan oleh Maurice Maeterlinck - setiap lebah dapat membuat keputusannya sendiri, membimbing lebah lain untuk mengonfirmasi, dan keputusan akhir benar-benar dipilih oleh kelompok.
Hukum peningkatan dan ketidakteraturan entropi itu sendiri mengikuti hukum termodinamika, dan visualisasi teoretis dalam fisika adalah memasukkan sejumlah molekul ke dalam kotak kosong dan menghitung profil distribusi akhir. Khusus untuk orang-orang, massa yang dihasilkan oleh algoritme dapat menunjukkan hukum kelompok meskipun ada perbedaan pemikiran individu, seringkali dibatasi dalam kotak kosong karena faktor-faktor seperti waktu, dan akhirnya membuat keputusan konsensus.
Tentu saja, aturan kelompok mungkin tidak benar, tetapi para pemimpin opini yang dapat mewakili konsensus dan menarik konsensus mereka sendiri adalah individu super mutlak. Tetapi dalam banyak kasus, konsensus tidak mengejar persetujuan lengkap dan tanpa syarat dari setiap orang, tetapi hanya mengharuskan kelompok tersebut memiliki identitas umum.
Kami tidak membahas di sini apakah AI akan menyesatkan manusia, sebenarnya sudah banyak diskusi seperti itu, apakah itu sejumlah besar sampah yang dihasilkan oleh aplikasi kecerdasan buatan yang mencemari keaslian data jaringan, atau karena pengambilan keputusan kelompok kesalahan akan menyebabkan beberapa insiden pergi ke situasi yang lebih berbahaya.
Situasi AI saat ini memiliki monopoli alami.Misalnya, pelatihan dan penerapan model besar membutuhkan banyak sumber daya komputasi dan data, tetapi hanya sejumlah kecil perusahaan dan institusi yang memiliki kondisi ini. Ratusan juta data ini dianggap sebagai harta karun oleh setiap pemilik monopoli, belum lagi berbagi sumber, bahkan akses bersama tidak mungkin dilakukan.
Ini telah menyebabkan pemborosan data yang sangat besar. Setiap proyek AI skala besar harus berulang kali mengumpulkan data pengguna, dan akhirnya pemenang mengambil semuanya — apakah itu merger dan akuisisi atau penjualan, memperluas proyek raksasa individu, atau Internet tradisional Logika rodeo balap.
Banyak orang mengatakan bahwa AI dan Web3 adalah dua hal yang berbeda dan tidak ada hubungannya - paruh pertama kalimat benar, ini adalah dua jalur yang berbeda, tetapi paruh kedua kalimat bermasalah, menggunakan teknologi terdistribusi untuk membatasi monopoli buatan kecerdasan, Dan penggunaan teknologi kecerdasan buatan untuk mempromosikan pembentukan mekanisme konsensus yang terdesentralisasi hanyalah hal yang wajar.
Pengurangan Bawah: Biarkan AI Membentuk Mekanisme Konsensus Grup Terdistribusi Nyata
Inti dari kecerdasan buatan terletak pada manusia itu sendiri, dan mesin serta model hanyalah spekulasi dan peniruan pemikiran manusia. Yang disebut kelompok sebenarnya sulit untuk mengabstraksi kelompok tersebut, karena yang kita lihat sehari-hari masih merupakan individu yang nyata. Tapi modelnya adalah menggunakan data masif untuk belajar dan menyesuaikan, dan akhirnya mensimulasikan bentuk grup. Jangan mengevaluasi hasil seperti apa yang akan dihasilkan oleh model ini, karena insiden kelompok yang melakukan kejahatan tidak terjadi sekali atau dua kali. Tetapi model tersebut memang mewakili generasi dari mekanisme konsensus ini.
Misalnya, untuk DAO tertentu, jika mekanisme tata kelola diterapkan, pasti akan mempengaruhi efisiensi, Alasannya adalah pembentukan konsensus kelompok adalah hal yang merepotkan, belum lagi rangkaian pemungutan suara, statistik, dll. Jika tata kelola DAO diwujudkan dalam bentuk model AI, dan semua pengumpulan data berasal dari data ucapan semua orang di DAO, maka keputusan keluaran sebenarnya akan lebih mendekati konsensus kelompok.
Konsensus kelompok dari satu model dapat dilatih sesuai dengan skema di atas, tetapi masih merupakan pulau bagi individu-individu ini. Jika ada sistem kecerdasan kolektif untuk membentuk grup AI, masing-masing model AI dalam sistem ini akan saling bekerja sama untuk memecahkan masalah yang kompleks, bahkan akan berpengaruh besar pada pemberdayaan tingkat konsensus.
Untuk koleksi kecil, Anda dapat membangun ekologi secara mandiri, atau membentuk koleksi kooperatif dengan koleksi lain untuk memenuhi daya komputasi super besar atau transaksi data secara lebih efisien dan dengan biaya rendah. Tapi inilah masalahnya lagi Status quo antara berbagai database model benar-benar tidak percaya dan menjaga dari orang lain-inilah letak atribut alami dari blockchain: melalui de-trusting, untuk mencapai keamanan yang benar-benar terdistribusi di antara mesin AI Interaksi yang efisien .
Otak cerdas global dapat membuat model algoritme AI yang awalnya independen dan berfungsi tunggal bekerja sama satu sama lain, menjalankan proses algoritme cerdas yang kompleks secara internal, dan membentuk jaringan konsensus kelompok terdistribusi yang dapat terus tumbuh. Ini juga merupakan signifikansi terbesar dari pemberdayaan AI di Web3.
Privasi vs. Monopoli Data? Kombinasi ZK dan pembelajaran mesin
Manusia harus mengambil tindakan pencegahan yang ditargetkan apakah melawan AI untuk melakukan kejahatan atau berdasarkan perlindungan privasi dan ketakutan akan monopoli data. Masalah intinya adalah kita tidak tahu bagaimana kesimpulan itu ditarik. Demikian pula, operator model tidak bermaksud menjawab pertanyaan ini. Dan untuk kombinasi otak cerdas global yang kami sebutkan di atas, bahkan lebih diperlukan untuk menyelesaikan masalah ini, jika tidak, tidak ada pihak data yang mau berbagi intinya dengan orang lain.
ZKML (Zero Knowledge Machine Learning) adalah teknologi yang menggunakan bukti tanpa pengetahuan untuk pembelajaran mesin. Zero-Knowledge Proofs (ZKP), yaitu pembukti (prover) dapat meyakinkan pemverifikasi (verifier) tentang keaslian data tanpa mengungkapkan data yang spesifik.
Dikutip dengan kasus teoretis. Ada Sudoku standar berukuran 9×9. Syarat penyelesaiannya adalah mengisi angka dari 1 sampai 9 pada sembilan petak, sehingga setiap angka hanya dapat muncul satu kali dalam setiap baris, kolom, dan petak. Jadi bagaimana orang yang menyusun teka-teki ini dapat membuktikan kepada penantang bahwa Sudoku memiliki solusi tanpa mengungkapkan jawabannya?
Anda hanya perlu menutupi isian dengan jawabannya, dan kemudian meminta penantang untuk secara acak memilih beberapa baris atau kolom, mengocok semua angka dan memverifikasi bahwa semuanya satu sampai sembilan. Ini adalah perwujudan bukti tanpa pengetahuan sederhana.
Teknologi bukti tanpa pengetahuan memiliki tiga karakteristik kelengkapan, kebenaran, dan tanpa pengetahuan, yaitu membuktikan kesimpulan tanpa mengungkapkan detail apa pun. Sumber teknologinya dapat mencerminkan kesederhanaan.Dalam konteks enkripsi homomorfik, kesulitan verifikasi jauh lebih rendah daripada kesulitan menghasilkan bukti.
Pembelajaran Mesin adalah penggunaan algoritme dan model untuk memungkinkan sistem komputer belajar dan meningkatkan dari data. Belajar dari pengalaman melalui otomatisasi memungkinkan sistem untuk melakukan tugas secara otomatis seperti prediksi, klasifikasi, pengelompokan, dan pengoptimalan berdasarkan data dan model.
Pada intinya, pembelajaran mesin adalah tentang membangun model yang belajar dari data dan membuat prediksi serta keputusan secara otomatis. Pembangunan model ini biasanya memerlukan tiga elemen kunci: kumpulan data, algoritme, dan evaluasi model. Kumpulan data adalah dasar pembelajaran mesin dan berisi sampel data untuk pelatihan dan pengujian model pembelajaran mesin. Algoritma adalah jantung dari model pembelajaran mesin, yang menentukan bagaimana model belajar dan memprediksi dari data. Evaluasi model adalah bagian penting dari pembelajaran mesin, yang digunakan untuk mengevaluasi kinerja dan akurasi model, dan memutuskan apakah model perlu dioptimalkan dan ditingkatkan.
Dalam pembelajaran mesin tradisional, kumpulan data biasanya perlu dikumpulkan di tempat terpusat untuk pelatihan, yang berarti pemilik data harus berbagi data dengan pihak ketiga, yang dapat menyebabkan risiko kebocoran data atau kebocoran privasi. Dengan ZKML, pemilik data dapat berbagi kumpulan data dengan orang lain tanpa mengungkapkan datanya, yang dicapai dengan menggunakan bukti tanpa pengetahuan.
Ketika bukti tanpa pengetahuan diterapkan pada pemberdayaan pembelajaran mesin, efeknya harus dapat diprediksi, yang memecahkan masalah kotak hitam privasi dan monopoli data yang telah lama terjadi: apakah pihak proyek dapat menggunakannya tanpa mengungkapkan input data pengguna atau spesifik detail model Setelah menyelesaikan bukti dan verifikasi, apakah mungkin setiap koleksi berbagi data atau modelnya sendiri untuk berfungsi tanpa mengungkapkan data pribadi? Tentunya teknologi saat ini masih awal, dan dalam praktiknya pasti akan banyak masalah, hal ini tidak menghalangi imajinasi kita, dan banyak tim yang sudah berkembang.
Apakah situasi ini akan membawa prostitusi gratis dari database kecil ke database besar? Ketika Anda mempertimbangkan masalah tata kelola, itu kembali ke pemikiran Web3 kami. Inti dari Crypto terletak pada tata kelola. Baik itu melalui banyak aplikasi atau berbagi, Anda harus mendapatkan insentif yang layak Anda dapatkan. Apakah itu melalui mekanisme Pow asli, PoS atau PoR terbaru (mekanisme bukti reputasi), semuanya memberikan jaminan untuk efek insentif.
Daya komputasi terdistribusi: narasi inovatif yang terjalin dengan kebohongan dan kenyataan
Jaringan daya komputasi terdesentralisasi selalu menjadi skenario yang hangat disebutkan dalam lingkaran enkripsi.Lagipula, model besar AI membutuhkan daya komputasi yang luar biasa, dan jaringan daya komputasi terpusat tidak hanya akan menyebabkan pemborosan sumber daya tetapi juga membentuk monopoli yang substansial—jika dibandingkan di akhirnya, jumlah GPU adalah hal terakhir yang diperjuangkan, yang terlalu membosankan.
Inti dari jaringan daya komputasi yang terdesentralisasi adalah untuk mengintegrasikan sumber daya komputasi yang tersebar di berbagai lokasi dan perangkat yang berbeda. Keuntungan utama yang sering disebutkan adalah: menyediakan kemampuan komputasi terdistribusi, menyelesaikan masalah privasi, meningkatkan kredibilitas dan keandalan model kecerdasan buatan, mendukung penerapan dan pengoperasian yang cepat dalam berbagai skenario aplikasi, dan menyediakan skema penyimpanan dan pengelolaan data yang terdesentralisasi. Benar, melalui daya komputasi terdesentralisasi, siapa pun dapat menjalankan model AI dan mengujinya pada set data on-chain nyata dari pengguna di seluruh dunia, sehingga mereka dapat menikmati layanan komputasi yang lebih fleksibel, efisien, dan berbiaya rendah.
Pada saat yang sama, daya komputasi terdesentralisasi dapat mengatasi masalah privasi dengan membuat kerangka kerja yang kuat untuk melindungi keamanan dan privasi data pengguna. Ini juga menyediakan proses komputasi yang transparan dan dapat diverifikasi, meningkatkan kredibilitas dan keandalan model kecerdasan buatan, dan menyediakan sumber daya komputasi yang fleksibel dan dapat diskalakan untuk penerapan dan pengoperasian yang cepat dalam berbagai skenario aplikasi.
Kami melihat pelatihan model dari proses komputasi terpusat yang lengkap, langkah-langkahnya biasanya dibagi menjadi: persiapan data, segmentasi data, transmisi data antar perangkat, pelatihan paralel, agregasi gradien, pembaruan parameter, sinkronisasi, dan pelatihan berulang. Dalam proses ini, bahkan jika ruang komputer terpusat menggunakan kluster peralatan komputasi berkinerja tinggi dan berbagi tugas komputasi melalui koneksi jaringan berkecepatan tinggi, biaya komunikasi yang tinggi telah menjadi salah satu batasan terbesar dari jaringan daya komputasi terdesentralisasi.
Oleh karena itu, meskipun jaringan daya komputasi terdesentralisasi memiliki banyak kelebihan dan potensi, jalur pengembangannya masih berliku-liku sesuai dengan biaya komunikasi saat ini dan kesulitan pengoperasian yang sebenarnya. Dalam praktiknya, mewujudkan jaringan daya komputasi terdesentralisasi membutuhkan banyak masalah teknis praktis, apakah itu bagaimana memastikan keandalan dan keamanan node, bagaimana mengelola dan menjadwalkan sumber daya komputasi terdistribusi secara efektif, atau bagaimana mencapai transmisi data dan Komunikasi yang efisien, dll. ., Saya khawatir itu sebenarnya masalah besar.
Tail: Harapan untuk idealis
Kembali ke realitas komersial saat ini, narasi integrasi mendalam AI dan Web3 terlihat begitu indah, tetapi modal dan pengguna memberi tahu kami lebih banyak dengan tindakan praktis bahwa ini ditakdirkan untuk menjadi perjalanan inovasi yang sangat sulit, kecuali jika proyeknya bisa seperti OpenAI , sambil mempertahankan pendukung keuangan yang kuat selagi kita kuat, jika tidak, biaya penelitian dan pengembangan yang tidak berdasar dan model bisnis yang tidak jelas akan menghancurkan kita sepenuhnya.
Apakah itu AI atau Web3, mereka sekarang berada dalam tahap pengembangan yang sangat awal, seperti gelembung Internet di akhir abad lalu, dan baru sepuluh tahun kemudian zaman keemasan yang sebenarnya secara resmi dimulai. McCarthy berfantasi tentang merancang kecerdasan buatan dengan kecerdasan manusia dalam satu liburan, tetapi baru hampir tujuh puluh tahun kemudian kami mengambil langkah kritis menuju kecerdasan buatan.
Hal yang sama berlaku untuk Web3 + AI. Kami telah menentukan kebenaran jalan ke depan, dan sisanya akan diserahkan kepada waktu.
**Ketika gelombang waktu memudar, orang-orang dan benda-benda yang berdiri itu adalah landasan transisi kita dari fiksi ilmiah ke kenyataan. **