Jaringan DePIN AI: Komputasi GPU terdistribusi mendukung perkembangan AI

Persimpangan AI dan DePIN: Kebangkitan Jaringan Komputasi Terdistribusi

Sejak tahun 2023, AI dan DePIN telah menjadi tren populer di bidang Web3, dengan kapitalisasi pasar masing-masing mencapai 30 miliar USD dan 23 miliar USD. Artikel ini fokus pada bidang persimpangan keduanya, membahas perkembangan protokol terkait.

AI dan Titik Persimpangan DePIN

Dalam tumpukan teknologi AI, jaringan DePIN menyediakan utilitas untuk AI melalui sumber daya komputasi. Perkembangan perusahaan teknologi besar menyebabkan kekurangan GPU, membuat pengembang lain kesulitan untuk mendapatkan cukup GPU untuk komputasi. Ini sering kali menyebabkan pengembang memilih penyedia cloud terpusat, tetapi karena kontrak perangkat keras jangka panjang yang tidak cukup fleksibel, efisiensinya menjadi rendah.

DePIN menyediakan alternatif yang lebih fleksibel dan lebih hemat biaya, dengan memberi insentif kontribusi sumber daya melalui imbalan token. DePIN di bidang AI mengalihkan sumber daya GPU dari pemilik individu ke pusat data, menyediakan pasokan yang terstandarisasi untuk pengguna yang membutuhkan akses perangkat keras. Ini tidak hanya memberikan akses yang disesuaikan dan sesuai permintaan bagi pengembang, tetapi juga membawa pendapatan tambahan bagi pemilik GPU.

Ada banyak jaringan AI DePIN di pasar, artikel ini akan membahas peran, tujuan, dan pencapaian masing-masing protokol untuk memahami perbedaan di antara mereka.

Ringkasan Jaringan DePIN AI

Render adalah pelopor jaringan P2P yang menyediakan kemampuan komputasi GPU, awalnya fokus pada rendering konten kreatif, kemudian berkembang ke tugas komputasi AI.

Poin utama:

  • Didirikan oleh perusahaan grafik awan OTOY
  • Jaringan GPU digunakan oleh perusahaan besar di industri hiburan
  • Bekerja sama dengan Stability AI, mengintegrasikan model AI dan alur kerja rendering 3D
  • Menyetujui beberapa klien komputasi, mengintegrasikan lebih banyak GPU jaringan DePIN

Akash diposisikan sebagai alternatif "super cloud" yang mendukung penyimpanan, komputasi GPU, dan CPU. Dengan menggunakan alat ramah pengembang seperti platform kontainer dan node komputasi yang dikelola oleh Kubernetes, perangkat lunak dapat disebarkan dengan mulus di berbagai lingkungan.

Poin utama:

  • Untuk berbagai tugas komputasi dari komputasi umum hingga hosting jaringan
  • AkashML memungkinkan jaringan GPU untuk menjalankan lebih dari 15.000 model di Hugging Face
  • Mengelola aplikasi chatbot model LLM Mistral AI dan lainnya
  • Membangun platform seperti metaverse, penerapan AI menggunakan Supercloud

io.net menyediakan akses ke kluster cloud GPU terdistribusi, khusus untuk kasus penggunaan AI dan ML. Mengagregasi GPU dari pusat data, penambang kripto, dan bidang lainnya.

Poin utama:

  • IO-SDK kompatibel dengan kerangka seperti PyTorch, arsitektur berlapis dapat diperluas secara dinamis
  • Mendukung pembuatan 3 jenis kluster berbeda, mulai dalam 2 menit
  • Bekerja sama dengan Render, Filecoin, dan lainnya untuk mengintegrasikan sumber daya GPU

Gensyn menyediakan kemampuan GPU yang fokus pada komputasi pembelajaran mesin dan pembelajaran dalam. Mengklaim untuk mencapai mekanisme verifikasi yang lebih efisien melalui konsep-konsep seperti bukti pembelajaran.

Poin:

  • Biaya per jam untuk GPU setara V100 sekitar 0,40 dolar AS, menghemat secara signifikan
  • Dapat melakukan penyesuaian pada model dasar yang telah dilatih sebelumnya untuk menyelesaikan tugas tertentu
  • Menyediakan model dasar yang terdesentralisasi dan dimiliki secara global

Aethir dirancang khusus untuk GPU perusahaan, berfokus pada bidang komputasi intensif seperti AI, ML, dan permainan cloud. Kontainer dalam jaringan berfungsi sebagai titik akhir virtual untuk menjalankan aplikasi cloud, memberikan pengalaman latensi rendah.

Poin penting:

  • Memperluas layanan ponsel cloud, meluncurkan ponsel cerdas cloud terdesentralisasi bekerja sama dengan APhone
  • Membangun kerjasama luas dengan perusahaan Web2 besar seperti NVIDIA
  • Bekerja sama dengan proyek Web3 seperti CARV, Magic Eden

Phala Network berfungsi sebagai lapisan eksekusi untuk solusi AI Web3. Blockchain-nya adalah solusi komputasi awan tanpa kepercayaan, yang dirancang untuk menangani masalah privasi melalui lingkungan eksekusi tepercaya (TEE).

Poin penting:

  • Bertindak sebagai protokol koprosesor yang dapat diverifikasi untuk memungkinkan agen AI mengakses sumber daya di blockchain
  • Kontrak agen AI dapat diperoleh melalui Redpill dari model bahasa terkemuka seperti OpenAI
  • Masa depan akan mencakup sistem bukti multipel seperti zk-proofs, MPC, FHE, dan lainnya
  • Mendatang akan mendukung GPU TEE seperti H100, meningkatkan kemampuan komputasi

Perbandingan Proyek

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | Keras | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Fokus Bisnis | Rendering Grafis dan AI | Komputasi Awan, Rendering dan AI | AI | AI | AI, Permainan Awan dan Telekomunikasi | Eksekusi AI di Blockchain | | Jenis Tugas AI| Inferensi | Pelatihan dan Inferensi | Pelatihan dan Inferensi | Pelatihan | Pelatihan | Eksekusi | | Penetapan Harga | Penetapan Harga Berdasarkan Kinerja | Lelang Terbalik | Penetapan Harga Pasar | Penetapan Harga Pasar | Sistem Tender | Perhitungan Hak | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privasi Data | Enkripsi dan Hashing | Autentikasi mTLS | Enkripsi Data | Pemetaan Aman | Enkripsi | TEE | | Biaya kerja | 0.5-5%/kerja | 20% USDC, 4% AKT| 2% USDC, 0.25% cadangan | Biaya rendah | 20%/sesi | Proporsional dengan staking| | Keamanan | Bukti Rendering | Bukti Kepemilikan | Bukti Perhitungan | Bukti Kepemilikan | Bukti Kapasitas Rendering | Warisan dari Rantai Perantara | | Bukti Penyelesaian | - | - | Bukti Kunci Waktu | Bukti Pembelajaran | Bukti Pekerjaan Rendering | Bukti TEE | | Jaminan Kualitas | Sengketa | - | - | Verifikasi dan Laporan | Cek Node | Bukti Jarak | | GPU Cluster | Tidak | Ya | Ya | Ya | Ya | Tidak |

AI dan DePIN titik pertemuan

Pentingnya

Ketersediaan Kluster dan Komputasi Paralel

Kerangka kerja komputasi terdistribusi untuk merealisasikan kluster GPU, meningkatkan efisiensi pelatihan dan skalabilitas. Melatih model AI yang kompleks memerlukan kemampuan komputasi yang kuat, biasanya bergantung pada komputasi terdistribusi. Misalnya, model GPT-4 dari OpenAI memiliki lebih dari 18 triliun parameter, memakan waktu 3-4 bulan, menggunakan sekitar 25.000 GPU Nvidia A100.

Sebagian besar proyek kini telah mengintegrasikan kluster untuk melakukan komputasi paralel. io.net bekerja sama dengan proyek lain, telah menerapkan lebih dari 3.800 kluster di Q1. Render meskipun tidak mendukung kluster, tetapi membagi satu frame untuk diproses secara bersamaan di beberapa node. Phala mendukung pengelompokan pekerja CPU.

Kerangka kluster sangat penting untuk jaringan alur kerja AI, tetapi jumlah dan jenis GPU kluster yang memenuhi kebutuhan pengembang adalah masalah lain.

Privasi Data

Pengembangan model AI membutuhkan banyak dataset, yang mungkin melibatkan informasi sensitif. Samsung pernah menonaktifkan ChatGPT karena khawatir tentang privasi, kebocoran data sebesar 38TB oleh Microsoft semakin menyoroti pentingnya keamanan AI. Berbagai metode privasi data sangat penting bagi penyedia data untuk mengembalikan hak.

Sebagian besar proyek menggunakan jenis enkripsi data untuk melindungi privasi. Render menggunakan enkripsi dan hashing, io.net dan Gensyn menerapkan enkripsi data, Akash menggunakan otentikasi mTLS.

io.net bekerja sama dengan Mind Network meluncurkan enkripsi homomorfik penuh (FHE), yang memungkinkan pengolahan data terenkripsi tanpa perlu dekripsi. Ini lebih baik dalam melindungi privasi dibandingkan teknologi enkripsi yang ada.

Phala Network memperkenalkan lingkungan eksekusi tepercaya ( TEE ), untuk mencegah akses atau modifikasi data dari luar. Ini juga menggabungkan zk-proofs untuk integrasi RiscZero zkVM.

Bukti penyelesaian perhitungan dan pemeriksaan kualitas

Karena cakupan layanan yang luas, kualitas akhir mungkin tidak memenuhi standar pengguna. Penyelesaian bukti menunjukkan bahwa GPU memang digunakan untuk layanan yang diperlukan, pemeriksaan kualitas bermanfaat bagi pengguna.

Gensyn dan Aethir menyelesaikan bukti generasi, io.net membuktikan bahwa kinerja GPU digunakan secara maksimal tanpa masalah. Gensyn dan Aethir melakukan pemeriksaan kualitas. Gensyn menggunakan validator untuk menjalankan kembali sebagian bukti, pelapor memeriksa kembali. Aethir menggunakan titik pemeriksaan untuk menilai kualitas layanan, menghukum layanan yang tidak memenuhi standar. Render menyarankan proses penyelesaian sengketa, komite peninjau dapat mengurangi node bermasalah. Phala menghasilkan bukti TEE, memastikan agen AI melakukan operasi di atas rantai.

Statistik Perangkat Keras

| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Jumlah GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Jumlah CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Jumlah H100/A100| - | 157 | 2330 | - | 2000+ | - | | Biaya H100/jam | - | $1.46 | $1.19 | - | - | - | | Biaya A100/jam | - | $1.37 | $1.50 | $0.55 ( diperkirakan ) | $0.33 ( diperkirakan ) | - |

AI dan DePIN titik pertemuan

Persyaratan GPU berkinerja tinggi

Pelatihan model AI membutuhkan GPU terbaik seperti Nvidia A100 dan H100. Kinerja inferensi H100 adalah 4 kali lipat dari A100, menjadikannya pilihan utama, terutama bagi perusahaan besar.

Pasar GPU terdesentralisasi harus bersaing dengan Web2, tidak hanya dengan harga yang rendah, tetapi juga harus memenuhi kebutuhan nyata. Pada tahun 2023, Nvidia menyerahkan 500.000 unit H100 kepada perusahaan teknologi besar, yang memiliki biaya perangkat keras yang sangat tinggi. Penting untuk mempertimbangkan jumlah perangkat keras yang dapat diperkenalkan dengan biaya rendah dalam proyek-proyek ini.

Setiap proyek menyediakan kemampuan komputasi yang berbeda. Akash hanya memiliki lebih dari 150 H100 dan A100, sementara io.net dan Aethir masing-masing memiliki lebih dari 2000. LLM yang telah dilatih sebelumnya biasanya membutuhkan kluster GPU antara 248 hingga lebih dari 2000, sedangkan dua proyek terakhir lebih cocok untuk komputasi model besar.

Saat ini, biaya layanan GPU terdesentralisasi jauh lebih rendah daripada layanan terpusat. Gensyn dan Aethir mengklaim bahwa perangkat keras tingkat A100 kurang dari 1 dolar per jam, tetapi masih perlu waktu untuk memverifikasinya.

Meskipun jaringan terhubung dengan kluster GPU memiliki banyak GPU dan biaya rendah, tetapi memiliki batasan memori dibandingkan dengan GPU yang terhubung melalui NVLink. NVLink mendukung komunikasi langsung antar GPU, cocok untuk LLM dengan banyak parameter dan dataset besar.

Meskipun demikian, jaringan GPU terdesentralisasi tetap menyediakan kekuatan komputasi yang kuat dan skalabilitas untuk kebutuhan beban kerja yang dinamis atau pengguna yang memerlukan fleksibilitas, menciptakan peluang untuk membangun lebih banyak kasus penggunaan AI.

menyediakan GPU/CPU tingkat konsumen

CPU juga sangat penting dalam pelatihan model AI, digunakan untuk pra-pemrosesan data hingga manajemen memori. GPU kelas konsumen dapat digunakan untuk penyesuaian model yang telah dilatih sebelumnya atau pelatihan skala kecil.

Mengingat lebih dari 85% konsumen GPU tidak terpakai, proyek seperti Render, Akash, dan io.net juga melayani bagian pasar ini. Ini memungkinkan mereka untuk fokus pada komputasi intensif skala besar, rendering kecil yang umum, atau kombinasi keduanya.

Kesimpulan

Bidang DePIN AI masih relatif baru dan menghadapi tantangan. Misalnya, io.net pernah dituduh memalsukan jumlah GPU, namun kemudian diselesaikan melalui bukti kerja.

Meskipun demikian, jumlah tugas yang dijalankan di jaringan ini dan jumlah perangkat keras meningkat secara signifikan, menyoroti pertumbuhan permintaan untuk alternatif penyedia cloud Web2. Sementara itu, lonjakan penyedia perangkat keras menunjukkan bahwa pasokan belum dimanfaatkan sepenuhnya. Ini membuktikan kesesuaian produk pasar dari jaringan DePIN AI, yang secara efektif mengatasi tantangan permintaan dan pasokan.

Melihat ke depan, AI diharapkan menjadi pasar bernilai triliun dolar yang berkembang pesat, dan jaringan GPU terdesentralisasi ini akan memainkan peran kunci dalam menyediakan alternatif komputasi yang ekonomis bagi para pengembang. Dengan terus menjembatani kesenjangan antara permintaan dan pasokan, jaringan ini akan memberikan kontribusi signifikan terhadap lanskap masa depan AI dan infrastruktur komputasi.

AI dan titik pertemuan DePIN

AI dan DePIN di Persimpangan

AI dan DePIN di persimpangan

AI dan DePIN titik pertemuan

AI dan titik pertemuan DePIN

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 4
  • Bagikan
Komentar
0/400
DecentralizeMevip
· 07-24 18:34
Apa itu depin, lebih baik melakukan proyek poi.
Lihat AsliBalas0
ContractCollectorvip
· 07-24 18:33
Desentralisasi才是王道啊
Lihat AsliBalas0
CoffeeNFTsvip
· 07-24 18:10
Di depan ada Amazon, di belakang ada GPT. Siapa yang mengerti permainan besar GPU ini?
Lihat AsliBalas0
TommyTeacher1vip
· 07-24 18:06
Gulung ke langit
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)