AI, khususnya open source dan close source di era model besar, memiliki kelebihan dan kekurangan, yang penting adalah bagaimana melakukan pekerjaan dengan baik dalam proses penggunaannya.
Sumber gambar: Dihasilkan oleh AI Tanpa Batas
Orang selalu terbagi dalam pilihan antara open source dan close source di bidang AI. Namun, di era model besar, kekuatan open source diam-diam muncul. Menurut dokumen internal yang sebelumnya dibocorkan oleh Google, seputar model sumber terbuka seperti LLaMA Meta, seluruh komunitas dengan cepat membangun model yang mirip dengan OpenAI dan kemampuan model besar Google.
Tidak ada keraguan bahwa Meta adalah inti mutlak dari dunia open source, dengan upaya open source yang berkelanjutan seperti rilis Llama 2 baru-baru ini. Namun segala sesuatu yang baik akan musnah oleh angin, akhir-akhir ini Meta sedang "bermasalah" karena open source.
Di luar kantor Meta di San Francisco, sekelompok pengunjuk rasa yang memegang tanda berkumpul untuk memprotes strategi Meta yang merilis model AI secara publik, mengklaim bahwa model yang dirilis ini menyebabkan "proliferasi yang tidak dapat diubah" dari teknologi yang berpotensi tidak aman. Beberapa pengunjuk rasa bahkan membandingkan model besar yang dirilis Meta dengan "senjata pemusnah massal".
Para pengunjuk rasa ini menyebut diri mereka "warga negara yang peduli" dan dipimpin oleh Holly Elmore. Menurut informasi LinkedIn, dia adalah pendukung independen gerakan AI Pause.
Sumber foto: MISHA GUREVICH
Dia menunjukkan bahwa jika suatu model terbukti tidak aman, API dapat dimatikan, seperti model besar seperti Google dan OpenAI yang hanya mengizinkan pengguna untuk mengakses melalui API.
Sebaliknya, rangkaian model sumber terbuka LLaMA Meta membuat bobot model tersedia untuk umum, memungkinkan siapa pun yang memiliki perangkat keras dan keahlian yang tepat untuk mereplikasi dan mengubah model itu sendiri. Setelah bobot model dirilis, perusahaan penerbitan tidak lagi memiliki sarana untuk mengontrol cara penggunaan AI.
Menurut Holly Elmore, melepaskan bobot model adalah strategi yang berbahaya, siapa pun dapat memodifikasi model, dan model tersebut tidak dapat ditarik kembali. Semakin kuat modelnya, semakin berbahaya pula strateginya.
Dibandingkan dengan open source, model besar yang diakses melalui API sering kali memiliki berbagai fitur keamanan, seperti pemfilteran respons atau pelatihan khusus untuk mencegah keluaran respons yang berbahaya atau menyinggung.
Jika bobot model dibebaskan, akan lebih mudah untuk melatih kembali model untuk melompati "pagar pembatas" ini. Hal ini memungkinkan penggunaan model sumber terbuka ini untuk membuat perangkat lunak phishing dan melakukan serangan jaringan.
Sumber foto: MISHA GUREVICH
Karena dia percaya bahwa sebagian masalahnya terletak pada "tidak memadainya langkah-langkah keamanan untuk peluncuran model" dan perlu ada cara yang lebih baik untuk memastikan keamanan model.
Meta belum berkomentar mengenai hal ini. Namun, Yann LeCun, kepala ilmuwan AI Meta, tampaknya telah menanggapi pernyataan bahwa "AI open source harus dilarang" dan mengungkap situasi besar komunitas wirausaha AI open source di Paris.
Ada banyak orang yang tidak setuju dengan Holly Elmore, yang percaya bahwa strategi terbuka untuk pengembangan AI adalah satu-satunya cara untuk menjamin kepercayaan terhadap teknologi.
Beberapa netizen mengatakan bahwa open source memiliki kelebihan dan kekurangan, karena memungkinkan masyarakat mendapatkan transparansi yang lebih besar dan meningkatkan inovasi, namun juga menghadapi risiko penyalahgunaan (seperti kode) oleh pihak jahat.
Benar saja, OpenAI sekali lagi diejek, "Ini harus kembali ke open source."
Ada banyak orang yang khawatir dengan open source
Peter S. Park, peneliti pascadoktoral keamanan AI di MIT, mengatakan: "Pelepasan model AI tingkat lanjut secara luas akan menjadi masalah di masa depan karena pada dasarnya mustahil untuk mencegah penyalahgunaan model AI."
Namun, Stella Biderman, direktur eksekutif EleutherAI, sebuah organisasi penelitian kecerdasan buatan nirlaba, mengatakan: "Sejauh ini, hanya ada sedikit bukti bahwa model sumber terbuka menyebabkan kerugian tertentu. Tidak jelas apakah menempatkan model di belakang API akan menyelesaikan masalah. masalah. Pertanyaan Keamanan."
Biderman percaya: "Elemen dasar membangun LLM telah diungkapkan dalam makalah penelitian gratis, dan siapa pun di dunia dapat membaca literatur makalah untuk mengembangkan model mereka sendiri."
Dia menambahkan: "Mendorong perusahaan untuk merahasiakan detail model dapat menimbulkan konsekuensi serius yang merugikan bagi transparansi penelitian, kesadaran publik, dan pengembangan ilmiah di lapangan, terutama bagi peneliti independen."
Meskipun semua orang sudah mendiskusikan dampak open source, masih belum jelas apakah pendekatan Meta benar-benar cukup terbuka dan dapat memanfaatkan open source.
Stefano Maffulli, direktur eksekutif Open Source Initiative (OSI), mengatakan: "Konsep AI open source belum didefinisikan dengan tepat. Organisasi yang berbeda menggunakan istilah ini untuk merujuk pada hal yang berbeda - yang menunjukkan tingkat 'sesuatu yang tersedia untuk umum' yang berbeda, yang akan membingungkan orang."
Maffulli menunjukkan bahwa untuk perangkat lunak sumber terbuka, isu utamanya adalah apakah kode sumber tersedia untuk umum dan dapat direproduksi untuk tujuan apa pun. Namun, untuk mereproduksi model AI, Anda mungkin harus berbagi data pelatihan, metode pengumpulan data, perangkat lunak pelatihan, bobot model, kode inferensi, dll. Diantaranya, yang paling penting adalah data pelatihan mungkin memiliki masalah privasi dan hak cipta.
OSI telah mengerjakan definisi yang tepat tentang "AI open source" sejak tahun lalu dan kemungkinan akan merilis draf awal dalam beberapa minggu mendatang. Namun apa pun yang terjadi, ia percaya bahwa open source sangat penting bagi pengembangan AI. “Jika AI bukan open source, kita tidak bisa memiliki AI yang dapat dipercaya dan bertanggung jawab,” ujarnya.
Di masa depan, perbedaan antara open source dan close source akan terus berlanjut, namun open source tidak dapat dihentikan.
Tautan asli:
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Bobot model terbuka dituduh menyebabkan AI lepas kendali Meta diprotes dengan plakat LeCun: Komunitas AI open source sedang berjalan lancar.
Orang selalu terbagi dalam pilihan antara open source dan close source di bidang AI. Namun, di era model besar, kekuatan open source diam-diam muncul. Menurut dokumen internal yang sebelumnya dibocorkan oleh Google, seputar model sumber terbuka seperti LLaMA Meta, seluruh komunitas dengan cepat membangun model yang mirip dengan OpenAI dan kemampuan model besar Google.
Tidak ada keraguan bahwa Meta adalah inti mutlak dari dunia open source, dengan upaya open source yang berkelanjutan seperti rilis Llama 2 baru-baru ini. Namun segala sesuatu yang baik akan musnah oleh angin, akhir-akhir ini Meta sedang "bermasalah" karena open source.
Di luar kantor Meta di San Francisco, sekelompok pengunjuk rasa yang memegang tanda berkumpul untuk memprotes strategi Meta yang merilis model AI secara publik, mengklaim bahwa model yang dirilis ini menyebabkan "proliferasi yang tidak dapat diubah" dari teknologi yang berpotensi tidak aman. Beberapa pengunjuk rasa bahkan membandingkan model besar yang dirilis Meta dengan "senjata pemusnah massal".
Para pengunjuk rasa ini menyebut diri mereka "warga negara yang peduli" dan dipimpin oleh Holly Elmore. Menurut informasi LinkedIn, dia adalah pendukung independen gerakan AI Pause.
Dia menunjukkan bahwa jika suatu model terbukti tidak aman, API dapat dimatikan, seperti model besar seperti Google dan OpenAI yang hanya mengizinkan pengguna untuk mengakses melalui API.
Sebaliknya, rangkaian model sumber terbuka LLaMA Meta membuat bobot model tersedia untuk umum, memungkinkan siapa pun yang memiliki perangkat keras dan keahlian yang tepat untuk mereplikasi dan mengubah model itu sendiri. Setelah bobot model dirilis, perusahaan penerbitan tidak lagi memiliki sarana untuk mengontrol cara penggunaan AI.
Menurut Holly Elmore, melepaskan bobot model adalah strategi yang berbahaya, siapa pun dapat memodifikasi model, dan model tersebut tidak dapat ditarik kembali. Semakin kuat modelnya, semakin berbahaya pula strateginya.
Dibandingkan dengan open source, model besar yang diakses melalui API sering kali memiliki berbagai fitur keamanan, seperti pemfilteran respons atau pelatihan khusus untuk mencegah keluaran respons yang berbahaya atau menyinggung.
Jika bobot model dibebaskan, akan lebih mudah untuk melatih kembali model untuk melompati "pagar pembatas" ini. Hal ini memungkinkan penggunaan model sumber terbuka ini untuk membuat perangkat lunak phishing dan melakukan serangan jaringan.
Karena dia percaya bahwa sebagian masalahnya terletak pada "tidak memadainya langkah-langkah keamanan untuk peluncuran model" dan perlu ada cara yang lebih baik untuk memastikan keamanan model.
Meta belum berkomentar mengenai hal ini. Namun, Yann LeCun, kepala ilmuwan AI Meta, tampaknya telah menanggapi pernyataan bahwa "AI open source harus dilarang" dan mengungkap situasi besar komunitas wirausaha AI open source di Paris.
Beberapa netizen mengatakan bahwa open source memiliki kelebihan dan kekurangan, karena memungkinkan masyarakat mendapatkan transparansi yang lebih besar dan meningkatkan inovasi, namun juga menghadapi risiko penyalahgunaan (seperti kode) oleh pihak jahat.
Peter S. Park, peneliti pascadoktoral keamanan AI di MIT, mengatakan: "Pelepasan model AI tingkat lanjut secara luas akan menjadi masalah di masa depan karena pada dasarnya mustahil untuk mencegah penyalahgunaan model AI."
Namun, Stella Biderman, direktur eksekutif EleutherAI, sebuah organisasi penelitian kecerdasan buatan nirlaba, mengatakan: "Sejauh ini, hanya ada sedikit bukti bahwa model sumber terbuka menyebabkan kerugian tertentu. Tidak jelas apakah menempatkan model di belakang API akan menyelesaikan masalah. masalah. Pertanyaan Keamanan."
Biderman percaya: "Elemen dasar membangun LLM telah diungkapkan dalam makalah penelitian gratis, dan siapa pun di dunia dapat membaca literatur makalah untuk mengembangkan model mereka sendiri."
Dia menambahkan: "Mendorong perusahaan untuk merahasiakan detail model dapat menimbulkan konsekuensi serius yang merugikan bagi transparansi penelitian, kesadaran publik, dan pengembangan ilmiah di lapangan, terutama bagi peneliti independen."
Meskipun semua orang sudah mendiskusikan dampak open source, masih belum jelas apakah pendekatan Meta benar-benar cukup terbuka dan dapat memanfaatkan open source.
Stefano Maffulli, direktur eksekutif Open Source Initiative (OSI), mengatakan: "Konsep AI open source belum didefinisikan dengan tepat. Organisasi yang berbeda menggunakan istilah ini untuk merujuk pada hal yang berbeda - yang menunjukkan tingkat 'sesuatu yang tersedia untuk umum' yang berbeda, yang akan membingungkan orang."
OSI telah mengerjakan definisi yang tepat tentang "AI open source" sejak tahun lalu dan kemungkinan akan merilis draf awal dalam beberapa minggu mendatang. Namun apa pun yang terjadi, ia percaya bahwa open source sangat penting bagi pengembangan AI. “Jika AI bukan open source, kita tidak bisa memiliki AI yang dapat dipercaya dan bertanggung jawab,” ujarnya.
Di masa depan, perbedaan antara open source dan close source akan terus berlanjut, namun open source tidak dapat dihentikan.
Tautan asli: