LeCun mengatakan bahwa sebagian besar rekan-rekan akademis sangat mendukung R&D AI terbuka, tetapi masih ada lawan.
Mengenai masalah risiko AI, para petinggi dari semua lapisan masyarakat juga memiliki pendapat yang berbeda. Beberapa orang telah memimpin dalam menandatangani surat bersama yang menyerukan moratorium segera pada laboratorium AI, pandangan yang didukung oleh tiga serangkai pembelajaran mendalam Geoffrey Hinton, Yoshua Bengio, dan lainnya.
Hanya beberapa hari yang lalu, Bengio, Hinton dan lainnya mengeluarkan surat bersama "Mengelola Risiko AI di Era Perkembangan Cepat", menyerukan para peneliti untuk mengambil langkah-langkah tata kelola yang mendesak untuk memprioritaskan praktik keselamatan dan etika sebelum mengembangkan sistem AI, dan meminta pemerintah untuk mengambil tindakan untuk mengelola risiko yang ditimbulkan oleh AI.
Artikel tersebut menyebutkan beberapa langkah tata kelola yang mendesak, seperti melibatkan lembaga negara untuk mencegah orang menyalahgunakan AI. Untuk mencapai regulasi yang efektif, pemerintah perlu memiliki pemahaman yang komprehensif tentang perkembangan AI. Regulator harus mengambil berbagai langkah, seperti pendaftaran model, perlindungan yang efektif terhadap pelapor, dan pemantauan pengembangan model dan penggunaan superkomputer. Regulator juga memerlukan akses ke sistem AI canggih untuk menilai kemampuan berbahaya mereka sebelum penerapan.
Tidak hanya itu, tetapi sedikit lebih jauh ke belakang, pada bulan Mei tahun ini, organisasi nirlaba Amerika Center for Artificial Intelligence Security mengeluarkan pernyataan yang memperingatkan bahwa kecerdasan buatan harus dianggap sebagai risiko kepunahan umat manusia sebagai epidemi, dan mereka yang mendukung pernyataan itu juga termasuk Hinton, Bengio, dan lainnya.
Pada bulan Mei, Hinton juga berhenti dari pekerjaannya di Google untuk berbicara tentang risiko yang ditimbulkan oleh AI. Dalam sebuah wawancara dengan New York Times, dia berkata, "Kebanyakan orang berpikir itu jauh. Dulu saya berpikir bahwa ini masih jauh, mungkin 30 hingga 50 tahun atau bahkan lebih lama. Tapi jelas, saya tidak berpikir seperti itu sekarang."
Bisa ditebak, di mata petinggi AI seperti Hinton, mengelola risiko yang ditimbulkan oleh AI adalah masalah yang sangat mendesak.
Namun, Yann LeCun, salah satu dari Tiga Besar dalam pembelajaran mendalam, sangat optimis tentang pengembangan AI. Dia sebagian besar menentang penandatanganan surat bersama tentang risiko AI, dengan alasan bahwa pengembangan AI jauh dari ancaman bagi kemanusiaan.
Baru saja, LeCun menjawab beberapa pertanyaan dari netizen tentang risiko AI dalam komunikasi dengan pengguna X.
Netizen bertanya kepada LeCun tentang pendapat LeCun tentang artikel "'Ini adalah perubahan iklimnya': Para ahli membantu Rishi Sunak menyegel warisannya", yang berpendapat bahwa surat bersama yang dikeluarkan oleh Hinton, Bengio, dan lainnya telah mengubah persepsi orang tentang AI, dari melihat AI sebagai asisten menjadi AI sebagai ancaman potensial di awal. Artikel selanjutnya mengatakan bahwa dalam beberapa bulan terakhir, pengamat di Inggris telah menemukan semakin banyak informasi tentang atmosfer apokaliptik yang diciptakan AI. Pada bulan Maret, pemerintah Inggris menerbitkan buku putih yang berjanji untuk tidak menghambat inovasi dalam AI. Namun, hanya dua bulan kemudian, Inggris mulai berbicara tentang menempatkan pagar pembatas pada AI dan mendesak AS untuk merangkul rencananya untuk aturan AI global.
Alamat artikel:
Reaksi LeCun terhadap artikel itu adalah ini, dia tidak ingin kekhawatiran Inggris tentang risiko fatalistik AI menyebar ke negara lain.
Setelah itu, ada komunikasi antara pengguna LeCun dan X yang kami sebutkan sebelumnya, dan inilah semua jawaban LeCun:
"Altman, Hassabis dan Amodei terlibat dalam lobi perusahaan besar-besaran. Mereka mencoba mengatur industri AI. Dan Anda, Geoff, dan Yoshua memberikan "amunisi" kepada mereka yang melobi untuk larangan penelitian AI terbuka.
Jika kampanye ketakutan Anda berhasil, itu pasti akan mengarah pada apa yang Anda dan saya anggap sebagai hasil bencana: segelintir perusahaan akan mengendalikan AI.
Sebagian besar rekan akademis sangat mendukung R&D AI terbuka. Hanya sedikit orang yang percaya skenario apokaliptik yang Anda khotbahkan. Anda, Yoshua, Geoff, dan Stuart adalah satu-satunya pengecualian.
Seperti banyak orang, saya adalah pendukung besar platform AI terbuka karena saya percaya pada kombinasi kekuatan: kreativitas orang, demokrasi, kekuatan pasar, dan peraturan produk. Saya juga tahu bahwa adalah mungkin untuk menghasilkan sistem AI yang aman dan di bawah kendali kami. Saya sudah membuat proposal khusus untuk ini. Semua ini akan memotivasi orang untuk melakukan hal yang benar.
Anda menulis seolah-olah AI diciptakan dari udara tipis, bahwa itu adalah fenomena alam di luar kendali kita. Tapi bukan itu masalahnya. Ini berkembang karena semua orang yang Anda dan saya kenal. Kita dan mereka memiliki kekuatan untuk membangun 'hal yang benar'. Membutuhkan regulasi R&D (sebagai lawan dari penyebaran produk) menyiratkan asumsi bahwa orang-orang ini dan organisasi yang mereka layani tidak kompeten, sembrono, merusak diri sendiri, atau jahat. Tapi bukan itu masalahnya.
Saya telah mengajukan banyak argumen untuk membuktikan bahwa skenario apokaliptik yang Anda takutkan itu konyol. Saya tidak akan membahasnya di sini. Tetapi poin utamanya adalah bahwa jika sistem AI yang kuat didorong oleh tujuan, termasuk pagar pembatas, maka mereka aman dan dapat dikendalikan karena mereka menetapkan pagar pembatas dan tujuan tersebut. (LLM autoregresif saat ini tidak didorong oleh tujuan, jadi jangan menyimpulkan dari kelemahan LLM autoregresif).
Ketika datang ke open source, efek dari aktivitas Anda akan menjadi kebalikan dari apa yang Anda cari. Di masa depan, sistem AI akan menjadi harta karun dari semua pengetahuan dan budaya manusia, dan yang kita butuhkan adalah platform open-source dan gratis sehingga semua orang dapat berkontribusi untuk itu. Keterbukaan adalah satu-satunya cara bagi platform AI untuk mencerminkan berbagai pengetahuan dan budaya manusia. Ini mengharuskan kontribusi ke platform ini bersumber dari crowdsourced, mirip dengan Wikipedia. Kecuali platform terbuka, ini tidak akan berfungsi.
Jika platform AI open-source diatur, maka skenario lain pasti akan terjadi, dan itu adalah bahwa segelintir perusahaan akan mengendalikan platform AI, dan dengan ekstensi, ketergantungan digital total orang. Apa artinya ini bagi demokrasi? Apa artinya ini bagi keragaman budaya? Itulah yang membuat saya terjaga di malam hari."
Di bawah tweet panjang LeCun, ada juga banyak orang yang "mendukung" pandangannya.
Irina Rish, seorang profesor di Departemen Ilmu Komputer dan Riset Operasi di University of Montreal, juga merupakan anggota inti dari Mila - Quebec Institute for AI. Dia mengatakan bahwa mungkin para peneliti yang mendukung AI open-source harus berhenti diam dan harus memimpin jalan dalam pengembangan AI yang muncul.
Pendiri Amazon Beff Jezos juga mengatakan di bagian komentar bahwa ulasan semacam itu penting dan dibutuhkan.
Netizen mengatakan bahwa pada awalnya, membahas masalah keamanan dapat memperkaya imajinasi semua orang tentang teknologi masa depan, tetapi fiksi ilmiah sensasional seharusnya tidak mengarah pada munculnya kebijakan monopoli.
Moderator blog Lex Fridman memiliki lebih banyak hal untuk dinantikan dalam debat ini.
Diskusi tentang risiko AI juga akan membentuk masa depan AI. Ketika sebuah ide mencuri perhatian, orang-orang secara membabi buta mengikutinya. Hanya ketika kedua pihak dapat terus terlibat dalam diskusi rasional, mereka dapat benar-benar melihat "wajah sebenarnya" AI.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Pemenang Turing Award berdebat, dan LeCun: Teori kepunahan AI Bengio, Hinton, dll. konyol
Sumber: Heart of the Machine
Mengenai masalah risiko AI, para petinggi dari semua lapisan masyarakat juga memiliki pendapat yang berbeda. Beberapa orang telah memimpin dalam menandatangani surat bersama yang menyerukan moratorium segera pada laboratorium AI, pandangan yang didukung oleh tiga serangkai pembelajaran mendalam Geoffrey Hinton, Yoshua Bengio, dan lainnya.
Hanya beberapa hari yang lalu, Bengio, Hinton dan lainnya mengeluarkan surat bersama "Mengelola Risiko AI di Era Perkembangan Cepat", menyerukan para peneliti untuk mengambil langkah-langkah tata kelola yang mendesak untuk memprioritaskan praktik keselamatan dan etika sebelum mengembangkan sistem AI, dan meminta pemerintah untuk mengambil tindakan untuk mengelola risiko yang ditimbulkan oleh AI.
Artikel tersebut menyebutkan beberapa langkah tata kelola yang mendesak, seperti melibatkan lembaga negara untuk mencegah orang menyalahgunakan AI. Untuk mencapai regulasi yang efektif, pemerintah perlu memiliki pemahaman yang komprehensif tentang perkembangan AI. Regulator harus mengambil berbagai langkah, seperti pendaftaran model, perlindungan yang efektif terhadap pelapor, dan pemantauan pengembangan model dan penggunaan superkomputer. Regulator juga memerlukan akses ke sistem AI canggih untuk menilai kemampuan berbahaya mereka sebelum penerapan.
Tidak hanya itu, tetapi sedikit lebih jauh ke belakang, pada bulan Mei tahun ini, organisasi nirlaba Amerika Center for Artificial Intelligence Security mengeluarkan pernyataan yang memperingatkan bahwa kecerdasan buatan harus dianggap sebagai risiko kepunahan umat manusia sebagai epidemi, dan mereka yang mendukung pernyataan itu juga termasuk Hinton, Bengio, dan lainnya.
Pada bulan Mei, Hinton juga berhenti dari pekerjaannya di Google untuk berbicara tentang risiko yang ditimbulkan oleh AI. Dalam sebuah wawancara dengan New York Times, dia berkata, "Kebanyakan orang berpikir itu jauh. Dulu saya berpikir bahwa ini masih jauh, mungkin 30 hingga 50 tahun atau bahkan lebih lama. Tapi jelas, saya tidak berpikir seperti itu sekarang."
Bisa ditebak, di mata petinggi AI seperti Hinton, mengelola risiko yang ditimbulkan oleh AI adalah masalah yang sangat mendesak.
Namun, Yann LeCun, salah satu dari Tiga Besar dalam pembelajaran mendalam, sangat optimis tentang pengembangan AI. Dia sebagian besar menentang penandatanganan surat bersama tentang risiko AI, dengan alasan bahwa pengembangan AI jauh dari ancaman bagi kemanusiaan.
Baru saja, LeCun menjawab beberapa pertanyaan dari netizen tentang risiko AI dalam komunikasi dengan pengguna X.
Reaksi LeCun terhadap artikel itu adalah ini, dia tidak ingin kekhawatiran Inggris tentang risiko fatalistik AI menyebar ke negara lain.
"Altman, Hassabis dan Amodei terlibat dalam lobi perusahaan besar-besaran. Mereka mencoba mengatur industri AI. Dan Anda, Geoff, dan Yoshua memberikan "amunisi" kepada mereka yang melobi untuk larangan penelitian AI terbuka.
Jika kampanye ketakutan Anda berhasil, itu pasti akan mengarah pada apa yang Anda dan saya anggap sebagai hasil bencana: segelintir perusahaan akan mengendalikan AI.
Sebagian besar rekan akademis sangat mendukung R&D AI terbuka. Hanya sedikit orang yang percaya skenario apokaliptik yang Anda khotbahkan. Anda, Yoshua, Geoff, dan Stuart adalah satu-satunya pengecualian.
Seperti banyak orang, saya adalah pendukung besar platform AI terbuka karena saya percaya pada kombinasi kekuatan: kreativitas orang, demokrasi, kekuatan pasar, dan peraturan produk. Saya juga tahu bahwa adalah mungkin untuk menghasilkan sistem AI yang aman dan di bawah kendali kami. Saya sudah membuat proposal khusus untuk ini. Semua ini akan memotivasi orang untuk melakukan hal yang benar.
Anda menulis seolah-olah AI diciptakan dari udara tipis, bahwa itu adalah fenomena alam di luar kendali kita. Tapi bukan itu masalahnya. Ini berkembang karena semua orang yang Anda dan saya kenal. Kita dan mereka memiliki kekuatan untuk membangun 'hal yang benar'. Membutuhkan regulasi R&D (sebagai lawan dari penyebaran produk) menyiratkan asumsi bahwa orang-orang ini dan organisasi yang mereka layani tidak kompeten, sembrono, merusak diri sendiri, atau jahat. Tapi bukan itu masalahnya.
Saya telah mengajukan banyak argumen untuk membuktikan bahwa skenario apokaliptik yang Anda takutkan itu konyol. Saya tidak akan membahasnya di sini. Tetapi poin utamanya adalah bahwa jika sistem AI yang kuat didorong oleh tujuan, termasuk pagar pembatas, maka mereka aman dan dapat dikendalikan karena mereka menetapkan pagar pembatas dan tujuan tersebut. (LLM autoregresif saat ini tidak didorong oleh tujuan, jadi jangan menyimpulkan dari kelemahan LLM autoregresif).
Ketika datang ke open source, efek dari aktivitas Anda akan menjadi kebalikan dari apa yang Anda cari. Di masa depan, sistem AI akan menjadi harta karun dari semua pengetahuan dan budaya manusia, dan yang kita butuhkan adalah platform open-source dan gratis sehingga semua orang dapat berkontribusi untuk itu. Keterbukaan adalah satu-satunya cara bagi platform AI untuk mencerminkan berbagai pengetahuan dan budaya manusia. Ini mengharuskan kontribusi ke platform ini bersumber dari crowdsourced, mirip dengan Wikipedia. Kecuali platform terbuka, ini tidak akan berfungsi.
Jika platform AI open-source diatur, maka skenario lain pasti akan terjadi, dan itu adalah bahwa segelintir perusahaan akan mengendalikan platform AI, dan dengan ekstensi, ketergantungan digital total orang. Apa artinya ini bagi demokrasi? Apa artinya ini bagi keragaman budaya? Itulah yang membuat saya terjaga di malam hari."
Di bawah tweet panjang LeCun, ada juga banyak orang yang "mendukung" pandangannya.
Irina Rish, seorang profesor di Departemen Ilmu Komputer dan Riset Operasi di University of Montreal, juga merupakan anggota inti dari Mila - Quebec Institute for AI. Dia mengatakan bahwa mungkin para peneliti yang mendukung AI open-source harus berhenti diam dan harus memimpin jalan dalam pengembangan AI yang muncul.
Moderator blog Lex Fridman memiliki lebih banyak hal untuk dinantikan dalam debat ini.