Lebih dari 370 orang, termasuk LeCun dan Ng Enda, menandatangani surat bersama: Kontrol ketat AI berbahaya, dan keterbukaan adalah penangkalnya

Sumber asli: Heart of the Machine

Sumber gambar: Dihasilkan oleh Unbounded AI

Dalam beberapa hari terakhir, diskusi tentang bagaimana mengawasi AI menjadi semakin panas, dan orang-orang besar memiliki pendapat yang sangat berbeda.

Misalnya, tiga serangkai Turing Award Geoffrey Hinton, Yoshua Bengio, dan Yann LeCun memiliki dua pandangan. Hinton dan Bengio adalah tim yang sangat menyerukan regulasi AI yang lebih ketat, yang dapat menyebabkan risiko "kepunahan AI". LeCun tidak berbagi pandangan mereka, dengan alasan bahwa regulasi AI yang kuat pasti akan mengarah pada monopoli raksasa, dengan hasil bahwa hanya beberapa perusahaan yang mengendalikan R&D AI.

Untuk mengekspresikan ide-ide mereka, banyak orang menandatangani surat bersama untuk menyampaikan pandangan mereka, misalnya, dalam beberapa hari terakhir, Bengio, Hinton dan lainnya mengeluarkan surat bersama "Mengelola Risiko AI di Era yang Berkembang Pesat", menyerukan para peneliti untuk mengambil langkah-langkah tata kelola yang mendesak sebelum mengembangkan sistem AI.

Pada saat yang sama, sebuah surat terbuka berjudul "Pernyataan Bersama tentang Keamanan dan Keterbukaan Kecerdasan Buatan" saat ini sedang bergejolak di media sosial.

Tautan ke surat terbuka:

Sejauh ini, lebih dari 370 orang, termasuk LeCun, salah satu dari tiga raksasa pembelajaran mendalam, dan Andrew Ng, seorang profesor di Departemen Ilmu Komputer di Universitas Stanford, telah menandatangani surat terbuka tersebut. Daftar ini terus diperbarui.

"Akses terbuka, transparan, dan luas membuat platform perangkat lunak lebih aman dan andal. Surat terbuka dari Mozilla Foundation ini, yang juga telah saya tandatangani, membuat kasus untuk platform dan sistem AI terbuka. "

Berikut isi surat terbuka tersebut:

Kami berada pada titik kritis dalam tata kelola AI. Untuk mengurangi bahaya sistem AI saat ini dan masa depan, kita perlu merangkul keterbukaan, transparansi, dan akses luas. Ini perlu menjadi prioritas global.
Memang benar bahwa model yang tersedia untuk umum berisiko dan rentan – model AI dapat disalahgunakan oleh aktor jahat atau digunakan oleh pengembang yang tidak lengkap. Namun, berkali-kali, kami telah melihat ini dengan segala macam teknologi eksklusif - peningkatan akses publik dan sensor membuat teknologi lebih aman, tidak lebih berbahaya. Gagasan bahwa kontrol ketat dan eksklusif terhadap model AI yang mendasarinya adalah satu-satunya cara untuk melindungi kita dari bahaya massal adalah naif dan berbahaya paling buruk.

Selain itu, sejarah perkembangan manusia mengajarkan kita bahwa adopsi cepat dari peraturan yang salah dapat menyebabkan konsentrasi kekuasaan, yang dapat membahayakan persaingan dan inovasi. Model terbuka dapat menginformasikan debat publik dan meningkatkan pengembangan strategi. Jika tujuan kita adalah keselamatan, keamanan dan akuntabilitas, maka keterbukaan dan transparansi merupakan faktor penting dalam mencapai tujuan ini.
Kami berada di tengah-tengah diskusi dinamis tentang apa artinya menjadi "terbuka" di era AI. Perdebatan penting ini tidak boleh diperlambat. Sebaliknya, itu harus dipercepat, mendorong kita untuk bereksperimen, belajar, dan mengembangkan cara-cara baru untuk memanfaatkan keterbukaan dalam perlombaan keamanan AI.

Kita perlu membangun seperangkat pendekatan untuk open source dan keterbukaan yang dapat berfungsi sebagai blok bangunan untuk:

  1. Percepat pemahaman tentang risiko dan bahaya kemampuan AI melalui penelitian independen, kolaborasi, dan berbagi pengetahuan. 2. Meningkatkan pengawasan dan akuntabilitas publik dengan membantu regulator mengadopsi alat untuk memantau sistem AI skala besar. 3. Turunkan penghalang masuk untuk pemain baru dan fokus untuk menciptakan AI yang bertanggung jawab.
    Sebagai penandatangan surat terbuka ini, kami adalah kelompok ilmuwan, ahli strategi, insinyur, aktivis, pengusaha, pendidik, dan jurnalis yang beragam, untuk beberapa nama. Kami mewakili perspektif yang berbeda tentang cara mengelola dan menerbitkan AI open source. Namun, kami sangat setuju pada satu hal: pendekatan terbuka, akuntabel, dan transparan sangat penting untuk membuat kita tetap aman di era AI.
    Ketika datang ke keamanan AI, keterbukaan adalah penawarnya, bukan racunnya.

Ditandatangani oleh:

  • Arthur Mensch, salah satu pendiri dan CEO startup Prancis MistralAI Andrew Ng, pendiri DeepLearning.AI, pendiri dan CEO Landing AI, profesor ilmu komputer di Stanford University
  • Yann Lecun, pemenang Turing Award, Kepala Ilmuwan AI di Meta
  • Julien Chaumond, CTO Wajah Memeluk Brian Behlendorf, Anggota Pendiri Apache, CTO OpenSSF Eric Von Hippel adalah seorang ekonom Amerika dan profesor di MIT Sloan School of Management
  • ......

Saat ini, surat terbuka ini, yang baru muncul selama beberapa hari, terus bergejolak, dan telah menarik perhatian dan diskusi besar di komunitas AI asing, sehingga Anda dapat terus memperhatikan pembaruan daftar.

Jika Anda setuju dengan gagasan surat bersama, Anda juga dapat mengirimkan tanda tangan Anda sendiri.

Butuh waktu untuk menjawab apakah regulasi AI yang kuat akan lebih berbahaya daripada kebaikan, atau apakah manfaatnya lebih besar daripada kerugiannya.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)