Super AI akan keluar dalam tujuh tahun, OpenAI bermaksud menginvestasikan "uang besar" untuk mencegah lepas kendali

**Sumber: **Asosiasi Keuangan

Diedit oleh Huang Junzhi

Pengembang ChatGPT OpenAI mengatakan pada hari Rabu (5) bahwa perusahaan berencana untuk menginvestasikan sumber daya yang signifikan dan membuat tim penelitian baru untuk memastikan bahwa kecerdasan buatan (AI) aman bagi manusia dan pada akhirnya mencapai pengawasan mandiri terhadap AI.

"Kekuatan superintelijen yang luar biasa dapat ... menyebabkan ketidakberdayaan manusia, atau bahkan kepunahan," tulis salah satu pendiri OpenAI Ilya Sutskever dan Jan Leike, kepala tim Konsistensi AI yang bertugas meningkatkan keamanan sistem, dalam sebuah posting blog .

"Saat ini, kami tidak memiliki solusi untuk memanipulasi atau mengendalikan AI yang berpotensi superintelijen dan mencegahnya lepas kendali," tulis mereka.

Penyelarasan AI mengacu pada kebutuhan agar perilaku AI sejalan dengan minat dan harapan desainer.

Daya komputasi 20% digunakan untuk menyelesaikan masalah AI di luar kendali

Mereka memperkirakan bahwa AI superintelijen (yaitu, sistem yang lebih pintar daripada manusia) dapat tiba dalam dekade ini (pada tahun 2030), dan bahwa manusia akan membutuhkan teknologi yang lebih baik daripada saat ini untuk mengendalikan AI superinteligen, sehingga mereka harus berada dalam apa yang disebut sebagai terobosan. dalam Studi Konsistensi AI, yang berfokus untuk memastikan bahwa kecerdasan buatan bermanfaat bagi manusia.

Menurut mereka, dengan dukungan Microsoft (Microsoft), **OpenAI akan menghabiskan 20% daya komputasinya dalam empat tahun ke depan untuk menyelesaikan masalah AI yang tidak terkendali. **Selain itu, perusahaan sedang membentuk tim baru untuk mengatur pekerjaan ini, yang disebut Tim Super Konsistensi.

Dilaporkan bahwa tujuan tim adalah untuk menciptakan peneliti AI "tingkat manusia", yang kemudian dapat diperluas dengan sejumlah besar daya komputasi. OpenAI mengatakan ini berarti mereka akan menggunakan umpan balik manusia untuk melatih sistem AI, melatih sistem AI untuk membantu evaluasi manusia, dan akhirnya melatih sistem AI untuk melakukan studi konsistensi yang sebenarnya.

Pertanyaan pakar

Namun, langkah ini telah dipertanyakan oleh para ahli segera setelah diumumkan. Connor Leahy, seorang advokat keamanan AI, mengatakan bahwa rencana OpenAI pada dasarnya cacat karena versi dasar AI yang dapat mencapai "tingkat manusia" dapat lepas kendali dan mendatangkan malapetaka sebelum dapat digunakan untuk memecahkan masalah keamanan AI. "

"Anda harus memecahkan masalah konsistensi sebelum Anda dapat membangun kecerdasan tingkat manusia, jika tidak, Anda tidak dapat mengendalikannya secara default. Saya pribadi tidak menganggap itu rencana yang baik atau aman," katanya dalam sebuah wawancara.

Potensi bahaya AI telah lama menjadi perhatian utama para peneliti AI dan masyarakat. Pada bulan April, sekelompok pemimpin dan pakar industri AI menandatangani surat terbuka yang menyerukan moratorium pelatihan sistem AI yang lebih kuat daripada model GPT-4 baru OpenAI selama setidaknya enam bulan, mengutip potensi risikonya terhadap masyarakat dan kemanusiaan.

Jajak pendapat baru-baru ini menemukan bahwa lebih dari dua pertiga orang Amerika khawatir tentang kemungkinan dampak negatif AI, dan 61% percaya bahwa AI dapat mengancam peradaban manusia.

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)