"Oppenheimer" tayang di bioskop, apakah Sam Altman akan menjadi yang berikutnya?

Ditulis oleh: Nathan Gardels

Asal: Noema

Tata kelola teknologi yang dapat menghancurkan masyarakat.

Sumber gambar: Dihasilkan oleh alat AI Tanpa Batas

Sutradara film Christopher Nolan mengatakan dia telah berbicara dengan para ilmuwan kecerdasan buatan yang sedang mengalami "momen Oppenheimer" dan khawatir tentang potensi kehancuran ciptaan mereka. “Saya menceritakan kisah Oppenheimer,” katanya tentang film biografi Oppenheimer, “karena menurut saya ini adalah kisah yang penting, dan jelas merupakan kisah peringatan.” Faktanya, beberapa orang telah membandingkan Ultraman Sam dari OpenAI dengan bapak dari bom atom.

Oppenheimer dijuluki "Prometheus Amerika" oleh para penulis biografinya karena menguraikan rahasia api nuklir dari para dewa, yang membelah materi untuk melepaskan energi mengerikan yang ia khawatirkan dapat membakar peradaban manusia.

Altman juga bertanya-tanya apakah penggunaan ChatGPT untuk mendorong pengembangan kecerdasan buatan generatif juga merupakan "hal yang sangat buruk". Dia mengatakan pada sidang Senat: “Jika terjadi kesalahan dengan teknologi ini, hal itu dapat menyebabkan bencana.” Gregory Hinton, yang dikenal sebagai bapak baptis kecerdasan buatan, mengundurkan diri dari Google pada bulan Mei tahun ini, mengatakan bahwa dia tidak percaya diri dengan kehidupannya. pekerjaan.-- membuat mesin yang lebih pintar dari manusia -- agak disesalkan. “Akan sulit untuk mencegah pihak-pihak jahat menggunakan AI untuk melakukan hal-hal buruk,” ia memperingatkan. Selain itu, rekan-rekannya yang lain berbicara tentang “risiko kepunahan AI,” dan menyandingkannya dengan ancaman nyata lainnya seperti perang nuklir, perubahan iklim. , dan pandemi.

Menurut Yuval Noah Harari (penulis "A Brief History of Humanity"), kekuatan destruktif kecerdasan buatan generatif terhadap masyarakat mungkin tidak kalah dengan bom atom.Dalam kutipan Oppenheimer dari "Baghavad Gita", itu adalah "dunia" Sang Penghancur ". Kali ini, Homo sapiens menjadi dewa, dan keturunan anorganik yang mereka hasilkan suatu hari nanti mungkin akan menggantikan nenek moyang mereka. Dalam ceramahnya beberapa tahun lalu, Harari mengatakan sebagai berikut: "Sejarah manusia dimulai ketika manusia menciptakan dewa. Ketika manusia menjadi dewa, sejarah manusia berakhir."

Harari dan rekan penulisnya, Tristan Harris dan Aza Raskin, menjelaskan dalam sebuah artikel baru-baru ini: "Pada awalnya adalah bahasa. Bahasa adalah sistem operasi kebudayaan manusia. Dari bahasa muncullah mitos dan hukum, dewa dan uang, seni dan sains, persahabatan, Negara dan kode komputer. Penguasaan bahasa AI yang baru berarti AI kini dapat meretas dan memanipulasi sistem operasi peradaban. Dengan menguasai bahasa, AI mengambil kunci utama peradaban, mulai dari brankas bank hingga makam suci.”

Mereka melanjutkan dengan menulis:

Selama ribuan tahun, kita manusia hidup dalam mimpi orang lain. Kita memuja dewa-dewa, mengejar cita-cita yang indah, dan mengabdikan hidup kita untuk tujuan yang berasal dari imajinasi para nabi, penyair, atau negarawan. Segera, kita juga akan mendapati diri kita hidup dalam ilusi kecerdasan yang tidak manusiawi...

Sebentar lagi kita akan menghadapi iblis Descartes, gua Plato, dan Maya Budha. Selubung ilusi mungkin menyelimuti seluruh umat manusia, dan kita mungkin tidak akan pernah bisa mengangkatnya lagi -- atau bahkan menyadari keberadaannya.

Sejarawan dan filsuf Israel sangat terkejut dengan prospek entitas non-manusia yang menulis narasi kita sehingga ia dengan bersemangat merekomendasikan agar Homo sapiens berhenti sebelum menyerahkan penguasaan wilayah kita kepada teknologi yang kita miliki.

“Kita harus mewaspadai AI sebelum politik, perekonomian, dan kehidupan sehari-hari kita bergantung padanya,” mereka memperingatkan. “Jika kita menunggu hingga gangguan terjadi, maka semuanya sudah terlambat.”

** Skenario "Terminator" sangat tidak mungkin**

Wakil Presiden Google Blaise Agüera Y Arcas dan rekannya dari Institut Kecerdasan Buatan Quebec menulis di majalah Noema bahwa mereka tidak percaya bahwa adegan Hollywood "Terminator" akan muncul dalam waktu dekat. Sebaliknya, mereka khawatir bahwa fokus pada “ancaman eksistensial” di masa depan akan mengalihkan perhatian dari mitigasi bahaya nyata yang ditimbulkan oleh AI terhadap masyarakat saat ini.

Bahkan sebelum AI menjadi sangat cerdas, ketakutan terburuk mereka sudah ada: pengawasan massal, disinformasi dan manipulasi, penyalahgunaan AI oleh militer, dan penggantian pekerjaan profesional secara massal.

Bagi kelompok ilmuwan dan teknolog ini, "kepunahan akibat AI jahat adalah skenario yang sangat tidak mungkin terjadi dan bergantung pada asumsi yang dipertanyakan mengenai evolusi jangka panjang kehidupan, kecerdasan, teknologi, dan masyarakat. Ini juga merupakan skenario yang tidak mungkin terjadi." -skenario yang sangat mungkin terjadi, karena sistem AI yang super cerdas harus mengatasi banyak keterbatasan dan kendala fisik sebelum dapat 'memberontak' dengan cara ini. Ada beberapa titik pemeriksaan alami yang dapat dimitigasi oleh para peneliti dengan memecahkan tantangan yang nyata dan mendesak. risiko tanpa secara eksplisit menjadikan risiko eksistensial sebagai prioritas global.”

Dalam pandangan mereka, “ada tiga cara untuk menyebabkan kepunahan: persaingan untuk mendapatkan sumber daya, perburuan dan konsumsi berlebihan, atau perubahan iklim atau relung ekologi sehingga kondisi lingkungan menyebabkan kepunahannya. Tak satu pun dari ketiga skenario ini berlaku untuk AI saat ini”.

Yang paling penting, "Saat ini, AI bergantung pada kita, dan superintelligence mungkin akan menyadari fakta ini dan berusaha melindungi umat manusia, karena keberadaan kita sama pentingnya dengan keberadaan tanaman penghasil oksigen bagi keberadaan kita. Itu sebabnya Evolusi membuat saling ketergantungan antara AI dan manusia jauh lebih mungkin dibandingkan persaingan.”

Membayar “harga yang tidak terhingga” untuk “hasil yang tidak terduga” dari kepunahan sama saja dengan mencurahkan seluruh kecanggihan teknologi kita untuk mempertahankan diri dari kemungkinan meteor menghantam Bumi sebagai prioritas pertama Bumi. Sederhananya, “risiko eksistensial yang ditimbulkan oleh AI super cerdas tidak layak menjadi prioritas global selain perubahan iklim, perang nuklir, dan pencegahan pandemi”.

Momen Oppenheimer lainnya

Bahaya apa pun yang mungkin timbul dari persaingan antara manusia dan kecerdasan super yang sedang berkembang, baik yang dekat maupun yang jauh, hanya akan diperburuk oleh persaingan antar negara.

Oppenheimer dianiaya, diisolasi, dan izin keamanannya dicabut oleh Komisi Energi Atom AS pada tahun-tahun terakhirnya karena kegilaan McCarthyist pada awal Perang Dingin melihatnya sebagai sesama pelancong komunis. Kejahatannya: menentang pengerahan bom hidrogen dan menyerukan kerja sama dengan negara lain untuk mengendalikan penggunaan senjata nuklir.

Dalam pidatonya di depan para ilmuwan AI di Beijing pada bulan Juni, Altman juga menyerukan kerja sama dalam mengatur penggunaan AI. “Tiongkok mempunyai talenta AI terbaik di dunia,” katanya. Mengendalikan sistem AI yang canggih “membutuhkan pemikiran terbaik dari seluruh dunia. Dengan munculnya sistem AI yang semakin kuat, pertaruhan untuk kolaborasi global menjadi semakin besar.”

Pasti ada yang bertanya-tanya berapa lama waktu yang dibutuhkan agar rasa tanggung jawab ilmiah Altman secara umum bisa terjebak dalam histeria McCarthy saat ini terhadap Tiongkok di Washington, seperti yang terjadi pada Oppenheimer.

Di antara bahaya nyata yang ditimbulkan oleh kecerdasan buatan, yang pertama dan terpenting adalah bagaimana kecerdasan buatan dapat dijadikan senjata. Seperti yang diperingatkan Harari, sekaranglah saatnya untuk menghadapi ancaman ini, bukan hanya ketika ancaman tersebut menjadi kenyataan dan sudah terlambat. Peserta yang bertanggung jawab perlu menggunakan kebijaksanaan yang tidak dapat diberikan oleh mesin dan bekerja sama untuk mengurangi risiko. Jika Ultraman mengalami momen Oppenheimer lagi, risiko eksistensial semakin dekat.

Dalam sambutannya, Menteri Luar Negeri AS Antony Blinken dan Menteri Perdagangan Gina Raimondo mengakui bahwa "tidak ada negara atau perusahaan yang dapat membentuk masa depan kecerdasan buatan sendirian... Hanya melalui perhatian kolektif, kebijaksanaan, dan kerja sama komunitas internasional kita dapat sepenuhnya dan dengan aman memanfaatkan sepenuhnya potensi kecerdasan buatan."

Namun sejauh ini, inisiatif-inisiatif mereka, meskipun penting, masih terkendala oleh persaingan strategis. Bagi negara-negara di seluruh dunia, tantangan paling serius adalah bagaimana berkomunikasi secara langsung untuk menghentikan perlombaan senjata AI menjadi lebih buruk sebelum menjadi tidak terkendali.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)