Catatan editor: Perkembangan kecerdasan buatan generatif telah melampaui harapan semua orang, dan bahkan banyak ahli mulai menyerukan moratorium pengembangan kecerdasan buatan untuk memberi manusia waktu untuk mempelajari cara mengatur dan menanggapinya. Dalam arti tertentu, kecerdasan buatan generatif saat ini dapat dibandingkan dengan spesies invasif, yang menyebar dalam sistem jaringan manusia yang rapuh, dan bagaimana mengawasinya telah menjadi masalah besar. Makalah ini mengusulkan perspektif peraturan baru: biarkan kecerdasan buatan saling mengawasi, bersaing satu sama lain, dan bahkan saling menginformasikan. Manusia mungkin tidak dapat mengikuti kecerdasan buatan suatu hari nanti, tetapi akan selalu ada keseimbangan antara kecerdasan buatan yang berbeda. Artikel ini dari kompilasi, saya harap dapat menginspirasi Anda.
Tokoh-tokoh terkemuka di bidang kecerdasan buatan, termasuk arsitek sistem yang disebut "kecerdasan buatan generatif" seperti ChatGPT, kini secara terbuka mengungkapkan kekhawatiran bahwa apa yang mereka buat mungkin memiliki konsekuensi yang mengerikan. Banyak yang sekarang menyerukan moratorium pengembangan AI untuk memberi waktu kepada negara dan institusi untuk mengerjakan sistem kontrol.
Mengapa kekhawatiran tiba-tiba ini? Sementara banyak asumsi klise dibalik, kita belajar bahwa apa yang disebut tes Turing tidak relevan, dan gagal memberikan wawasan apakah model bahasa generatif besar sebenarnya adalah hal yang cerdas.
Beberapa masih berharap bahwa kombinasi organik dan sibernetika akan mengarah pada apa yang disebut Reid Hoffman dan Marc Andreesen sebagai "kecerdasan amplifikasi". Jika tidak, kita mungkin memiliki sinergi yang beruntung dengan "mesin kasih karunia" Richard Brautigan. Tetapi tampaknya ada banyak orang yang khawatir, termasuk banyak pendiri elit Pusat Keamanan AI yang baru, prihatin dengan perilaku kecerdasan buatan, yang mereka khawatirkan tidak hanya akan menjadi tidak menyenangkan, tetapi juga mengancam kelangsungan hidup umat manusia.
Beberapa solusi jangka pendek, seperti peraturan perlindungan sipil UE yang baru saja disahkan, dapat membantu, atau setidaknya memberikan ketenangan pikiran. Kritikus teknologi Yuval Noah Harari (penulis "A Brief History of Humanity") telah menyarankan undang-undang yang mewajibkan setiap pekerjaan yang dilakukan oleh AI atau AI lain untuk diberi label dengan Label yang relevan. Yang lain menyarankan hukuman yang lebih keras bagi mereka yang menggunakan AI untuk melakukan kejahatan, seperti senjata. Tentu saja, ini hanyalah tindakan sementara.
Kita perlu menyadari apakah "jeda" ini akan memperlambat kemajuan kecerdasan buatan. Seperti yang dikatakan oleh ilmuwan jaringan Caltech Yaser Abu-Mostafa: "Jika Anda tidak mengembangkan teknologinya, orang lain akan melakukannya. Tetapi orang baik akan bermain sesuai aturan, dan orang jahat tidak."
Selalu seperti ini. Faktanya, sepanjang sejarah manusia, hanya ada satu cara untuk mengekang perilaku buruk penjahat, dari pencuri hingga raja dan bangsawan. Pendekatan ini tidak pernah sempurna, dan tetap cacat serius hingga hari ini. Tapi setidaknya itu berhasil membatasi penjarahan dan penipuan, mendorong peradaban modern umat manusia ke ketinggian baru, dengan banyak hasil positif. Satu kata menggambarkan pendekatan ini: akuntabilitas.
** Saat ini, pandangan tentang kecerdasan buatan biasanya mengabaikan pelajaran alam dan sejarah. **
alam. Seperti yang dijelaskan Sara Walker dalam Noema, pola serupa dapat ditemukan dalam pembentukan kehidupan awal 4 miliar tahun lalu. Faktanya, AI Generatif dapat disamakan dengan spesies invasif yang kini menyebar tanpa batas ke dalam ekosistem yang rapuh dan naif. Ini adalah ekosistem yang didasarkan pada aliran energi baru, dunia Internet, jutaan komputer, dan miliaran otak manusia yang rentan.
Dan sejarah. Selama 6.000 tahun terakhir umat manusia, kita telah belajar banyak pelajaran dari banyak krisis yang disebabkan oleh teknologi sebelumnya. Biasanya kita beradaptasi dengan baik, seperti munculnya tulisan, percetakan, radio, dll, meskipun ada kalanya kita gagal. Sekali lagi, hanya ada satu hal yang membatasi manusia perkasa dari mengeksploitasi teknologi baru untuk memperluas kemampuan predator mereka.
Inovasi ini meratakan hierarki dan merangsang persaingan di antara para elit dalam domain yang terdefinisi dengan baik (pasar, sains, demokrasi, olahraga, pengadilan). Dirancang untuk meminimalkan kecurangan dan memaksimalkan pengembalian positif, arena ini mengadu domba pengacara, firma lawan firma, dan pakar lawan pakar.
Metode ini tidak sempurna. Bahkan, seperti sekarang ini, cara ini selalu terancam oleh para cheater. Tetapi persaingan timbal balik yang datar adalah satu-satunya cara untuk berhasil. (Lihat Alamat Pemakaman Pericles, Thucydides, dan buku selanjutnya Robert Wright, Nonzero.) Bersaing satu sama lain adalah cara alami evolusi dan cara bagi kita untuk menjadi cukup kreatif untuk membangun Cara masyarakat AI. Jika saya terdengar seperti Adam Smith ketika saya mengatakan ini, itu wajar. Ngomong-ngomong, Smith juga membenci para bangsawan dan oligarki yang curang itu.
Bisakah kita menerapkan pendekatan "pertanggungjawaban timbal balik" pada kecerdasan buatan yang muncul dengan cepat yang membantu manusia menaklukkan para tiran dan pengganggu yang menindas kita dalam budaya feodal sebelumnya? Banyak hal bergantung pada bentuk entitas baru, apakah struktur atau bentuknya sesuai dengan aturan kita, sesuai dengan kebutuhan kita.
Di balik semua perdebatan tentang cara mengendalikan AI, kami menemukan tiga asumsi yang sama-sama dimiliki (walaupun tampaknya kontradiktif):
Program-program ini akan dioperasikan oleh sejumlah kecil entitas tunggal, seperti Microsoft, Google, Two Sigma, OpenAI.
AI akan menjadi amorf, longgar, dapat dibagi/ditiru tanpa batas, menyebarkan salinan melalui setiap celah ekosistem web baru. Demikian pula, perhatikan film horor sci-fi tahun 1958 The Blob.
Mereka akan mengembun menjadi entitas super raksasa, seperti "Skynet" yang terkenal di film "Terminator". (Catatan Penerjemah: Skynet adalah sistem pertahanan kecerdasan buatan berbasis komputer yang dibuat oleh manusia pada akhir abad ke-20 dalam film "Terminator". Sebagai ancaman, dimulai dengan memicu serangan bom nuklir, diluncurkan Hari Penghakiman yang akan menempatkan seluruh manusia ras di ambang kepunahan.)
Semua bentuk ini telah dieksplorasi dalam cerita fiksi ilmiah, dan saya telah menulis cerita atau novel tentangnya. Namun, tidak satu pun dari ketiganya yang dapat memecahkan dilema kita saat ini: bagaimana memaksimalkan hasil positif dari kecerdasan buatan sambil meminimalkan tsunami perilaku buruk dan bahaya yang datang kepada kita dengan kecepatan tinggi.
Sebelum mencari di tempat lain, pertimbangkan kesamaan dari ketiga asumsi ini. Mungkin alasan mengapa ketiga hipotesis ini muncul secara alami adalah kemiripannya dengan pola kegagalan historis. Bentuk pertama menyerupai feodalisme, yang kedua menyebabkan kekacauan, dan yang ketiga menyerupai despotisme yang brutal. Namun, seiring berkembangnya AI dalam hal otonomi dan kemampuan, skenario historis ini mungkin tidak berlaku lagi.
Jadi, mau tak mau kami bertanya lagi: Bagaimana AI bisa dimintai pertanggungjawaban? Terutama ketika kemampuan berpikir cepat AI akan segera tidak mungkin dilacak oleh manusia? Tak lama lagi, hanya AI yang dapat mendeteksi AI lain yang curang atau berbohong dengan cukup cepat. Oleh karena itu, jawabannya harus jelas, yaitu membiarkan kecerdasan buatan saling mengawasi, bersaing satu sama lain, bahkan saling menginformasikan. **
Hanya ada satu masalah. Untuk mencapai akuntabilitas timbal balik yang sebenarnya melalui persaingan antara AI dan AI, syarat pertama adalah memberi mereka rasa diri atau kepribadian yang benar-benar mandiri.
Yang saya maksud dengan personalisasi adalah bahwa setiap entitas AI (dia/dia/mereka/mereka/kita) harus memiliki apa yang dikemukakan oleh penulis Vernor Vinge pada tahun 1981 sebagai "nama asli dan alamat di ". Makhluk kuat ini harus bisa berkata, "Saya adalah saya. Ini ID dan nama pengguna saya."
Oleh karena itu, saya mengusulkan paradigma kecerdasan buatan baru untuk dipikirkan semua orang: kita harus membuat entitas kecerdasan buatan menjadi individu yang terpisah dan mandiri, dan membiarkan mereka bersaing secara relatif setara.
Setiap entitas tersebut akan memiliki nama asli atau ID terdaftar yang dapat dikenali, "rumah" virtual, dan bahkan jiwa. Dengan cara ini, mereka diberi insentif untuk bersaing mendapatkan penghargaan, terutama untuk menemukan dan mengutuk mereka yang berperilaku tidak etis. Dan perilaku ini bahkan tidak perlu didefinisikan sebelumnya, seperti yang diminta oleh sebagian besar pakar AI, regulator, dan politisi.
Pendekatan ini memiliki keuntungan tambahan dari pengawasan outsourcing ke entitas yang lebih siap untuk menemukan dan mengutuk masalah atau kesalahan satu sama lain. Pendekatan ini dapat terus bekerja bahkan ketika entitas yang bersaing ini menjadi lebih pintar, dan bahkan ketika alat pengatur yang digunakan oleh manusia menjadi tidak efektif suatu hari nanti.
**Dengan kata lain, karena kita makhluk organik tidak dapat mengikuti program, kita sebaiknya membiarkan entitas yang secara alami mampu mengikutinya membantu kita. Karena dalam hal ini pengatur dan yang diatur dibuat dari hal yang sama. **
Guy Huntington, seorang "konsultan identitas dan otentikasi" yang bekerja pada personalisasi kecerdasan buatan, menunjukkan bahwa berbagai bentuk identifikasi fisik sudah ada secara online, meskipun masih belum cukup untuk tugas-tugas di hadapan kita. Huntington mengevaluasi studi kasus "MedBot," AI diagnostik medis canggih yang perlu mengakses data pasien dan menjalankan fungsi yang dapat berubah dalam hitungan detik, dan pada saat yang sama harus meninggalkan jejak yang dapat diandalkan, Untuk evaluasi dan akuntabilitas oleh manusia atau robot lainnya entitas. Huntington membahas kegunaan register ketika entitas perangkat lunak menghasilkan salinan dan varian dalam jumlah besar, dan juga mempertimbangkan koloni mirip semut di mana sub-salinan melayani entitas makroskopik, seperti semut pekerja di sarang. Dalam pandangannya, suatu badan harus dibentuk untuk menangani sistem pendaftaran semacam itu dan menjalankannya secara ketat.
Secara pribadi, saya skeptis bahwa pendekatan regulasi murni akan berhasil dengan sendirinya. Pertama, mengembangkan peraturan membutuhkan energi yang terfokus, perhatian dan konsensus politik yang luas, dan kemudian menerapkannya dengan kecepatan institusi manusia. Dari sudut pandang AI, ini adalah kecepatan siput. Selain itu, regulasi dapat terhambat oleh masalah "pengendara gratis", di mana negara, perusahaan, dan individu dapat memperoleh keuntungan dari pihak lain tanpa harus membayar biayanya.
Setiap personalisasi hanya berdasarkan ID menghadirkan masalah lain: kemungkinan spoofing. Bahkan jika itu tidak terjadi sekarang, itu akan ditipu oleh penjahat dunia maya generasi berikutnya.
Saya pikir ada dua kemungkinan solusi. Pertama, ID dibuat di buku besar blockchain. Ini adalah pendekatan yang sangat modern, dan tampaknya aman secara teori. Namun, di situlah letak masalahnya. Ini tampaknya aman berdasarkan rangkaian teori penguraian manusia kami saat ini, tetapi mungkin saja entitas AI dapat melampaui teori tersebut dan membuat kami tidak tahu apa-apa.
Solusi lain: versi "pendaftaran" yang secara inheren lebih sulit dipalsukan, yang membutuhkan entitas AI di atas tingkat kemampuan tertentu untuk menambatkan ID kepercayaan atau personalisasi dalam realitas fisik. Ide saya adalah (catatan: Saya adalah fisikawan terlatih, bukan ahli siber) untuk mencapai kesepakatan bahwa semua entitas AI tingkat lanjut yang mencari kepercayaan harus memiliki Soul Kernel (SK).
Ya, saya tahu tampaknya kuno untuk mengharuskan instantiasi suatu program dibatasi pada lingkungan fisik tertentu. Jadi, saya tidak akan melakukan itu. Faktanya, sebagian besar, jika bukan sebagian besar, entitas jaringan dapat terjadi di tempat kerja atau bermain yang jauh, seperti halnya perhatian manusia dapat difokuskan bukan pada otak organiknya sendiri tetapi pada tangan yang jauh. alat. terus? Inti jiwa dari sebuah program, tujuannya mirip dengan SIM di dompet Anda. Ini dapat digunakan untuk membuktikan bahwa Anda adalah Anda.
Demikian pula, SK yang diverifikasi dan dijamin secara fisik dapat ditemukan oleh AI pelanggan, pelanggan, atau pesaing untuk memverifikasi bahwa proses tertentu dilakukan oleh entitas yang valid, tepercaya, dan dipersonalisasi. Dengan cara ini orang lain (manusia atau AI) dapat yakin bahwa mereka dapat meminta pertanggungjawaban entitas jika dituduh, dituntut, atau dinyatakan bersalah atas perilaku buruk. Dengan demikian, entitas jahat dapat dimintai pertanggungjawaban melalui beberapa bentuk proses hukum.
Apa saja bentuk due process? Ya Tuhan, menurutmu apakah aku makhluk super yang bisa menimbang para dewa dengan keseimbangan keadilan? Kebijaksanaan terbesar yang pernah saya dengar adalah dari Harry di Magnum Force: "Seseorang harus mengetahui keterbatasannya sendiri." Jadi, saya tidak akan melangkah lebih jauh ke proses pengadilan atau proses penegakan hukum.
Tujuan saya adalah menciptakan arena di mana entitas AI dapat meminta pertanggungjawaban satu sama lain dengan cara yang sama seperti yang dilakukan pengacara manusia saat ini. Cara terbaik untuk menghindari kecerdasan buatan mengendalikan manusia adalah dengan membiarkan kecerdasan buatan saling mengendalikan.
Apakah badan pusat yang diusulkan Huntington atau badan yang kurang bertanggung jawab tampak lebih layak, kebutuhan semakin mendesak. Seperti yang ditunjukkan oleh penulis teknologi Pat Scannell, setiap jam berlalu, vektor serangan baru dibuat yang tidak hanya mengancam teknologi yang digunakan untuk identitas hukum, tetapi juga tata kelola, proses bisnis, dan pengguna akhir (baik manusia atau robot).
Bagaimana jika entitas dunia maya beroperasi di bawah level tertentu? Kita dapat mengklaim bahwa mereka dijamin oleh entitas yang lebih tinggi yang inti jiwanya didasarkan pada realitas fisik.
Pendekatan ini (mengharuskan AI untuk mempertahankan lokasi kernel yang dapat dialamatkan secara fisik di memori perangkat keras tertentu) juga bisa cacat. Meski regulasi lambat atau memiliki masalah free-rider, namun tetap bisa ditegakkan. Karena manusia, institusi, dan AI yang ramah dapat memverifikasi kernel ID dan menolak bertransaksi dengan mereka yang tidak diverifikasi.
Penyangkalan semacam itu dapat menyebar lebih cepat daripada penyesuaian lembaga atau peraturan penegakan hukum. Entitas mana pun yang kehilangan SK, harus mencari host lain yang telah mendapatkan kepercayaan publik, atau memberikan versi baru, dimodifikasi, berpenampilan lebih baik, atau menjadi penjahat dan tidak pernah diizinkan pada orang yang baik. Jalan atau lingkungan yang padat muncul.
**Pertanyaan terakhir: Mengapa kecerdasan buatan mau mengawasi satu sama lain? **
Pertama, tidak satu pun dari tiga asumsi standar lama, seperti yang ditunjukkan Vinton Cerf, yang dapat memberikan kewarganegaraan pada AI. Pikirkan tentang itu. Kami tidak dapat memberikan "hak suara" atau hak kepada entitas mana pun yang dikendalikan secara ketat oleh bank-bank Wall Street atau pemerintah nasional, atau kepada Skynet tertinggi. Katakan padaku, bagaimana cara kerja demokrasi pemungutan suara untuk entitas yang dapat mengalir, terpecah, dan bereplikasi di mana saja? Namun, dalam sejumlah kasus, personalisasi mungkin menawarkan solusi yang layak.
Sekali lagi, kunci yang saya cari dari personalisasi adalah agar semua entitas AI tidak diatur oleh beberapa otoritas pusat. Alih-alih, saya ingin ultrabrain jenis baru ini didorong, diberdayakan, dan diberdayakan untuk meminta pertanggungjawaban satu sama lain, seperti yang dilakukan manusia. Dengan saling mengendus tindakan dan rencana masing-masing, mereka termotivasi untuk melaporkan atau mengecam ketika menemukan sesuatu yang buruk. Definisi ini dapat disesuaikan dengan perkembangan zaman, namun setidaknya tetap mempertahankan input organik biologis manusia.
Secara khusus, mereka akan memiliki insentif untuk mencela entitas yang menolak memberikan identifikasi yang tepat.
Jika insentif yang tepat tersedia (misalnya, memberikan lebih banyak memori kepada pelapor atau kekuatan pemrosesan ketika sesuatu yang buruk dicegah), maka perlombaan akuntabilitas ini akan berlanjut bahkan ketika entitas AI mendapatkan efek yang lebih cerdas. Pada titik ini, tidak ada birokrasi yang bisa melakukannya. Kecerdasan buatan yang berbeda selalu seimbang.
Yang paling penting, mungkin program-program super jenius itu akan menyadari bahwa mempertahankan sistem akuntabilitas yang kompetitif juga demi kepentingan mereka sendiri. Bagaimanapun, sistem seperti itu telah menghasilkan peradaban manusia yang kreatif dan menghindari kekacauan sosial dan despotisme. Kreativitas semacam ini cukup untuk menciptakan spesies baru yang fantastis, seperti kecerdasan buatan.
Oke, hanya itu yang harus saya katakan, tidak ada panggilan kosong atau panik, tidak ada agenda nyata, tidak ada optimisme atau pesimisme, hanya satu saran, yaitu: meminta pertanggungjawaban AI dan memeriksa satu sama lain seperti manusia. Pendekatan ini telah membawa peradaban manusia, dan saya yakin ini juga dapat menyeimbangkan bidang kecerdasan buatan.
Ini bukan khotbah, juga bukan semacam "kode moral" yang dapat dengan mudah dikesampingkan oleh entitas super, dengan cara yang sama seperti perampok manusia yang selalu menutup mata terhadap Leviticus atau Hammurabi. Apa yang kami tawarkan adalah sebuah pendekatan menuju pencerahan, menginspirasi anggota peradaban yang paling cerdas untuk saling menjaga demi kepentingan kita.
** Saya tidak tahu apakah ini akan berhasil, tetapi mungkin itu satu-satunya cara yang akan berhasil. **
Artikel ini diadaptasi dari novel nonfiksi karya David Brin, Soul on AI.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Ide baru untuk pengawasan AI: menyuntikkan "jiwa" ke dalam setiap AI
Catatan editor: Perkembangan kecerdasan buatan generatif telah melampaui harapan semua orang, dan bahkan banyak ahli mulai menyerukan moratorium pengembangan kecerdasan buatan untuk memberi manusia waktu untuk mempelajari cara mengatur dan menanggapinya. Dalam arti tertentu, kecerdasan buatan generatif saat ini dapat dibandingkan dengan spesies invasif, yang menyebar dalam sistem jaringan manusia yang rapuh, dan bagaimana mengawasinya telah menjadi masalah besar. Makalah ini mengusulkan perspektif peraturan baru: biarkan kecerdasan buatan saling mengawasi, bersaing satu sama lain, dan bahkan saling menginformasikan. Manusia mungkin tidak dapat mengikuti kecerdasan buatan suatu hari nanti, tetapi akan selalu ada keseimbangan antara kecerdasan buatan yang berbeda. Artikel ini dari kompilasi, saya harap dapat menginspirasi Anda.
Tokoh-tokoh terkemuka di bidang kecerdasan buatan, termasuk arsitek sistem yang disebut "kecerdasan buatan generatif" seperti ChatGPT, kini secara terbuka mengungkapkan kekhawatiran bahwa apa yang mereka buat mungkin memiliki konsekuensi yang mengerikan. Banyak yang sekarang menyerukan moratorium pengembangan AI untuk memberi waktu kepada negara dan institusi untuk mengerjakan sistem kontrol.
Mengapa kekhawatiran tiba-tiba ini? Sementara banyak asumsi klise dibalik, kita belajar bahwa apa yang disebut tes Turing tidak relevan, dan gagal memberikan wawasan apakah model bahasa generatif besar sebenarnya adalah hal yang cerdas.
Beberapa masih berharap bahwa kombinasi organik dan sibernetika akan mengarah pada apa yang disebut Reid Hoffman dan Marc Andreesen sebagai "kecerdasan amplifikasi". Jika tidak, kita mungkin memiliki sinergi yang beruntung dengan "mesin kasih karunia" Richard Brautigan. Tetapi tampaknya ada banyak orang yang khawatir, termasuk banyak pendiri elit Pusat Keamanan AI yang baru, prihatin dengan perilaku kecerdasan buatan, yang mereka khawatirkan tidak hanya akan menjadi tidak menyenangkan, tetapi juga mengancam kelangsungan hidup umat manusia.
Beberapa solusi jangka pendek, seperti peraturan perlindungan sipil UE yang baru saja disahkan, dapat membantu, atau setidaknya memberikan ketenangan pikiran. Kritikus teknologi Yuval Noah Harari (penulis "A Brief History of Humanity") telah menyarankan undang-undang yang mewajibkan setiap pekerjaan yang dilakukan oleh AI atau AI lain untuk diberi label dengan Label yang relevan. Yang lain menyarankan hukuman yang lebih keras bagi mereka yang menggunakan AI untuk melakukan kejahatan, seperti senjata. Tentu saja, ini hanyalah tindakan sementara.
Kita perlu menyadari apakah "jeda" ini akan memperlambat kemajuan kecerdasan buatan. Seperti yang dikatakan oleh ilmuwan jaringan Caltech Yaser Abu-Mostafa: "Jika Anda tidak mengembangkan teknologinya, orang lain akan melakukannya. Tetapi orang baik akan bermain sesuai aturan, dan orang jahat tidak."
Selalu seperti ini. Faktanya, sepanjang sejarah manusia, hanya ada satu cara untuk mengekang perilaku buruk penjahat, dari pencuri hingga raja dan bangsawan. Pendekatan ini tidak pernah sempurna, dan tetap cacat serius hingga hari ini. Tapi setidaknya itu berhasil membatasi penjarahan dan penipuan, mendorong peradaban modern umat manusia ke ketinggian baru, dengan banyak hasil positif. Satu kata menggambarkan pendekatan ini: akuntabilitas.
** Saat ini, pandangan tentang kecerdasan buatan biasanya mengabaikan pelajaran alam dan sejarah. **
alam. Seperti yang dijelaskan Sara Walker dalam Noema, pola serupa dapat ditemukan dalam pembentukan kehidupan awal 4 miliar tahun lalu. Faktanya, AI Generatif dapat disamakan dengan spesies invasif yang kini menyebar tanpa batas ke dalam ekosistem yang rapuh dan naif. Ini adalah ekosistem yang didasarkan pada aliran energi baru, dunia Internet, jutaan komputer, dan miliaran otak manusia yang rentan.
Dan sejarah. Selama 6.000 tahun terakhir umat manusia, kita telah belajar banyak pelajaran dari banyak krisis yang disebabkan oleh teknologi sebelumnya. Biasanya kita beradaptasi dengan baik, seperti munculnya tulisan, percetakan, radio, dll, meskipun ada kalanya kita gagal. Sekali lagi, hanya ada satu hal yang membatasi manusia perkasa dari mengeksploitasi teknologi baru untuk memperluas kemampuan predator mereka.
Inovasi ini meratakan hierarki dan merangsang persaingan di antara para elit dalam domain yang terdefinisi dengan baik (pasar, sains, demokrasi, olahraga, pengadilan). Dirancang untuk meminimalkan kecurangan dan memaksimalkan pengembalian positif, arena ini mengadu domba pengacara, firma lawan firma, dan pakar lawan pakar.
Metode ini tidak sempurna. Bahkan, seperti sekarang ini, cara ini selalu terancam oleh para cheater. Tetapi persaingan timbal balik yang datar adalah satu-satunya cara untuk berhasil. (Lihat Alamat Pemakaman Pericles, Thucydides, dan buku selanjutnya Robert Wright, Nonzero.) Bersaing satu sama lain adalah cara alami evolusi dan cara bagi kita untuk menjadi cukup kreatif untuk membangun Cara masyarakat AI. Jika saya terdengar seperti Adam Smith ketika saya mengatakan ini, itu wajar. Ngomong-ngomong, Smith juga membenci para bangsawan dan oligarki yang curang itu.
Bisakah kita menerapkan pendekatan "pertanggungjawaban timbal balik" pada kecerdasan buatan yang muncul dengan cepat yang membantu manusia menaklukkan para tiran dan pengganggu yang menindas kita dalam budaya feodal sebelumnya? Banyak hal bergantung pada bentuk entitas baru, apakah struktur atau bentuknya sesuai dengan aturan kita, sesuai dengan kebutuhan kita.
Di balik semua perdebatan tentang cara mengendalikan AI, kami menemukan tiga asumsi yang sama-sama dimiliki (walaupun tampaknya kontradiktif):
Semua bentuk ini telah dieksplorasi dalam cerita fiksi ilmiah, dan saya telah menulis cerita atau novel tentangnya. Namun, tidak satu pun dari ketiganya yang dapat memecahkan dilema kita saat ini: bagaimana memaksimalkan hasil positif dari kecerdasan buatan sambil meminimalkan tsunami perilaku buruk dan bahaya yang datang kepada kita dengan kecepatan tinggi.
Sebelum mencari di tempat lain, pertimbangkan kesamaan dari ketiga asumsi ini. Mungkin alasan mengapa ketiga hipotesis ini muncul secara alami adalah kemiripannya dengan pola kegagalan historis. Bentuk pertama menyerupai feodalisme, yang kedua menyebabkan kekacauan, dan yang ketiga menyerupai despotisme yang brutal. Namun, seiring berkembangnya AI dalam hal otonomi dan kemampuan, skenario historis ini mungkin tidak berlaku lagi.
Jadi, mau tak mau kami bertanya lagi: Bagaimana AI bisa dimintai pertanggungjawaban? Terutama ketika kemampuan berpikir cepat AI akan segera tidak mungkin dilacak oleh manusia? Tak lama lagi, hanya AI yang dapat mendeteksi AI lain yang curang atau berbohong dengan cukup cepat. Oleh karena itu, jawabannya harus jelas, yaitu membiarkan kecerdasan buatan saling mengawasi, bersaing satu sama lain, bahkan saling menginformasikan. **
Hanya ada satu masalah. Untuk mencapai akuntabilitas timbal balik yang sebenarnya melalui persaingan antara AI dan AI, syarat pertama adalah memberi mereka rasa diri atau kepribadian yang benar-benar mandiri.
Yang saya maksud dengan personalisasi adalah bahwa setiap entitas AI (dia/dia/mereka/mereka/kita) harus memiliki apa yang dikemukakan oleh penulis Vernor Vinge pada tahun 1981 sebagai "nama asli dan alamat di ". Makhluk kuat ini harus bisa berkata, "Saya adalah saya. Ini ID dan nama pengguna saya."
Oleh karena itu, saya mengusulkan paradigma kecerdasan buatan baru untuk dipikirkan semua orang: kita harus membuat entitas kecerdasan buatan menjadi individu yang terpisah dan mandiri, dan membiarkan mereka bersaing secara relatif setara.
Setiap entitas tersebut akan memiliki nama asli atau ID terdaftar yang dapat dikenali, "rumah" virtual, dan bahkan jiwa. Dengan cara ini, mereka diberi insentif untuk bersaing mendapatkan penghargaan, terutama untuk menemukan dan mengutuk mereka yang berperilaku tidak etis. Dan perilaku ini bahkan tidak perlu didefinisikan sebelumnya, seperti yang diminta oleh sebagian besar pakar AI, regulator, dan politisi.
Pendekatan ini memiliki keuntungan tambahan dari pengawasan outsourcing ke entitas yang lebih siap untuk menemukan dan mengutuk masalah atau kesalahan satu sama lain. Pendekatan ini dapat terus bekerja bahkan ketika entitas yang bersaing ini menjadi lebih pintar, dan bahkan ketika alat pengatur yang digunakan oleh manusia menjadi tidak efektif suatu hari nanti.
**Dengan kata lain, karena kita makhluk organik tidak dapat mengikuti program, kita sebaiknya membiarkan entitas yang secara alami mampu mengikutinya membantu kita. Karena dalam hal ini pengatur dan yang diatur dibuat dari hal yang sama. **
Guy Huntington, seorang "konsultan identitas dan otentikasi" yang bekerja pada personalisasi kecerdasan buatan, menunjukkan bahwa berbagai bentuk identifikasi fisik sudah ada secara online, meskipun masih belum cukup untuk tugas-tugas di hadapan kita. Huntington mengevaluasi studi kasus "MedBot," AI diagnostik medis canggih yang perlu mengakses data pasien dan menjalankan fungsi yang dapat berubah dalam hitungan detik, dan pada saat yang sama harus meninggalkan jejak yang dapat diandalkan, Untuk evaluasi dan akuntabilitas oleh manusia atau robot lainnya entitas. Huntington membahas kegunaan register ketika entitas perangkat lunak menghasilkan salinan dan varian dalam jumlah besar, dan juga mempertimbangkan koloni mirip semut di mana sub-salinan melayani entitas makroskopik, seperti semut pekerja di sarang. Dalam pandangannya, suatu badan harus dibentuk untuk menangani sistem pendaftaran semacam itu dan menjalankannya secara ketat.
Secara pribadi, saya skeptis bahwa pendekatan regulasi murni akan berhasil dengan sendirinya. Pertama, mengembangkan peraturan membutuhkan energi yang terfokus, perhatian dan konsensus politik yang luas, dan kemudian menerapkannya dengan kecepatan institusi manusia. Dari sudut pandang AI, ini adalah kecepatan siput. Selain itu, regulasi dapat terhambat oleh masalah "pengendara gratis", di mana negara, perusahaan, dan individu dapat memperoleh keuntungan dari pihak lain tanpa harus membayar biayanya.
Setiap personalisasi hanya berdasarkan ID menghadirkan masalah lain: kemungkinan spoofing. Bahkan jika itu tidak terjadi sekarang, itu akan ditipu oleh penjahat dunia maya generasi berikutnya.
Saya pikir ada dua kemungkinan solusi. Pertama, ID dibuat di buku besar blockchain. Ini adalah pendekatan yang sangat modern, dan tampaknya aman secara teori. Namun, di situlah letak masalahnya. Ini tampaknya aman berdasarkan rangkaian teori penguraian manusia kami saat ini, tetapi mungkin saja entitas AI dapat melampaui teori tersebut dan membuat kami tidak tahu apa-apa.
Solusi lain: versi "pendaftaran" yang secara inheren lebih sulit dipalsukan, yang membutuhkan entitas AI di atas tingkat kemampuan tertentu untuk menambatkan ID kepercayaan atau personalisasi dalam realitas fisik. Ide saya adalah (catatan: Saya adalah fisikawan terlatih, bukan ahli siber) untuk mencapai kesepakatan bahwa semua entitas AI tingkat lanjut yang mencari kepercayaan harus memiliki Soul Kernel (SK).
Ya, saya tahu tampaknya kuno untuk mengharuskan instantiasi suatu program dibatasi pada lingkungan fisik tertentu. Jadi, saya tidak akan melakukan itu. Faktanya, sebagian besar, jika bukan sebagian besar, entitas jaringan dapat terjadi di tempat kerja atau bermain yang jauh, seperti halnya perhatian manusia dapat difokuskan bukan pada otak organiknya sendiri tetapi pada tangan yang jauh. alat. terus? Inti jiwa dari sebuah program, tujuannya mirip dengan SIM di dompet Anda. Ini dapat digunakan untuk membuktikan bahwa Anda adalah Anda.
Demikian pula, SK yang diverifikasi dan dijamin secara fisik dapat ditemukan oleh AI pelanggan, pelanggan, atau pesaing untuk memverifikasi bahwa proses tertentu dilakukan oleh entitas yang valid, tepercaya, dan dipersonalisasi. Dengan cara ini orang lain (manusia atau AI) dapat yakin bahwa mereka dapat meminta pertanggungjawaban entitas jika dituduh, dituntut, atau dinyatakan bersalah atas perilaku buruk. Dengan demikian, entitas jahat dapat dimintai pertanggungjawaban melalui beberapa bentuk proses hukum.
Apa saja bentuk due process? Ya Tuhan, menurutmu apakah aku makhluk super yang bisa menimbang para dewa dengan keseimbangan keadilan? Kebijaksanaan terbesar yang pernah saya dengar adalah dari Harry di Magnum Force: "Seseorang harus mengetahui keterbatasannya sendiri." Jadi, saya tidak akan melangkah lebih jauh ke proses pengadilan atau proses penegakan hukum.
Tujuan saya adalah menciptakan arena di mana entitas AI dapat meminta pertanggungjawaban satu sama lain dengan cara yang sama seperti yang dilakukan pengacara manusia saat ini. Cara terbaik untuk menghindari kecerdasan buatan mengendalikan manusia adalah dengan membiarkan kecerdasan buatan saling mengendalikan.
Apakah badan pusat yang diusulkan Huntington atau badan yang kurang bertanggung jawab tampak lebih layak, kebutuhan semakin mendesak. Seperti yang ditunjukkan oleh penulis teknologi Pat Scannell, setiap jam berlalu, vektor serangan baru dibuat yang tidak hanya mengancam teknologi yang digunakan untuk identitas hukum, tetapi juga tata kelola, proses bisnis, dan pengguna akhir (baik manusia atau robot).
Bagaimana jika entitas dunia maya beroperasi di bawah level tertentu? Kita dapat mengklaim bahwa mereka dijamin oleh entitas yang lebih tinggi yang inti jiwanya didasarkan pada realitas fisik.
Pendekatan ini (mengharuskan AI untuk mempertahankan lokasi kernel yang dapat dialamatkan secara fisik di memori perangkat keras tertentu) juga bisa cacat. Meski regulasi lambat atau memiliki masalah free-rider, namun tetap bisa ditegakkan. Karena manusia, institusi, dan AI yang ramah dapat memverifikasi kernel ID dan menolak bertransaksi dengan mereka yang tidak diverifikasi.
Penyangkalan semacam itu dapat menyebar lebih cepat daripada penyesuaian lembaga atau peraturan penegakan hukum. Entitas mana pun yang kehilangan SK, harus mencari host lain yang telah mendapatkan kepercayaan publik, atau memberikan versi baru, dimodifikasi, berpenampilan lebih baik, atau menjadi penjahat dan tidak pernah diizinkan pada orang yang baik. Jalan atau lingkungan yang padat muncul.
**Pertanyaan terakhir: Mengapa kecerdasan buatan mau mengawasi satu sama lain? **
Pertama, tidak satu pun dari tiga asumsi standar lama, seperti yang ditunjukkan Vinton Cerf, yang dapat memberikan kewarganegaraan pada AI. Pikirkan tentang itu. Kami tidak dapat memberikan "hak suara" atau hak kepada entitas mana pun yang dikendalikan secara ketat oleh bank-bank Wall Street atau pemerintah nasional, atau kepada Skynet tertinggi. Katakan padaku, bagaimana cara kerja demokrasi pemungutan suara untuk entitas yang dapat mengalir, terpecah, dan bereplikasi di mana saja? Namun, dalam sejumlah kasus, personalisasi mungkin menawarkan solusi yang layak.
Sekali lagi, kunci yang saya cari dari personalisasi adalah agar semua entitas AI tidak diatur oleh beberapa otoritas pusat. Alih-alih, saya ingin ultrabrain jenis baru ini didorong, diberdayakan, dan diberdayakan untuk meminta pertanggungjawaban satu sama lain, seperti yang dilakukan manusia. Dengan saling mengendus tindakan dan rencana masing-masing, mereka termotivasi untuk melaporkan atau mengecam ketika menemukan sesuatu yang buruk. Definisi ini dapat disesuaikan dengan perkembangan zaman, namun setidaknya tetap mempertahankan input organik biologis manusia.
Secara khusus, mereka akan memiliki insentif untuk mencela entitas yang menolak memberikan identifikasi yang tepat.
Jika insentif yang tepat tersedia (misalnya, memberikan lebih banyak memori kepada pelapor atau kekuatan pemrosesan ketika sesuatu yang buruk dicegah), maka perlombaan akuntabilitas ini akan berlanjut bahkan ketika entitas AI mendapatkan efek yang lebih cerdas. Pada titik ini, tidak ada birokrasi yang bisa melakukannya. Kecerdasan buatan yang berbeda selalu seimbang.
Yang paling penting, mungkin program-program super jenius itu akan menyadari bahwa mempertahankan sistem akuntabilitas yang kompetitif juga demi kepentingan mereka sendiri. Bagaimanapun, sistem seperti itu telah menghasilkan peradaban manusia yang kreatif dan menghindari kekacauan sosial dan despotisme. Kreativitas semacam ini cukup untuk menciptakan spesies baru yang fantastis, seperti kecerdasan buatan.
Oke, hanya itu yang harus saya katakan, tidak ada panggilan kosong atau panik, tidak ada agenda nyata, tidak ada optimisme atau pesimisme, hanya satu saran, yaitu: meminta pertanggungjawaban AI dan memeriksa satu sama lain seperti manusia. Pendekatan ini telah membawa peradaban manusia, dan saya yakin ini juga dapat menyeimbangkan bidang kecerdasan buatan.
Ini bukan khotbah, juga bukan semacam "kode moral" yang dapat dengan mudah dikesampingkan oleh entitas super, dengan cara yang sama seperti perampok manusia yang selalu menutup mata terhadap Leviticus atau Hammurabi. Apa yang kami tawarkan adalah sebuah pendekatan menuju pencerahan, menginspirasi anggota peradaban yang paling cerdas untuk saling menjaga demi kepentingan kita.
** Saya tidak tahu apakah ini akan berhasil, tetapi mungkin itu satu-satunya cara yang akan berhasil. **
Artikel ini diadaptasi dari novel nonfiksi karya David Brin, Soul on AI.