Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas
Kami telah belajar banyak tentang menangani masalah yang ditimbulkan oleh terobosan inovasi.
Risiko yang ditimbulkan oleh kecerdasan buatan mungkin tampak luar biasa. Apa yang terjadi pada orang-orang yang pekerjaannya diambil alih oleh mesin pintar? Akankah Kecerdasan Buatan Mempengaruhi Hasil Pemilu? Bagaimana jika kecerdasan buatan di masa depan memutuskan bahwa manusia tidak lagi dibutuhkan, dan ingin menyingkirkan kita?
Ini adalah pertanyaan yang sah, dan kekhawatiran yang mereka ajukan perlu ditanggapi dengan serius. Tetapi kami memiliki alasan kuat untuk percaya bahwa kami dapat memecahkan masalah ini: ini bukan pertama kalinya sebuah inovasi besar membawa ancaman baru yang harus dikendalikan, dan kami telah menghadapinya sebelumnya.
Apakah itu munculnya mobil atau munculnya komputer pribadi dan internet, orang telah mengalami momen transformatif lainnya yang, meskipun banyak pergolakan, berakhir menjadi lebih baik. Tak lama setelah mobil pertama menabrak jalan, tabrakan pertama terjadi. Namun alih-alih melarang mobil, kami telah mengadopsi batas kecepatan, standar keselamatan, persyaratan surat izin mengemudi, undang-undang mengemudi dalam keadaan mabuk, dan aturan jalan lainnya.
Kita sekarang berada di tahap awal transformasi mendalam lainnya, era kecerdasan buatan. Ini mirip dengan era ketidakpastian sebelum batas kecepatan dan sabuk pengaman. AI berubah begitu cepat, tidak jelas apa yang akan terjadi selanjutnya. Kami menghadapi pertanyaan besar tentang cara kerja teknologi saat ini, bagaimana orang akan menggunakannya dengan jahat, dan bagaimana kecerdasan buatan akan mengubah masyarakat dan individu.
Di saat-saat seperti ini, wajar jika merasa tidak nyaman. Tetapi sejarah menunjukkan bahwa adalah mungkin untuk mengatasi tantangan yang ditimbulkan oleh teknologi baru.
Saya pernah menulis artikel tentang bagaimana kecerdasan buatan akan mengubah hidup kita sepenuhnya. Ini akan membantu memecahkan masalah kesehatan, pendidikan, perubahan iklim, dan banyak lagi yang tampaknya sulit diselesaikan di masa lalu. The Gates Foundation telah menjadikan ini sebagai prioritas, dan CEO kami Mark Suzman baru-baru ini membagikan pemikirannya tentang peran AI dalam mengurangi ketidaksetaraan.
Saya akan berbicara lebih banyak tentang manfaat AI di masa mendatang, tetapi dalam postingan ini saya ingin membahas beberapa masalah yang sering saya dengar dan baca, banyak di antaranya saya bagikan, dan menjelaskan bagaimana saya melihatnya .
Satu hal yang jelas dari semua tulisan tentang risiko AI sejauh ini adalah tidak ada yang memiliki semua jawaban. Poin lain yang jelas adalah bahwa masa depan kecerdasan buatan tidak sesuram yang dibayangkan beberapa orang, atau semerah yang dibayangkan orang lain. Risikonya memang nyata, tapi saya optimis bisa dikelola. Saat saya membahas masing-masing masalah ini, saya akan kembali ke tema berikut:
Banyak masalah yang diangkat oleh kecerdasan buatan memiliki preseden sejarah. Ini akan berdampak besar pada pendidikan, misalnya, tetapi begitu juga kalkulator genggam beberapa dekade yang lalu dan baru-baru ini memungkinkan komputer masuk ke ruang kelas. Kita bisa belajar dari kesuksesan masa lalu.
Banyak masalah yang ditimbulkan oleh kecerdasan buatan juga dapat diselesaikan dengan bantuan kecerdasan buatan.
Kita perlu mengadaptasi undang-undang lama dan mengadopsi yang baru -- sama seperti undang-undang anti-penipuan yang ada harus beradaptasi dengan dunia online.
Pada artikel ini, saya akan fokus pada risiko yang ada atau yang akan terjadi. Saya tidak akan membahas apa yang terjadi jika kita mengembangkan AI yang dapat mempelajari topik atau tugas apa pun, tidak seperti AI khusus saat ini. Apakah kita sampai pada titik ini dalam dekade atau abad berikutnya, masyarakat memiliki pertanyaan mendalam untuk dipertimbangkan. Bagaimana jika AI super cerdas menetapkan tujuannya sendiri? Bagaimana jika mereka berkonflik dengan manusia? Haruskah kita membangun kecerdasan buatan super?
Namun, memikirkan risiko jangka panjang ini tidak boleh mengorbankan risiko yang lebih cepat.
AI Menghasilkan Kepalsuan Mendalam dan Misinformasi Dapat Menghancurkan Pemilu dan Demokrasi
Penggunaan teknologi untuk menyebarkan kebohongan dan disinformasi bukanlah hal baru. Orang-orang telah melakukan ini melalui buku dan selebaran selama berabad-abad. Ini menjadi lebih mudah dengan munculnya pengolah kata, printer laser, email dan jejaring sosial.
Kecerdasan buatan telah menangani masalah pemalsuan teks dan memperluasnya sehingga hampir semua orang dapat membuat audio dan video palsu, yang dikenal sebagai deepfake. Jika Anda mendapatkan pesan suara yang terdengar seperti anak Anda mengatakan "Saya telah diculik, tolong kirim $1.000 ke rekening bank ini dalam 10 menit ke depan dan jangan panggil polisi", dampak emosional yang mengerikan akan terjadi. jauh lebih kuat daripada email yang mengatakan hal yang sama.
Pada skala yang lebih besar, deepfake yang dihasilkan AI dapat digunakan untuk mencoba memengaruhi pemilu. Tentu saja, tidak perlu teknologi canggih untuk meragukan pemenang pemilu yang sah, tetapi kecerdasan buatan akan membuatnya lebih mudah.
Sudah, video palsu rekaman palsu dari politisi terkenal telah muncul. Bayangkan pada pagi hari pemilu, sebuah video yang memperlihatkan seorang kandidat merampok bank menjadi viral. Itu salah, tapi butuh waktu berjam-jam bagi organisasi berita dan kampanye untuk membuktikannya. Berapa banyak orang yang akan melihat video ini dan mengubah suara mereka pada menit terakhir? Itu bisa memberi tip timbangan, terutama jika balapannya ketat.
Baru-baru ini, ketika salah satu pendiri OpenAI Sam Altman bersaksi di depan komite Senat AS, para senator dari kedua partai berbicara tentang dampak AI pada pemilu dan demokrasi. Saya harap topik ini terus menjadi agenda semua orang.
Kami tentu saja belum menyelesaikan masalah misinformasi dan deepfake. Tetapi ada dua hal yang membuat saya optimis dengan hati-hati. Salah satunya adalah bahwa orang memiliki kemampuan untuk belajar untuk tidak mengambil apa pun begitu saja. Selama bertahun-tahun, pengguna email telah terperosok dalam penipuan yang menyamar sebagai pangeran Nigeria yang berjanji untuk membagikan nomor kartu kredit dengan imbalan hadiah besar. Namun pada akhirnya, kebanyakan orang belajar untuk berpikir dua kali. Karena penipuan menjadi lebih canggih, banyak target menjadi lebih licik. Kita perlu membangun kemampuan yang sama untuk deepfake.
Hal lain yang menurut saya penuh harapan adalah kecerdasan buatan dapat membantu mengidentifikasi deepfake dan membuat deepfake. Misalnya, Intel telah mengembangkan detektor deepfake, dan lembaga pemerintah DARPA sedang mengembangkan teknologi untuk mengidentifikasi apakah video atau audio telah dirusak.
Ini akan menjadi proses berulang: Seseorang akan menemukan cara untuk mendeteksi pemalsuan, seseorang akan mencari cara untuk melawannya, seseorang akan mengembangkan tindakan pencegahan, dan seterusnya. Itu tidak akan sempurna, tetapi kita juga tidak akan kehabisan akal.
AI akan mempermudah penyerangan manusia dan pemerintah
Hari ini, ketika peretas berharap menemukan kerentanan yang dapat dieksploitasi dalam perangkat lunak, mereka melakukannya dengan "kekerasan" -- menulis kode dan menyerang potensi kelemahan hingga kerentanan ditemukan. Ini melibatkan banyak jalan memutar, sehingga membutuhkan waktu dan kesabaran.
Profesional keamanan yang ingin melawan peretas harus melakukan hal yang sama. Setiap tambalan perangkat lunak yang Anda instal di ponsel atau laptop mewakili berjam-jam pencarian.
Model AI akan mempercepat proses ini dengan membantu peretas menulis kode yang lebih efisien. Mereka juga dapat mengeksploitasi informasi publik seseorang, seperti tempat mereka bekerja dan teman, untuk mengembangkan serangan phishing yang lebih canggih daripada yang tersedia saat ini.
Kabar baiknya adalah AI adalah pedang bermata dua. Tim keamanan di pemerintahan dan sektor swasta perlu memiliki alat terbaru untuk menemukan dan memperbaiki kerentanan keamanan sebelum penjahat mengeksploitasinya. Saya berharap industri keamanan perangkat lunak akan mengembangkan pekerjaan yang telah mereka lakukan di bidang ini, ini harus menjadi perhatian nomor satu mereka.
Tentu saja, ini juga mengapa kita tidak boleh mencoba untuk sementara mencegah orang menerapkan perkembangan baru dalam kecerdasan buatan, seperti yang disarankan beberapa orang. Penjahat dunia maya tidak akan berhenti membuat alat baru. Mereka yang ingin menggunakan kecerdasan buatan untuk merancang senjata nuklir dan serangan bioterorisme tidak akan berhenti. Upaya untuk menghentikan mereka perlu dilanjutkan dengan kecepatan yang sama.
Ada juga risiko terkait di tingkat global: perlombaan senjata dalam kecerdasan buatan yang dapat digunakan untuk merancang dan meluncurkan serangan dunia maya terhadap negara lain. Pemerintah setiap negara ingin memiliki teknologi paling kuat yang tersedia untuk mencegah serangan musuh. Motivasi "tidak meninggalkan siapa pun terlebih dahulu" ini dapat memicu perlombaan untuk menciptakan senjata dunia maya yang semakin berbahaya. Segalanya akan menjadi lebih buruk bagi semua orang.
Itu ide yang menakutkan, tetapi kami memiliki sejarah sebagai panduan. Betapapun cacatnya rezim nonproliferasi nuklir dunia, ia telah mencegah perang nuklir habis-habisan yang ditakuti oleh generasi saya. Pemerintah harus mempertimbangkan untuk membuat badan AI global yang serupa dengan Badan Energi Atom Internasional.
AI akan mengambil alih pekerjaan orang
Dampak utama kecerdasan buatan pada pekerjaan di tahun-tahun mendatang adalah membantu orang melakukan pekerjaannya dengan lebih efisien. Hal ini berlaku apakah Anda bekerja di pabrik atau di kantor yang menangani panggilan penjualan dan hutang dagang. Pada akhirnya, AI akan dapat mengekspresikan dirinya dengan baik, menulis email, dan mengelola kotak masuk untuk Anda. Dengan hanya menulis permintaan dalam bahasa Inggris atau bahasa lainnya, Anda bisa mendapatkan PPT yang Anda inginkan.
Seperti yang saya kemukakan dalam artikel saya di bulan Februari, peningkatan produktivitas itu baik untuk masyarakat. Ini memberi orang lebih banyak waktu untuk melakukan hal-hal lain di tempat kerja dan di rumah. Kebutuhan akan orang-orang yang suka menolong tidak akan pernah hilang -- seperti mengajar, merawat orang sakit dan merawat orang lanjut usia. Tetapi beberapa pekerja memang membutuhkan dukungan dan pelatihan ulang saat kami bertransisi ke tempat kerja yang digerakkan oleh AI. Itulah tugas pemerintah dan bisnis untuk mengelola agar para pekerja tidak tertinggal -- tanpa gangguan terhadap kehidupan masyarakat yang terjadi ketika pekerjaan manufaktur Amerika hilang.
Juga, perlu diingat bahwa ini bukan pertama kalinya teknologi baru menyebabkan perubahan signifikan di pasar tenaga kerja. Saya kira dampak kecerdasan buatan tidak akan sebesar revolusi industri, tapi pasti akan serupa dengan dampak pengenalan komputer pribadi. Aplikasi pengolah kata tidak menghilangkan pekerjaan kantor, tetapi mengubahnya selamanya. Majikan dan karyawan harus beradaptasi, dan mereka melakukannya. Transformasi yang dibawa oleh AI akan menjadi transisi yang tidak mulus, tetapi ada banyak alasan untuk percaya bahwa kita dapat mengurangi gangguan pada kehidupan dan mata pencaharian masyarakat.
AI akan mewarisi bias kita dan memperbaikinya
Halusinasi — saat AI dengan percaya diri membuat klaim yang tidak sesuai dengan kebenaran — biasanya terjadi karena mesin tidak memahami permintaan Anda. Minta AI untuk menulis cerita pendek tentang liburan ke bulan, dan itu mungkin memberi Anda jawaban yang imajinatif. Tetapi jika Anda meminta AI untuk menulis rencana perjalanan Tanzania untuk Anda, AI mungkin akan mengirim Anda ke hotel yang bahkan tidak ada.
Risiko lain dari kecerdasan buatan adalah mencerminkan atau bahkan memperkuat prasangka orang tentang jenis kelamin, ras, etnis tertentu, dll.
Untuk memahami mengapa halusinasi dan bias terjadi, penting untuk mengetahui cara kerja model AI yang paling umum saat ini. Mereka pada dasarnya adalah versi kode yang sangat canggih yang memungkinkan aplikasi email Anda memprediksi kata berikutnya yang akan Anda ketik: mereka memindai teks dalam jumlah besar -- dalam beberapa kasus, hampir semua teks tersedia di web -- lalu Menganalisis untuk menemukan pola dalam bahasa manusia.
Saat Anda mengajukan pertanyaan kepada AI, ia melihat kata-kata yang Anda gunakan dan kemudian mencari potongan teks yang sering dikaitkan dengan kata-kata tersebut. Jika Anda menulis "daftarkan bahan untuk pancake", AI mungkin memperhatikan bahwa kata-kata seperti "tepung, gula, garam, baking powder, susu, dan telur" sering muncul dengan frasa tersebut. Kemudian, berdasarkan apa yang diketahuinya tentang urutan munculnya kata-kata itu, ia menghasilkan sebuah jawaban. (Model AI yang bekerja dengan cara ini menggunakan apa yang disebut Transformers. GPT-4 adalah salah satu modelnya).
Proses ini menjelaskan mengapa AI dapat berhalusinasi atau bias. Itu tidak memiliki konteks untuk pertanyaan yang Anda ajukan atau apa yang Anda katakan. Jika Anda memberi tahu AI itu membuat kesalahan, itu mungkin mengatakan "maaf, saya salah ketik". Tapi itu hanya ilusi, kenyataannya tidak ada input apapun. Ia mengatakan ini karena telah memindai teks yang cukup untuk mengetahui bahwa "maaf, saya salah ketik" adalah frasa yang sering ditulis orang setelah orang lain memperbaikinya.
Demikian pula, model AI mewarisi bias yang disematkan dalam teks tempat mereka dilatih. Jika banyak membaca artikel tentang dokter, dan artikel tersebut kebanyakan menyebutkan dokter laki-laki, maka jawabannya akan berasumsi bahwa kebanyakan dokter adalah laki-laki.
Meskipun beberapa peneliti berpendapat bahwa halusinasi adalah masalah yang melekat, saya tidak setuju. Saya optimis seiring waktu, model AI dapat belajar membedakan fakta dari fiksi. Misalnya, OpenAI telah melakukan penelitian yang menjanjikan di bidang ini.
Kelompok lain, termasuk Alan Turing Institute dan National Institute of Standards and Technology, juga bekerja untuk mengatasi bias. Salah satu pendekatannya adalah membangun nilai-nilai kemanusiaan dan penalaran tingkat tinggi ke dalam AI. Ini mirip dengan cara kerja manusia yang sadar diri: mungkin Anda mengira kebanyakan dokter adalah laki-laki, tetapi Anda cukup sadar akan asumsi itu untuk mengetahui bahwa Anda harus secara sadar melawannya. Kecerdasan buatan dapat beroperasi dengan cara yang sama, terutama jika modelnya dirancang oleh orang-orang dari latar belakang yang berbeda.
Pada akhirnya, setiap orang yang menggunakan AI perlu menyadari masalah bias dan menjadi pengguna yang terinformasi. Makalah yang Anda minta untuk disusun oleh AI mungkin penuh dengan bias dan kesalahan faktual. Anda perlu memeriksa bias AI dan juga bias Anda sendiri.
Siswa tidak akan belajar menulis karena AI akan melakukannya untuk mereka
Banyak guru khawatir AI akan mengganggu kolaborasi mereka dengan siswa. Di zaman di mana siapa pun yang memiliki koneksi internet dapat menggunakan AI untuk menulis draf pertama yang layak dari sebuah tesis, apa yang menghentikan seorang siswa untuk menjadikannya milik mereka?
Sudah ada alat AI yang dapat mengetahui apakah esai ditulis oleh manusia atau komputer, sehingga guru dapat mengetahui kapan siswa mengerjakan pekerjaan rumahnya sendiri. Tetapi beberapa guru tidak berusaha mencegah siswa menggunakan AI dalam tulisan mereka — mereka justru mendorongnya.
Pada bulan Januari, seorang guru bahasa Inggris veteran bernama Cherie Shields menulis di Education Week tentang bagaimana dia menggunakan ChatGPT di kelasnya. ChatGPT membantu siswanya dalam segala hal mulai dari menulis hingga menulis garis besar, dan bahkan memberikan umpan balik atas tugas mereka.
"Guru harus merangkul teknologi AI sebagai alat lain yang dapat digunakan siswa," tulisnya. "Sama seperti kami pernah mengajari siswa cara melakukan penelusuran Google yang baik, guru harus merancang pelajaran yang jelas tentang bagaimana bot ChatGPT dapat membantu penulisan esai. Mengakui keberadaan AI dan membantu siswa menggunakannya dapat merevolusi cara kami mengajar." Setiap guru memiliki waktu untuk belajar dan menggunakan alat-alat baru, namun pendidik seperti Cherie Shields membuat argumen yang bagus bahwa mereka yang memiliki waktu akan mendapat banyak manfaat.
Ini mengingatkan saya pada tahun 1970-an dan 1980-an ketika kalkulator elektronik menjadi populer. Beberapa guru matematika khawatir siswanya akan berhenti belajar aritmatika dasar, tetapi yang lain menerima teknologi baru dan berfokus pada pemikiran di balik aritmatika.
AI juga dapat membantu dalam menulis dan berpikir kritis. Terutama di masa-masa awal, ketika halusinasi dan bias masih menjadi masalah, pendidik dapat membuat esai buatan AI dan kemudian memeriksa faktanya dengan siswa. Organisasi nirlaba pendidikan seperti Akademi Khan, yang saya danai, dan Proyek OER memberi guru dan siswa alat online gratis yang sangat menekankan pada pengujian klaim. Tidak ada keterampilan yang lebih penting daripada mengetahui cara membedakan yang asli dari yang palsu.
Kami benar-benar perlu memastikan bahwa perangkat lunak pendidikan membantu menutup kesenjangan pencapaian, bukan memperburuknya. Perangkat lunak saat ini terutama ditujukan untuk siswa yang sudah termotivasi untuk belajar. Itu dapat membuat rencana studi untuk Anda, mengarahkan Anda ke sumber daya yang bagus, dan menguji pengetahuan Anda. Namun, ia belum mengetahui cara melibatkan Anda dalam subjek yang belum Anda minati. Ini adalah masalah yang perlu ditangani pengembang agar semua jenis siswa dapat memperoleh manfaat dari AI.
**Apa berikutnya? **
Saya yakin kita memiliki lebih banyak alasan untuk optimis bahwa kita dapat mengelola risiko AI sambil memaksimalkan manfaatnya. Tapi kita harus bertindak cepat.
Pemerintah perlu mengembangkan keahlian AI untuk mengembangkan undang-undang dan peraturan yang terinformasi untuk menangani teknologi baru ini. Mereka harus menghadapi misinformasi dan deepfake, ancaman keamanan, perubahan pasar kerja, dan dampaknya terhadap pendidikan. Hanya satu contoh: undang-undang perlu mengklarifikasi penggunaan deepfake mana yang legal, dan bagaimana deepfake diberi label sehingga semua orang mengerti bahwa apa yang mereka lihat atau dengar itu palsu.
Para pemimpin politik harus mampu terlibat dalam dialog yang terinformasi dan bijaksana dengan konstituen. Mereka juga perlu memutuskan berapa banyak untuk bekerja sama dengan negara lain dalam masalah ini, daripada melakukannya sendiri.
Di sektor swasta, perusahaan AI perlu bekerja dengan aman dan bertanggung jawab. Ini termasuk melindungi privasi orang, memastikan model AI mencerminkan nilai-nilai dasar manusia, meminimalkan bias untuk memberi manfaat bagi sebanyak mungkin orang, dan mencegah teknologi dieksploitasi oleh penjahat atau teroris. Perusahaan di banyak sektor ekonomi perlu membantu transisi karyawan mereka ke tempat kerja yang berpusat pada AI sehingga tidak ada yang tertinggal. Pelanggan harus selalu tahu bahwa mereka berinteraksi dengan AI dan bukan manusia.
Terakhir, saya mendorong semua orang untuk memperhatikan sebanyak mungkin pengembangan kecerdasan buatan. Ini adalah inovasi paling transformatif yang akan kita lihat dalam hidup kita, dan debat publik yang sehat akan bergantung pada pemahaman semua orang tentang teknologi ini, manfaat dan risikonya. Manfaat kecerdasan buatan akan sangat besar, dan alasan terbaik untuk percaya bahwa kita dapat mengendalikan risikonya adalah karena kita telah melakukannya.
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Bill Gates: Risiko kecerdasan buatan memang nyata, tetapi dapat dikelola
Ditulis oleh: Bill Gates
Sumber: Gatesnotes
Risiko yang ditimbulkan oleh kecerdasan buatan mungkin tampak luar biasa. Apa yang terjadi pada orang-orang yang pekerjaannya diambil alih oleh mesin pintar? Akankah Kecerdasan Buatan Mempengaruhi Hasil Pemilu? Bagaimana jika kecerdasan buatan di masa depan memutuskan bahwa manusia tidak lagi dibutuhkan, dan ingin menyingkirkan kita?
Ini adalah pertanyaan yang sah, dan kekhawatiran yang mereka ajukan perlu ditanggapi dengan serius. Tetapi kami memiliki alasan kuat untuk percaya bahwa kami dapat memecahkan masalah ini: ini bukan pertama kalinya sebuah inovasi besar membawa ancaman baru yang harus dikendalikan, dan kami telah menghadapinya sebelumnya.
Apakah itu munculnya mobil atau munculnya komputer pribadi dan internet, orang telah mengalami momen transformatif lainnya yang, meskipun banyak pergolakan, berakhir menjadi lebih baik. Tak lama setelah mobil pertama menabrak jalan, tabrakan pertama terjadi. Namun alih-alih melarang mobil, kami telah mengadopsi batas kecepatan, standar keselamatan, persyaratan surat izin mengemudi, undang-undang mengemudi dalam keadaan mabuk, dan aturan jalan lainnya.
Kita sekarang berada di tahap awal transformasi mendalam lainnya, era kecerdasan buatan. Ini mirip dengan era ketidakpastian sebelum batas kecepatan dan sabuk pengaman. AI berubah begitu cepat, tidak jelas apa yang akan terjadi selanjutnya. Kami menghadapi pertanyaan besar tentang cara kerja teknologi saat ini, bagaimana orang akan menggunakannya dengan jahat, dan bagaimana kecerdasan buatan akan mengubah masyarakat dan individu.
Di saat-saat seperti ini, wajar jika merasa tidak nyaman. Tetapi sejarah menunjukkan bahwa adalah mungkin untuk mengatasi tantangan yang ditimbulkan oleh teknologi baru.
Saya pernah menulis artikel tentang bagaimana kecerdasan buatan akan mengubah hidup kita sepenuhnya. Ini akan membantu memecahkan masalah kesehatan, pendidikan, perubahan iklim, dan banyak lagi yang tampaknya sulit diselesaikan di masa lalu. The Gates Foundation telah menjadikan ini sebagai prioritas, dan CEO kami Mark Suzman baru-baru ini membagikan pemikirannya tentang peran AI dalam mengurangi ketidaksetaraan.
Saya akan berbicara lebih banyak tentang manfaat AI di masa mendatang, tetapi dalam postingan ini saya ingin membahas beberapa masalah yang sering saya dengar dan baca, banyak di antaranya saya bagikan, dan menjelaskan bagaimana saya melihatnya .
Satu hal yang jelas dari semua tulisan tentang risiko AI sejauh ini adalah tidak ada yang memiliki semua jawaban. Poin lain yang jelas adalah bahwa masa depan kecerdasan buatan tidak sesuram yang dibayangkan beberapa orang, atau semerah yang dibayangkan orang lain. Risikonya memang nyata, tapi saya optimis bisa dikelola. Saat saya membahas masing-masing masalah ini, saya akan kembali ke tema berikut:
Pada artikel ini, saya akan fokus pada risiko yang ada atau yang akan terjadi. Saya tidak akan membahas apa yang terjadi jika kita mengembangkan AI yang dapat mempelajari topik atau tugas apa pun, tidak seperti AI khusus saat ini. Apakah kita sampai pada titik ini dalam dekade atau abad berikutnya, masyarakat memiliki pertanyaan mendalam untuk dipertimbangkan. Bagaimana jika AI super cerdas menetapkan tujuannya sendiri? Bagaimana jika mereka berkonflik dengan manusia? Haruskah kita membangun kecerdasan buatan super?
Namun, memikirkan risiko jangka panjang ini tidak boleh mengorbankan risiko yang lebih cepat.
AI Menghasilkan Kepalsuan Mendalam dan Misinformasi Dapat Menghancurkan Pemilu dan Demokrasi
Penggunaan teknologi untuk menyebarkan kebohongan dan disinformasi bukanlah hal baru. Orang-orang telah melakukan ini melalui buku dan selebaran selama berabad-abad. Ini menjadi lebih mudah dengan munculnya pengolah kata, printer laser, email dan jejaring sosial.
Kecerdasan buatan telah menangani masalah pemalsuan teks dan memperluasnya sehingga hampir semua orang dapat membuat audio dan video palsu, yang dikenal sebagai deepfake. Jika Anda mendapatkan pesan suara yang terdengar seperti anak Anda mengatakan "Saya telah diculik, tolong kirim $1.000 ke rekening bank ini dalam 10 menit ke depan dan jangan panggil polisi", dampak emosional yang mengerikan akan terjadi. jauh lebih kuat daripada email yang mengatakan hal yang sama.
Pada skala yang lebih besar, deepfake yang dihasilkan AI dapat digunakan untuk mencoba memengaruhi pemilu. Tentu saja, tidak perlu teknologi canggih untuk meragukan pemenang pemilu yang sah, tetapi kecerdasan buatan akan membuatnya lebih mudah.
Sudah, video palsu rekaman palsu dari politisi terkenal telah muncul. Bayangkan pada pagi hari pemilu, sebuah video yang memperlihatkan seorang kandidat merampok bank menjadi viral. Itu salah, tapi butuh waktu berjam-jam bagi organisasi berita dan kampanye untuk membuktikannya. Berapa banyak orang yang akan melihat video ini dan mengubah suara mereka pada menit terakhir? Itu bisa memberi tip timbangan, terutama jika balapannya ketat.
Baru-baru ini, ketika salah satu pendiri OpenAI Sam Altman bersaksi di depan komite Senat AS, para senator dari kedua partai berbicara tentang dampak AI pada pemilu dan demokrasi. Saya harap topik ini terus menjadi agenda semua orang.
Kami tentu saja belum menyelesaikan masalah misinformasi dan deepfake. Tetapi ada dua hal yang membuat saya optimis dengan hati-hati. Salah satunya adalah bahwa orang memiliki kemampuan untuk belajar untuk tidak mengambil apa pun begitu saja. Selama bertahun-tahun, pengguna email telah terperosok dalam penipuan yang menyamar sebagai pangeran Nigeria yang berjanji untuk membagikan nomor kartu kredit dengan imbalan hadiah besar. Namun pada akhirnya, kebanyakan orang belajar untuk berpikir dua kali. Karena penipuan menjadi lebih canggih, banyak target menjadi lebih licik. Kita perlu membangun kemampuan yang sama untuk deepfake.
Hal lain yang menurut saya penuh harapan adalah kecerdasan buatan dapat membantu mengidentifikasi deepfake dan membuat deepfake. Misalnya, Intel telah mengembangkan detektor deepfake, dan lembaga pemerintah DARPA sedang mengembangkan teknologi untuk mengidentifikasi apakah video atau audio telah dirusak.
Ini akan menjadi proses berulang: Seseorang akan menemukan cara untuk mendeteksi pemalsuan, seseorang akan mencari cara untuk melawannya, seseorang akan mengembangkan tindakan pencegahan, dan seterusnya. Itu tidak akan sempurna, tetapi kita juga tidak akan kehabisan akal.
AI akan mempermudah penyerangan manusia dan pemerintah
Hari ini, ketika peretas berharap menemukan kerentanan yang dapat dieksploitasi dalam perangkat lunak, mereka melakukannya dengan "kekerasan" -- menulis kode dan menyerang potensi kelemahan hingga kerentanan ditemukan. Ini melibatkan banyak jalan memutar, sehingga membutuhkan waktu dan kesabaran.
Profesional keamanan yang ingin melawan peretas harus melakukan hal yang sama. Setiap tambalan perangkat lunak yang Anda instal di ponsel atau laptop mewakili berjam-jam pencarian.
Model AI akan mempercepat proses ini dengan membantu peretas menulis kode yang lebih efisien. Mereka juga dapat mengeksploitasi informasi publik seseorang, seperti tempat mereka bekerja dan teman, untuk mengembangkan serangan phishing yang lebih canggih daripada yang tersedia saat ini.
Kabar baiknya adalah AI adalah pedang bermata dua. Tim keamanan di pemerintahan dan sektor swasta perlu memiliki alat terbaru untuk menemukan dan memperbaiki kerentanan keamanan sebelum penjahat mengeksploitasinya. Saya berharap industri keamanan perangkat lunak akan mengembangkan pekerjaan yang telah mereka lakukan di bidang ini, ini harus menjadi perhatian nomor satu mereka.
Tentu saja, ini juga mengapa kita tidak boleh mencoba untuk sementara mencegah orang menerapkan perkembangan baru dalam kecerdasan buatan, seperti yang disarankan beberapa orang. Penjahat dunia maya tidak akan berhenti membuat alat baru. Mereka yang ingin menggunakan kecerdasan buatan untuk merancang senjata nuklir dan serangan bioterorisme tidak akan berhenti. Upaya untuk menghentikan mereka perlu dilanjutkan dengan kecepatan yang sama.
Ada juga risiko terkait di tingkat global: perlombaan senjata dalam kecerdasan buatan yang dapat digunakan untuk merancang dan meluncurkan serangan dunia maya terhadap negara lain. Pemerintah setiap negara ingin memiliki teknologi paling kuat yang tersedia untuk mencegah serangan musuh. Motivasi "tidak meninggalkan siapa pun terlebih dahulu" ini dapat memicu perlombaan untuk menciptakan senjata dunia maya yang semakin berbahaya. Segalanya akan menjadi lebih buruk bagi semua orang.
Itu ide yang menakutkan, tetapi kami memiliki sejarah sebagai panduan. Betapapun cacatnya rezim nonproliferasi nuklir dunia, ia telah mencegah perang nuklir habis-habisan yang ditakuti oleh generasi saya. Pemerintah harus mempertimbangkan untuk membuat badan AI global yang serupa dengan Badan Energi Atom Internasional.
AI akan mengambil alih pekerjaan orang
Dampak utama kecerdasan buatan pada pekerjaan di tahun-tahun mendatang adalah membantu orang melakukan pekerjaannya dengan lebih efisien. Hal ini berlaku apakah Anda bekerja di pabrik atau di kantor yang menangani panggilan penjualan dan hutang dagang. Pada akhirnya, AI akan dapat mengekspresikan dirinya dengan baik, menulis email, dan mengelola kotak masuk untuk Anda. Dengan hanya menulis permintaan dalam bahasa Inggris atau bahasa lainnya, Anda bisa mendapatkan PPT yang Anda inginkan.
Seperti yang saya kemukakan dalam artikel saya di bulan Februari, peningkatan produktivitas itu baik untuk masyarakat. Ini memberi orang lebih banyak waktu untuk melakukan hal-hal lain di tempat kerja dan di rumah. Kebutuhan akan orang-orang yang suka menolong tidak akan pernah hilang -- seperti mengajar, merawat orang sakit dan merawat orang lanjut usia. Tetapi beberapa pekerja memang membutuhkan dukungan dan pelatihan ulang saat kami bertransisi ke tempat kerja yang digerakkan oleh AI. Itulah tugas pemerintah dan bisnis untuk mengelola agar para pekerja tidak tertinggal -- tanpa gangguan terhadap kehidupan masyarakat yang terjadi ketika pekerjaan manufaktur Amerika hilang.
Juga, perlu diingat bahwa ini bukan pertama kalinya teknologi baru menyebabkan perubahan signifikan di pasar tenaga kerja. Saya kira dampak kecerdasan buatan tidak akan sebesar revolusi industri, tapi pasti akan serupa dengan dampak pengenalan komputer pribadi. Aplikasi pengolah kata tidak menghilangkan pekerjaan kantor, tetapi mengubahnya selamanya. Majikan dan karyawan harus beradaptasi, dan mereka melakukannya. Transformasi yang dibawa oleh AI akan menjadi transisi yang tidak mulus, tetapi ada banyak alasan untuk percaya bahwa kita dapat mengurangi gangguan pada kehidupan dan mata pencaharian masyarakat.
AI akan mewarisi bias kita dan memperbaikinya
Halusinasi — saat AI dengan percaya diri membuat klaim yang tidak sesuai dengan kebenaran — biasanya terjadi karena mesin tidak memahami permintaan Anda. Minta AI untuk menulis cerita pendek tentang liburan ke bulan, dan itu mungkin memberi Anda jawaban yang imajinatif. Tetapi jika Anda meminta AI untuk menulis rencana perjalanan Tanzania untuk Anda, AI mungkin akan mengirim Anda ke hotel yang bahkan tidak ada.
Risiko lain dari kecerdasan buatan adalah mencerminkan atau bahkan memperkuat prasangka orang tentang jenis kelamin, ras, etnis tertentu, dll.
Untuk memahami mengapa halusinasi dan bias terjadi, penting untuk mengetahui cara kerja model AI yang paling umum saat ini. Mereka pada dasarnya adalah versi kode yang sangat canggih yang memungkinkan aplikasi email Anda memprediksi kata berikutnya yang akan Anda ketik: mereka memindai teks dalam jumlah besar -- dalam beberapa kasus, hampir semua teks tersedia di web -- lalu Menganalisis untuk menemukan pola dalam bahasa manusia.
Saat Anda mengajukan pertanyaan kepada AI, ia melihat kata-kata yang Anda gunakan dan kemudian mencari potongan teks yang sering dikaitkan dengan kata-kata tersebut. Jika Anda menulis "daftarkan bahan untuk pancake", AI mungkin memperhatikan bahwa kata-kata seperti "tepung, gula, garam, baking powder, susu, dan telur" sering muncul dengan frasa tersebut. Kemudian, berdasarkan apa yang diketahuinya tentang urutan munculnya kata-kata itu, ia menghasilkan sebuah jawaban. (Model AI yang bekerja dengan cara ini menggunakan apa yang disebut Transformers. GPT-4 adalah salah satu modelnya).
Proses ini menjelaskan mengapa AI dapat berhalusinasi atau bias. Itu tidak memiliki konteks untuk pertanyaan yang Anda ajukan atau apa yang Anda katakan. Jika Anda memberi tahu AI itu membuat kesalahan, itu mungkin mengatakan "maaf, saya salah ketik". Tapi itu hanya ilusi, kenyataannya tidak ada input apapun. Ia mengatakan ini karena telah memindai teks yang cukup untuk mengetahui bahwa "maaf, saya salah ketik" adalah frasa yang sering ditulis orang setelah orang lain memperbaikinya.
Demikian pula, model AI mewarisi bias yang disematkan dalam teks tempat mereka dilatih. Jika banyak membaca artikel tentang dokter, dan artikel tersebut kebanyakan menyebutkan dokter laki-laki, maka jawabannya akan berasumsi bahwa kebanyakan dokter adalah laki-laki.
Meskipun beberapa peneliti berpendapat bahwa halusinasi adalah masalah yang melekat, saya tidak setuju. Saya optimis seiring waktu, model AI dapat belajar membedakan fakta dari fiksi. Misalnya, OpenAI telah melakukan penelitian yang menjanjikan di bidang ini.
Kelompok lain, termasuk Alan Turing Institute dan National Institute of Standards and Technology, juga bekerja untuk mengatasi bias. Salah satu pendekatannya adalah membangun nilai-nilai kemanusiaan dan penalaran tingkat tinggi ke dalam AI. Ini mirip dengan cara kerja manusia yang sadar diri: mungkin Anda mengira kebanyakan dokter adalah laki-laki, tetapi Anda cukup sadar akan asumsi itu untuk mengetahui bahwa Anda harus secara sadar melawannya. Kecerdasan buatan dapat beroperasi dengan cara yang sama, terutama jika modelnya dirancang oleh orang-orang dari latar belakang yang berbeda.
Pada akhirnya, setiap orang yang menggunakan AI perlu menyadari masalah bias dan menjadi pengguna yang terinformasi. Makalah yang Anda minta untuk disusun oleh AI mungkin penuh dengan bias dan kesalahan faktual. Anda perlu memeriksa bias AI dan juga bias Anda sendiri.
Siswa tidak akan belajar menulis karena AI akan melakukannya untuk mereka
Banyak guru khawatir AI akan mengganggu kolaborasi mereka dengan siswa. Di zaman di mana siapa pun yang memiliki koneksi internet dapat menggunakan AI untuk menulis draf pertama yang layak dari sebuah tesis, apa yang menghentikan seorang siswa untuk menjadikannya milik mereka?
Sudah ada alat AI yang dapat mengetahui apakah esai ditulis oleh manusia atau komputer, sehingga guru dapat mengetahui kapan siswa mengerjakan pekerjaan rumahnya sendiri. Tetapi beberapa guru tidak berusaha mencegah siswa menggunakan AI dalam tulisan mereka — mereka justru mendorongnya.
Pada bulan Januari, seorang guru bahasa Inggris veteran bernama Cherie Shields menulis di Education Week tentang bagaimana dia menggunakan ChatGPT di kelasnya. ChatGPT membantu siswanya dalam segala hal mulai dari menulis hingga menulis garis besar, dan bahkan memberikan umpan balik atas tugas mereka.
"Guru harus merangkul teknologi AI sebagai alat lain yang dapat digunakan siswa," tulisnya. "Sama seperti kami pernah mengajari siswa cara melakukan penelusuran Google yang baik, guru harus merancang pelajaran yang jelas tentang bagaimana bot ChatGPT dapat membantu penulisan esai. Mengakui keberadaan AI dan membantu siswa menggunakannya dapat merevolusi cara kami mengajar." Setiap guru memiliki waktu untuk belajar dan menggunakan alat-alat baru, namun pendidik seperti Cherie Shields membuat argumen yang bagus bahwa mereka yang memiliki waktu akan mendapat banyak manfaat.
Ini mengingatkan saya pada tahun 1970-an dan 1980-an ketika kalkulator elektronik menjadi populer. Beberapa guru matematika khawatir siswanya akan berhenti belajar aritmatika dasar, tetapi yang lain menerima teknologi baru dan berfokus pada pemikiran di balik aritmatika.
AI juga dapat membantu dalam menulis dan berpikir kritis. Terutama di masa-masa awal, ketika halusinasi dan bias masih menjadi masalah, pendidik dapat membuat esai buatan AI dan kemudian memeriksa faktanya dengan siswa. Organisasi nirlaba pendidikan seperti Akademi Khan, yang saya danai, dan Proyek OER memberi guru dan siswa alat online gratis yang sangat menekankan pada pengujian klaim. Tidak ada keterampilan yang lebih penting daripada mengetahui cara membedakan yang asli dari yang palsu.
Kami benar-benar perlu memastikan bahwa perangkat lunak pendidikan membantu menutup kesenjangan pencapaian, bukan memperburuknya. Perangkat lunak saat ini terutama ditujukan untuk siswa yang sudah termotivasi untuk belajar. Itu dapat membuat rencana studi untuk Anda, mengarahkan Anda ke sumber daya yang bagus, dan menguji pengetahuan Anda. Namun, ia belum mengetahui cara melibatkan Anda dalam subjek yang belum Anda minati. Ini adalah masalah yang perlu ditangani pengembang agar semua jenis siswa dapat memperoleh manfaat dari AI.
**Apa berikutnya? **
Saya yakin kita memiliki lebih banyak alasan untuk optimis bahwa kita dapat mengelola risiko AI sambil memaksimalkan manfaatnya. Tapi kita harus bertindak cepat.
Pemerintah perlu mengembangkan keahlian AI untuk mengembangkan undang-undang dan peraturan yang terinformasi untuk menangani teknologi baru ini. Mereka harus menghadapi misinformasi dan deepfake, ancaman keamanan, perubahan pasar kerja, dan dampaknya terhadap pendidikan. Hanya satu contoh: undang-undang perlu mengklarifikasi penggunaan deepfake mana yang legal, dan bagaimana deepfake diberi label sehingga semua orang mengerti bahwa apa yang mereka lihat atau dengar itu palsu.
Para pemimpin politik harus mampu terlibat dalam dialog yang terinformasi dan bijaksana dengan konstituen. Mereka juga perlu memutuskan berapa banyak untuk bekerja sama dengan negara lain dalam masalah ini, daripada melakukannya sendiri.
Di sektor swasta, perusahaan AI perlu bekerja dengan aman dan bertanggung jawab. Ini termasuk melindungi privasi orang, memastikan model AI mencerminkan nilai-nilai dasar manusia, meminimalkan bias untuk memberi manfaat bagi sebanyak mungkin orang, dan mencegah teknologi dieksploitasi oleh penjahat atau teroris. Perusahaan di banyak sektor ekonomi perlu membantu transisi karyawan mereka ke tempat kerja yang berpusat pada AI sehingga tidak ada yang tertinggal. Pelanggan harus selalu tahu bahwa mereka berinteraksi dengan AI dan bukan manusia.
Terakhir, saya mendorong semua orang untuk memperhatikan sebanyak mungkin pengembangan kecerdasan buatan. Ini adalah inovasi paling transformatif yang akan kita lihat dalam hidup kita, dan debat publik yang sehat akan bergantung pada pemahaman semua orang tentang teknologi ini, manfaat dan risikonya. Manfaat kecerdasan buatan akan sangat besar, dan alasan terbaik untuk percaya bahwa kita dapat mengendalikan risikonya adalah karena kita telah melakukannya.