Janji dan bahaya AI adalah topik hangat akhir-akhir ini. Beberapa orang mengatakan bahwa kecerdasan buatan akan menyelamatkan kita, membantu mendiagnosis beberapa penyakit ganas, menjembatani kesenjangan digital dalam pendidikan, dll. Tetapi ada juga kekhawatiran tentang ancaman yang ditimbulkannya terhadap perang, keamanan, informasi yang salah, dan banyak lagi. Itu menjadi hobi bagi orang biasa dan membunyikan alarm di dunia bisnis.
AI sangat berguna, tetapi belum bisa membungkam kebisingan ruangan yang penuh dengan obrolan. Minggu ini, akademisi, regulator, pemimpin pemerintah, start-up, perusahaan teknologi besar, dan puluhan organisasi nirlaba dan nirlaba berkumpul di Inggris untuk membahas dan memperdebatkan AI.
Mengapa Inggris? Mengapa sekarang? **
Pada hari Rabu dan Kamis, Inggris akan menjadi tuan rumah KTT Keamanan AI di Bletchley Park, yang pertama dari jenisnya di Inggris.
KTT ini direncanakan selama beberapa bulan untuk mengeksplorasi beberapa masalah dan risiko jangka panjang yang ditimbulkan oleh AI. Tujuan KTT ini ideal, bukan konkret: "pemahaman bersama tentang risiko yang ditimbulkan oleh AI perbatasan dan perlunya tindakan", "proses berwawasan ke depan untuk kerja sama internasional tentang keamanan AI perbatasan, termasuk cara terbaik untuk mendukung kerangka kerja nasional dan internasional "," organisasi harus mengambil langkah-langkah yang tepat untuk meningkatkan keamanan AI perbatasan ", dan sebagainya.
Keinginan tingkat tinggi ini juga tercermin dalam identitas para peserta: pejabat senior pemerintah, pemimpin industri dan pemikir terkemuka di lapangan akan hadir. (Menurut laporan terbaru: Elon Musk, Presiden Biden, Justin Trudeau dan Olaf Scholz, antara lain, akan hadir).
KTT itu terdengar istimewa, dan itu adalah: "tiket emas" ke puncak (dijelaskan oleh pendiri dan penulis teknologi yang berbasis di London Azeem Azhar) kekurangan pasokan. Dilaporkan bahwa KTT akan berskala kecil dan sebagian besar ditutup. Acara-acara ini termasuk pembicaraan di Royal Society (National Academy of Sciences); Konferensi "AI Fringe" berskala besar di beberapa kota dan pengumuman dari banyak gugus tugas, antara lain.
Gina Neff, direktur eksekutif Mindelow Centre for Technology and Democracy di University of Cambridge, mengatakan pada diskusi panel malam tentang sains dan keamanan di Royal Society pekan lalu: "Kami akan memainkan peran KTT yang telah kami tangani. Dengan kata lain, sebuah acara di Bletchley akan melakukan apa yang seharusnya dilakukan, dan apa yang tidak berada dalam lingkup acara akan menjadi kesempatan bagi orang untuk bertukar pikiran tentang masalah lain. "
Diskusi panel Neff adalah contohnya: di aula Royal Society yang penuh sesak, dia duduk bersama perwakilan Human Rights Watch, pejabat negara dari serikat pekerja besar Unite, pendiri Tech Global Institute, sebuah think tank yang berfokus pada masalah ekuitas teknologi di Global South, kepala kebijakan publik di startup Stability AI, dan ilmuwan komputer di University of Cambridge.
Pada saat yang sama, apa yang disebut pertemuan tepi AI dapat dikatakan hanya sebagai "tepi" nominal. Dengan KTT Bletchley yang berlangsung di lokasi yang sama selama seminggu, dengan daftar tamu yang sangat terbatas dan kesempatan yang sama terbatasnya untuk mempelajari apa yang dibahas, sesi AI Edge dengan cepat diperluas ke Bletchley dan menyempurnakan agenda konferensi. Acara ini dilaporkan tidak diselenggarakan oleh pemerintah, tetapi oleh perusahaan PR bernama Milltown Partners (yang telah mewakili perusahaan seperti DeepMind, Stripe, dan perusahaan modal ventura Atomico), dan yang menarik, itu berlangsung seminggu penuh, diadakan di beberapa lokasi di seluruh negeri, dan gratis bagi mereka yang bisa mendapatkan tiket (banyak acara terjual habis), dan banyak sesi juga tersedia di layanan streaming.
Terlepas dari keragamannya, sangat menyedihkan melihat bahwa diskusi tentang AI, meskipun masih bayi, masih sangat terbagi: satu adalah pertemuan kekuatan kekuasaan (yang sebagian besar terbuka untuk tamu undangan saja) dan yang lainnya adalah pertemuan kita semua.
Sebelumnya hari ini, sekelompok 100 serikat pekerja dan aktivis mengirim surat kepada perdana menteri mengatakan pemerintah "memeras" suara mereka dalam percakapan dengan tidak mengizinkan mereka untuk berpartisipasi di Bletchley Park. (Mereka mungkin tidak mendapatkan tiket, tetapi cara mereka menentang mereka benar-benar masuk akal: kelompok itu mempublikasikannya dengan membagikan surat itu dengan publikasi ekonomi paling elit di negara itu, seperti Financial Times).
Bukan hanya orang biasa yang ditinggalkan dalam kedinginan. Carissa Véliz, seorang dosen di Departemen Filsafat di Universitas Oxford, mengatakan pada acara AI Edge hari ini: "Tidak ada orang yang saya kenal telah diundang. "
Beberapa percaya bahwa ada manfaat untuk perampingan.
Ilmuwan riset kecerdasan buatan Marius Hobbhahn adalah salah satu pendiri dan kepala Apollo Research, yang mengembangkan alat keamanan AI. Dia percaya bahwa sejumlah kecil orang juga dapat menarik lebih banyak perhatian: "Semakin banyak orang di ruangan itu, semakin sulit untuk menarik kesimpulan atau melakukan diskusi yang efektif," katanya. "
Dalam arti yang lebih luas, KTT hanyalah "batu bata" dan bagian dari percakapan yang lebih luas yang saat ini sedang berlangsung. Pekan lalu, Perdana Menteri Inggris Rishi Sunak mengatakan dia bermaksud untuk mendirikan lembaga keamanan AI baru dan jaringan penelitian di Inggris untuk menghabiskan lebih banyak waktu dan upaya mempelajari dampak AI; Sekelompok akademisi terkemuka, yang dipimpin oleh Yoshua Bengio dan Geoffrey Hinton, secara kolektif terjun ke bidang ini dengan makalah berjudul "Mengelola Risiko AI di Era Kemajuan Cepat"; Perserikatan Bangsa-Bangsa juga telah mengumumkan pembentukan gugus tugasnya sendiri untuk mengeksplorasi dampak kecerdasan buatan. Baru-baru ini, Presiden AS Joe Biden juga mengeluarkan perintah eksekutif AS sendiri untuk menetapkan standar keamanan AI.
"Risiko Eksistensial"
Salah satu perdebatan terbesar adalah apakah gagasan bahwa AI menimbulkan "risiko eksistensial" dibesar-besarkan, atau bahkan disengaja, untuk menghilangkan pengawasan terhadap aktivitas AI yang lebih langsung.
Matt Kelly, profesor matematika sistem di University of Cambridge, menunjukkan bahwa salah satu bidang yang paling sering dikutip adalah informasi yang salah.
"Informasi yang salah bukanlah hal baru. Ini bahkan bukan sesuatu yang baru di abad ini atau abad terakhir," katanya dalam sebuah wawancara pekan lalu. "Tapi ini adalah salah satu area di mana kami pikir ada potensi risiko untuk AI dalam jangka pendek dan menengah. Dan risiko ini berkembang perlahan seiring waktu. Kelly, seorang rekan dari Royal Society of Scientry, mengatakan masyarakat juga melakukan latihan tim merah-biru khusus untuk informasi yang salah dalam sains selama KTT run-up untuk melihat seberapa besar model bahasa akan berperilaku ketika mencoba untuk bersaing satu sama lain. Ini adalah upaya untuk lebih memahami apa risikonya saat ini."
Pemerintah Inggris tampaknya mengambil pendekatan bermuka dua untuk debat ini, dengan bahaya yang lebih jelas daripada nama acara yang diselenggarakannya, KTT Keamanan AI.
Dalam pidatonya pekan lalu, Sunak mengatakan: "Saat ini, kami tidak memiliki pemahaman yang sama tentang risiko yang kami hadapi. "Tanpa konsensus ini, kita tidak bisa berharap untuk mengatasi risiko ini bersama-sama." Itulah sebabnya kami akan membuat dorongan kuat untuk pernyataan internasional pertama tentang sifat risiko ini. "
Tetapi dalam menyiapkan KTT, Inggris pertama kali memposisikan dirinya sebagai pemain sentral dalam menetapkan agenda "apa yang kita bicarakan ketika kita berbicara tentang AI", dan tentu saja memiliki perspektif ekonomi.
"Dengan menjadikan Inggris sebagai pemimpin global dalam AI yang aman, kami akan menarik lebih banyak pekerjaan dan investasi baru dari gelombang teknologi baru ini," kata Sunak. (Memo itu juga diterima oleh departemen lain: Menteri Dalam Negeri hari ini menyelenggarakan acara dengan Internet Watch Foundation dan sejumlah perusahaan aplikasi konsumen besar seperti TikTok dan Snap untuk mengatasi proliferasi gambar pelecehan seksual yang dihasilkan AI).
Melibatkan Big Tech mungkin tampak membantu dalam satu cara, tetapi kritikus cenderung melihatnya sebagai masalah juga. "Regulatory capture", di mana pemain kekuatan yang lebih besar di industri mengambil langkah proaktif untuk membahas dan mengembangkan risiko dan perlindungan, telah menjadi tema besar lainnya di dunia baru AI yang berani, dan KTT minggu ini tidak berbeda.
"Berhati-hatilah terhadap para pemimpin AI yang mengangkat tangan dan berkata, 'saya, saya.'" Nigel Toon, CEO pembuat chip AI Graphcore, dengan cerdik menunjukkan dalam sebuah artikel yang ditulisnya tentang KTT mendatang minggu ini: "Pemerintah cenderung turun tangan dan mengambil kata-kata mereka untuk itu." (Dia tidak sepenuhnya marjinal, meskipun: dia akan menghadiri KTT sendiri.)
Pada saat yang sama, banyak orang masih memperdebatkan apakah apa yang disebut risiko eksistensial saat ini adalah latihan yang berguna dalam berpikir.
"Saya pikir retorika perbatasan dan kecerdasan buatan telah menempatkan kita dalam keadaan takut akan teknologi selama setahun terakhir," Ben Brooks, kepala kebijakan publik di Stability AI, mengatakan pada diskusi panel di Royal Society, mengutip eksperimen pemikiran "Paperclip Maxing" – di mana AI dapat menghancurkan dunia dengan membuat penjepit kertas tanpa memperhatikan kebutuhan atau keselamatan manusia – sebagai contoh dari pendekatan yang sengaja membatasi ini. "Mereka tidak memikirkan keadaan di mana AI dapat digunakan. Tetapi Anda dapat mengembangkannya dengan aman. Kami ingin semua orang terinspirasi oleh ini dan menyadari bahwa AI dapat dicapai dan aman untuk dilakukan. "
Yang lain kurang yakin.
Hobbhahn dari Apollo Research mengatakan, "Agar adil, saya tidak berpikir risiko eksistensial akurat. "Sebut saja risiko bencana." Mengingat laju perkembangan dalam beberapa tahun terakhir, aplikasi AI generatif telah membawa model bahasa besar ke arus utama, dan dia percaya bahwa kekhawatiran terbesar akan tetap menjadi aktor jahat yang menggunakan AI, daripada AI itu sendiri dalam kerusuhan: menggunakannya untuk perang biologis, situasi keamanan nasional, dan informasi yang salah yang dapat mengubah proses demokrasi. Semua ini, katanya, adalah area di mana dia percaya AI kemungkinan akan memainkan peran bencana.
"Pemenang Turing Award secara terbuka prihatin tentang kelangsungan hidup dan risiko bencana ... Kita benar-benar harus memikirkannya," tambahnya.
Prospek Bisnis
Meskipun ada risiko serius, Inggris juga ingin menjadikan negara itu rumah alami bagi perusahaan AI dengan menyelenggarakan percakapan besar tentang AI. Namun, beberapa analis percaya bahwa jalan untuk berinvestasi dalam AI mungkin tidak semulus yang diprediksi beberapa orang.
"Saya pikir kenyataannya mulai muncul bahwa bisnis mulai memahami berapa banyak waktu dan uang yang mereka butuhkan untuk dialokasikan ke proyek-proyek AI generatif untuk mendapatkan output yang andal yang benar-benar dapat meningkatkan produktivitas dan pendapatan," kata Avivah Litan, wakil presiden analis perusahaan di Gartner. "Meskipun mereka membuat penyesuaian berulang dan rekayasa pada proyek, mereka masih membutuhkan pengawasan manual terhadap operasi dan output. Singkatnya, output GenAI tidak cukup andal dan membutuhkan banyak sumber daya untuk membuatnya andal. Tentu saja, modelnya meningkat setiap saat, tetapi itulah keadaan pasar saat ini. Namun, pada saat yang sama, kami melihat semakin banyak proyek memasuki tahap produksi. "
Dia percaya bahwa investasi AI "pasti akan memperlambat pertumbuhan bisnis dan organisasi pemerintah yang menggunakan AI." Vendor mendorong aplikasi dan produk AI mereka, tetapi bisnis tidak dapat mengadopsinya secepat mereka didorong. Selain itu, ada banyak risiko yang terkait dengan aplikasi GenAI, seperti mendemokratisasikan akses mudah ke informasi rahasia bahkan di dalam organisasi. "
Sama seperti "transformasi digital" lebih merupakan konsep yang lambat terbakar dalam kenyataan, strategi investasi AI perusahaan juga membutuhkan lebih banyak waktu. "Butuh waktu bagi bisnis untuk mengunci kumpulan data terstruktur dan tidak terstruktur mereka dan menetapkan izin dengan benar dan efisien. Ada terlalu banyak oversharing di perusahaan yang tidak terlalu penting sampai saat itu. Litan menambahkan, "Sekarang, siapa pun dapat mengakses file apa pun yang tidak dilindungi orang lain secara memadai menggunakan perintah bahasa asli yang sederhana, seperti bahasa Inggris." "
Fakta bahwa bagaimana menyeimbangkan kepentingan komersial AI dengan masalah keamanan dan risiko yang akan dibahas Bletchley Park berbicara banyak tentang tugas di depan, tetapi juga menyoroti ketegangan situasi. Kemudian dalam konferensi, penyelenggara Bletchley dilaporkan telah bekerja untuk memperluas diskusi di luar masalah keamanan tingkat tinggi ke bidang-bidang di mana risiko mungkin benar-benar timbul, seperti perawatan kesehatan, meskipun pergeseran ini tidak dirinci dalam agenda yang diumumkan saat ini.
"Akan ada meja bundar sekitar 100 ahli, yang tidak kecil. Saya seorang kritikus, tetapi itu tidak terdengar seperti ide yang buruk," kata Neff, seorang profesor di University of Cambridge. "Sekarang, apakah regulasi global akan menjadi topik diskusi? Tentu saja tidak. Apakah kita akan menormalkan hubungan Timur-Barat? Mungkin tidak. Tapi kami datang dengan pertemuan puncak kami. Saya pikir mungkin ada beberapa peluang yang sangat menarik pada saat ini. "
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Pratinjau KTT Keamanan AI Inggris: Mengapa Sekarang, Mengapa Inggris
Kata-kata: Ingrid Lunden
Sumber: TechCrunch
Janji dan bahaya AI adalah topik hangat akhir-akhir ini. Beberapa orang mengatakan bahwa kecerdasan buatan akan menyelamatkan kita, membantu mendiagnosis beberapa penyakit ganas, menjembatani kesenjangan digital dalam pendidikan, dll. Tetapi ada juga kekhawatiran tentang ancaman yang ditimbulkannya terhadap perang, keamanan, informasi yang salah, dan banyak lagi. Itu menjadi hobi bagi orang biasa dan membunyikan alarm di dunia bisnis.
AI sangat berguna, tetapi belum bisa membungkam kebisingan ruangan yang penuh dengan obrolan. Minggu ini, akademisi, regulator, pemimpin pemerintah, start-up, perusahaan teknologi besar, dan puluhan organisasi nirlaba dan nirlaba berkumpul di Inggris untuk membahas dan memperdebatkan AI.
Mengapa Inggris? Mengapa sekarang? **
Pada hari Rabu dan Kamis, Inggris akan menjadi tuan rumah KTT Keamanan AI di Bletchley Park, yang pertama dari jenisnya di Inggris.
KTT ini direncanakan selama beberapa bulan untuk mengeksplorasi beberapa masalah dan risiko jangka panjang yang ditimbulkan oleh AI. Tujuan KTT ini ideal, bukan konkret: "pemahaman bersama tentang risiko yang ditimbulkan oleh AI perbatasan dan perlunya tindakan", "proses berwawasan ke depan untuk kerja sama internasional tentang keamanan AI perbatasan, termasuk cara terbaik untuk mendukung kerangka kerja nasional dan internasional "," organisasi harus mengambil langkah-langkah yang tepat untuk meningkatkan keamanan AI perbatasan ", dan sebagainya.
Keinginan tingkat tinggi ini juga tercermin dalam identitas para peserta: pejabat senior pemerintah, pemimpin industri dan pemikir terkemuka di lapangan akan hadir. (Menurut laporan terbaru: Elon Musk, Presiden Biden, Justin Trudeau dan Olaf Scholz, antara lain, akan hadir).
KTT itu terdengar istimewa, dan itu adalah: "tiket emas" ke puncak (dijelaskan oleh pendiri dan penulis teknologi yang berbasis di London Azeem Azhar) kekurangan pasokan. Dilaporkan bahwa KTT akan berskala kecil dan sebagian besar ditutup. Acara-acara ini termasuk pembicaraan di Royal Society (National Academy of Sciences); Konferensi "AI Fringe" berskala besar di beberapa kota dan pengumuman dari banyak gugus tugas, antara lain.
Gina Neff, direktur eksekutif Mindelow Centre for Technology and Democracy di University of Cambridge, mengatakan pada diskusi panel malam tentang sains dan keamanan di Royal Society pekan lalu: "Kami akan memainkan peran KTT yang telah kami tangani. Dengan kata lain, sebuah acara di Bletchley akan melakukan apa yang seharusnya dilakukan, dan apa yang tidak berada dalam lingkup acara akan menjadi kesempatan bagi orang untuk bertukar pikiran tentang masalah lain. "
Diskusi panel Neff adalah contohnya: di aula Royal Society yang penuh sesak, dia duduk bersama perwakilan Human Rights Watch, pejabat negara dari serikat pekerja besar Unite, pendiri Tech Global Institute, sebuah think tank yang berfokus pada masalah ekuitas teknologi di Global South, kepala kebijakan publik di startup Stability AI, dan ilmuwan komputer di University of Cambridge.
Pada saat yang sama, apa yang disebut pertemuan tepi AI dapat dikatakan hanya sebagai "tepi" nominal. Dengan KTT Bletchley yang berlangsung di lokasi yang sama selama seminggu, dengan daftar tamu yang sangat terbatas dan kesempatan yang sama terbatasnya untuk mempelajari apa yang dibahas, sesi AI Edge dengan cepat diperluas ke Bletchley dan menyempurnakan agenda konferensi. Acara ini dilaporkan tidak diselenggarakan oleh pemerintah, tetapi oleh perusahaan PR bernama Milltown Partners (yang telah mewakili perusahaan seperti DeepMind, Stripe, dan perusahaan modal ventura Atomico), dan yang menarik, itu berlangsung seminggu penuh, diadakan di beberapa lokasi di seluruh negeri, dan gratis bagi mereka yang bisa mendapatkan tiket (banyak acara terjual habis), dan banyak sesi juga tersedia di layanan streaming.
Terlepas dari keragamannya, sangat menyedihkan melihat bahwa diskusi tentang AI, meskipun masih bayi, masih sangat terbagi: satu adalah pertemuan kekuatan kekuasaan (yang sebagian besar terbuka untuk tamu undangan saja) dan yang lainnya adalah pertemuan kita semua.
Sebelumnya hari ini, sekelompok 100 serikat pekerja dan aktivis mengirim surat kepada perdana menteri mengatakan pemerintah "memeras" suara mereka dalam percakapan dengan tidak mengizinkan mereka untuk berpartisipasi di Bletchley Park. (Mereka mungkin tidak mendapatkan tiket, tetapi cara mereka menentang mereka benar-benar masuk akal: kelompok itu mempublikasikannya dengan membagikan surat itu dengan publikasi ekonomi paling elit di negara itu, seperti Financial Times).
Bukan hanya orang biasa yang ditinggalkan dalam kedinginan. Carissa Véliz, seorang dosen di Departemen Filsafat di Universitas Oxford, mengatakan pada acara AI Edge hari ini: "Tidak ada orang yang saya kenal telah diundang. "
Beberapa percaya bahwa ada manfaat untuk perampingan.
Ilmuwan riset kecerdasan buatan Marius Hobbhahn adalah salah satu pendiri dan kepala Apollo Research, yang mengembangkan alat keamanan AI. Dia percaya bahwa sejumlah kecil orang juga dapat menarik lebih banyak perhatian: "Semakin banyak orang di ruangan itu, semakin sulit untuk menarik kesimpulan atau melakukan diskusi yang efektif," katanya. "
Dalam arti yang lebih luas, KTT hanyalah "batu bata" dan bagian dari percakapan yang lebih luas yang saat ini sedang berlangsung. Pekan lalu, Perdana Menteri Inggris Rishi Sunak mengatakan dia bermaksud untuk mendirikan lembaga keamanan AI baru dan jaringan penelitian di Inggris untuk menghabiskan lebih banyak waktu dan upaya mempelajari dampak AI; Sekelompok akademisi terkemuka, yang dipimpin oleh Yoshua Bengio dan Geoffrey Hinton, secara kolektif terjun ke bidang ini dengan makalah berjudul "Mengelola Risiko AI di Era Kemajuan Cepat"; Perserikatan Bangsa-Bangsa juga telah mengumumkan pembentukan gugus tugasnya sendiri untuk mengeksplorasi dampak kecerdasan buatan. Baru-baru ini, Presiden AS Joe Biden juga mengeluarkan perintah eksekutif AS sendiri untuk menetapkan standar keamanan AI.
"Risiko Eksistensial"
Salah satu perdebatan terbesar adalah apakah gagasan bahwa AI menimbulkan "risiko eksistensial" dibesar-besarkan, atau bahkan disengaja, untuk menghilangkan pengawasan terhadap aktivitas AI yang lebih langsung.
Matt Kelly, profesor matematika sistem di University of Cambridge, menunjukkan bahwa salah satu bidang yang paling sering dikutip adalah informasi yang salah.
"Informasi yang salah bukanlah hal baru. Ini bahkan bukan sesuatu yang baru di abad ini atau abad terakhir," katanya dalam sebuah wawancara pekan lalu. "Tapi ini adalah salah satu area di mana kami pikir ada potensi risiko untuk AI dalam jangka pendek dan menengah. Dan risiko ini berkembang perlahan seiring waktu. Kelly, seorang rekan dari Royal Society of Scientry, mengatakan masyarakat juga melakukan latihan tim merah-biru khusus untuk informasi yang salah dalam sains selama KTT run-up untuk melihat seberapa besar model bahasa akan berperilaku ketika mencoba untuk bersaing satu sama lain. Ini adalah upaya untuk lebih memahami apa risikonya saat ini."
Pemerintah Inggris tampaknya mengambil pendekatan bermuka dua untuk debat ini, dengan bahaya yang lebih jelas daripada nama acara yang diselenggarakannya, KTT Keamanan AI.
Dalam pidatonya pekan lalu, Sunak mengatakan: "Saat ini, kami tidak memiliki pemahaman yang sama tentang risiko yang kami hadapi. "Tanpa konsensus ini, kita tidak bisa berharap untuk mengatasi risiko ini bersama-sama." Itulah sebabnya kami akan membuat dorongan kuat untuk pernyataan internasional pertama tentang sifat risiko ini. "
Tetapi dalam menyiapkan KTT, Inggris pertama kali memposisikan dirinya sebagai pemain sentral dalam menetapkan agenda "apa yang kita bicarakan ketika kita berbicara tentang AI", dan tentu saja memiliki perspektif ekonomi.
"Dengan menjadikan Inggris sebagai pemimpin global dalam AI yang aman, kami akan menarik lebih banyak pekerjaan dan investasi baru dari gelombang teknologi baru ini," kata Sunak. (Memo itu juga diterima oleh departemen lain: Menteri Dalam Negeri hari ini menyelenggarakan acara dengan Internet Watch Foundation dan sejumlah perusahaan aplikasi konsumen besar seperti TikTok dan Snap untuk mengatasi proliferasi gambar pelecehan seksual yang dihasilkan AI).
Melibatkan Big Tech mungkin tampak membantu dalam satu cara, tetapi kritikus cenderung melihatnya sebagai masalah juga. "Regulatory capture", di mana pemain kekuatan yang lebih besar di industri mengambil langkah proaktif untuk membahas dan mengembangkan risiko dan perlindungan, telah menjadi tema besar lainnya di dunia baru AI yang berani, dan KTT minggu ini tidak berbeda.
"Berhati-hatilah terhadap para pemimpin AI yang mengangkat tangan dan berkata, 'saya, saya.'" Nigel Toon, CEO pembuat chip AI Graphcore, dengan cerdik menunjukkan dalam sebuah artikel yang ditulisnya tentang KTT mendatang minggu ini: "Pemerintah cenderung turun tangan dan mengambil kata-kata mereka untuk itu." (Dia tidak sepenuhnya marjinal, meskipun: dia akan menghadiri KTT sendiri.)
Pada saat yang sama, banyak orang masih memperdebatkan apakah apa yang disebut risiko eksistensial saat ini adalah latihan yang berguna dalam berpikir.
"Saya pikir retorika perbatasan dan kecerdasan buatan telah menempatkan kita dalam keadaan takut akan teknologi selama setahun terakhir," Ben Brooks, kepala kebijakan publik di Stability AI, mengatakan pada diskusi panel di Royal Society, mengutip eksperimen pemikiran "Paperclip Maxing" – di mana AI dapat menghancurkan dunia dengan membuat penjepit kertas tanpa memperhatikan kebutuhan atau keselamatan manusia – sebagai contoh dari pendekatan yang sengaja membatasi ini. "Mereka tidak memikirkan keadaan di mana AI dapat digunakan. Tetapi Anda dapat mengembangkannya dengan aman. Kami ingin semua orang terinspirasi oleh ini dan menyadari bahwa AI dapat dicapai dan aman untuk dilakukan. "
Yang lain kurang yakin.
Hobbhahn dari Apollo Research mengatakan, "Agar adil, saya tidak berpikir risiko eksistensial akurat. "Sebut saja risiko bencana." Mengingat laju perkembangan dalam beberapa tahun terakhir, aplikasi AI generatif telah membawa model bahasa besar ke arus utama, dan dia percaya bahwa kekhawatiran terbesar akan tetap menjadi aktor jahat yang menggunakan AI, daripada AI itu sendiri dalam kerusuhan: menggunakannya untuk perang biologis, situasi keamanan nasional, dan informasi yang salah yang dapat mengubah proses demokrasi. Semua ini, katanya, adalah area di mana dia percaya AI kemungkinan akan memainkan peran bencana.
"Pemenang Turing Award secara terbuka prihatin tentang kelangsungan hidup dan risiko bencana ... Kita benar-benar harus memikirkannya," tambahnya.
Prospek Bisnis
Meskipun ada risiko serius, Inggris juga ingin menjadikan negara itu rumah alami bagi perusahaan AI dengan menyelenggarakan percakapan besar tentang AI. Namun, beberapa analis percaya bahwa jalan untuk berinvestasi dalam AI mungkin tidak semulus yang diprediksi beberapa orang.
"Saya pikir kenyataannya mulai muncul bahwa bisnis mulai memahami berapa banyak waktu dan uang yang mereka butuhkan untuk dialokasikan ke proyek-proyek AI generatif untuk mendapatkan output yang andal yang benar-benar dapat meningkatkan produktivitas dan pendapatan," kata Avivah Litan, wakil presiden analis perusahaan di Gartner. "Meskipun mereka membuat penyesuaian berulang dan rekayasa pada proyek, mereka masih membutuhkan pengawasan manual terhadap operasi dan output. Singkatnya, output GenAI tidak cukup andal dan membutuhkan banyak sumber daya untuk membuatnya andal. Tentu saja, modelnya meningkat setiap saat, tetapi itulah keadaan pasar saat ini. Namun, pada saat yang sama, kami melihat semakin banyak proyek memasuki tahap produksi. "
Dia percaya bahwa investasi AI "pasti akan memperlambat pertumbuhan bisnis dan organisasi pemerintah yang menggunakan AI." Vendor mendorong aplikasi dan produk AI mereka, tetapi bisnis tidak dapat mengadopsinya secepat mereka didorong. Selain itu, ada banyak risiko yang terkait dengan aplikasi GenAI, seperti mendemokratisasikan akses mudah ke informasi rahasia bahkan di dalam organisasi. "
Sama seperti "transformasi digital" lebih merupakan konsep yang lambat terbakar dalam kenyataan, strategi investasi AI perusahaan juga membutuhkan lebih banyak waktu. "Butuh waktu bagi bisnis untuk mengunci kumpulan data terstruktur dan tidak terstruktur mereka dan menetapkan izin dengan benar dan efisien. Ada terlalu banyak oversharing di perusahaan yang tidak terlalu penting sampai saat itu. Litan menambahkan, "Sekarang, siapa pun dapat mengakses file apa pun yang tidak dilindungi orang lain secara memadai menggunakan perintah bahasa asli yang sederhana, seperti bahasa Inggris." "
Fakta bahwa bagaimana menyeimbangkan kepentingan komersial AI dengan masalah keamanan dan risiko yang akan dibahas Bletchley Park berbicara banyak tentang tugas di depan, tetapi juga menyoroti ketegangan situasi. Kemudian dalam konferensi, penyelenggara Bletchley dilaporkan telah bekerja untuk memperluas diskusi di luar masalah keamanan tingkat tinggi ke bidang-bidang di mana risiko mungkin benar-benar timbul, seperti perawatan kesehatan, meskipun pergeseran ini tidak dirinci dalam agenda yang diumumkan saat ini.
"Akan ada meja bundar sekitar 100 ahli, yang tidak kecil. Saya seorang kritikus, tetapi itu tidak terdengar seperti ide yang buruk," kata Neff, seorang profesor di University of Cambridge. "Sekarang, apakah regulasi global akan menjadi topik diskusi? Tentu saja tidak. Apakah kita akan menormalkan hubungan Timur-Barat? Mungkin tidak. Tapi kami datang dengan pertemuan puncak kami. Saya pikir mungkin ada beberapa peluang yang sangat menarik pada saat ini. "