Mungkin belum pernah ada teknologi yang dengan cepat menjadi konsensus komunitas ilmiah dan teknologi dan bahkan seluruh masyarakat hanya dalam beberapa bulan seperti model besar AI. Saat ini, semua raksasa teknologi dan pemerintahan besar sangat yakin bahwa AI akan mengubah dunia dan mengubah segalanya.
Namun di balik konsensus besar, masih terdapat banyak permasalahan. Di satu sisi, masalah-masalah tersebut nyata--penggantian yang terjadi, penyebaran konten palsu, dan ambang batas penggunaan yang tidak setara, dll.; di sisi lain, hal-hal tersebut merupakan jangka panjang -istilah karya seni manusia "ancaman terhadap peradaban" diungkapkan di sini. **Menurut majalah "Wired", OpenAI bahkan menetapkan mekanisme keluar dalam dokumen keuangan ketika AI menghancurkan sistem ekonomi manusia. **
Pada bulan Juli tahun ini, pada sebuah acara yang diadakan di kantor pusat IBM, Pemimpin Mayoritas Senat AS Chuck Schumer mengatakan bahwa ia akan mengadakan serangkaian konferensi kecerdasan buatan untuk “menghadirkan orang-orang terbaik dan belajar dari satu sama lain.” , cobalah untuk mencapai konsensus dan solusi, dan para senator serta staf kami dan yang lainnya hanya mendengarkan." ** Pada akhirnya, Schumer berharap untuk "meletakkan landasan bagi undang-undang kebijakan AI" berdasarkan pertukaran pada pertemuan tersebut. **
**Dua bulan kemudian, pertemuan dimulai. **22 peserta dari perusahaan teknologi terkemuka berpartisipasi dalam pertemuan tertutup tersebut. Di antaranya adalah CEO OpenAI Sam Altman, CEO NVIDIA Huang Jenxun, dan CEO Google Sundar. Pichai, CEO Meta Mark Zuckerberg dan lainnya, serta pendiri Microsoft Bill Gates dan mantan CEO Google Eric Schmidt, pemimpin teknologi Internet generasi sebelumnya.
AI harus “dikendalikan”
Tidak ada yang akan menyangkal potensi besar dari kecerdasan buatan, namun kita masih belum memiliki banyak konsensus mengenai risiko, langkah-langkah keamanan, pengawasan dan masa depan kecerdasan buatan. Satu-satunya hal yang pasti adalah bahwa manusia tidak dapat sepenuhnya membiarkan pertumbuhan brutal dari kecerdasan buatan. intelijen.
Setelah meninggalkan pertemuan tertutup pertama, CEO Tesla, SpaceX, dan Neuralink Elon Musk secara terbuka menyatakan bahwa pertemuan itu "bersejarah" dan bahwa ia mendukung gagasan untuk mendirikan badan baru untuk mengatur kecerdasan buatan., dan menekankan kembali risiko besar yang ditimbulkan oleh kecerdasan buatan.
"Konsekuensi dari kesalahan AI sangatlah serius, jadi kita harus bersikap proaktif, bukan reaktif. Masalahnya sebenarnya adalah risiko peradaban, yang memiliki potensi risiko terhadap seluruh umat manusia di seluruh dunia."
Musk tidak menguraikan secara mendalam tentang dampak buruk apa yang disebut kecerdasan buatan terhadap peradaban manusia, namun ketika kecerdasan buatan menjadi lebih terlibat dalam pengelolaan dan pengendalian jaringan listrik, sistem pasokan air, dan sistem kendaraan, kesalahan akan menyebabkan a banyak masalah . Ilmuwan komputer dan peneliti kecerdasan buatan Deb Raji juga menyebutkan bahwa keputusan bias yang diambil oleh kecerdasan buatan mempengaruhi semua aspek masyarakat.
Terlebih lagi, ada juga kekhawatiran lama manusia mengenai kecerdasan buatan.
Namun bagaimana kita dapat mengurangi dan mencegah risiko yang ditimbulkan oleh kecerdasan buatan? Presiden Microsoft Brad Smith mengusulkan agar kita perlu menetapkan "rem darurat" terhadap risiko besar yang mungkin ditimbulkan oleh kecerdasan buatan, terutama dalam sistem kecerdasan buatan yang mengelola infrastruktur penting seperti jaringan listrik dan sistem air. ancaman yang ditakuti banyak orang masih berupa fiksi ilmiah dan tidak menjadi kenyataan baru."**
Brad Smith/Foto
Smith percaya bahwa sama seperti pemutus sirkuit yang terdapat di setiap gedung dan rumah yang dapat segera menghentikan pengoperasian sistem listrik jika diperlukan, sistem AI juga memerlukan “rem darurat” serupa untuk memastikan bahwa manusia tidak terpengaruh oleh sistem tersebut.
Secara kebetulan, William Dally, kepala ilmuwan dan wakil presiden senior NVIDIA, juga menunjukkan bahwa kunci kemungkinan kesalahan dan kerugian serius yang disebabkan oleh kecerdasan buatan sebagai program komputer terletak pada "partisipasi manusia", yaitu manusia ditempatkan di dalamnya. Dalam mata rantai utama pekerjaan kecerdasan buatan, beberapa kekuatan pengambilan keputusan dari kecerdasan buatan dibatasi. **
William Daly, foto/NVIDIA
“Jadi menurut saya, selama kita berhati-hati dalam menggunakan AI, dan menempatkan manusia pada titik kritis, kita dapat memastikan bahwa AI tidak mengambil alih dan mematikan jaringan listrik kita atau menyebabkan pesawat jatuh dari angkasa. ," kata Daly.
**Apakah AI open source akan menjadi kotak Pandora? **
Pada akhir tahun lalu, ketika ChatGPT pertama kali menjadi populer di kalangan teknologi, beberapa orang menyatakan kekhawatirannya tentang model AI yang digunakan untuk perilaku jahat seperti penipuan. Open source tampaknya meningkatkan risiko "penyalahgunaan".
Salah satu perdebatan dalam konferensi tersebut berkisar pada model AI “open source” yang dapat diunduh dan dimodifikasi oleh publik. Kode terbuka model ini memungkinkan perusahaan dan peneliti menggunakan teknologi AI serupa dengan ChatGPT tanpa menginvestasikan sejumlah besar uang dan sumber daya dalam pelatihan.
Namun pelaku kejahatan juga dapat menyalahgunakan sistem AI open source, termasuk OpenAI, yang telah menghentikan open source sejak GPT-3.5. Salah satu pendiri dan kepala ilmuwan OpenAI Ilya Sutskever berkata, "Dalam beberapa tahun, semua orang akan melihat dengan jelas bahwa kecerdasan buatan open source Kecerdasan itu tidak bijaksana.”
Ilya Sutskever berbicara dengan Jen-Hsun Huang di GDC, foto/NVIDIA
**Ketika ditanya alasannya, dia berkata, "Model-model ini sangat kuat dan akan menjadi semakin kuat, dan pada titik tertentu, jika seseorang menginginkannya, akan mudah untuk menimbulkan banyak kerusakan dengan model-model ini." **
Selain itu, Mustafa Suleyman, salah satu pendiri DeepMind dan CEO Inflection AI, juga menyebutkan risiko open source belum lama ini.Dia menunjukkan bahwa masalah utama AI open source adalah bahwa "difusi kekuatan yang cepat" akan memungkinkan satu individu menyebabkan kerugian yang belum pernah terjadi sebelumnya pada dunia dan berdampak, "Dalam 20 tahun ke depan, open source yang naif hampir pasti akan menyebabkan bencana." **
Mustafa Suleiman, 图/DeepMind
Namun, Meta jelas tidak setuju dengan pernyataan ini.**CEO Meta Zuckerberg membantah bahwa open source akan "mendemokratisasikan AI, membantu persaingan yang sehat, dan mendorong inovasi individu dan perusahaan." **Tetapi pada saat yang sama, dia juga mengatakan bahwa model open source mungkin membawa bahaya, namun Meta membangun teknologi ini seaman mungkin.
Ketika AI bertemu dengan open source, hal ini masih menjadi pertanyaan terbuka.
Tulis di akhir
2104 tahun yang lalu, tujuh tahun setelah kematian Kaisar Wu dari Dinasti Han, istana Han mengadakan konsultasi kebijakan yang belum pernah terjadi sebelumnya. Salah satu isu utamanya adalah penghapusan dan revisi kebijakan monopoli garam dan besi anggur milik negara yang diterapkan pada masa Kaisar. Periode Wu Untuk tujuan ini, " "Lebih dari enam puluh orang yang berbudi luhur dan sastrawan" serta pejabat pemerintah seperti Sang Hongyang, sensor kekaisaran, kemudian disebut "Konferensi Garam dan Besi". Namun Konferensi Garam dan Besi ini pada intinya membahas arah kebijakan ekonomi Dinasti Han.
Meskipun temanya berbeda dan lingkungan zamannya sangat berbeda,** apakah itu Konferensi Garam dan Besi lebih dari 2.000 tahun yang lalu atau Forum Wawasan Kecerdasan Buatan saat ini, kita semua menghadapi masalah besar, dan kami berharap dapat berkomunikasi melalui debat “kelompok talenta” sebagai dasar peraturan perundang-undangan. **
Gambar/Google
Dalam artikel terbaru untuk memperingati ulang tahun Google yang ke-25, CEO Google saat ini Sundar Pichai menulis:
(Google) Bergabunglah dalam perdebatan penting tentang bagaimana teknologi ini akan membentuk masyarakat kita, lalu bekerja sama untuk menemukan jawabannya. Kecerdasan buatan adalah bagian penting dari hal ini. Meskipun kami sangat antusias dengan potensi AI untuk memberikan manfaat bagi manusia dan masyarakat,** kami tahu bahwa AI, seperti teknologi tahap awal lainnya, memiliki kompleksitas dan risiko. Pengembangan dan penggunaan AI harus mengatasi risiko-risiko ini dan membantu mengembangkan teknologi secara bertanggung jawab. **
Beberapa hari kemudian, delapan perusahaan, termasuk Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI, dan Stability, menjadi perusahaan gelombang kedua yang menandatangani perjanjian untuk "mengembangkan teknologi kecerdasan buatan (AI) secara bertanggung jawab." Seringkali, ketika dihadapkan pada masalah yang tidak dapat diselesaikan oleh satu individu atau satu perusahaan/pemerintah, kita harus menyadari nilai dari “usaha bersama”.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Apa yang dikatakan para raksasa AI global ketika mereka berkumpul untuk Konferensi Garam dan Besi di Era AI?
Sumber: Teknologi Lei
Mungkin belum pernah ada teknologi yang dengan cepat menjadi konsensus komunitas ilmiah dan teknologi dan bahkan seluruh masyarakat hanya dalam beberapa bulan seperti model besar AI. Saat ini, semua raksasa teknologi dan pemerintahan besar sangat yakin bahwa AI akan mengubah dunia dan mengubah segalanya.
Namun di balik konsensus besar, masih terdapat banyak permasalahan. Di satu sisi, masalah-masalah tersebut nyata--penggantian yang terjadi, penyebaran konten palsu, dan ambang batas penggunaan yang tidak setara, dll.; di sisi lain, hal-hal tersebut merupakan jangka panjang -istilah karya seni manusia "ancaman terhadap peradaban" diungkapkan di sini. **Menurut majalah "Wired", OpenAI bahkan menetapkan mekanisme keluar dalam dokumen keuangan ketika AI menghancurkan sistem ekonomi manusia. **
Pada bulan Juli tahun ini, pada sebuah acara yang diadakan di kantor pusat IBM, Pemimpin Mayoritas Senat AS Chuck Schumer mengatakan bahwa ia akan mengadakan serangkaian konferensi kecerdasan buatan untuk “menghadirkan orang-orang terbaik dan belajar dari satu sama lain.” , cobalah untuk mencapai konsensus dan solusi, dan para senator serta staf kami dan yang lainnya hanya mendengarkan." ** Pada akhirnya, Schumer berharap untuk "meletakkan landasan bagi undang-undang kebijakan AI" berdasarkan pertukaran pada pertemuan tersebut. **
**Dua bulan kemudian, pertemuan dimulai. **22 peserta dari perusahaan teknologi terkemuka berpartisipasi dalam pertemuan tertutup tersebut. Di antaranya adalah CEO OpenAI Sam Altman, CEO NVIDIA Huang Jenxun, dan CEO Google Sundar. Pichai, CEO Meta Mark Zuckerberg dan lainnya, serta pendiri Microsoft Bill Gates dan mantan CEO Google Eric Schmidt, pemimpin teknologi Internet generasi sebelumnya.
AI harus “dikendalikan”
Tidak ada yang akan menyangkal potensi besar dari kecerdasan buatan, namun kita masih belum memiliki banyak konsensus mengenai risiko, langkah-langkah keamanan, pengawasan dan masa depan kecerdasan buatan. Satu-satunya hal yang pasti adalah bahwa manusia tidak dapat sepenuhnya membiarkan pertumbuhan brutal dari kecerdasan buatan. intelijen.
Setelah meninggalkan pertemuan tertutup pertama, CEO Tesla, SpaceX, dan Neuralink Elon Musk secara terbuka menyatakan bahwa pertemuan itu "bersejarah" dan bahwa ia mendukung gagasan untuk mendirikan badan baru untuk mengatur kecerdasan buatan., dan menekankan kembali risiko besar yang ditimbulkan oleh kecerdasan buatan.
"Konsekuensi dari kesalahan AI sangatlah serius, jadi kita harus bersikap proaktif, bukan reaktif. Masalahnya sebenarnya adalah risiko peradaban, yang memiliki potensi risiko terhadap seluruh umat manusia di seluruh dunia."
Musk tidak menguraikan secara mendalam tentang dampak buruk apa yang disebut kecerdasan buatan terhadap peradaban manusia, namun ketika kecerdasan buatan menjadi lebih terlibat dalam pengelolaan dan pengendalian jaringan listrik, sistem pasokan air, dan sistem kendaraan, kesalahan akan menyebabkan a banyak masalah . Ilmuwan komputer dan peneliti kecerdasan buatan Deb Raji juga menyebutkan bahwa keputusan bias yang diambil oleh kecerdasan buatan mempengaruhi semua aspek masyarakat.
Terlebih lagi, ada juga kekhawatiran lama manusia mengenai kecerdasan buatan.
Namun bagaimana kita dapat mengurangi dan mencegah risiko yang ditimbulkan oleh kecerdasan buatan? Presiden Microsoft Brad Smith mengusulkan agar kita perlu menetapkan "rem darurat" terhadap risiko besar yang mungkin ditimbulkan oleh kecerdasan buatan, terutama dalam sistem kecerdasan buatan yang mengelola infrastruktur penting seperti jaringan listrik dan sistem air. ancaman yang ditakuti banyak orang masih berupa fiksi ilmiah dan tidak menjadi kenyataan baru."**
Brad Smith/Foto
Smith percaya bahwa sama seperti pemutus sirkuit yang terdapat di setiap gedung dan rumah yang dapat segera menghentikan pengoperasian sistem listrik jika diperlukan, sistem AI juga memerlukan “rem darurat” serupa untuk memastikan bahwa manusia tidak terpengaruh oleh sistem tersebut.
Secara kebetulan, William Dally, kepala ilmuwan dan wakil presiden senior NVIDIA, juga menunjukkan bahwa kunci kemungkinan kesalahan dan kerugian serius yang disebabkan oleh kecerdasan buatan sebagai program komputer terletak pada "partisipasi manusia", yaitu manusia ditempatkan di dalamnya. Dalam mata rantai utama pekerjaan kecerdasan buatan, beberapa kekuatan pengambilan keputusan dari kecerdasan buatan dibatasi. **
William Daly, foto/NVIDIA
“Jadi menurut saya, selama kita berhati-hati dalam menggunakan AI, dan menempatkan manusia pada titik kritis, kita dapat memastikan bahwa AI tidak mengambil alih dan mematikan jaringan listrik kita atau menyebabkan pesawat jatuh dari angkasa. ," kata Daly.
**Apakah AI open source akan menjadi kotak Pandora? **
Pada akhir tahun lalu, ketika ChatGPT pertama kali menjadi populer di kalangan teknologi, beberapa orang menyatakan kekhawatirannya tentang model AI yang digunakan untuk perilaku jahat seperti penipuan. Open source tampaknya meningkatkan risiko "penyalahgunaan".
Salah satu perdebatan dalam konferensi tersebut berkisar pada model AI “open source” yang dapat diunduh dan dimodifikasi oleh publik. Kode terbuka model ini memungkinkan perusahaan dan peneliti menggunakan teknologi AI serupa dengan ChatGPT tanpa menginvestasikan sejumlah besar uang dan sumber daya dalam pelatihan.
Namun pelaku kejahatan juga dapat menyalahgunakan sistem AI open source, termasuk OpenAI, yang telah menghentikan open source sejak GPT-3.5. Salah satu pendiri dan kepala ilmuwan OpenAI Ilya Sutskever berkata, "Dalam beberapa tahun, semua orang akan melihat dengan jelas bahwa kecerdasan buatan open source Kecerdasan itu tidak bijaksana.”
Ilya Sutskever berbicara dengan Jen-Hsun Huang di GDC, foto/NVIDIA
**Ketika ditanya alasannya, dia berkata, "Model-model ini sangat kuat dan akan menjadi semakin kuat, dan pada titik tertentu, jika seseorang menginginkannya, akan mudah untuk menimbulkan banyak kerusakan dengan model-model ini." **
Selain itu, Mustafa Suleyman, salah satu pendiri DeepMind dan CEO Inflection AI, juga menyebutkan risiko open source belum lama ini.Dia menunjukkan bahwa masalah utama AI open source adalah bahwa "difusi kekuatan yang cepat" akan memungkinkan satu individu menyebabkan kerugian yang belum pernah terjadi sebelumnya pada dunia dan berdampak, "Dalam 20 tahun ke depan, open source yang naif hampir pasti akan menyebabkan bencana." **
Mustafa Suleiman, 图/DeepMind
Namun, Meta jelas tidak setuju dengan pernyataan ini.**CEO Meta Zuckerberg membantah bahwa open source akan "mendemokratisasikan AI, membantu persaingan yang sehat, dan mendorong inovasi individu dan perusahaan." **Tetapi pada saat yang sama, dia juga mengatakan bahwa model open source mungkin membawa bahaya, namun Meta membangun teknologi ini seaman mungkin.
Ketika AI bertemu dengan open source, hal ini masih menjadi pertanyaan terbuka.
Tulis di akhir
2104 tahun yang lalu, tujuh tahun setelah kematian Kaisar Wu dari Dinasti Han, istana Han mengadakan konsultasi kebijakan yang belum pernah terjadi sebelumnya. Salah satu isu utamanya adalah penghapusan dan revisi kebijakan monopoli garam dan besi anggur milik negara yang diterapkan pada masa Kaisar. Periode Wu Untuk tujuan ini, " "Lebih dari enam puluh orang yang berbudi luhur dan sastrawan" serta pejabat pemerintah seperti Sang Hongyang, sensor kekaisaran, kemudian disebut "Konferensi Garam dan Besi". Namun Konferensi Garam dan Besi ini pada intinya membahas arah kebijakan ekonomi Dinasti Han.
Meskipun temanya berbeda dan lingkungan zamannya sangat berbeda,** apakah itu Konferensi Garam dan Besi lebih dari 2.000 tahun yang lalu atau Forum Wawasan Kecerdasan Buatan saat ini, kita semua menghadapi masalah besar, dan kami berharap dapat berkomunikasi melalui debat “kelompok talenta” sebagai dasar peraturan perundang-undangan. **
Gambar/Google
Dalam artikel terbaru untuk memperingati ulang tahun Google yang ke-25, CEO Google saat ini Sundar Pichai menulis:
(Google) Bergabunglah dalam perdebatan penting tentang bagaimana teknologi ini akan membentuk masyarakat kita, lalu bekerja sama untuk menemukan jawabannya. Kecerdasan buatan adalah bagian penting dari hal ini. Meskipun kami sangat antusias dengan potensi AI untuk memberikan manfaat bagi manusia dan masyarakat,** kami tahu bahwa AI, seperti teknologi tahap awal lainnya, memiliki kompleksitas dan risiko. Pengembangan dan penggunaan AI harus mengatasi risiko-risiko ini dan membantu mengembangkan teknologi secara bertanggung jawab. **
Beberapa hari kemudian, delapan perusahaan, termasuk Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI, dan Stability, menjadi perusahaan gelombang kedua yang menandatangani perjanjian untuk "mengembangkan teknologi kecerdasan buatan (AI) secara bertanggung jawab." Seringkali, ketika dihadapkan pada masalah yang tidak dapat diselesaikan oleh satu individu atau satu perusahaan/pemerintah, kita harus menyadari nilai dari “usaha bersama”.