Artikel ini pertama kali dipublikasikan di Titanium Media APP
Andrew Ng, pendiri Google Brain dan seorang profesor di Stanford University, menunjukkan bahwa mengatur AI menghancurkan inovasi. Musk, di sisi lain, percaya bahwa AI lebih berbahaya daripada senjata nuklir (bom nuklir).
Dengan pemerintah AS mengeluarkan peraturan AI baru, telah terjadi kebangkitan kontroversi baru-baru ini atas regulasi model AI besar.
Pada pagi hari tanggal 2 November, waktu Beijing, ketika Sam Altman, "bapak ChatGPT" dan CEO OpenAI, berpartisipasi dalam sebuah acara di Cambridge, Inggris, ia ditentang keras oleh aktivis anti-AI, dan "dihancurkan" di depannya di auditorium, dan beberapa pengunjuk rasa menuntut agar kompetisi AI dihentikan.
Beberapa pengunjuk rasa bahkan menggantung spanduk dan menjatuhkan selebaran di balkon, dan pemandangannya kacau untuk sementara waktu. Tentu saja, Ultraman sangat tenang dan menyelesaikan acara dengan tenang.
Dalam pidatonya, Altman mengatakan bahwa bahkan jika model AI cukup kuat di masa depan, mereka akan membutuhkan daya komputasi yang besar untuk dijalankan. Jika ambang batas untuk daya komputasi dinaikkan, risiko kejahatan yang disengaja dapat dikurangi, dan akuntabilitas juga dapat ditingkatkan. Sebelumnya, salah satu pendiri OpenAI Ilya Sutskever secara blak-blakan mengatakan bahwa ChatGPT mungkin sadar, dan AI akan memiliki potensi risiko.
Pada saat yang sama, Yann LeCun, kepala ilmuwan Meta AI dan pemenang "Turing Award" 2018, baru-baru ini berulang kali mengkritik Altman, CEO DeepMind Demis Hassabis, CEO Anthropic dan lainnya di platform sosial untuk "lobi perusahaan skala besar" kepada pemerintah AS, yang pada akhirnya dapat menyebabkan hanya beberapa raksasa teknologi besar yang mampu mengendalikan teknologi AI.
Yang Likun menunjukkan bahwa orang-orang ini menyebarkan ketakutan. "Jika mereka berhasil, Anda dan saya pasti akan menyebabkan bencana – segelintir perusahaan akan mengendalikan AI."
Selanjutnya, Hassabis membalas, "Saya sangat tidak setuju dengan sebagian besar pernyataan Yang Likun. Dia menunjukkan bahwa Google DeepMind tidak berusaha mencapai "penangkapan peraturan" ketika membahas cara terbaik untuk menggunakan AI, dan lebih penting untuk mulai membahas bagaimana mengatur AI super potensial sekarang.
Pada saat persaingan untuk model besar AI menjadi semakin sengit, industri telah memasuki "huru-hara", dan semua orang terlibat dalam pertempuran sengit seputar topik raksasa yang mengendalikan AI.
AI adalah ancaman terbesar bagi kemanusiaan? Musk: AI akan lebih pintar dari manusia
Dalam 12 bulan terakhir, ChatGPT telah menggemparkan dunia, dan AI generatif telah sepenuhnya menjadi topik sentral di dunia teknologi tahun ini.
Sekarang, Apple merangkul AI juga.
Pada konferensi pendapatan kuartal keempat pada pagi hari tanggal 3 November, waktu Beijing, CEO Apple Tim Cook mengatakan bahwa Apple telah melakukan berbagai pekerjaan dalam AI generatif dan menginvestasikan banyak uang untuk melakukannya secara bertanggung jawab. "Seiring waktu, Anda akan melihat bahwa produk Apple dengan teknologi ini pada intinya akan berkembang."
Sebelumnya Bloomberg melaporkan bahwa Apple diam-diam mengejar pesaing di bidang AI, di satu sisi, telah meningkatkan rekrutmen terkait AI, di sisi lain, telah mempercepat kematangan dan implementasi teknologi AI melalui merger dan akuisisi startup, dan telah mulai mengembangkan model bahasa besar secara internal, secara internal dikenal sebagai AppleGPT.
Pada saat yang sama, tim xAI yang didirikan oleh Elon Musk, orang terkaya di dunia dalam teknologi dan CEO Tesla, dengan kekayaan bersih $ 220 miliar, juga dikabarkan memiliki kumpulan informasi produk pertama, termasuk Grok terkait dengan pengambilan informasi AI, IDE workstation kata cepat, dll. Selain itu, raksasa teknologi seperti Google, Microsoft, dan Amazon juga berpartisipasi dalam gelombang AI.
Namun, para pemimpin industri, termasuk Elon Musk dan Ultraman, baru-baru ini berbicara tentang potensi mematikan AI dan risiko AI setiap minggu. Ini tampaknya telah menjadi "konsensus lingkaran kecil".
Pada 2 November, Musk mengatakan selama KTT AI Inggris bahwa AI adalah salah satu ancaman terbesar bagi umat manusia, dan AI akan menjadi kekuatan paling mengganggu dalam sejarah dan akan lebih pintar daripada manusia. Dia percaya bahwa AI suatu hari akan membuat semua orang kehilangan pekerjaan.
"AI memiliki kemampuan untuk melakukan apa saja, dan saya tidak tahu apakah itu akan membuat manusia merasa nyaman atau tidak nyaman. Jika Anda menginginkan peri ajaib, AI akan memenuhi semua keinginan Anda, dan tidak ada batasan, dan tidak akan ada batasan hanya 3 keinginan, yang bisa baik atau buruk, dan tantangan di masa depan adalah bagaimana kita menemukan makna hidup. Kata Musk.
Musk telah berulang kali memperingatkan bahwa AI lebih berbahaya daripada senjata nuklir (bom nuklir).
Ultraman juga berulang kali mengatakan bahwa pemerintah mengendalikannya. Dalam 10 tahun, dunia mungkin memiliki sistem AI (AI) yang kuat, tetapi sekarang, umat manusia harus siap untuk ini.
Pemerintah AS juga mulai mengatur keamanan AI. Pada 30 Oktober, Presiden A.S. Joe Biden menandatangani perintah eksekutif baru tentang AI, mengambil tindakan paling komprehensif yang pernah ada ke arah standar keselamatan AI, melindungi privasi orang Amerika, mempromosikan keadilan dan hak-hak sipil, menjaga kepentingan konsumen dan pekerja, mempromosikan inovasi dan persaingan, dan memajukan kepemimpinan A.S. di luar negeri, antara lain, untuk mengelola potensi risiko AI.
Perlu disebutkan bahwa dalam tatanan eksekutif baru, dukungan untuk raksasa AI telah diperkuat, seperti mendukung penelitian AI melalui pendanaan penelitian dan cara lain, menarik bakat asing, dll.
Satu batu membangkitkan seribu gelombang.
Selanjutnya, pakar akademis AI seperti "Turing Three" melakukan diskusi panas tentang pengawasan AI, yang sebagian besar dibagi menjadi dua faksi: orang-orang yang diwakili oleh Yang Likun dan Ng Enda percaya bahwa mobil ingin mengerem sebelum dibangun, dan AI belum mencapai tahap pengawasan; Namun, orang-orang termasuk Elon Musk, Altman, dan Geoffrey Hinton, "bapak pembelajaran mendalam", percaya bahwa AI masih sangat berbahaya.
Di antara mereka, Yang Likun dengan blak-blakan mengatakan bahwa jika Amerika Serikat terus mendukung penelitian AI raksasa teknologi, pada akhirnya hanya dapat menyebabkan beberapa raksasa teknologi besar yang mampu mengendalikan AI, yang pasti akan menyebabkan risiko dan bencana yang sangat besar.
"Seperti banyak orang, saya adalah pendukung besar platform AI terbuka. Tetapi saya juga percaya bahwa masa depan AI adalah kombinasi dari kreativitas orang, demokrasi, kekuatan pasar, dan regulasi. Yang Likun menulis di platform X.
Andrew Ng, pendiri Google Brain dan seorang profesor di Stanford University, juga mendukung Yang. Dia mengatakan itu adalah "konspirasi" untuk memaksakan peraturan yang kuat pada pengembangan teknologi AI.
"Ini akan menghancurkan inovasi," kata Ng, "dan pasti ada beberapa perusahaan teknologi besar yang enggan bersaing dengan AI open source, sehingga mereka menciptakan ketakutan bahwa AI akan menyebabkan kepunahan manusia." Ini selalu menjadi senjata legislatif yang dicari oleh pelobi, tetapi sangat berbahaya bagi komunitas open source. Dengan arah regulasi di banyak negara, saya pikir tidak ada regulasi yang lebih baik daripada sekarang. "
Tetapi pada saat yang sama, pada tanggal 25 Oktober, pemenang Turing Award Yoshua Bengio, "bapak pembelajaran mendalam" Geoffrey Hinton, Andrew Yao, Zhang Yaqin dan pakar industri AI lainnya juga menandatangani surat bersama, yang terus menyerukan penguatan pengawasan pengembangan teknologi AI, dan percaya bahwa langkah-langkah tata kelola yang mendesak harus diambil sebelum sistem ini dikembangkan. dan perubahan besar menuju praktik yang aman dan etis dalam R&D AI.
Saat ini, pertempuran sengit antara petinggi akademis atas peraturan keselamatan AI terus berlanjut. AI sekarang jauh di dalam segala hal mulai dari mesin pencari hingga jejaring sosial hingga keuangan, sehingga para ahli telah menyuarakan keprihatinan serius tentang tantangan perlombaan senjata AI ini, risiko keamanan, dan pemalsuan yang dalam.
Yoshua Bengio、Geoffrey Hinton、Yann LeCun
Dan banyak netizen khawatir apakah hubungan antara para petinggi akan terpengaruh oleh kontroversi tersebut. Yang Likun memposting foto dengan Yoshua Bengio dan Hinton beberapa waktu lalu, yang tampaknya menanggapi pertanyaan ini dengan baik.
Pada 3 November, pemerintah AS mengatakan telah mendirikan AI Security Institute, berharap untuk mengembangkan standar dan aturan untuk mengatur masa depan AI melalui kapasitas legislatif Departemen Perdagangan AS dan lembaga lainnya.
Akselerasi regulasi dalam 10 tahun ke depan manusia dapat sepenuhnya memasuki era kecerdasan
Pada tanggal 1 November, pada KTT Keamanan AI pertama yang diadakan di Bletchley Park, London, Inggris, "Deklarasi Bletchley" dirilis, menyatakan bahwa AI membawa peluang besar dan memiliki potensi untuk meningkatkan kesejahteraan manusia, perdamaian dan kemakmuran, tetapi pada saat yang sama, AI juga menimbulkan risiko signifikan, yang perlu ditangani melalui kerja sama internasional.
Pada pertemuan tersebut, lebih dari 25 negara dan wilayah, termasuk Amerika Serikat, China dan Uni Eropa, menandatangani deklarasi tersebut. Perdana Menteri Inggris Rishi Sunak mengatakan, "Ini adalah pencapaian penting karena kekuatan AI paling kuat di dunia mengakui urgensi 'memahami risiko AI' untuk membantu mengamankan masa depan jangka panjang generasi kita berikutnya." Sebagai pemimpin, kami memiliki tanggung jawab untuk mengambil tindakan dan mengambil langkah-langkah untuk melindungi orang, dan itulah yang kami lakukan. "
Deklarasi tersebut menyatakan bahwa AI menimbulkan risiko yang signifikan, termasuk di bidang kehidupan sehari-hari, dan bahwa "semua masalah sangat penting, dan kami menyadari kebutuhan dan urgensi untuk mengatasinya." "
"Untuk mencapai hal ini, kami menegaskan bahwa AI harus dirancang, dikembangkan, digunakan, dan digunakan dengan cara yang aman, berpusat pada manusia, dapat dipercaya, dan bertanggung jawab untuk kepentingan semua." Banyak risiko yang ditimbulkan oleh AI bersifat internasional dan paling baik ditangani melalui kerja sama internasional – mengidentifikasi risiko keamanan AI yang menjadi perhatian bersama dan mendukung jaringan penelitian ilmu keamanan AI mutakhir yang inklusif secara internasional, kata deklarasi itu.
Pada tanggal 3 November, di "Forum Perbatasan Kecerdasan Buatan Generasi Baru" yang diadakan oleh Universitas Peking, Huang Tiejun, seorang profesor di Sekolah Ilmu Komputer Universitas Peking dan dekan Akademi Kecerdasan Buatan Beijing, mengatakan bahwa kontroversi saat ini adalah bahwa pemahaman dasar setiap orang tentang AI berbeda, dan banyak orang yang terlibat dalam pemikiran ilmiah tidak percaya bahwa kecerdasan buatan umum (AGI) akan terwujud, sementara pemikiran teknis lain, termasuk Yang Likun, percaya bahwa pengembangan AI layak.
"Ini adalah dua cara berpikir yang sama sekali berbeda, dan tidak ada yang bisa meyakinkan siapa pun. Oleh karena itu, di balik kontroversi, semua orang melihat masalah ini dari posisi yang sama sekali berbeda dan cara berpikir yang berbeda. Huang Tiejun berkata dalam pidatonya.
Untuk pengembangan teknologi model besar AI di masa depan, Huang Tiejun memberikan harapan selama 3 tahun, 10 tahun dan 20 tahun.
Dalam tiga tahun ke depan, model besar akan diperluas ke kecerdasan umum seperti penglihatan, pendengaran, kecerdasan yang diwujudkan, dan tindakan, dan skalanya akan menjadi lebih besar dan lebih kecil, menjadi "otak" kecerdasan yang diwujudkan; Bahasa biasa ditingkatkan menjadi bahasa ilmiah, dan kecerdasan buatan memecahkan masalah ilmiah utama.
Dalam 10 tahun ke depan, umat manusia akan memasuki era kecerdasan (kemampuan) secara menyeluruh, seperti revolusi industri untuk membebaskan kekuatan fisik, seperti revolusi kekuatan untuk menyelesaikan sirkulasi energi, dan pembangunan ilmu pengetahuan dan teknologi, ekonomi dan ekologi sosial dengan kecerdasan sebagai intinya akan selesai.
Dalam 20 tahun ke depan: model besar saat ini adalah kecerdasan statis berbasis data, masa depan adalah kecerdasan dinamis yang didorong oleh lingkungan spatio-temporal, dan pembawa cerdas ditingkatkan ke jaringan saraf spiking seperti otak; Pada tahun 2045, struktural otak-meniru, fungsional otak-seperti, dan kinerja-super-otak, AGI fisik akan tiba.
Selain itu, keamanan Al setidaknya harus diberikan kepentingan yang sama, jika tidak kemanusiaan berada pada risiko besar.
Dalam pandangan Huang Tiejun, dalam 10 tahun ke depan, seluruh ekonomi, masyarakat, ilmu pengetahuan dan teknologi dunia dapat mengalami perubahan besar, kecerdasan akan menjadi elemen dasar operasi sosial, sama seperti listrik saat ini ada di mana-mana, dunia akan terbentuk. Pada tahun 2045, di bawah teknologi AI, manusia dapat mencapai data cerdas real-time, dan itu akan ditingkatkan secara berulang, dan otak serta pengambilan keputusan selanjutnya juga akan berubah.
"Saya pikir sebelum 2045, semua inspirasi dan kemampuan inovasi seperti kita akan muncul pada non-organisme, tetapi jika itu terjadi, itu akan menjadi risiko besar, apakah kita manusia harus membuat opsi ini, atau apakah itu bisa sedikit lebih lambat, ini perlu banyak didiskusikan." Huang Tiejun berkata di akhir pidatonya.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Pidato Cambridge tentang "bapak ChatGPT" diboikot, dan para petinggi akademis berjuang keras untuk keamanan AI
Sumber artikel: Titanium Media
Editor: Ma Jinnan
Artikel ini pertama kali dipublikasikan di Titanium Media APP
Dengan pemerintah AS mengeluarkan peraturan AI baru, telah terjadi kebangkitan kontroversi baru-baru ini atas regulasi model AI besar.
Pada pagi hari tanggal 2 November, waktu Beijing, ketika Sam Altman, "bapak ChatGPT" dan CEO OpenAI, berpartisipasi dalam sebuah acara di Cambridge, Inggris, ia ditentang keras oleh aktivis anti-AI, dan "dihancurkan" di depannya di auditorium, dan beberapa pengunjuk rasa menuntut agar kompetisi AI dihentikan.
Dalam pidatonya, Altman mengatakan bahwa bahkan jika model AI cukup kuat di masa depan, mereka akan membutuhkan daya komputasi yang besar untuk dijalankan. Jika ambang batas untuk daya komputasi dinaikkan, risiko kejahatan yang disengaja dapat dikurangi, dan akuntabilitas juga dapat ditingkatkan. Sebelumnya, salah satu pendiri OpenAI Ilya Sutskever secara blak-blakan mengatakan bahwa ChatGPT mungkin sadar, dan AI akan memiliki potensi risiko.
Pada saat yang sama, Yann LeCun, kepala ilmuwan Meta AI dan pemenang "Turing Award" 2018, baru-baru ini berulang kali mengkritik Altman, CEO DeepMind Demis Hassabis, CEO Anthropic dan lainnya di platform sosial untuk "lobi perusahaan skala besar" kepada pemerintah AS, yang pada akhirnya dapat menyebabkan hanya beberapa raksasa teknologi besar yang mampu mengendalikan teknologi AI.
Yang Likun menunjukkan bahwa orang-orang ini menyebarkan ketakutan. "Jika mereka berhasil, Anda dan saya pasti akan menyebabkan bencana – segelintir perusahaan akan mengendalikan AI."
Pada saat persaingan untuk model besar AI menjadi semakin sengit, industri telah memasuki "huru-hara", dan semua orang terlibat dalam pertempuran sengit seputar topik raksasa yang mengendalikan AI.
AI adalah ancaman terbesar bagi kemanusiaan? Musk: AI akan lebih pintar dari manusia
Dalam 12 bulan terakhir, ChatGPT telah menggemparkan dunia, dan AI generatif telah sepenuhnya menjadi topik sentral di dunia teknologi tahun ini.
Sekarang, Apple merangkul AI juga.
Pada konferensi pendapatan kuartal keempat pada pagi hari tanggal 3 November, waktu Beijing, CEO Apple Tim Cook mengatakan bahwa Apple telah melakukan berbagai pekerjaan dalam AI generatif dan menginvestasikan banyak uang untuk melakukannya secara bertanggung jawab. "Seiring waktu, Anda akan melihat bahwa produk Apple dengan teknologi ini pada intinya akan berkembang."
Sebelumnya Bloomberg melaporkan bahwa Apple diam-diam mengejar pesaing di bidang AI, di satu sisi, telah meningkatkan rekrutmen terkait AI, di sisi lain, telah mempercepat kematangan dan implementasi teknologi AI melalui merger dan akuisisi startup, dan telah mulai mengembangkan model bahasa besar secara internal, secara internal dikenal sebagai AppleGPT.
Pada saat yang sama, tim xAI yang didirikan oleh Elon Musk, orang terkaya di dunia dalam teknologi dan CEO Tesla, dengan kekayaan bersih $ 220 miliar, juga dikabarkan memiliki kumpulan informasi produk pertama, termasuk Grok terkait dengan pengambilan informasi AI, IDE workstation kata cepat, dll. Selain itu, raksasa teknologi seperti Google, Microsoft, dan Amazon juga berpartisipasi dalam gelombang AI.
Namun, para pemimpin industri, termasuk Elon Musk dan Ultraman, baru-baru ini berbicara tentang potensi mematikan AI dan risiko AI setiap minggu. Ini tampaknya telah menjadi "konsensus lingkaran kecil".
Pada 2 November, Musk mengatakan selama KTT AI Inggris bahwa AI adalah salah satu ancaman terbesar bagi umat manusia, dan AI akan menjadi kekuatan paling mengganggu dalam sejarah dan akan lebih pintar daripada manusia. Dia percaya bahwa AI suatu hari akan membuat semua orang kehilangan pekerjaan.
Musk telah berulang kali memperingatkan bahwa AI lebih berbahaya daripada senjata nuklir (bom nuklir).
Ultraman juga berulang kali mengatakan bahwa pemerintah mengendalikannya. Dalam 10 tahun, dunia mungkin memiliki sistem AI (AI) yang kuat, tetapi sekarang, umat manusia harus siap untuk ini.
Pemerintah AS juga mulai mengatur keamanan AI. Pada 30 Oktober, Presiden A.S. Joe Biden menandatangani perintah eksekutif baru tentang AI, mengambil tindakan paling komprehensif yang pernah ada ke arah standar keselamatan AI, melindungi privasi orang Amerika, mempromosikan keadilan dan hak-hak sipil, menjaga kepentingan konsumen dan pekerja, mempromosikan inovasi dan persaingan, dan memajukan kepemimpinan A.S. di luar negeri, antara lain, untuk mengelola potensi risiko AI.
Perlu disebutkan bahwa dalam tatanan eksekutif baru, dukungan untuk raksasa AI telah diperkuat, seperti mendukung penelitian AI melalui pendanaan penelitian dan cara lain, menarik bakat asing, dll.
Satu batu membangkitkan seribu gelombang.
Selanjutnya, pakar akademis AI seperti "Turing Three" melakukan diskusi panas tentang pengawasan AI, yang sebagian besar dibagi menjadi dua faksi: orang-orang yang diwakili oleh Yang Likun dan Ng Enda percaya bahwa mobil ingin mengerem sebelum dibangun, dan AI belum mencapai tahap pengawasan; Namun, orang-orang termasuk Elon Musk, Altman, dan Geoffrey Hinton, "bapak pembelajaran mendalam", percaya bahwa AI masih sangat berbahaya.
Di antara mereka, Yang Likun dengan blak-blakan mengatakan bahwa jika Amerika Serikat terus mendukung penelitian AI raksasa teknologi, pada akhirnya hanya dapat menyebabkan beberapa raksasa teknologi besar yang mampu mengendalikan AI, yang pasti akan menyebabkan risiko dan bencana yang sangat besar.
"Seperti banyak orang, saya adalah pendukung besar platform AI terbuka. Tetapi saya juga percaya bahwa masa depan AI adalah kombinasi dari kreativitas orang, demokrasi, kekuatan pasar, dan regulasi. Yang Likun menulis di platform X.
Andrew Ng, pendiri Google Brain dan seorang profesor di Stanford University, juga mendukung Yang. Dia mengatakan itu adalah "konspirasi" untuk memaksakan peraturan yang kuat pada pengembangan teknologi AI.
"Ini akan menghancurkan inovasi," kata Ng, "dan pasti ada beberapa perusahaan teknologi besar yang enggan bersaing dengan AI open source, sehingga mereka menciptakan ketakutan bahwa AI akan menyebabkan kepunahan manusia." Ini selalu menjadi senjata legislatif yang dicari oleh pelobi, tetapi sangat berbahaya bagi komunitas open source. Dengan arah regulasi di banyak negara, saya pikir tidak ada regulasi yang lebih baik daripada sekarang. "
Tetapi pada saat yang sama, pada tanggal 25 Oktober, pemenang Turing Award Yoshua Bengio, "bapak pembelajaran mendalam" Geoffrey Hinton, Andrew Yao, Zhang Yaqin dan pakar industri AI lainnya juga menandatangani surat bersama, yang terus menyerukan penguatan pengawasan pengembangan teknologi AI, dan percaya bahwa langkah-langkah tata kelola yang mendesak harus diambil sebelum sistem ini dikembangkan. dan perubahan besar menuju praktik yang aman dan etis dalam R&D AI.
Saat ini, pertempuran sengit antara petinggi akademis atas peraturan keselamatan AI terus berlanjut. AI sekarang jauh di dalam segala hal mulai dari mesin pencari hingga jejaring sosial hingga keuangan, sehingga para ahli telah menyuarakan keprihatinan serius tentang tantangan perlombaan senjata AI ini, risiko keamanan, dan pemalsuan yang dalam.
Dan banyak netizen khawatir apakah hubungan antara para petinggi akan terpengaruh oleh kontroversi tersebut. Yang Likun memposting foto dengan Yoshua Bengio dan Hinton beberapa waktu lalu, yang tampaknya menanggapi pertanyaan ini dengan baik.
Pada 3 November, pemerintah AS mengatakan telah mendirikan AI Security Institute, berharap untuk mengembangkan standar dan aturan untuk mengatur masa depan AI melalui kapasitas legislatif Departemen Perdagangan AS dan lembaga lainnya.
Akselerasi regulasi dalam 10 tahun ke depan manusia dapat sepenuhnya memasuki era kecerdasan
Pada tanggal 1 November, pada KTT Keamanan AI pertama yang diadakan di Bletchley Park, London, Inggris, "Deklarasi Bletchley" dirilis, menyatakan bahwa AI membawa peluang besar dan memiliki potensi untuk meningkatkan kesejahteraan manusia, perdamaian dan kemakmuran, tetapi pada saat yang sama, AI juga menimbulkan risiko signifikan, yang perlu ditangani melalui kerja sama internasional.
Pada pertemuan tersebut, lebih dari 25 negara dan wilayah, termasuk Amerika Serikat, China dan Uni Eropa, menandatangani deklarasi tersebut. Perdana Menteri Inggris Rishi Sunak mengatakan, "Ini adalah pencapaian penting karena kekuatan AI paling kuat di dunia mengakui urgensi 'memahami risiko AI' untuk membantu mengamankan masa depan jangka panjang generasi kita berikutnya." Sebagai pemimpin, kami memiliki tanggung jawab untuk mengambil tindakan dan mengambil langkah-langkah untuk melindungi orang, dan itulah yang kami lakukan. "
Deklarasi tersebut menyatakan bahwa AI menimbulkan risiko yang signifikan, termasuk di bidang kehidupan sehari-hari, dan bahwa "semua masalah sangat penting, dan kami menyadari kebutuhan dan urgensi untuk mengatasinya." "
"Untuk mencapai hal ini, kami menegaskan bahwa AI harus dirancang, dikembangkan, digunakan, dan digunakan dengan cara yang aman, berpusat pada manusia, dapat dipercaya, dan bertanggung jawab untuk kepentingan semua." Banyak risiko yang ditimbulkan oleh AI bersifat internasional dan paling baik ditangani melalui kerja sama internasional – mengidentifikasi risiko keamanan AI yang menjadi perhatian bersama dan mendukung jaringan penelitian ilmu keamanan AI mutakhir yang inklusif secara internasional, kata deklarasi itu.
Pada tanggal 3 November, di "Forum Perbatasan Kecerdasan Buatan Generasi Baru" yang diadakan oleh Universitas Peking, Huang Tiejun, seorang profesor di Sekolah Ilmu Komputer Universitas Peking dan dekan Akademi Kecerdasan Buatan Beijing, mengatakan bahwa kontroversi saat ini adalah bahwa pemahaman dasar setiap orang tentang AI berbeda, dan banyak orang yang terlibat dalam pemikiran ilmiah tidak percaya bahwa kecerdasan buatan umum (AGI) akan terwujud, sementara pemikiran teknis lain, termasuk Yang Likun, percaya bahwa pengembangan AI layak.
"Ini adalah dua cara berpikir yang sama sekali berbeda, dan tidak ada yang bisa meyakinkan siapa pun. Oleh karena itu, di balik kontroversi, semua orang melihat masalah ini dari posisi yang sama sekali berbeda dan cara berpikir yang berbeda. Huang Tiejun berkata dalam pidatonya.
Dalam pandangan Huang Tiejun, dalam 10 tahun ke depan, seluruh ekonomi, masyarakat, ilmu pengetahuan dan teknologi dunia dapat mengalami perubahan besar, kecerdasan akan menjadi elemen dasar operasi sosial, sama seperti listrik saat ini ada di mana-mana, dunia akan terbentuk. Pada tahun 2045, di bawah teknologi AI, manusia dapat mencapai data cerdas real-time, dan itu akan ditingkatkan secara berulang, dan otak serta pengambilan keputusan selanjutnya juga akan berubah.
"Saya pikir sebelum 2045, semua inspirasi dan kemampuan inovasi seperti kita akan muncul pada non-organisme, tetapi jika itu terjadi, itu akan menjadi risiko besar, apakah kita manusia harus membuat opsi ini, atau apakah itu bisa sedikit lebih lambat, ini perlu banyak didiskusikan." Huang Tiejun berkata di akhir pidatonya.