Bu makale ilk olarak Titanium Media APP'de yayınlanmıştır
Google Brain'in kurucusu ve Stanford Üniversitesi'nde profesör olan > Andrew Ng, yapay zekayı düzenlemenin inovasyonu yok ettiğine dikkat çekti. Musk ise yapay zekanın nükleer silahlardan (nükleer bombalardan) daha tehlikeli olduğuna inanıyor.
ABD hükümetinin yeni yapay zeka düzenlemeleri yayınlamasıyla, büyük yapay zeka modellerinin düzenlenmesi konusunda son zamanlarda tartışmalar yeniden canlandı.
Pekin saatiyle 2 Kasım sabahının erken saatlerinde, "ChatGPT'nin babası" ve OpenAI'nin CEO'su Sam Altman, İngiltere'nin Cambridge kentinde bir etkinliğe katıldığında, yapay zeka karşıtı aktivistler tarafından şiddetle direnildi ve oditoryumda önünde "ezildi" ve birkaç protestocu yapay zeka yarışmasının durdurulmasını talep etti.
Hatta bazı protestocular pankartlar astı ve balkonlara broşürler bıraktı ve sahne bir süre kaotik oldu. Tabii ki, Ultraman çok sakindi ve etkinliği sakin bir şekilde tamamladı.
Altman konuşmasında, yapay zeka modellerinin gelecekte yeterince güçlü olsa bile, çalışması için büyük bilgi işlem gücüne ihtiyaç duyacağını söyledi. Bilgi işlem gücü eşiği yükseltilirse, kasıtlı suç riski azaltılabilir ve hesap verebilirlik de geliştirilebilir. Daha önce, OpenAI kurucu ortağı Ilya Sutskiver, ChatGPT'nin bilinçli olabileceğini ve yapay zekanın potansiyel riskleri olacağını açıkça söyledi.
Aynı zamanda, Meta AI'nın baş bilim adamı ve 2018 "Turing Ödülü"nü kazanan Yann LeCun, son zamanlarda Altman'ı, DeepMind CEO'su Demis Hassabis'i, Anthropic CEO'sunu ve diğerlerini sosyal platformlarda ABD hükümetine "büyük ölçekli kurumsal lobicilik" yapmakla eleştirdi.
Yang Likun, bu insanların korku yaydığına dikkat çekti. "Başarılı olurlarsa, siz ve ben kaçınılmaz olarak bir felakete yol açacağız - bir avuç şirket yapay zekanın kontrolünü ele geçirecek."
Daha sonra Hassabis, "Yang Likun'un sözlerinin çoğuna kesinlikle katılmıyorum. Google DeepMind'ın yapay zekanın en iyi nasıl kullanılacağını tartışırken "düzenleyici yakalama" elde etmeye çalışmadığına ve potansiyel süper yapay zekanın şimdi nasıl düzenleneceğini tartışmaya başlamanın daha önemli olduğuna dikkat çekti.
Yapay zeka büyük modelleri için rekabetin giderek daha şiddetli hale geldiği bir zamanda, endüstri bir "yakın dövüşe" girdi ve herkes yapay zekayı kontrol eden devler konusu etrafında şiddetli savaşlara giriyor.
Yapay zeka insanlık için en büyük tehdit mi? Musk: Yapay zeka insanlardan daha akıllı olacak
Son 12 ayda ChatGPT dünyayı kasıp kavurdu ve üretken yapay zeka bu yıl teknoloji dünyasında tamamen merkezi bir konu haline geldi.
Şimdi, Apple da yapay zekayı benimsiyor.
Apple CEO'su Tim Cook, Pekin saatiyle 3 Kasım sabahı düzenlenen dördüncü çeyrek kazanç konferansında, Apple'ın üretken yapay zeka alanında çeşitli çalışmalar yürüttüğünü ve bunu sorumlu bir şekilde yapmak için çok para yatırdığını söyledi. "Zamanla, özünde bu teknolojilere sahip Apple ürünlerinin gelişeceğini göreceksiniz."
Daha önce Bloomberg, Apple'ın yapay zeka alanındaki rakiplerini sessizce yakaladığını, bir yandan yapay zeka ile ilgili işe alımları artırdığını, diğer yandan yeni başlayanların birleşmesi ve satın almaları yoluyla yapay zeka teknolojisinin olgunlaşmasını ve uygulanmasını hızlandırdığını ve dahili olarak AppleGPT olarak bilinen dahili olarak büyük dil modelleri geliştirmeye başladığını bildirdi.
Aynı zamanda, dünyanın teknoloji alanındaki en zengin adamı ve Tesla'nın CEO'su Elon Musk tarafından kurulan ve net değeri 220 milyar dolar olan xAI ekibinin, yapay zeka bilgi alımı, hızlı kelime iş istasyonu IDE vb. ile ilgili Grok da dahil olmak üzere ilk ürün bilgisi grubuna sahip olduğu söylendi. Ayrıca Google, Microsoft ve Amazon gibi teknoloji devleri de yapay zeka dalgasına katılıyor.
Bununla birlikte, Elon Musk ve Ultraman da dahil olmak üzere endüstri liderleri, son zamanlarda yapay zekanın potansiyel ölümcüllüğü ve yapay zekanın riskleri hakkında haftalık olarak konuştular. Bu bir "küçük daire konsensüsü" haline gelmiş gibi görünüyor.
Musk, 2 Kasım'da İngiliz Yapay Zeka Zirvesi'nde yapay zekanın insanlık için en büyük tehditlerden biri olduğunu ve yapay zekanın tarihteki en yıkıcı güç haline geleceğini ve insanlardan daha akıllı olacağını söyledi. Yapay zekanın bir gün herkesin işini kaybetmesine neden olacağına inanıyor.
"Yapay zeka her şeyi yapma yeteneğine sahip ve bunun insanları rahat mı yoksa rahatsız mı hissettireceğini bilmiyorum. Sihirli bir elf istiyorsanız, AI tüm isteklerinizi yerine getirecek ve sınır yok ve iyi ya da kötü olabilen sadece 3 dilek kısıtlaması olmayacak ve gelecekteki zorluk, hayatın anlamını nasıl bulacağımız olacak. Musk dedi.
Musk, yapay zekanın nükleer silahlardan (nükleer bombalar) daha tehlikeli olduğu konusunda defalarca uyardı.
Ultraman ayrıca defalarca hükümetin onu kontrol ettiğini söyledi. 10 yıl içinde dünya güçlü bir yapay zeka sistemine (AI) sahip olabilir, ancak artık insanlığın buna hazır olması gerekiyor.
ABD hükümeti de yapay zeka güvenliğini düzenlemeye başladı. 30 Ekim'de ABD Başkanı Joe Biden, yapay zeka güvenlik standartları yönünde şimdiye kadarki en kapsamlı eylemi gerçekleştiren, Amerikalıların mahremiyetini koruyan, adaleti ve medeni hakları teşvik eden, tüketicilerin ve işçilerin çıkarlarını koruyan, inovasyonu ve rekabeti teşvik eden ve diğer şeylerin yanı sıra yapay zekanın potansiyel risklerini yönetmek için yurtdışında ABD liderliğini ilerleten yapay zeka konusunda yeni bir yürütme emri imzaladı.
Yeni yürütme emrinde, araştırma fonu ve diğer yollarla yapay zeka araştırmalarını desteklemek, yabancı yetenekleri çekmek vb. gibi yapay zeka devlerine verilen desteğin güçlendirildiğini belirtmekte fayda var.
Bir taş bin dalgayı karıştırır.
Daha sonra, "Turing Üçlüsü" gibi yapay zeka akademik uzmanları, esas olarak iki gruba ayrılan yapay zeka denetimi hakkında hararetli bir tartışma yaptılar: Yang Likun ve Ng Enda tarafından temsil edilen insanlar, arabanın inşa edilmeden önce fren yapmak istediğine ve yapay zekanın denetim aşamasına ulaşmadığına inanıyordu; Bununla birlikte, Elon Musk, Altman ve "derin öğrenmenin babası" Geoffrey Hinton gibi insanlar, yapay zekanın hala çok tehlikeli olduğuna inanıyor.
Bunlar arasında Yang Likun, Amerika Birleşik Devletleri'nin teknoloji devlerinin yapay zeka araştırmalarını desteklemeye devam etmesi durumunda, sonunda yalnızca birkaç büyük teknoloji devinin yapay zekayı kontrol edebilmesine yol açabileceğini ve bunun kaçınılmaz olarak büyük bir risk ve felakete yol açacağını açıkça söyledi.
"Birçok insan gibi ben de açık bir yapay zeka platformunun büyük bir savunucusuyum. Ama aynı zamanda yapay zekanın geleceğinin insanların yaratıcılığının, demokrasisinin, pazar gücünün ve düzenlemenin bir kombinasyonu olduğuna inanıyorum. Yang Likun, X platformunda yazdı.
Google Brain'in kurucusu ve Stanford Üniversitesi'nde profesör olan Andrew Ng de Yang'ı destekliyor. Yapay zeka teknolojisinin geliştirilmesine güçlü bir düzenleme getirmenin bir "komplo" olduğunu söyledi.
Ng, "İnovasyonu yok edecek" dedi ve "kesinlikle açık kaynaklı AI ile rekabet etmek konusunda isteksiz olan bazı büyük teknoloji şirketleri var, bu yüzden AI'nın insan neslinin tükenmesine yol açacağı korkusu yaratıyorlar" dedi. Bu her zaman lobiciler tarafından aranan bir yasama silahı olmuştur, ancak açık kaynak topluluğu için çok zararlıdır. Birçok ülkede düzenlemenin yönü ile, hiçbir düzenlemenin şimdi olduğundan daha iyi olacağını düşünüyorum. "
Ancak aynı zamanda, 25 Ekim'de Turing Ödülü sahibi Yoshua Bengio, "derin öğrenmenin babası" Geoffrey Hinton, Andrew Yao, Zhang Yaqin ve diğer yapay zeka endüstrisi uzmanları da ortak bir mektup imzaladılar. ve yapay zeka Ar-Ge'sinde güvenli ve etik uygulamalara doğru büyük bir değişim.
Bugün, akademik kodamanlar arasında yapay zeka güvenlik düzenlemesi konusundaki şiddetli savaş devam ediyor. Yapay zeka artık arama motorlarından sosyal ağlara ve finansa kadar her şeyin derinliklerinde, bu nedenle uzmanlar bu yapay zeka silahlanma yarışının zorlukları, güvenlik riskleri ve derin sahtekarlıklar hakkında ciddi endişelerini dile getirdiler.
Yoshua Bengio, Geoffrey Hinton, Yann LeCun
Ve birçok netizen, kodamanlar arasındaki ilişkinin tartışmadan etkilenip etkilenmeyeceği konusunda endişeli. Yang Likun, bir süre önce Yoshua Bengio ve Hinton ile bir fotoğraf yayınladı ve bu soruya iyi yanıt veriyor gibi görünüyor.
3 Kasım'da ABD hükümeti, ABD Ticaret Bakanlığı ve diğer kurumların yasama kapasitesi aracılığıyla yapay zekanın geleceğini düzenlemek için standartlar ve kurallar geliştirmeyi umarak AI Güvenlik Enstitüsü'nü kurduğunu söyledi.
Önümüzdeki 10 yıl içinde regülasyonların hızlandırılması: insanoğlu tam anlamıyla zeka çağına girebilir
1 Kasım'da, Londra, İngiltere'deki Bletchley Park'ta düzenlenen ilk Yapay Zeka Güvenlik Zirvesi'nde, yapay zekanın büyük fırsatlar getirdiğini ve insan refahını, barışını ve refahını artırma potansiyeline sahip olduğunu, ancak aynı zamanda yapay zekanın uluslararası işbirliği yoluyla ele alınması gereken önemli riskler de oluşturduğunu ilan eden "Bletchley Deklarasyonu" yayınlandı.
Toplantıda, Amerika Birleşik Devletleri, Çin ve Avrupa Birliği de dahil olmak üzere 25'ten fazla ülke ve bölge bildirgeyi imzaladı. İngiltere Başbakanı Rishi Sunak, "Dünyanın en güçlü yapay zeka güçleri, gelecek neslimizin uzun vadeli geleceğini güvence altına almaya yardımcı olmak için 'yapay zekanın risklerini anlamanın' aciliyetini kabul ettiğinden, bu önemli bir başarıdır" dedi. Liderler olarak, insanları korumak için harekete geçme ve adımlar atma sorumluluğumuz var ve biz de tam olarak bunu yapıyoruz. "
Deklarasyon, yapay zekanın günlük yaşam alanı da dahil olmak üzere önemli riskler oluşturduğunu ve "tüm konuların büyük önem taşıdığını ve bunları ele alma ihtiyacını ve aciliyetini kabul ettiğimizi" belirtiyor. "
"Bunu başarmak için, yapay zekanın herkesin yararına güvenli, insan merkezli, güvenilir ve sorumlu bir şekilde tasarlanması, geliştirilmesi, konuşlandırılması ve kullanılması gerektiğini onaylıyoruz." Bildirgede, yapay zekanın oluşturduğu risklerin birçoğunun doğası gereği uluslararası olduğu ve en iyi şekilde uluslararası işbirliği yoluyla ele alındığı belirtildi - ortak endişe kaynağı olan yapay zeka güvenlik risklerini belirlemek ve uluslararası düzeyde kapsayıcı bir son teknoloji yapay zeka güvenlik bilimi araştırma ağını desteklemek.
3 Kasım'da Pekin Üniversitesi tarafından düzenlenen "Yeni Nesil Yapay Zeka Sınır Forumu"nda, Pekin Üniversitesi Bilgisayar Bilimleri Okulu'nda profesör ve Pekin Yapay Zeka Akademisi dekanı Huang Tiejun, mevcut tartışmanın herkesin temel AI anlayışının farklı olduğunu ve bilimsel düşünceye katılan birçok kişinin genel yapay zekanın (AGI) gerçekleşeceğine inanmadığını, Yang Likun da dahil olmak üzere başka bir teknik düşüncenin AI geliştirmenin mümkün olduğuna inandığını söyledi.
"Bunlar tamamen farklı iki düşünme biçimi ve ikisi de kimseyi ikna edemez. Bu nedenle, tartışmanın arkasında, herkes bu konuya tamamen farklı bir konumdan ve farklı bir düşünce tarzından bakıyor. Huang Tiejun konuşmasında söyledi.
AI büyük model teknolojisinin gelecekteki gelişimi için Huang Tiejun, 3 yıl, 10 yıl ve 20 yıl için beklentiler verdi.
Önümüzdeki üç yıl içinde, büyük model görme, işitme, somutlaşmış zeka ve eylem gibi genel zekaya genişletilecek ve ölçek daha da küçülecek ve somutlaşmış zekanın "beyni" olacak; Sıradan dil bilimsel dile yükseltilir ve yapay zeka büyük bilimsel sorunları çözer.
Önümüzdeki 10 yıl içinde insanlık, tıpkı sanayi devriminin fiziksel gücü özgürleştirmesi gibi, tıpkı enerjinin dolaşımını çözecek güç devrimi gibi, bilim ve teknolojinin, ekonominin ve toplumsal ekolojinin inşasını da akıl olarak ele alarak çok yönlü bir şekilde çağa girecektir.
Önümüzdeki 20 yıl içinde: mevcut büyük model veriye dayalı statik zekadır, gelecek uzaysal-zamansal ortam tarafından yönlendirilen dinamik zekadır ve akıllı taşıyıcı, beyin benzeri bir sivri sinir ağına yükseltilir; 2045'te, yapısal beyin taklitçisi, işlevsel beyin benzeri ve performans süper beyin, fiziksel AGI gelecek.
Ek olarak, Al güvenliğine en azından eşit önem verilmelidir, aksi takdirde insanlık büyük risk altındadır.
Huang Tiejun'un görüşüne göre, önümüzdeki 10 yıl içinde tüm dünya ekonomisi, toplumu, bilimi ve teknolojisi büyük bir değişime uğrayabilir, istihbarat sosyal operasyonun temel unsuru haline gelecektir, tıpkı bugünün elektriğinin her yerde olması gibi, dünya oluşacaktır. 2045 yılında, AI teknolojisi altında, insanlar gerçek zamanlı akıllı veriler elde edebilir ve yinelemeli olarak yükseltilecek ve beyin ve müteakip karar verme de değişecektir.
"2045'ten önce, bizimki gibi tüm bu ilham ve inovasyon yeteneklerinin organizma olmayan bir organizmada ortaya çıkacağını düşünüyorum, ancak eğer öyleyse, bu büyük bir risk olacak, biz insanlar bu seçeneği yapmalı mıyız, yoksa biraz daha yavaş mı olabilir, bunun çok tartışılması gerekiyor." Huang Tiejun konuşmasının sonunda söyledi.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
"ChatGPT'nin babası"nın Cambridge konuşması boykot edildi ve akademik kodamanlar yapay zeka güvenliği için kıyasıya savaştı
Makale kaynağı: Titanium Media
Yazar: Lin Zhijia
Editör: Ma Jinnan
Bu makale ilk olarak Titanium Media APP'de yayınlanmıştır
Google Brain'in kurucusu ve Stanford Üniversitesi'nde profesör olan > Andrew Ng, yapay zekayı düzenlemenin inovasyonu yok ettiğine dikkat çekti. Musk ise yapay zekanın nükleer silahlardan (nükleer bombalardan) daha tehlikeli olduğuna inanıyor.
ABD hükümetinin yeni yapay zeka düzenlemeleri yayınlamasıyla, büyük yapay zeka modellerinin düzenlenmesi konusunda son zamanlarda tartışmalar yeniden canlandı.
Pekin saatiyle 2 Kasım sabahının erken saatlerinde, "ChatGPT'nin babası" ve OpenAI'nin CEO'su Sam Altman, İngiltere'nin Cambridge kentinde bir etkinliğe katıldığında, yapay zeka karşıtı aktivistler tarafından şiddetle direnildi ve oditoryumda önünde "ezildi" ve birkaç protestocu yapay zeka yarışmasının durdurulmasını talep etti.
Altman konuşmasında, yapay zeka modellerinin gelecekte yeterince güçlü olsa bile, çalışması için büyük bilgi işlem gücüne ihtiyaç duyacağını söyledi. Bilgi işlem gücü eşiği yükseltilirse, kasıtlı suç riski azaltılabilir ve hesap verebilirlik de geliştirilebilir. Daha önce, OpenAI kurucu ortağı Ilya Sutskiver, ChatGPT'nin bilinçli olabileceğini ve yapay zekanın potansiyel riskleri olacağını açıkça söyledi.
Aynı zamanda, Meta AI'nın baş bilim adamı ve 2018 "Turing Ödülü"nü kazanan Yann LeCun, son zamanlarda Altman'ı, DeepMind CEO'su Demis Hassabis'i, Anthropic CEO'sunu ve diğerlerini sosyal platformlarda ABD hükümetine "büyük ölçekli kurumsal lobicilik" yapmakla eleştirdi.
Yang Likun, bu insanların korku yaydığına dikkat çekti. "Başarılı olurlarsa, siz ve ben kaçınılmaz olarak bir felakete yol açacağız - bir avuç şirket yapay zekanın kontrolünü ele geçirecek."
Yapay zeka büyük modelleri için rekabetin giderek daha şiddetli hale geldiği bir zamanda, endüstri bir "yakın dövüşe" girdi ve herkes yapay zekayı kontrol eden devler konusu etrafında şiddetli savaşlara giriyor.
Yapay zeka insanlık için en büyük tehdit mi? Musk: Yapay zeka insanlardan daha akıllı olacak
Son 12 ayda ChatGPT dünyayı kasıp kavurdu ve üretken yapay zeka bu yıl teknoloji dünyasında tamamen merkezi bir konu haline geldi.
Şimdi, Apple da yapay zekayı benimsiyor.
Apple CEO'su Tim Cook, Pekin saatiyle 3 Kasım sabahı düzenlenen dördüncü çeyrek kazanç konferansında, Apple'ın üretken yapay zeka alanında çeşitli çalışmalar yürüttüğünü ve bunu sorumlu bir şekilde yapmak için çok para yatırdığını söyledi. "Zamanla, özünde bu teknolojilere sahip Apple ürünlerinin gelişeceğini göreceksiniz."
Daha önce Bloomberg, Apple'ın yapay zeka alanındaki rakiplerini sessizce yakaladığını, bir yandan yapay zeka ile ilgili işe alımları artırdığını, diğer yandan yeni başlayanların birleşmesi ve satın almaları yoluyla yapay zeka teknolojisinin olgunlaşmasını ve uygulanmasını hızlandırdığını ve dahili olarak AppleGPT olarak bilinen dahili olarak büyük dil modelleri geliştirmeye başladığını bildirdi.
Aynı zamanda, dünyanın teknoloji alanındaki en zengin adamı ve Tesla'nın CEO'su Elon Musk tarafından kurulan ve net değeri 220 milyar dolar olan xAI ekibinin, yapay zeka bilgi alımı, hızlı kelime iş istasyonu IDE vb. ile ilgili Grok da dahil olmak üzere ilk ürün bilgisi grubuna sahip olduğu söylendi. Ayrıca Google, Microsoft ve Amazon gibi teknoloji devleri de yapay zeka dalgasına katılıyor.
Bununla birlikte, Elon Musk ve Ultraman da dahil olmak üzere endüstri liderleri, son zamanlarda yapay zekanın potansiyel ölümcüllüğü ve yapay zekanın riskleri hakkında haftalık olarak konuştular. Bu bir "küçük daire konsensüsü" haline gelmiş gibi görünüyor.
Musk, 2 Kasım'da İngiliz Yapay Zeka Zirvesi'nde yapay zekanın insanlık için en büyük tehditlerden biri olduğunu ve yapay zekanın tarihteki en yıkıcı güç haline geleceğini ve insanlardan daha akıllı olacağını söyledi. Yapay zekanın bir gün herkesin işini kaybetmesine neden olacağına inanıyor.
Musk, yapay zekanın nükleer silahlardan (nükleer bombalar) daha tehlikeli olduğu konusunda defalarca uyardı.
Ultraman ayrıca defalarca hükümetin onu kontrol ettiğini söyledi. 10 yıl içinde dünya güçlü bir yapay zeka sistemine (AI) sahip olabilir, ancak artık insanlığın buna hazır olması gerekiyor.
ABD hükümeti de yapay zeka güvenliğini düzenlemeye başladı. 30 Ekim'de ABD Başkanı Joe Biden, yapay zeka güvenlik standartları yönünde şimdiye kadarki en kapsamlı eylemi gerçekleştiren, Amerikalıların mahremiyetini koruyan, adaleti ve medeni hakları teşvik eden, tüketicilerin ve işçilerin çıkarlarını koruyan, inovasyonu ve rekabeti teşvik eden ve diğer şeylerin yanı sıra yapay zekanın potansiyel risklerini yönetmek için yurtdışında ABD liderliğini ilerleten yapay zeka konusunda yeni bir yürütme emri imzaladı.
Yeni yürütme emrinde, araştırma fonu ve diğer yollarla yapay zeka araştırmalarını desteklemek, yabancı yetenekleri çekmek vb. gibi yapay zeka devlerine verilen desteğin güçlendirildiğini belirtmekte fayda var.
Bir taş bin dalgayı karıştırır.
Daha sonra, "Turing Üçlüsü" gibi yapay zeka akademik uzmanları, esas olarak iki gruba ayrılan yapay zeka denetimi hakkında hararetli bir tartışma yaptılar: Yang Likun ve Ng Enda tarafından temsil edilen insanlar, arabanın inşa edilmeden önce fren yapmak istediğine ve yapay zekanın denetim aşamasına ulaşmadığına inanıyordu; Bununla birlikte, Elon Musk, Altman ve "derin öğrenmenin babası" Geoffrey Hinton gibi insanlar, yapay zekanın hala çok tehlikeli olduğuna inanıyor.
Bunlar arasında Yang Likun, Amerika Birleşik Devletleri'nin teknoloji devlerinin yapay zeka araştırmalarını desteklemeye devam etmesi durumunda, sonunda yalnızca birkaç büyük teknoloji devinin yapay zekayı kontrol edebilmesine yol açabileceğini ve bunun kaçınılmaz olarak büyük bir risk ve felakete yol açacağını açıkça söyledi.
"Birçok insan gibi ben de açık bir yapay zeka platformunun büyük bir savunucusuyum. Ama aynı zamanda yapay zekanın geleceğinin insanların yaratıcılığının, demokrasisinin, pazar gücünün ve düzenlemenin bir kombinasyonu olduğuna inanıyorum. Yang Likun, X platformunda yazdı.
Google Brain'in kurucusu ve Stanford Üniversitesi'nde profesör olan Andrew Ng de Yang'ı destekliyor. Yapay zeka teknolojisinin geliştirilmesine güçlü bir düzenleme getirmenin bir "komplo" olduğunu söyledi.
Ng, "İnovasyonu yok edecek" dedi ve "kesinlikle açık kaynaklı AI ile rekabet etmek konusunda isteksiz olan bazı büyük teknoloji şirketleri var, bu yüzden AI'nın insan neslinin tükenmesine yol açacağı korkusu yaratıyorlar" dedi. Bu her zaman lobiciler tarafından aranan bir yasama silahı olmuştur, ancak açık kaynak topluluğu için çok zararlıdır. Birçok ülkede düzenlemenin yönü ile, hiçbir düzenlemenin şimdi olduğundan daha iyi olacağını düşünüyorum. "
Ancak aynı zamanda, 25 Ekim'de Turing Ödülü sahibi Yoshua Bengio, "derin öğrenmenin babası" Geoffrey Hinton, Andrew Yao, Zhang Yaqin ve diğer yapay zeka endüstrisi uzmanları da ortak bir mektup imzaladılar. ve yapay zeka Ar-Ge'sinde güvenli ve etik uygulamalara doğru büyük bir değişim.
Bugün, akademik kodamanlar arasında yapay zeka güvenlik düzenlemesi konusundaki şiddetli savaş devam ediyor. Yapay zeka artık arama motorlarından sosyal ağlara ve finansa kadar her şeyin derinliklerinde, bu nedenle uzmanlar bu yapay zeka silahlanma yarışının zorlukları, güvenlik riskleri ve derin sahtekarlıklar hakkında ciddi endişelerini dile getirdiler.
Ve birçok netizen, kodamanlar arasındaki ilişkinin tartışmadan etkilenip etkilenmeyeceği konusunda endişeli. Yang Likun, bir süre önce Yoshua Bengio ve Hinton ile bir fotoğraf yayınladı ve bu soruya iyi yanıt veriyor gibi görünüyor.
3 Kasım'da ABD hükümeti, ABD Ticaret Bakanlığı ve diğer kurumların yasama kapasitesi aracılığıyla yapay zekanın geleceğini düzenlemek için standartlar ve kurallar geliştirmeyi umarak AI Güvenlik Enstitüsü'nü kurduğunu söyledi.
Önümüzdeki 10 yıl içinde regülasyonların hızlandırılması: insanoğlu tam anlamıyla zeka çağına girebilir
1 Kasım'da, Londra, İngiltere'deki Bletchley Park'ta düzenlenen ilk Yapay Zeka Güvenlik Zirvesi'nde, yapay zekanın büyük fırsatlar getirdiğini ve insan refahını, barışını ve refahını artırma potansiyeline sahip olduğunu, ancak aynı zamanda yapay zekanın uluslararası işbirliği yoluyla ele alınması gereken önemli riskler de oluşturduğunu ilan eden "Bletchley Deklarasyonu" yayınlandı.
Toplantıda, Amerika Birleşik Devletleri, Çin ve Avrupa Birliği de dahil olmak üzere 25'ten fazla ülke ve bölge bildirgeyi imzaladı. İngiltere Başbakanı Rishi Sunak, "Dünyanın en güçlü yapay zeka güçleri, gelecek neslimizin uzun vadeli geleceğini güvence altına almaya yardımcı olmak için 'yapay zekanın risklerini anlamanın' aciliyetini kabul ettiğinden, bu önemli bir başarıdır" dedi. Liderler olarak, insanları korumak için harekete geçme ve adımlar atma sorumluluğumuz var ve biz de tam olarak bunu yapıyoruz. "
Deklarasyon, yapay zekanın günlük yaşam alanı da dahil olmak üzere önemli riskler oluşturduğunu ve "tüm konuların büyük önem taşıdığını ve bunları ele alma ihtiyacını ve aciliyetini kabul ettiğimizi" belirtiyor. "
"Bunu başarmak için, yapay zekanın herkesin yararına güvenli, insan merkezli, güvenilir ve sorumlu bir şekilde tasarlanması, geliştirilmesi, konuşlandırılması ve kullanılması gerektiğini onaylıyoruz." Bildirgede, yapay zekanın oluşturduğu risklerin birçoğunun doğası gereği uluslararası olduğu ve en iyi şekilde uluslararası işbirliği yoluyla ele alındığı belirtildi - ortak endişe kaynağı olan yapay zeka güvenlik risklerini belirlemek ve uluslararası düzeyde kapsayıcı bir son teknoloji yapay zeka güvenlik bilimi araştırma ağını desteklemek.
3 Kasım'da Pekin Üniversitesi tarafından düzenlenen "Yeni Nesil Yapay Zeka Sınır Forumu"nda, Pekin Üniversitesi Bilgisayar Bilimleri Okulu'nda profesör ve Pekin Yapay Zeka Akademisi dekanı Huang Tiejun, mevcut tartışmanın herkesin temel AI anlayışının farklı olduğunu ve bilimsel düşünceye katılan birçok kişinin genel yapay zekanın (AGI) gerçekleşeceğine inanmadığını, Yang Likun da dahil olmak üzere başka bir teknik düşüncenin AI geliştirmenin mümkün olduğuna inandığını söyledi.
"Bunlar tamamen farklı iki düşünme biçimi ve ikisi de kimseyi ikna edemez. Bu nedenle, tartışmanın arkasında, herkes bu konuya tamamen farklı bir konumdan ve farklı bir düşünce tarzından bakıyor. Huang Tiejun konuşmasında söyledi.
Huang Tiejun'un görüşüne göre, önümüzdeki 10 yıl içinde tüm dünya ekonomisi, toplumu, bilimi ve teknolojisi büyük bir değişime uğrayabilir, istihbarat sosyal operasyonun temel unsuru haline gelecektir, tıpkı bugünün elektriğinin her yerde olması gibi, dünya oluşacaktır. 2045 yılında, AI teknolojisi altında, insanlar gerçek zamanlı akıllı veriler elde edebilir ve yinelemeli olarak yükseltilecek ve beyin ve müteakip karar verme de değişecektir.
"2045'ten önce, bizimki gibi tüm bu ilham ve inovasyon yeteneklerinin organizma olmayan bir organizmada ortaya çıkacağını düşünüyorum, ancak eğer öyleyse, bu büyük bir risk olacak, biz insanlar bu seçeneği yapmalı mıyız, yoksa biraz daha yavaş mı olabilir, bunun çok tartışılması gerekiyor." Huang Tiejun konuşmasının sonunda söyledi.