Resim kaynağı: Sınırsız AI aracı tarafından oluşturulmuştur
Filmin yönetmeni Christopher Nolan, "Oppenheimer anı" yaşayan ve yaratımlarının potansiyel olarak yıkıcı doğasından endişe duyan yapay zeka bilim adamlarıyla konuştuğunu söyledi. Oppenheimer biyografisi hakkında "Oppenheimer hikayesini anlatıyorum" dedi, "çünkü bunun önemli bir hikaye olduğunu düşünüyorum ve kesinlikle uyarıcı bir hikaye." Gerçekten de, bazı insanlar OpenAI'nin Ultraman Sam'ini atomun babasıyla karşılaştırdı. bomba.
Oppenheimer, biyografi yazarları tarafından "Amerika'nın Prometheus'u" olarak adlandırıldı çünkü tanrılardan nükleer ateşin, maddeyi parçalamanın ve insan uygarlığını yakıp kül edebileceğinden korktuğu korkunç bir enerjiyi açığa çıkarmanın sırrını çözmüştü.
Altman ayrıca ChatGPT'yi üretken yapay zekanın gelişimini desteklemek için kullanıp kullanmadığını, bunun aynı zamanda "çok kötü bir şey" olup olmadığını da merak etti. Senato'daki bir duruşmada "Bu teknolojide işler ters giderse felaket olabilir" dedi. Yapay zekanın vaftiz babası olarak bilinen Gregory Hinton, hayatı boyunca yaptığı işe saygı duymadığını söyleyerek Mayıs ayında Google'dan ayrıldı. makineler insanlardan daha akıllı - kısmen üzgünüm. "Kötü aktörlerin yapay zekayı kötü şeyler yapmak için kullanmasını engellemek bizim için çok zor olacak" diye uyardı. Üstelik diğer akranları, bunu nükleer savaş gibi diğer varoluşsal tehditlerle yan yana getirerek "Yapay zekanın yok olma riskinden" bahsetti. , iklim değişikliği ve salgınlar.
Yuval Noah Harari'ye ("İnsanlığın Kısa Tarihi" kitabının yazarı) göre üretken yapay zeka, toplum için atom bombası kadar yıkıcı olabilir. the Bu kez Homo sapiens tanrı oldu ve ürettikleri inorganik yavrular bir gün atalarının yerini alabilir. Birkaç yıl önce yapılan bir sohbette Harari bunu şu şekilde ifade etmişti: "İnsanlık tarihi, insanların tanrıları yaratmasıyla başlar. İnsanlık tarihi, insanların tanrı olmasıyla sona erer."
Harari ve ortak yazarlar Tristan Harris ve Aza Raskin yakın tarihli bir makalede şunları açıkladılar: "Başlangıçta dil vardı. Dil, insan kültürünün işletim sistemidir. Dilden mit ve yasa, tanrılar ve para, sanat ve bilim, dostluk, devletler geldi. ve bilgisayar kodu. Yapay zekanın yeni dil ustalığı, artık uygarlığın işletim sistemlerini hackleyebileceği ve manipüle edebileceği anlamına geliyor. Dilde ustalaşarak yapay zeka, banka kasalarından kutsal mezarlara kadar uygarlığın ana anahtarlarını ele geçiriyor."
Şöyle yazmaya devam ettiler:
Biz insanlar binlerce yıldır başkalarının hayallerinde yaşıyoruz. Tanrılara taparız, güzel ideallerin peşinde koşarız ve yaşamlarımızı peygamberlerin, şairlerin veya devlet adamlarının hayallerinden kaynaklanan davalara adarız. Yakında biz de kendimizi insan dışı zeka yanılsaması içinde yaşarken bulacağız...
Çok geçmeden nihayet Descartes'ın şeytanlarıyla, Platon'un mağaralarıyla ve Budist Maya'yla yüzleşeceğiz. İnsanlığın üzerinde bir halüsinasyon perdesi asılı olabilir ve biz bu perdeyi hiçbir zaman kaldıramayabiliriz, hatta onun varlığından bile haberdar olamayabiliriz.
Anlatılarımızı insan olmayan varlıkların yazması ihtimali İsrailli tarihçi ve filozofu o kadar alarma geçirdi ki, Homo sapiens'e, dünyamızın kontrolünü güçlendirdiğimiz teknolojilere devretmeden önce acilen durmasını tavsiye etti. Aşağı gelin ve iki kez düşünün.
"Siyasetimiz, ekonomimiz ve günlük hayatlarımız ona bağımlı hale gelmeden önce yapay zekanın farkına varmalıyız" uyarısında bulundular. "Harekete geçmek için kaosun oluşmasını beklersek, çok geç olacak."
“Terminatör” senaryosunun gerçekleşme olasılığı düşük
Google Başkan Yardımcısı Blaise Agüera Y Arcas ve Quebec Yapay Zeka Enstitüsü'nden meslektaşları, Noema dergisinde "Terminatör"ün Hollywood sahnesinin yakın gelecekte karşımıza çıkacağına inanmadıklarını yazdı. Bunun yerine, uzak gelecekte "varoluşsal tehditlere" odaklanmanın, yapay zekanın günümüz toplumuna yönelik oluşturduğu açık tehlikeleri azaltmaktan uzaklaştıracağından endişe ediyorlar.
Yapay zeka süper zekaya dönüşmeden önce en büyük korkuları çoktan ortaya çıktı: Kitlesel gözetleme, dezenformasyon ve manipülasyon, yapay zekanın askeri amaçlarla kötüye kullanılması ve kitlesel işten çıkarma.
Bu bilim insanı ve teknoloji uzmanı grubu için, "soykırımcı yapay zekanın yok olması, yaşamın, zekanın, teknolojinin ve toplumun uzun vadeli evrimi hakkındaki şüpheli varsayımlara dayanan son derece olası olmayan bir senaryodur. Aynı zamanda olası olmayan ve çok olası bir senaryodur, çünkü orada Süper akıllı bir yapay zeka sisteminin bu şekilde 'ihanet etmeden' önce üstesinden gelmesi gereken birçok fiziksel sınırlama ve kısıtlama vardır. Araştırmacıların somut ve acil zorlukları ele alarak hafifletmeye yardımcı olabileceği çok sayıda doğal kontrol noktası vardır. Yapay zeka, varoluşsal riskleri açıkça bir risk haline getirmeden riskler oluşturur. küresel öncelik.”
Onlara göre, "yok oluşu tetiklemenin üç yolu vardır: kaynaklar için rekabet, avlanma ve aşırı tüketim ya da iklimi ya da ekolojik ortamını değiştirerek onun yok olmasına yol açacak çevresel koşullara yol açmak. Bu üç senaryodan hiçbiri mevcut yapay zeka için geçerli değil." ".
En önemlisi, "Şu anda yapay zeka bize bağımlı ve süper zeka muhtemelen bu gerçeği fark edecek ve insanlığı korumaya çalışacak, çünkü oksijen üreten bitkiler bizim varlığımız için ne kadar önemliyse biz de yapay zekanın varlığı için o kadar önemliyiz. Evrimin yapay zeka arasında karşılıklı bağımlılık yaratmasının nedeni budur." ve insanlar rekabetten çok daha muhtemel.”
Yok oluşun "olası olmayan sonucu" için "sonsuz bir bedel" ödemek, tüm teknolojik gücümüzü, bir meteorun Dünya'ya çarpmasının milyonda bir şansına direnmeye ve onu gezegenin en büyük önceliği haline getirmeye adamaya benziyor. Basitçe söylemek gerekirse, "süper zeki yapay zekanın ortaya çıkardığı varoluşsal riskler, küresel bir öncelik olarak iklim değişikliği, nükleer savaş ve salgının önlenmesiyle birlikte sıralanmayı hak etmiyor."
Başka bir Oppenheimer anı
İnsanlar ile hem yakın hem de uzakta gelişen süper zeka arasındaki rekabetten kaynaklanabilecek herhangi bir tehlike, ulus devletler arasındaki rekabetle yalnızca daha da kötüleşecektir.
Oppenheimer zulüm gördü, tecrit edildi ve sonraki yıllarında ABD Atom Enerjisi Komisyonu tarafından güvenlik izni iptal edildi çünkü Soğuk Savaş'ın başlarındaki McCarthyci çılgınlık onu komünist bir gezgin olarak görüyordu. Suçu: Hidrojen bombalarının konuşlandırılmasına karşı çıkmak ve nükleer silahların kullanımını kontrol altına almak için diğer ülkelerle işbirliği çağrısında bulunmak.
Altman ayrıca bu yıl haziran ayında Pekin'de yapay zeka bilim adamlarına yaptığı konuşmada yapay zeka kullanımının nasıl yönetileceği konusunda işbirliği çağrısında bulundu. "Çin dünyadaki en iyi yapay zeka yeteneğine sahip" dedi. Gelişmiş yapay zeka sistemlerini kontrol etmek "dünyanın dört bir yanından en iyi beyinleri gerektirir. Giderek daha güçlü hale gelen yapay zeka sistemlerinin ortaya çıkmasıyla birlikte, küresel işbirliğinin riskleri hiç bu kadar yüksek olmamıştı."
Altman'ın genel bilimsel sorumluluk duygusunun, Oppenheimer'ınki gibi, Washington'un mevcut McCarthy benzeri histerik Çin karşıtı duyarlılığının içinde ne kadar süre daha kaybolacağını merak etmeden duramayız.
Yapay zekanın oluşturduğu açık ve mevcut tehlikelerin başında, onun nasıl silah haline getirilebileceği geliyor. Harari'nin uyardığı gibi, bu tehdide karşı koymanın zamanı şimdidir; bu gerçeğe dönüştüğünde ve artık çok geç olduğunda harekete geçmemektir. Sorumlu aktörlerin, makinelerin aktaramayacağı bilgelikten yararlanmaları ve riski azaltmak için işbirliği yapmaları gerekecek. Altman'ın bir Oppenheimer anı daha yaşaması halinde varoluşsal risk daha da yakınlaşacak.
ABD Dışişleri Bakanı Antony Blinken ve Ticaret Bakanı Gina Raimondo, hoş geldin tabelasında şunu kabul ettiler: "hiçbir ülke veya şirket yapay zekanın geleceğini tek başına şekillendiremez... Yalnızca uluslararası toplumun kolektif ilgisi, bilgeliği ve işbirliğiyle bu yapay zekayı tam anlamıyla şekillendirebiliriz." ve yapay zekanın potansiyelinden güvenli bir şekilde tam olarak yararlanın.
Ancak şu ana kadarki girişimleri hayati olsa da stratejik rekabet nedeniyle kısıtlandı. Dünyanın dört bir yanındaki ülkeler için en ciddi zorluk, yapay zeka silahlanma yarışı kontrolden çıkmadan ve durumun daha da kötüleşmesini engellemeden önce doğrudan nasıl iletişim kurulacağıdır.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
"Oppenheimer" vizyona girdi, bir sonraki film Sam Altman mı olacak?
Yazan: Nathan Gardels
Menşei: Noema
Filmin yönetmeni Christopher Nolan, "Oppenheimer anı" yaşayan ve yaratımlarının potansiyel olarak yıkıcı doğasından endişe duyan yapay zeka bilim adamlarıyla konuştuğunu söyledi. Oppenheimer biyografisi hakkında "Oppenheimer hikayesini anlatıyorum" dedi, "çünkü bunun önemli bir hikaye olduğunu düşünüyorum ve kesinlikle uyarıcı bir hikaye." Gerçekten de, bazı insanlar OpenAI'nin Ultraman Sam'ini atomun babasıyla karşılaştırdı. bomba.
Oppenheimer, biyografi yazarları tarafından "Amerika'nın Prometheus'u" olarak adlandırıldı çünkü tanrılardan nükleer ateşin, maddeyi parçalamanın ve insan uygarlığını yakıp kül edebileceğinden korktuğu korkunç bir enerjiyi açığa çıkarmanın sırrını çözmüştü.
Altman ayrıca ChatGPT'yi üretken yapay zekanın gelişimini desteklemek için kullanıp kullanmadığını, bunun aynı zamanda "çok kötü bir şey" olup olmadığını da merak etti. Senato'daki bir duruşmada "Bu teknolojide işler ters giderse felaket olabilir" dedi. Yapay zekanın vaftiz babası olarak bilinen Gregory Hinton, hayatı boyunca yaptığı işe saygı duymadığını söyleyerek Mayıs ayında Google'dan ayrıldı. makineler insanlardan daha akıllı - kısmen üzgünüm. "Kötü aktörlerin yapay zekayı kötü şeyler yapmak için kullanmasını engellemek bizim için çok zor olacak" diye uyardı. Üstelik diğer akranları, bunu nükleer savaş gibi diğer varoluşsal tehditlerle yan yana getirerek "Yapay zekanın yok olma riskinden" bahsetti. , iklim değişikliği ve salgınlar.
Yuval Noah Harari'ye ("İnsanlığın Kısa Tarihi" kitabının yazarı) göre üretken yapay zeka, toplum için atom bombası kadar yıkıcı olabilir. the Bu kez Homo sapiens tanrı oldu ve ürettikleri inorganik yavrular bir gün atalarının yerini alabilir. Birkaç yıl önce yapılan bir sohbette Harari bunu şu şekilde ifade etmişti: "İnsanlık tarihi, insanların tanrıları yaratmasıyla başlar. İnsanlık tarihi, insanların tanrı olmasıyla sona erer."
Harari ve ortak yazarlar Tristan Harris ve Aza Raskin yakın tarihli bir makalede şunları açıkladılar: "Başlangıçta dil vardı. Dil, insan kültürünün işletim sistemidir. Dilden mit ve yasa, tanrılar ve para, sanat ve bilim, dostluk, devletler geldi. ve bilgisayar kodu. Yapay zekanın yeni dil ustalığı, artık uygarlığın işletim sistemlerini hackleyebileceği ve manipüle edebileceği anlamına geliyor. Dilde ustalaşarak yapay zeka, banka kasalarından kutsal mezarlara kadar uygarlığın ana anahtarlarını ele geçiriyor."
Şöyle yazmaya devam ettiler:
Anlatılarımızı insan olmayan varlıkların yazması ihtimali İsrailli tarihçi ve filozofu o kadar alarma geçirdi ki, Homo sapiens'e, dünyamızın kontrolünü güçlendirdiğimiz teknolojilere devretmeden önce acilen durmasını tavsiye etti. Aşağı gelin ve iki kez düşünün.
"Siyasetimiz, ekonomimiz ve günlük hayatlarımız ona bağımlı hale gelmeden önce yapay zekanın farkına varmalıyız" uyarısında bulundular. "Harekete geçmek için kaosun oluşmasını beklersek, çok geç olacak."
“Terminatör” senaryosunun gerçekleşme olasılığı düşük
Google Başkan Yardımcısı Blaise Agüera Y Arcas ve Quebec Yapay Zeka Enstitüsü'nden meslektaşları, Noema dergisinde "Terminatör"ün Hollywood sahnesinin yakın gelecekte karşımıza çıkacağına inanmadıklarını yazdı. Bunun yerine, uzak gelecekte "varoluşsal tehditlere" odaklanmanın, yapay zekanın günümüz toplumuna yönelik oluşturduğu açık tehlikeleri azaltmaktan uzaklaştıracağından endişe ediyorlar.
Yapay zeka süper zekaya dönüşmeden önce en büyük korkuları çoktan ortaya çıktı: Kitlesel gözetleme, dezenformasyon ve manipülasyon, yapay zekanın askeri amaçlarla kötüye kullanılması ve kitlesel işten çıkarma.
Bu bilim insanı ve teknoloji uzmanı grubu için, "soykırımcı yapay zekanın yok olması, yaşamın, zekanın, teknolojinin ve toplumun uzun vadeli evrimi hakkındaki şüpheli varsayımlara dayanan son derece olası olmayan bir senaryodur. Aynı zamanda olası olmayan ve çok olası bir senaryodur, çünkü orada Süper akıllı bir yapay zeka sisteminin bu şekilde 'ihanet etmeden' önce üstesinden gelmesi gereken birçok fiziksel sınırlama ve kısıtlama vardır. Araştırmacıların somut ve acil zorlukları ele alarak hafifletmeye yardımcı olabileceği çok sayıda doğal kontrol noktası vardır. Yapay zeka, varoluşsal riskleri açıkça bir risk haline getirmeden riskler oluşturur. küresel öncelik.”
Onlara göre, "yok oluşu tetiklemenin üç yolu vardır: kaynaklar için rekabet, avlanma ve aşırı tüketim ya da iklimi ya da ekolojik ortamını değiştirerek onun yok olmasına yol açacak çevresel koşullara yol açmak. Bu üç senaryodan hiçbiri mevcut yapay zeka için geçerli değil." ".
En önemlisi, "Şu anda yapay zeka bize bağımlı ve süper zeka muhtemelen bu gerçeği fark edecek ve insanlığı korumaya çalışacak, çünkü oksijen üreten bitkiler bizim varlığımız için ne kadar önemliyse biz de yapay zekanın varlığı için o kadar önemliyiz. Evrimin yapay zeka arasında karşılıklı bağımlılık yaratmasının nedeni budur." ve insanlar rekabetten çok daha muhtemel.”
Yok oluşun "olası olmayan sonucu" için "sonsuz bir bedel" ödemek, tüm teknolojik gücümüzü, bir meteorun Dünya'ya çarpmasının milyonda bir şansına direnmeye ve onu gezegenin en büyük önceliği haline getirmeye adamaya benziyor. Basitçe söylemek gerekirse, "süper zeki yapay zekanın ortaya çıkardığı varoluşsal riskler, küresel bir öncelik olarak iklim değişikliği, nükleer savaş ve salgının önlenmesiyle birlikte sıralanmayı hak etmiyor."
Başka bir Oppenheimer anı
İnsanlar ile hem yakın hem de uzakta gelişen süper zeka arasındaki rekabetten kaynaklanabilecek herhangi bir tehlike, ulus devletler arasındaki rekabetle yalnızca daha da kötüleşecektir.
Oppenheimer zulüm gördü, tecrit edildi ve sonraki yıllarında ABD Atom Enerjisi Komisyonu tarafından güvenlik izni iptal edildi çünkü Soğuk Savaş'ın başlarındaki McCarthyci çılgınlık onu komünist bir gezgin olarak görüyordu. Suçu: Hidrojen bombalarının konuşlandırılmasına karşı çıkmak ve nükleer silahların kullanımını kontrol altına almak için diğer ülkelerle işbirliği çağrısında bulunmak.
Altman ayrıca bu yıl haziran ayında Pekin'de yapay zeka bilim adamlarına yaptığı konuşmada yapay zeka kullanımının nasıl yönetileceği konusunda işbirliği çağrısında bulundu. "Çin dünyadaki en iyi yapay zeka yeteneğine sahip" dedi. Gelişmiş yapay zeka sistemlerini kontrol etmek "dünyanın dört bir yanından en iyi beyinleri gerektirir. Giderek daha güçlü hale gelen yapay zeka sistemlerinin ortaya çıkmasıyla birlikte, küresel işbirliğinin riskleri hiç bu kadar yüksek olmamıştı."
Altman'ın genel bilimsel sorumluluk duygusunun, Oppenheimer'ınki gibi, Washington'un mevcut McCarthy benzeri histerik Çin karşıtı duyarlılığının içinde ne kadar süre daha kaybolacağını merak etmeden duramayız.
Yapay zekanın oluşturduğu açık ve mevcut tehlikelerin başında, onun nasıl silah haline getirilebileceği geliyor. Harari'nin uyardığı gibi, bu tehdide karşı koymanın zamanı şimdidir; bu gerçeğe dönüştüğünde ve artık çok geç olduğunda harekete geçmemektir. Sorumlu aktörlerin, makinelerin aktaramayacağı bilgelikten yararlanmaları ve riski azaltmak için işbirliği yapmaları gerekecek. Altman'ın bir Oppenheimer anı daha yaşaması halinde varoluşsal risk daha da yakınlaşacak.
ABD Dışişleri Bakanı Antony Blinken ve Ticaret Bakanı Gina Raimondo, hoş geldin tabelasında şunu kabul ettiler: "hiçbir ülke veya şirket yapay zekanın geleceğini tek başına şekillendiremez... Yalnızca uluslararası toplumun kolektif ilgisi, bilgeliği ve işbirliğiyle bu yapay zekayı tam anlamıyla şekillendirebiliriz." ve yapay zekanın potansiyelinden güvenli bir şekilde tam olarak yararlanın.
Ancak şu ana kadarki girişimleri hayati olsa da stratejik rekabet nedeniyle kısıtlandı. Dünyanın dört bir yanındaki ülkeler için en ciddi zorluk, yapay zeka silahlanma yarışı kontrolden çıkmadan ve durumun daha da kötüleşmesini engellemeden önce doğrudan nasıl iletişim kurulacağıdır.