ChatGPT yarım yıldan fazla bir süredir popüler. Hızlı geliştirmenin yanı sıra, teknik sorunları çözmenin yanı sıra uyumluluk, Kongre'nin Sam Altman'ı mahkemeye çağırmasından sonra bir sonraki büyük sorun olabilir, artık FTC (Federal Ticaret Komisyonu) da ChatGPT'yi resmi olarak yürütmektedir. soruşturma.
Bu, Bill Gates'in birkaç gün önce söylediklerini yansıtıyor. En son blog gönderisinde şunları söyledi: "Yapay zeka en dönüştürücü yeniliktir. Risklerin olduğu doğru ama riskler de kontrol edilebilir."
Bill Gates, blog yazısında ağırlıklı olarak yapay zekanın risklerini, zorluklarını ve bunlarla nasıl başa çıkılacağını tartışıyor, ayrıca bazı örnekler ve öneriler sunuyor.
Bill Gates ilk olarak insanların bugün yapay zeka hakkındaki endişelerini onayladığını ifade etti - şimdi yapay zekada belirsiz bir çağ olan derin değişikliklerin olduğu bir çağdayız. Ancak bu risklerin yönetilebilir olduğu konusunda iyimser.
İkinci olarak Bill Gates, seçimleri ve demokrasiyi yok edebilecek, bireylerin ve hükümetlerin saldırı başlatmasını kolaylaştırabilecek ve insanların işlerini ellerinden alabilecek yapay zeka tarafından oluşturulan derin sahtecilik ve yanlış bilgiler dahil olmak üzere mevcut yapay zekanın neden olduğu riskleri de sıraladı. insan önyargılarını miras alır ve bir şeyler uydurur, öğrenciler yazmayı öğrenmezler çünkü bunu yapay zeka onlar için yapar, vb.
Son olarak Bill Gates, AI'yı düzenlemek için bir dizi teklif de ortaya koydu. Ulusal hükümet düzeyinde, hükümetlerin yapay zeka ile başa çıkmak, dezenformasyon ve derin sahtekarlıklar, güvenlik tehditleri, iş piyasasındaki değişiklikler ve eğitim üzerindeki etkisi ile başa çıkmak için yasa ve yönetmelikler formüle etmek üzere yapay zeka alanında uzmanlık biriktirmesi gerekir.
Çözümler açısından, hükümet liderlerinin tek başına değil, diğer ülkelerle işbirliği yapması ve insanlarla bilgili ve düşünceli diyalog kurma becerisine sahip olması gerekir.
Ayrıca, işletmeler için AI şirketlerinin sorumlu bir tutum sergilemesi ve insanların mahremiyetinin korunması vb. dahil olmak üzere güvenliği sağlamak için çalışmalar yapılması gerekir.
GPT-4'ten çevrilen ve 36 Krypton tarafından düzenlenen tam metin aşağıdadır:
Yapay zekanın ortaya koyduğu riskler çok büyük görünüyor. Akıllı makinelerin yerini almak için işini kaybedenler ne olacak? AI Seçim Sonuçlarını Etkileyecek mi? Ya geleceğin yapay zekası artık insanlara ihtiyaç olmadığına karar verir ve bizden kurtulmak isterse?
Bunlar meşru sorular ve ortaya çıkardıkları endişeleri ciddiye almamız gerekiyor. Ancak bunlarla başa çıkabileceğimize inanmak için her türlü nedenimiz var: Bu, kontrol altına alınması gereken yeni tehditler getiren büyük bir yeniliğin ilk örneği değil ve bunlarla daha önce karşılaştık.
İster otomobilin icadı, ister kişisel bilgisayarın ve internetin yükselişi olsun, insanlar birçok karışıklığa rağmen daha iyiye giden başka dönüştürücü anlar yaşadılar. İlk arabaların yola çıkmasından kısa bir süre sonra ilk kazalar oldu. Ancak arabaları yasaklamak yerine hız sınırlarını, güvenlik standartlarını, ehliyet gerekliliklerini, alkollü araç kullanma yasalarını ve diğer yol kurallarını benimsedik.
Şimdi, hız limitleri ve emniyet kemerlerinden önceki belirsizlik çağına benzer bir başka derin dönüşümün, yapay zeka çağının ilk aşamalarındayız. AI o kadar hızlı değişiyor ki bundan sonra ne olacağı belli değil. Mevcut teknolojinin nasıl çalıştığı, insanların onu kötü amaçlar için nasıl kullandığı ve yapay zekanın toplumun üyeleri ve bireyler olarak bizi nasıl değiştirebileceği konusunda büyük sorularla karşı karşıyayız.
Böyle anlarda huzursuzluk duymanız doğaldır. Ancak tarih, yeni teknolojilerin ortaya çıkardığı zorlukları ele almanın mümkün olduğunu gösteriyor.
Yapay zekanın sağlık, eğitim, iklim değişikliği ve geçmişte anlaşılmaz görünen daha pek çok alanda sorunları çözmeye yardımcı olarak hayatımızda nasıl devrim yaratacağı hakkında yazdım. Gates Vakfı bu konuyu bir öncelik haline getiriyor ve CEO'muz Mark Suzman yakın zamanda yapay zekanın eşitsizliği azaltmadaki rolü hakkındaki düşüncelerini paylaştı.
Gelecekte AI'nın yararları hakkında daha fazla konuşacağım, ancak bu gönderide duyduğum ve okuduğum, çoğunu paylaştığım en yaygın endişelerden bahsetmek ve endişe duyma konusunda nasıl hissettiğimi açıklamak istiyorum.
Şimdiye kadar yapay zekanın riskleri üzerine yazılanlardan net olan bir şey var ki o da hiç kimsenin tüm cevaplara sahip olmadığı. Benim için net olan bir başka nokta da yapay zekanın geleceğinin bazılarının sandığı kadar çetin, bazılarının sandığı kadar pembe olmadığı. Riskler gerçek, ancak yönetilebilecekleri konusunda iyimserim. Her konuyu tek tek ele alırken, birkaç konuya geri döneceğim:
Yapay zekanın ortaya çıkardığı sorunların birçoğunun tarihsel emsali vardır. Örneğin, eğitim üzerinde çok büyük bir etkisi olacak, ancak onlarca yıl önce taşınabilir hesap makineleri ve daha yakın zamanlarda bilgisayarların sınıflara girmesine izin verecek ve geçmiş başarılardan öğrenebiliriz.
Yapay zekanın getirdiği birçok sorun da yapay zeka yardımıyla çözülebilir.
Tıpkı mevcut dolandırıcılıkla mücadele yasalarının çevrimiçi dünyaya uyum sağlaması gerektiği gibi, eski yasaları uyarlamalı ve yenilerini çıkarmalıyız.
Bu yazıda, mevcut veya olası risklere odaklanacağım. Herhangi bir konuyu veya görevi öğrenebilen bir yapay zeka geliştirdiğimizde ne olacağını tartışmayacağım. Bunun yerine, bugün amaca yönelik yapay zekadan bahsediyorum.
Bu noktaya ister on yıl ister yüzyıl sonra gelelim, toplum bazı derin sorularla yüzleşmek zorunda kalacak. Ya bir süper yapay zeka kendi hedeflerini belirlediyse? Ya insan hedefleriyle çatışırlarsa? Süper yapay zeka mı inşa etmeliyiz?
Ancak, bu uzun vadeli riskler düşünülürken acil riskler göz ardı edilmemelidir. Şimdi bu kısa vadeli risklere dönüyorum.
Yapay Zeka Tarafından Oluşturulan Sahte İçerik ve Yanlış Bilgi Seçimleri ve Demokrasiyi Yok Edebilir
Yalanları ve dezenformasyonu yaymak için teknolojinin kullanılması yeni bir şey değil. İnsanlar yüzyıllardır kitaplar ve broşürler aracılığıyla yalanlar yayıyorlar. Bu uygulama, kelime işlemcilerin, lazer yazıcıların, e-posta ve sosyal ağların ortaya çıkmasıyla daha kolay hale geldi.
Yapay zeka, bu sahte metin sorununu büyüterek, neredeyse herkesin derin sahte olarak bilinen sahte ses ve video oluşturmasını mümkün kıldı. Çocuğunuzun "Kaçırıldım, lütfen 10 dakika içinde bu banka hesabına 1000 dolar gönderin ve polisi aramayın" gibi bir sesli mesaj alırsanız, aynı içerikten çok daha fazlasını üretecektir. postanın duygusal etkisi.
Daha geniş bir ölçekte, seçim sonuçlarını etkilemeye çalışmak için yapay zeka tarafından oluşturulan derin sahtekarlıklar kullanılabilir. Tabii ki, bir seçimin meşru galibi hakkında şüphe uyandırmak için karmaşık bir teknoloji gerekmiyor, ancak yapay zeka süreci çok daha kolaylaştıracak.
Daha şimdiden, tanınmış politikacıların uydurma görüntülerini içeren sahte videolar ortaya çıktı. Önemli bir seçim sabahı, bir adayın banka soyarken çekilmiş bir videosunun viral olduğunu hayal edin. Yalan olmasına rağmen haber kuruluşlarının ve kampanyaların bunu kanıtlaması saatler aldı. Kaç kişi bu videoyu görüp de son dakikada oylarını değiştirecek? Bu, özellikle yarış yakınsa, yarışın sonucunu değiştirebilir.
Open AI kurucu ortağı Sam Altman yakın zamanda bir ABD Senatosu komitesi önünde ifade verdiğinde, her iki partiden senatörler, AI'nın seçimler ve demokrasi üzerindeki etkisiyle ilgili endişelerini dile getirdiler. Umarım bu konu herkesin ilgisini çekmeye devam eder. Dezenformasyon ve derin sahtekarlık sorununu gerçekten çözemedik. Ama iki şey beni temkinli bir şekilde iyimser yapıyor. Birincisi, insanların her şeye güvenmemeyi öğrenme yeteneğine sahip olmalarıdır. E-posta kullanıcıları, Nijeryalı bir prens gibi davranan ve kredi kartı numaralarını paylaşanlara büyük ödüller vaat eden biri tarafından yıllarca kandırıldı. Ancak sonunda çoğu insan bu e-postaları iki kez kontrol etmeyi öğrenir. Aldatmalar daha karmaşık hale geldikçe ve birçok hedef daha aldatıcı hale geldikçe, aynı farkındalığı derin sahtekarlıklar için de yaratmamız gerekiyor.
Beni umutlandıran bir başka şey de, yapay zekanın yalnızca derin sahteler yaratabilmesi değil, aynı zamanda onları tanımlamaya da yardımcı olabilmesi. Örneğin, Intel bir deepfake detektörü geliştirirken, devlet kurumu DARPA bir video veya ses üzerinde oynanıp oynanmadığının nasıl belirleneceği üzerinde çalışıyor.
Bu döngüsel bir süreç olacak: Biri kalpazanlığı tespit etmenin bir yolunu buluyor, başka biri buna nasıl karşı koyacağını buluyor, biri karşı önlem geliştiriyor vb. Mükemmel bir başarı olmayacak, ama biz de bağlı olmayacağız.
AI, insanların ve hükümetlerin saldırı başlatmasını kolaylaştırır
Bugün, bilgisayar korsanları yazılımda bir hata bulmak istediklerinde, hatayı bulana kadar potansiyel zayıflıklara saldırarak kaba kuvvet yoluyla kod yazıyorlar. Bu, birçok dolambaçlı yolu içerir, bu nedenle zaman ve sabır gerektirir.
Bilgisayar korsanlarıyla savaşmak isteyen güvenlik profesyonelleri de aynısını yapmalıdır. Telefonunuza veya dizüstü bilgisayarınıza yüklediğiniz her yazılım yaması, iyi huylu veya kötü niyetli biri tarafından onu aramak için harcanan çok zamanı temsil eder.
AI modelleri, bilgisayar korsanlarının daha verimli kod yazmasına yardımcı olarak bu süreci hızlandıracak. Ayrıca, bugün gördüğümüzden daha gelişmiş kimlik avı saldırıları geliştirmek için bireylerin nerede çalıştıkları ve arkadaşlarının kim olduğu gibi halka açık bilgileri kullanabilecekler.
İyi haber şu ki, AI hem kötü hem de iyi amaçlar için kullanılabilir. Devlet ve özel sektördeki güvenlik ekiplerinin, güvenlik açıklarını suçlular bunları istismar etmeden önce bulup düzeltmek için en son araçlara sahip olması gerekir. Yazılım güvenliği endüstrisinin bu alanda halihazırda yaptıkları çalışmaları genişleteceğini umuyorum, bu onların bir numaralı endişesi olmalı.
Bu nedenle, bazılarının öne sürdüğü gibi, insanların yapay zeka alanındaki yeni gelişmeleri uygulamalarını geçici olarak engellemeye çalışmamalıyız. Siber suçlular yeni araçlar üretmeyi bırakmayacak ve yapay zekayı nükleer silahlar ve biyoterör saldırıları tasarlamak için kullanmak isteyenler ve onları durdurmak isteyenler aynı hızda devam etmelidir.
Küresel düzeyde ilgili riskler de var: diğer devletlere karşı siber saldırılar tasarlamak ve başlatmak için bir AI silahlanma yarışı kullanılabilir. Her ülkenin hükümeti, düşman saldırılarını caydırmak için mevcut en güçlü teknolojiye sahip olmak ister. Bu "kimseye öncelik vermeme" motivasyonu, giderek daha tehlikeli hale gelen siber silahlar yaratma yarışını ateşleyebilir. Bu şekilde herkes daha kötü durumda olacaktır.
Korkunç bir fikir ama ders olarak tarihimiz var. Kusurlarına rağmen, dünyanın nükleer silahların yayılmasını önleme rejimi, benim kuşağımın korkarak büyüdüğü topyekun nükleer savaşı engelledi. Hükümetler, Uluslararası Atom Enerjisi Ajansı'na benzer bir küresel AI ajansı oluşturmayı düşünmelidir.
Yapay zeka insanlardan işleri alacak
Yapay zekanın önümüzdeki yıllarda iş üzerindeki ana etkisi, insanların işlerini daha verimli yapmalarına yardımcı olmak olacaktır. İster bir fabrikada ister satış görüşmeleri ve borç hesapları ile ilgilenen bir ofiste çalışıyor olun, bu doğrudur. Sonunda, AI'nın düşünceleri ifade etme becerisi, sizin için e-posta yazabilecek ve gelen kutunuzu yönetebilecek kadar iyi olacaktır. Sade bir İngilizce veya başka bir dilde bir talep yazabilecek ve bilgilendirici bir iş raporu oluşturabileceksiniz.
Şubat ayı yazımda da söylediğim gibi artan üretkenlik toplum için iyidir. Bu, insanların işte veya evde başka şeyler yapması için daha fazla zaman bırakır. Ve öğretmek, hastalara bakmak, yaşlılara bakmak gibi yardımsever insanlara olan ihtiyaç asla bitmeyecek.
Ancak yapay zeka odaklı bir iş yerine geçerken bazı çalışanların desteğe ve yeniden eğitime ihtiyacı var. Bu, hükümetlerin ve şirketlerin işi, ABD'deki imalat işleri kaybolduğunda insanların yaşamlarında meydana gelen türden bir aksama olmaksızın işçilerin geride kalmaması için bunu iyi yönetmektir.
Ayrıca, yeni teknolojilerin işgücü piyasasında önemli değişikliklere yol açmasının ilk kez olmadığını unutmayın. Yapay zekanın etkisinin sanayi devrimi kadar büyük olacağını düşünmüyorum ama kesinlikle kişisel bilgisayarın ortaya çıkışı kadar büyük olacak. Kelime işlem uygulamaları ofis işini ortadan kaldırmadı ama onu sonsuza kadar değiştirdi. İşverenler ve çalışanlar uyum sağlamak zorunda kaldılar ve uyum sağladılar. Yapay zekanın getirdiği dönüşüm engebeli bir geçiş olacak, ancak insanların yaşamlarına ve geçim kaynaklarına yönelik kesintileri azaltabileceğimize inanmak için her türlü neden var.
Yapay zeka önyargılarımızı devralır ve onları uydurur
Halüsinasyonlar, bir yapay zekanın kendinden emin bir şekilde doğru olmayan bazı ifadelerde bulunmasıdır ve genellikle makinenin talebinizin içeriğini anlamaması nedeniyle ortaya çıkar. Bir yapay zekadan aya yapılan bir tatil hakkında kısa bir hikaye yazmasını isteseydiniz, size çok yaratıcı bir cevap verebilirdi. Ama Tanzanya'ya bir gezi planlamanıza yardım etmesine izin verirseniz, sizi var olmayan bir otele bırakmaya çalışabilir.
Yapay zekanın bir başka riski de belirli cinsiyet kimlikleri, ırklar, etnik kökenler vb. hakkındaki mevcut önyargıları yansıtması ve hatta şiddetlendirmesidir.
Bu tür yanılsamaların ve önyargıların neden ortaya çıktığını anlamak için, en yaygın mevcut yapay zeka modellerinin nasıl çalıştığını anlamak önemlidir. Esasen, e-posta uygulamanızın yazacağınız bir sonraki kelimeyi tahmin etmesine izin veren çok karmaşık kod sürümleridir: bazı durumlarda, web'de bulunan metnin neredeyse tamamı ve çok büyük miktarda metni tarar, analiz eder, Bul İnsan dilindeki kalıplar.
AI'ya bir soru sorduğunuzda, kullandığınız kelimelere bakar ve ardından genellikle bu kelimelerle ilişkilendirilen metni arar. "Krep için malzemeleri listele" yazarsanız, "un, şeker, tuz, kabartma tozu, süt ve yumurta" kelimelerinin ifadeyle birlikte sık sık geçtiğini fark edebilir. Ardından, bu kelimelerin genellikle geçtiği sıra hakkında bildiklerine dayanarak bir yanıt üretir (bu şekilde çalışan yapay zeka modelleri sözde dönüştürücüler kullanır ve GPT-4 böyle bir modeldir).
Bu süreç, yapay zekanın, sorduğunuz soruları veya ona söylediklerinizi bağlamsal olarak anlamadan neden halüsinasyon görebileceğini veya önyargılı olabileceğini açıklıyor. Bir yazım hatası yaptığınızı söylerseniz, muhtemelen "özür dilerim, bir yazım hatası yaptım" diyecektir. Ama bu sadece bir yanılsama, hiçbir şeyi yanlış yazmıyor, "özür dilerim, yanlış yazdım" ifadesinin insanların cümleyi düzelttikten sonra sıklıkla yazdıkları şeylerden biri olduğunu bilecek kadar metni taradığı için bunu söylüyor.
Benzer şekilde, yapay zeka modelleri, üzerinde eğitildikleri metnin doğasında bulunan önyargıları miras alır. Bir kişi doktorlar hakkında çok fazla makale okursa ve makalelerde çoğunlukla erkek doktorlardan bahsedilirse, o zaman cevabı çoğu doktorun erkek olduğunu varsayar.
Bazı araştırmacılar halüsinasyonların doğuştan gelen bir sorun olduğunu iddia etse de ben buna katılmıyorum. Zamanla yapay zeka modellerine gerçeği kurgudan ayırt etmeyi öğretebileceğimiz konusunda iyimserim. Örneğin, Open AI bu konuda umut verici çalışmalar yaptı.
Alan Turing Enstitüsü ve Ulusal Standartlar ve Teknoloji Enstitüsü gibi diğer kuruluşlar önyargıyla mücadele ediyor. Bir yaklaşım, insani değerleri ve üst düzey muhakemeyi yapay zekaya dahil etmektir. Kendini tanıyan insanların çalışma şekline benzer: Belki çoğu doktorun erkek olduğunu düşünüyorsunuz, ancak bu varsayımla bilinçli olarak savaşmanız gerektiğini bilecek kadar bilinçlisiniz. Yapay zeka, özellikle modeller farklı geçmişlere sahip kişiler tarafından tasarlanırsa benzer şekilde çalışabilir.
Sonunda, AI kullanan herkesin önyargı sorununun farkında olması ve bilgili bir kullanıcı olması gerekir. Bir yapay zekadan taslağını hazırlamasını istediğiniz bir makale, olgusal hatalar olduğu kadar önyargılarla da dolu olabilir. Kendi yapay zekanızın yanı sıra yapay zekanızın önyargılarını da kontrol etmeniz gerekir.
Öğrenciler yazmayı öğrenmeyecek çünkü yapay zeka onlar için yapacak
Birçok öğretmen, yapay zekanın öğrencilerle olan çalışmalarını kesintiye uğratacağından endişe ediyor. İnternet bağlantısı olan herkesin bir tezin saygın bir ilk taslağını yazmak için yapay zekayı kullanabileceği bir çağda, bir öğrencinin tezini kendisininmiş gibi teslim etmesini ne engelleyebilir?
Bir makalenin bir insan tarafından mı yoksa bir bilgisayar tarafından mı yazıldığını söylemeyi öğrenen bazı AI araçları zaten var, böylece öğretmenler öğrencilerinin ödevlerini yapıp yapmadığını anlayabilir. Ancak bazı öğretmenler, öğrencilerini yapay zekayı yazılı olarak kullanmaktan caydırmaya çalışmak yerine, aslında onu teşvik ediyor.
Ocak ayında, Cherie Shields adlı deneyimli bir İngilizce öğretmeni Education Week'te bir makale yayınladı. sınıfında Chat GPT'yi nasıl kullandığı hakkında bir makale yayınladı. Chat GPT, öğrencilerine bir makale yazmaya başlamaktan bir taslak yazmaya ve hatta ödevleri hakkında geri bildirim sağlamaya kadar yardımcı olur.
Şöyle yazıyor: "Öğretmenler, öğrencilerin kullanabileceği başka bir araç olarak AI teknolojisini benimsemeli. Bir zamanlar öğrencilere nasıl iyi bir Google araması yapacaklarını öğrettiğimiz gibi, öğretmenler de Chat GPT botlarının makale yazmaya nasıl yardımcı olabileceği konusunda netlik tasarlamalıdır." AI'nın varlığı ve öğrencilerin onu kullanmasına yardımcı olmak, öğretme yöntemimizde devrim yaratabilir." Her öğretmenin yeni araçları öğrenmek ve kullanmak için zamanı yoktur, ancak Cherie Shields gibi eğitimciler, zamanı olan öğretmenlerin büyük fayda sağlayacağına dair iyi bir argüman sunar. .
Bu bana elektronik hesap makinelerinin 1970'lerde ve 1980'lerde popüler hale geldiği dönemi hatırlatıyor. Bazı matematik öğretmenleri, öğrencilerin temel aritmetiği öğrenmeyi bırakacağından endişe ederken, diğerleri yeni teknolojiyi benimsiyor ve aritmetiğin arkasındaki düşünceye odaklanıyor.
AI ayrıca yazma ve eleştirel düşünme konusunda da yardımcı olabilir. Özellikle halüsinasyonların ve önyargıların hala sorun olduğu ilk günlerde, eğitimciler yapay zekanın makaleler oluşturmasını ve ardından öğrencilerle bunların doğruluğunu kontrol etmesini sağlayabilir. Khan Academy ve OER Project gibi kar amacı gütmeyen eğitim kuruluşları, öğretmenlere ve öğrencilere iddiaların test edilmesine büyük önem veren ücretsiz çevrimiçi araçlar sağlar ve hiçbir beceri, gerçeği sahteden ayırmayı bilmekten daha önemli değildir.
Eğitim yazılımının başarı farkını kapatmaya yardımcı olduğundan, daha kötü hale getirmediğinden gerçekten emin olmamız gerekiyor. Bugünün yazılımları öncelikle zaten öğrenmeye motive olmuş öğrencilere yöneliktir. Sizin için bir çalışma planı oluşturabilir, sizi iyi kaynaklarla buluşturabilir ve bilginizi test edebilir. Ancak henüz ilginizi çekmeyen konulara sizi nasıl dahil edeceğini henüz bilmiyor. Bu, geliştiricilerin her türden öğrencinin yapay zekadan yararlanabilmesi için ele alması gereken bir sorundur.
**Sonra ne yapacağız? **
Yararlarını en üst düzeye çıkarırken yapay zekanın risklerini yönetebileceğimiz konusunda iyimser olmak için daha fazla nedenimiz olduğuna inanıyorum, ancak hızlı hareket etmemiz gerekiyor.
Hükümetlerin bu yeni teknolojiyle başa çıkmak için yasa ve yönetmelikler geliştirmek amacıyla yapay zeka konusunda uzmanlık geliştirmesi gerekiyor. Yanlış bilgilendirme ve derin sahtekarlıklar, güvenlik tehditleri, iş piyasasındaki değişiklikler ve bunun eğitim üzerindeki etkisi ile uğraşmaları gerekiyor. Sadece bir örnek: Herkesin gördüğü veya duyduğu şeyin sahte olduğunu anlaması için, yasanın deepfake'lerin hangi kullanımlarının yasal olduğunu ve deepfake'lerin nasıl etiketlenmesi gerektiğini netleştirmesi gerekiyor.
Siyasi liderlerin seçmenlerle bilinçli, düşünceli bir diyalog kurabilmeleri gerekir. Ayrıca bu konularda tek başlarına gitmek yerine diğer ülkelerle ne kadar işbirliği yapacaklarına da karar vermeleri gerekiyor.
Özel sektörde yapay zeka şirketlerinin işlerini güvenli ve sorumlu bir şekilde yapması gerekiyor. Bu, insanların mahremiyetini korumayı, yapay zeka modellerinin temel insani değerleri yansıtmasını sağlamayı, olabildiğince çok kişiye fayda sağlamak için önyargıyı en aza indirmeyi ve teknolojinin suçlular veya teröristler tarafından istismar edilmesini önlemeyi içerir. Ekonominin birçok sektöründeki şirketlerin, kimsenin geride kalmaması için çalışanlarının yapay zeka merkezli bir işyerine geçişine yardımcı olması gerekecek. Ve müşteriler her zaman bir yapay zekayla mı yoksa bir insanla mı etkileşim kurduklarını bilmelidir.
Son olarak herkesi yapay zekanın gelişimine mümkün olduğunca çok dikkat etmeye davet ediyorum. Bu, hayatımızda göreceğimiz en dönüştürücü yenilik ve sağlıklı bir kamuoyu tartışması, herkesin teknolojinin kendisini, faydalarını ve risklerini anlamasına bağlı olacaktır. Yapay zekanın faydaları çok büyük olacak ve riskleri kontrol edebileceğimize inanmamızın en iyi nedeni bunu başarmış olmamız.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Bill Gates'in son blog gönderisi: Yapay zekanın riskleri var ama kontrol edilebilir
Yazar: Jin Qiong
ChatGPT yarım yıldan fazla bir süredir popüler. Hızlı geliştirmenin yanı sıra, teknik sorunları çözmenin yanı sıra uyumluluk, Kongre'nin Sam Altman'ı mahkemeye çağırmasından sonra bir sonraki büyük sorun olabilir, artık FTC (Federal Ticaret Komisyonu) da ChatGPT'yi resmi olarak yürütmektedir. soruşturma.
Bu, Bill Gates'in birkaç gün önce söylediklerini yansıtıyor. En son blog gönderisinde şunları söyledi: "Yapay zeka en dönüştürücü yeniliktir. Risklerin olduğu doğru ama riskler de kontrol edilebilir."
Bill Gates, blog yazısında ağırlıklı olarak yapay zekanın risklerini, zorluklarını ve bunlarla nasıl başa çıkılacağını tartışıyor, ayrıca bazı örnekler ve öneriler sunuyor.
Bill Gates ilk olarak insanların bugün yapay zeka hakkındaki endişelerini onayladığını ifade etti - şimdi yapay zekada belirsiz bir çağ olan derin değişikliklerin olduğu bir çağdayız. Ancak bu risklerin yönetilebilir olduğu konusunda iyimser.
İkinci olarak Bill Gates, seçimleri ve demokrasiyi yok edebilecek, bireylerin ve hükümetlerin saldırı başlatmasını kolaylaştırabilecek ve insanların işlerini ellerinden alabilecek yapay zeka tarafından oluşturulan derin sahtecilik ve yanlış bilgiler dahil olmak üzere mevcut yapay zekanın neden olduğu riskleri de sıraladı. insan önyargılarını miras alır ve bir şeyler uydurur, öğrenciler yazmayı öğrenmezler çünkü bunu yapay zeka onlar için yapar, vb.
Son olarak Bill Gates, AI'yı düzenlemek için bir dizi teklif de ortaya koydu. Ulusal hükümet düzeyinde, hükümetlerin yapay zeka ile başa çıkmak, dezenformasyon ve derin sahtekarlıklar, güvenlik tehditleri, iş piyasasındaki değişiklikler ve eğitim üzerindeki etkisi ile başa çıkmak için yasa ve yönetmelikler formüle etmek üzere yapay zeka alanında uzmanlık biriktirmesi gerekir.
Çözümler açısından, hükümet liderlerinin tek başına değil, diğer ülkelerle işbirliği yapması ve insanlarla bilgili ve düşünceli diyalog kurma becerisine sahip olması gerekir.
Ayrıca, işletmeler için AI şirketlerinin sorumlu bir tutum sergilemesi ve insanların mahremiyetinin korunması vb. dahil olmak üzere güvenliği sağlamak için çalışmalar yapılması gerekir.
GPT-4'ten çevrilen ve 36 Krypton tarafından düzenlenen tam metin aşağıdadır:
Yapay zekanın ortaya koyduğu riskler çok büyük görünüyor. Akıllı makinelerin yerini almak için işini kaybedenler ne olacak? AI Seçim Sonuçlarını Etkileyecek mi? Ya geleceğin yapay zekası artık insanlara ihtiyaç olmadığına karar verir ve bizden kurtulmak isterse?
Bunlar meşru sorular ve ortaya çıkardıkları endişeleri ciddiye almamız gerekiyor. Ancak bunlarla başa çıkabileceğimize inanmak için her türlü nedenimiz var: Bu, kontrol altına alınması gereken yeni tehditler getiren büyük bir yeniliğin ilk örneği değil ve bunlarla daha önce karşılaştık.
İster otomobilin icadı, ister kişisel bilgisayarın ve internetin yükselişi olsun, insanlar birçok karışıklığa rağmen daha iyiye giden başka dönüştürücü anlar yaşadılar. İlk arabaların yola çıkmasından kısa bir süre sonra ilk kazalar oldu. Ancak arabaları yasaklamak yerine hız sınırlarını, güvenlik standartlarını, ehliyet gerekliliklerini, alkollü araç kullanma yasalarını ve diğer yol kurallarını benimsedik.
Şimdi, hız limitleri ve emniyet kemerlerinden önceki belirsizlik çağına benzer bir başka derin dönüşümün, yapay zeka çağının ilk aşamalarındayız. AI o kadar hızlı değişiyor ki bundan sonra ne olacağı belli değil. Mevcut teknolojinin nasıl çalıştığı, insanların onu kötü amaçlar için nasıl kullandığı ve yapay zekanın toplumun üyeleri ve bireyler olarak bizi nasıl değiştirebileceği konusunda büyük sorularla karşı karşıyayız.
Böyle anlarda huzursuzluk duymanız doğaldır. Ancak tarih, yeni teknolojilerin ortaya çıkardığı zorlukları ele almanın mümkün olduğunu gösteriyor.
Yapay zekanın sağlık, eğitim, iklim değişikliği ve geçmişte anlaşılmaz görünen daha pek çok alanda sorunları çözmeye yardımcı olarak hayatımızda nasıl devrim yaratacağı hakkında yazdım. Gates Vakfı bu konuyu bir öncelik haline getiriyor ve CEO'muz Mark Suzman yakın zamanda yapay zekanın eşitsizliği azaltmadaki rolü hakkındaki düşüncelerini paylaştı.
Gelecekte AI'nın yararları hakkında daha fazla konuşacağım, ancak bu gönderide duyduğum ve okuduğum, çoğunu paylaştığım en yaygın endişelerden bahsetmek ve endişe duyma konusunda nasıl hissettiğimi açıklamak istiyorum.
Şimdiye kadar yapay zekanın riskleri üzerine yazılanlardan net olan bir şey var ki o da hiç kimsenin tüm cevaplara sahip olmadığı. Benim için net olan bir başka nokta da yapay zekanın geleceğinin bazılarının sandığı kadar çetin, bazılarının sandığı kadar pembe olmadığı. Riskler gerçek, ancak yönetilebilecekleri konusunda iyimserim. Her konuyu tek tek ele alırken, birkaç konuya geri döneceğim:
Bu yazıda, mevcut veya olası risklere odaklanacağım. Herhangi bir konuyu veya görevi öğrenebilen bir yapay zeka geliştirdiğimizde ne olacağını tartışmayacağım. Bunun yerine, bugün amaca yönelik yapay zekadan bahsediyorum.
Bu noktaya ister on yıl ister yüzyıl sonra gelelim, toplum bazı derin sorularla yüzleşmek zorunda kalacak. Ya bir süper yapay zeka kendi hedeflerini belirlediyse? Ya insan hedefleriyle çatışırlarsa? Süper yapay zeka mı inşa etmeliyiz?
Ancak, bu uzun vadeli riskler düşünülürken acil riskler göz ardı edilmemelidir. Şimdi bu kısa vadeli risklere dönüyorum.
Yapay Zeka Tarafından Oluşturulan Sahte İçerik ve Yanlış Bilgi Seçimleri ve Demokrasiyi Yok Edebilir
Yalanları ve dezenformasyonu yaymak için teknolojinin kullanılması yeni bir şey değil. İnsanlar yüzyıllardır kitaplar ve broşürler aracılığıyla yalanlar yayıyorlar. Bu uygulama, kelime işlemcilerin, lazer yazıcıların, e-posta ve sosyal ağların ortaya çıkmasıyla daha kolay hale geldi.
Yapay zeka, bu sahte metin sorununu büyüterek, neredeyse herkesin derin sahte olarak bilinen sahte ses ve video oluşturmasını mümkün kıldı. Çocuğunuzun "Kaçırıldım, lütfen 10 dakika içinde bu banka hesabına 1000 dolar gönderin ve polisi aramayın" gibi bir sesli mesaj alırsanız, aynı içerikten çok daha fazlasını üretecektir. postanın duygusal etkisi.
Daha geniş bir ölçekte, seçim sonuçlarını etkilemeye çalışmak için yapay zeka tarafından oluşturulan derin sahtekarlıklar kullanılabilir. Tabii ki, bir seçimin meşru galibi hakkında şüphe uyandırmak için karmaşık bir teknoloji gerekmiyor, ancak yapay zeka süreci çok daha kolaylaştıracak.
Daha şimdiden, tanınmış politikacıların uydurma görüntülerini içeren sahte videolar ortaya çıktı. Önemli bir seçim sabahı, bir adayın banka soyarken çekilmiş bir videosunun viral olduğunu hayal edin. Yalan olmasına rağmen haber kuruluşlarının ve kampanyaların bunu kanıtlaması saatler aldı. Kaç kişi bu videoyu görüp de son dakikada oylarını değiştirecek? Bu, özellikle yarış yakınsa, yarışın sonucunu değiştirebilir.
Open AI kurucu ortağı Sam Altman yakın zamanda bir ABD Senatosu komitesi önünde ifade verdiğinde, her iki partiden senatörler, AI'nın seçimler ve demokrasi üzerindeki etkisiyle ilgili endişelerini dile getirdiler. Umarım bu konu herkesin ilgisini çekmeye devam eder. Dezenformasyon ve derin sahtekarlık sorununu gerçekten çözemedik. Ama iki şey beni temkinli bir şekilde iyimser yapıyor. Birincisi, insanların her şeye güvenmemeyi öğrenme yeteneğine sahip olmalarıdır. E-posta kullanıcıları, Nijeryalı bir prens gibi davranan ve kredi kartı numaralarını paylaşanlara büyük ödüller vaat eden biri tarafından yıllarca kandırıldı. Ancak sonunda çoğu insan bu e-postaları iki kez kontrol etmeyi öğrenir. Aldatmalar daha karmaşık hale geldikçe ve birçok hedef daha aldatıcı hale geldikçe, aynı farkındalığı derin sahtekarlıklar için de yaratmamız gerekiyor.
Beni umutlandıran bir başka şey de, yapay zekanın yalnızca derin sahteler yaratabilmesi değil, aynı zamanda onları tanımlamaya da yardımcı olabilmesi. Örneğin, Intel bir deepfake detektörü geliştirirken, devlet kurumu DARPA bir video veya ses üzerinde oynanıp oynanmadığının nasıl belirleneceği üzerinde çalışıyor.
Bu döngüsel bir süreç olacak: Biri kalpazanlığı tespit etmenin bir yolunu buluyor, başka biri buna nasıl karşı koyacağını buluyor, biri karşı önlem geliştiriyor vb. Mükemmel bir başarı olmayacak, ama biz de bağlı olmayacağız.
AI, insanların ve hükümetlerin saldırı başlatmasını kolaylaştırır
Bugün, bilgisayar korsanları yazılımda bir hata bulmak istediklerinde, hatayı bulana kadar potansiyel zayıflıklara saldırarak kaba kuvvet yoluyla kod yazıyorlar. Bu, birçok dolambaçlı yolu içerir, bu nedenle zaman ve sabır gerektirir.
Bilgisayar korsanlarıyla savaşmak isteyen güvenlik profesyonelleri de aynısını yapmalıdır. Telefonunuza veya dizüstü bilgisayarınıza yüklediğiniz her yazılım yaması, iyi huylu veya kötü niyetli biri tarafından onu aramak için harcanan çok zamanı temsil eder.
AI modelleri, bilgisayar korsanlarının daha verimli kod yazmasına yardımcı olarak bu süreci hızlandıracak. Ayrıca, bugün gördüğümüzden daha gelişmiş kimlik avı saldırıları geliştirmek için bireylerin nerede çalıştıkları ve arkadaşlarının kim olduğu gibi halka açık bilgileri kullanabilecekler.
İyi haber şu ki, AI hem kötü hem de iyi amaçlar için kullanılabilir. Devlet ve özel sektördeki güvenlik ekiplerinin, güvenlik açıklarını suçlular bunları istismar etmeden önce bulup düzeltmek için en son araçlara sahip olması gerekir. Yazılım güvenliği endüstrisinin bu alanda halihazırda yaptıkları çalışmaları genişleteceğini umuyorum, bu onların bir numaralı endişesi olmalı.
Bu nedenle, bazılarının öne sürdüğü gibi, insanların yapay zeka alanındaki yeni gelişmeleri uygulamalarını geçici olarak engellemeye çalışmamalıyız. Siber suçlular yeni araçlar üretmeyi bırakmayacak ve yapay zekayı nükleer silahlar ve biyoterör saldırıları tasarlamak için kullanmak isteyenler ve onları durdurmak isteyenler aynı hızda devam etmelidir.
Küresel düzeyde ilgili riskler de var: diğer devletlere karşı siber saldırılar tasarlamak ve başlatmak için bir AI silahlanma yarışı kullanılabilir. Her ülkenin hükümeti, düşman saldırılarını caydırmak için mevcut en güçlü teknolojiye sahip olmak ister. Bu "kimseye öncelik vermeme" motivasyonu, giderek daha tehlikeli hale gelen siber silahlar yaratma yarışını ateşleyebilir. Bu şekilde herkes daha kötü durumda olacaktır.
Korkunç bir fikir ama ders olarak tarihimiz var. Kusurlarına rağmen, dünyanın nükleer silahların yayılmasını önleme rejimi, benim kuşağımın korkarak büyüdüğü topyekun nükleer savaşı engelledi. Hükümetler, Uluslararası Atom Enerjisi Ajansı'na benzer bir küresel AI ajansı oluşturmayı düşünmelidir.
Yapay zeka insanlardan işleri alacak
Yapay zekanın önümüzdeki yıllarda iş üzerindeki ana etkisi, insanların işlerini daha verimli yapmalarına yardımcı olmak olacaktır. İster bir fabrikada ister satış görüşmeleri ve borç hesapları ile ilgilenen bir ofiste çalışıyor olun, bu doğrudur. Sonunda, AI'nın düşünceleri ifade etme becerisi, sizin için e-posta yazabilecek ve gelen kutunuzu yönetebilecek kadar iyi olacaktır. Sade bir İngilizce veya başka bir dilde bir talep yazabilecek ve bilgilendirici bir iş raporu oluşturabileceksiniz.
Şubat ayı yazımda da söylediğim gibi artan üretkenlik toplum için iyidir. Bu, insanların işte veya evde başka şeyler yapması için daha fazla zaman bırakır. Ve öğretmek, hastalara bakmak, yaşlılara bakmak gibi yardımsever insanlara olan ihtiyaç asla bitmeyecek.
Ancak yapay zeka odaklı bir iş yerine geçerken bazı çalışanların desteğe ve yeniden eğitime ihtiyacı var. Bu, hükümetlerin ve şirketlerin işi, ABD'deki imalat işleri kaybolduğunda insanların yaşamlarında meydana gelen türden bir aksama olmaksızın işçilerin geride kalmaması için bunu iyi yönetmektir.
Ayrıca, yeni teknolojilerin işgücü piyasasında önemli değişikliklere yol açmasının ilk kez olmadığını unutmayın. Yapay zekanın etkisinin sanayi devrimi kadar büyük olacağını düşünmüyorum ama kesinlikle kişisel bilgisayarın ortaya çıkışı kadar büyük olacak. Kelime işlem uygulamaları ofis işini ortadan kaldırmadı ama onu sonsuza kadar değiştirdi. İşverenler ve çalışanlar uyum sağlamak zorunda kaldılar ve uyum sağladılar. Yapay zekanın getirdiği dönüşüm engebeli bir geçiş olacak, ancak insanların yaşamlarına ve geçim kaynaklarına yönelik kesintileri azaltabileceğimize inanmak için her türlü neden var.
Yapay zeka önyargılarımızı devralır ve onları uydurur
Halüsinasyonlar, bir yapay zekanın kendinden emin bir şekilde doğru olmayan bazı ifadelerde bulunmasıdır ve genellikle makinenin talebinizin içeriğini anlamaması nedeniyle ortaya çıkar. Bir yapay zekadan aya yapılan bir tatil hakkında kısa bir hikaye yazmasını isteseydiniz, size çok yaratıcı bir cevap verebilirdi. Ama Tanzanya'ya bir gezi planlamanıza yardım etmesine izin verirseniz, sizi var olmayan bir otele bırakmaya çalışabilir.
Yapay zekanın bir başka riski de belirli cinsiyet kimlikleri, ırklar, etnik kökenler vb. hakkındaki mevcut önyargıları yansıtması ve hatta şiddetlendirmesidir.
Bu tür yanılsamaların ve önyargıların neden ortaya çıktığını anlamak için, en yaygın mevcut yapay zeka modellerinin nasıl çalıştığını anlamak önemlidir. Esasen, e-posta uygulamanızın yazacağınız bir sonraki kelimeyi tahmin etmesine izin veren çok karmaşık kod sürümleridir: bazı durumlarda, web'de bulunan metnin neredeyse tamamı ve çok büyük miktarda metni tarar, analiz eder, Bul İnsan dilindeki kalıplar.
AI'ya bir soru sorduğunuzda, kullandığınız kelimelere bakar ve ardından genellikle bu kelimelerle ilişkilendirilen metni arar. "Krep için malzemeleri listele" yazarsanız, "un, şeker, tuz, kabartma tozu, süt ve yumurta" kelimelerinin ifadeyle birlikte sık sık geçtiğini fark edebilir. Ardından, bu kelimelerin genellikle geçtiği sıra hakkında bildiklerine dayanarak bir yanıt üretir (bu şekilde çalışan yapay zeka modelleri sözde dönüştürücüler kullanır ve GPT-4 böyle bir modeldir).
Bu süreç, yapay zekanın, sorduğunuz soruları veya ona söylediklerinizi bağlamsal olarak anlamadan neden halüsinasyon görebileceğini veya önyargılı olabileceğini açıklıyor. Bir yazım hatası yaptığınızı söylerseniz, muhtemelen "özür dilerim, bir yazım hatası yaptım" diyecektir. Ama bu sadece bir yanılsama, hiçbir şeyi yanlış yazmıyor, "özür dilerim, yanlış yazdım" ifadesinin insanların cümleyi düzelttikten sonra sıklıkla yazdıkları şeylerden biri olduğunu bilecek kadar metni taradığı için bunu söylüyor.
Benzer şekilde, yapay zeka modelleri, üzerinde eğitildikleri metnin doğasında bulunan önyargıları miras alır. Bir kişi doktorlar hakkında çok fazla makale okursa ve makalelerde çoğunlukla erkek doktorlardan bahsedilirse, o zaman cevabı çoğu doktorun erkek olduğunu varsayar.
Bazı araştırmacılar halüsinasyonların doğuştan gelen bir sorun olduğunu iddia etse de ben buna katılmıyorum. Zamanla yapay zeka modellerine gerçeği kurgudan ayırt etmeyi öğretebileceğimiz konusunda iyimserim. Örneğin, Open AI bu konuda umut verici çalışmalar yaptı.
Alan Turing Enstitüsü ve Ulusal Standartlar ve Teknoloji Enstitüsü gibi diğer kuruluşlar önyargıyla mücadele ediyor. Bir yaklaşım, insani değerleri ve üst düzey muhakemeyi yapay zekaya dahil etmektir. Kendini tanıyan insanların çalışma şekline benzer: Belki çoğu doktorun erkek olduğunu düşünüyorsunuz, ancak bu varsayımla bilinçli olarak savaşmanız gerektiğini bilecek kadar bilinçlisiniz. Yapay zeka, özellikle modeller farklı geçmişlere sahip kişiler tarafından tasarlanırsa benzer şekilde çalışabilir.
Sonunda, AI kullanan herkesin önyargı sorununun farkında olması ve bilgili bir kullanıcı olması gerekir. Bir yapay zekadan taslağını hazırlamasını istediğiniz bir makale, olgusal hatalar olduğu kadar önyargılarla da dolu olabilir. Kendi yapay zekanızın yanı sıra yapay zekanızın önyargılarını da kontrol etmeniz gerekir.
Öğrenciler yazmayı öğrenmeyecek çünkü yapay zeka onlar için yapacak
Birçok öğretmen, yapay zekanın öğrencilerle olan çalışmalarını kesintiye uğratacağından endişe ediyor. İnternet bağlantısı olan herkesin bir tezin saygın bir ilk taslağını yazmak için yapay zekayı kullanabileceği bir çağda, bir öğrencinin tezini kendisininmiş gibi teslim etmesini ne engelleyebilir?
Bir makalenin bir insan tarafından mı yoksa bir bilgisayar tarafından mı yazıldığını söylemeyi öğrenen bazı AI araçları zaten var, böylece öğretmenler öğrencilerinin ödevlerini yapıp yapmadığını anlayabilir. Ancak bazı öğretmenler, öğrencilerini yapay zekayı yazılı olarak kullanmaktan caydırmaya çalışmak yerine, aslında onu teşvik ediyor.
Ocak ayında, Cherie Shields adlı deneyimli bir İngilizce öğretmeni Education Week'te bir makale yayınladı. sınıfında Chat GPT'yi nasıl kullandığı hakkında bir makale yayınladı. Chat GPT, öğrencilerine bir makale yazmaya başlamaktan bir taslak yazmaya ve hatta ödevleri hakkında geri bildirim sağlamaya kadar yardımcı olur.
Şöyle yazıyor: "Öğretmenler, öğrencilerin kullanabileceği başka bir araç olarak AI teknolojisini benimsemeli. Bir zamanlar öğrencilere nasıl iyi bir Google araması yapacaklarını öğrettiğimiz gibi, öğretmenler de Chat GPT botlarının makale yazmaya nasıl yardımcı olabileceği konusunda netlik tasarlamalıdır." AI'nın varlığı ve öğrencilerin onu kullanmasına yardımcı olmak, öğretme yöntemimizde devrim yaratabilir." Her öğretmenin yeni araçları öğrenmek ve kullanmak için zamanı yoktur, ancak Cherie Shields gibi eğitimciler, zamanı olan öğretmenlerin büyük fayda sağlayacağına dair iyi bir argüman sunar. .
Bu bana elektronik hesap makinelerinin 1970'lerde ve 1980'lerde popüler hale geldiği dönemi hatırlatıyor. Bazı matematik öğretmenleri, öğrencilerin temel aritmetiği öğrenmeyi bırakacağından endişe ederken, diğerleri yeni teknolojiyi benimsiyor ve aritmetiğin arkasındaki düşünceye odaklanıyor.
AI ayrıca yazma ve eleştirel düşünme konusunda da yardımcı olabilir. Özellikle halüsinasyonların ve önyargıların hala sorun olduğu ilk günlerde, eğitimciler yapay zekanın makaleler oluşturmasını ve ardından öğrencilerle bunların doğruluğunu kontrol etmesini sağlayabilir. Khan Academy ve OER Project gibi kar amacı gütmeyen eğitim kuruluşları, öğretmenlere ve öğrencilere iddiaların test edilmesine büyük önem veren ücretsiz çevrimiçi araçlar sağlar ve hiçbir beceri, gerçeği sahteden ayırmayı bilmekten daha önemli değildir.
Eğitim yazılımının başarı farkını kapatmaya yardımcı olduğundan, daha kötü hale getirmediğinden gerçekten emin olmamız gerekiyor. Bugünün yazılımları öncelikle zaten öğrenmeye motive olmuş öğrencilere yöneliktir. Sizin için bir çalışma planı oluşturabilir, sizi iyi kaynaklarla buluşturabilir ve bilginizi test edebilir. Ancak henüz ilginizi çekmeyen konulara sizi nasıl dahil edeceğini henüz bilmiyor. Bu, geliştiricilerin her türden öğrencinin yapay zekadan yararlanabilmesi için ele alması gereken bir sorundur.
**Sonra ne yapacağız? **
Yararlarını en üst düzeye çıkarırken yapay zekanın risklerini yönetebileceğimiz konusunda iyimser olmak için daha fazla nedenimiz olduğuna inanıyorum, ancak hızlı hareket etmemiz gerekiyor.
Hükümetlerin bu yeni teknolojiyle başa çıkmak için yasa ve yönetmelikler geliştirmek amacıyla yapay zeka konusunda uzmanlık geliştirmesi gerekiyor. Yanlış bilgilendirme ve derin sahtekarlıklar, güvenlik tehditleri, iş piyasasındaki değişiklikler ve bunun eğitim üzerindeki etkisi ile uğraşmaları gerekiyor. Sadece bir örnek: Herkesin gördüğü veya duyduğu şeyin sahte olduğunu anlaması için, yasanın deepfake'lerin hangi kullanımlarının yasal olduğunu ve deepfake'lerin nasıl etiketlenmesi gerektiğini netleştirmesi gerekiyor.
Siyasi liderlerin seçmenlerle bilinçli, düşünceli bir diyalog kurabilmeleri gerekir. Ayrıca bu konularda tek başlarına gitmek yerine diğer ülkelerle ne kadar işbirliği yapacaklarına da karar vermeleri gerekiyor.
Özel sektörde yapay zeka şirketlerinin işlerini güvenli ve sorumlu bir şekilde yapması gerekiyor. Bu, insanların mahremiyetini korumayı, yapay zeka modellerinin temel insani değerleri yansıtmasını sağlamayı, olabildiğince çok kişiye fayda sağlamak için önyargıyı en aza indirmeyi ve teknolojinin suçlular veya teröristler tarafından istismar edilmesini önlemeyi içerir. Ekonominin birçok sektöründeki şirketlerin, kimsenin geride kalmaması için çalışanlarının yapay zeka merkezli bir işyerine geçişine yardımcı olması gerekecek. Ve müşteriler her zaman bir yapay zekayla mı yoksa bir insanla mı etkileşim kurduklarını bilmelidir.
Son olarak herkesi yapay zekanın gelişimine mümkün olduğunca çok dikkat etmeye davet ediyorum. Bu, hayatımızda göreceğimiz en dönüştürücü yenilik ve sağlıklı bir kamuoyu tartışması, herkesin teknolojinin kendisini, faydalarını ve risklerini anlamasına bağlı olacaktır. Yapay zekanın faydaları çok büyük olacak ve riskleri kontrol edebileceğimize inanmamızın en iyi nedeni bunu başarmış olmamız.