Birleşik Krallık Yapay Zeka Güvenlik Zirvesi Önizlemesi: Neden Şimdi, Neden Birleşik Krallık

Yazan: Ingrid Lunden

Kaynak: TechCrunch

Görüntü kaynağı: Sınırsız Yapay Zeka tarafından oluşturulmuştur

Yapay zekanın vaadi ve zararları bugünlerde sıcak konular. Bazı insanlar yapay zekanın bizi kurtaracağını, bazı kötü huylu hastalıkların teşhisine yardımcı olacağını, eğitimdeki dijital uçurumu kapatacağını vb. söylüyor. Ancak savaş, güvenlik, yanlış bilgilendirme ve daha fazlası için oluşturduğu tehditle ilgili endişeler de var. Sıradan insanlar için bir eğlence haline geldi ve iş dünyasında alarm çaldı.

Yapay zeka çok kullanışlıdır, ancak gevezelikle dolu bir odanın gürültüsünü henüz susturamaz. Bu hafta, akademisyenler, düzenleyiciler, hükümet liderleri, start-up'lar, büyük teknoloji şirketleri ve düzinelerce kar amacı gütmeyen ve kar amacı gütmeyen kuruluş, yapay zekayı tartışmak ve tartışmak için Birleşik Krallık'ta bir araya geliyor.

Neden İngiltere? Neden şimdi? **

Çarşamba ve Perşembe günleri İngiltere, Birleşik Krallık'ta türünün ilk örneği olan Bletchley Park'ta AI Güvenlik Zirvesi'ne ev sahipliği yapacak.

Zirve, yapay zekanın yarattığı bazı uzun vadeli sorunları ve riskleri keşfetmek için birkaç ay boyunca planlandı. Zirvenin hedefleri somut olmaktan ziyade idealdir: "sınır yapay zekasının yarattığı risklerin ve eylem ihtiyacının ortak bir şekilde anlaşılması", "ulusal ve uluslararası çerçevelerin en iyi şekilde nasıl destekleneceği de dahil olmak üzere sınır yapay zeka güvenliği konusunda uluslararası işbirliği için ileriye dönük bir süreç", "kuruluşlar sınır yapay zekasının güvenliğini artırmak için uygun önlemleri almalıdır" vb.

Bu üst düzey arzu, katılımcıların kimliklerine de yansıyor: üst düzey hükümet yetkilileri, endüstri liderleri ve alanın önde gelen düşünürleri hazır bulunacak. (Son raporlara göre: Elon Musk, Başkan Biden, Justin Trudeau ve Olaf Scholz, diğerleri arasında katılacak).

Zirve kulağa özel geliyordu ve öyleydi: zirvenin "altın bileti" (Londra merkezli teknoloji kurucusu ve yazar Azeem Azhar tarafından tanımlandı) yetersizdi. Zirvenin küçük çaplı ve çoğunlukla kapalı olacağı bildiriliyor. Bu etkinlikler arasında Royal Society'deki (Ulusal Bilimler Akademisi) konuşmalar; Birden fazla şehirde büyük ölçekli "AI Fringe" konferansları ve diğerlerinin yanı sıra birçok görev gücünden duyurular.

Cambridge Üniversitesi'ndeki Mindelow Teknoloji ve Demokrasi Merkezi'nin yönetici direktörü Gina Neff, geçen hafta Royal Society'de bilim ve güvenlik üzerine bir akşam panelinde şunları söyledi: "Daha önce ele aldığımız zirvenin rolünü oynayacağız. Yani Bletchley'de yapılacak bir etkinlik yapması gerekeni yapacak, etkinlik kapsamında olmayanlar ise insanların başka konularda beyin fırtınası yapması için bir fırsat olacak. "

Neff'in panel tartışması buna bir örnekti: Kraliyet Cemiyeti'nin tıklım tıklım dolu bir salonunda, İnsan Hakları İzleme Örgütü temsilcileri, büyük sendika Unite'den devlet yetkilileri, Tech Global Institute'un kurucusu, Küresel Güney'deki teknoloji eşitliği konularına odaklanan bir düşünce kuruluşu, yeni kurulan Stability AI'nın kamu politikası başkanı ve Cambridge Üniversitesi'ndeki bilgisayar bilimcileri ile birlikte oturdu.

Aynı zamanda, sözde AI uç toplantısının yalnızca nominal bir "kenar" olduğu söylenebilir. Bletchley Zirvesi'nin hafta boyunca aynı yerde gerçekleşmesiyle, çok sınırlı bir konuk listesi ve neyin tartışıldığını öğrenmek için eşit derecede sınırlı fırsatlarla, AI Edge oturumu hızla Bletchley'e genişletildi ve konferans gündemini detaylandırdı. Etkinliğin hükümet tarafından değil, Milltown Partners (DeepMind, Stripe ve risk sermayesi şirketi Atomico gibi şirketleri temsil eden) adlı bir PR firması tarafından düzenlendiği bildirildi ve ilginç bir şekilde, tam bir hafta sürdü, ülke genelinde birden fazla yerde düzenlendi ve bilet alabilenler için ücretsizdi (etkinliklerin çoğu satıldı) ve oturumların çoğu akış hizmetlerinde de mevcuttu.

Çeşitliliğe rağmen, yapay zeka tartışmasının, emekleme dönemine rağmen, hala bu kadar bölünmüş olduğunu görmek çok üzücüydü: biri iktidar güçlerinin bir toplantısıydı (çoğu sadece davetli misafirlere açıktı) ve diğeri geri kalanımızın bir toplantısıydı.

Bugün erken saatlerde, 100 sendika ve aktivistten oluşan bir grup, başbakana bir mektup göndererek, hükümetin Bletchley Park'a katılmalarına izin vermeyerek konuşmadaki seslerini "sıkıştırdığını" söyledi. (Biletleri almamış olabilirler, ancak onlara karşı çıkma biçimleri kesinlikle mantıklıydı: grup, mektubu Financial Times gibi ülkenin en seçkin ekonomik yayınlarıyla paylaşarak kamuoyuna duyurdu).

Soğukta bırakılanlar sadece sıradan insanlar değil. Oxford Üniversitesi Felsefe Bölümü'nde öğretim görevlisi olan Carissa Véliz, bugünkü AI Edge etkinliğinde şunları söyledi: "Tanıdığım insanların hiçbiri davet edilmedi. "

Bazıları düzene sokmanın faydaları olduğuna inanıyor.

Yapay zeka araştırma bilimcisi Marius Hobbhahn, yapay zeka güvenlik araçları geliştiren Apollo Research'ün kurucu ortağı ve müdürüdür. Daha az sayıda insanın da daha fazla dikkat çekebileceğine inanıyor: "Odada ne kadar çok insan olursa, herhangi bir sonuç çıkarmak veya etkili bir tartışma yapmak o kadar zor olur" dedi.

Daha geniş anlamda, zirve sadece bir "tuğla" ve şu anda devam etmekte olan daha geniş bir konuşmanın parçası. Geçen hafta, İngiltere Başbakanı Rishi Sunak, yapay zekanın etkisini incelemek için daha fazla zaman ve çaba harcamak için Birleşik Krallık'ta yeni bir yapay zeka güvenlik enstitüsü ve bir araştırma ağı kurmayı planladığını söyledi; Yoshua Bengio ve Geoffrey Hinton liderliğindeki bir grup önde gelen akademisyen, "Hızlı İlerleme Çağında Yapay Zeka Riskini Yönetmek" başlıklı bir makale ile toplu olarak bu alana daldı; Birleşmiş Milletler ayrıca yapay zekanın etkisini araştırmak için kendi görev gücünün oluşturulduğunu duyurdu. Son zamanlarda, ABD Başkanı Joe Biden, yapay zeka güvenlik standartlarını belirlemek için ABD'nin kendi yürütme emrini de yayınladı.

"Varoluşsal Risk"

En büyük tartışmalardan biri, yapay zekanın "varoluşsal bir risk" oluşturduğu fikrinin, daha doğrudan yapay zeka etkinliğinin incelemesini ortadan kaldırmak için abartılı veya hatta kasıtlı olup olmadığıdır.

Cambridge Üniversitesi'nde sistem matematiği profesörü olan Matt Kelly, en sık alıntı yapılan alanlardan birinin yanlış bilgi olduğuna dikkat çekiyor.

"Yanlış bilgi yeni değil. Bu yüzyılda ya da geçen yüzyılda yeni bir şey bile değil" dedi geçen hafta verdiği bir röportajda. "Ancak bu, kısa ve orta vadede AI için potansiyel riskler olduğunu düşündüğümüz alanlardan biri. Ve bu riskler zamanla yavaş yavaş gelişir. Royal Society of Scientry'nin bir üyesi olan Kelly, topluluğun ayrıca, büyük dil modellerinin birbirleriyle rekabet etmeye çalışırken nasıl davranacağını görmek için zirve sırasında özellikle bilimdeki yanlış bilgiler için kırmızı-mavi bir ekip çalışması yürüttüğünü söyledi. Bu, şu anda risklerin ne olduğunu daha iyi anlama girişimidir."

Birleşik Krallık hükümeti bu tartışmaya iki yüzlü bir yaklaşım benimsiyor gibi görünüyor ve tehlike, düzenlediği etkinliğin adı olan AI Güvenlik Zirvesi'nden daha belirgin.

Sunak, geçen hafta yaptığı konuşmada, "Şu anda karşı karşıya olduğumuz riskler konusunda ortak bir anlayışa sahip değiliz. "Bu fikir birliği olmadan, bu riskleri birlikte ele almayı bekleyemeyiz." Bu nedenle, bu risklerin doğası hakkında ilk uluslararası açıklama için güçlü bir baskı yapacağız."

Ancak zirveyi kurarken, Birleşik Krallık ilk olarak kendisini "yapay zeka hakkında konuştuğumuzda ne hakkında konuştuğumuzun" gündemini belirlemede merkezi bir oyuncu olarak konumlandırdı ve kesinlikle ekonomik bir bakış açısına sahip.

Sunak, "İngiltere'yi güvenli yapay zekada küresel bir lider haline getirerek, bu yeni teknolojiler dalgasından daha fazla yeni iş ve yatırım çekeceğiz" dedi. (Not diğer departmanlar tarafından da alındı: İçişleri Bakanı bugün, yapay zeka tarafından oluşturulan cinsel istismar görüntülerinin çoğalmasıyla mücadele etmek için İnternet İzleme Vakfı ve TikTok ve Snap gibi bir dizi büyük tüketici uygulaması şirketi ile bir etkinliğe ev sahipliği yaptı).

Big Tech'i dahil etmek bir şekilde yardımcı olabilir gibi görünebilir, ancak eleştirmenler bunu da bir sorun olarak görme eğilimindedir. Sektördeki daha büyük güç oyuncularının riskleri ve korumaları tartışmak ve geliştirmek için proaktif adımlar attığı "düzenleyici yakalama", cesur yeni yapay zeka dünyasında bir başka büyük tema olmuştur ve bu haftaki zirve de farklı değildir.

"Ellerini kaldırıp 'ben, ben' diyen yapay zeka liderlerine karşı dikkatli olun." Yapay zeka çip üreticisi Graphcore'un CEO'su Nigel Toon, bu hafta yapılacak zirve hakkında yazdığı bir makalede zekice dikkat çekti: "Hükümetlerin devreye girmesi ve bunun için sözlerini alması muhtemeldir." (Yine de tamamen marjinal değil: zirveye kendisi katılacak.)

Aynı zamanda, birçok insan hala mevcut sözde varoluşsal riskin düşünmede yararlı bir egzersiz olup olmadığını tartışıyor.

Stability AI'nın kamu politikası başkanı Ben Brooks, Royal Society'deki bir panel tartışmasında, "Bence sınırlar ve yapay zeka retoriği bizi geçen yıl boyunca teknoloji korkusu durumuna soktu" dedi ve "Ataç Maxing" düşünce deneyini gösterdi - AI'nın insan ihtiyaçlarına veya güvenliğine bakılmaksızın ataç oluşturarak dünyayı yok edebileceği - bu kasıtlı olarak sınırlayıcı yaklaşımın bir örneği olarak. "Yapay zekanın hangi koşullar altında konuşlandırılabileceğini düşünmüyorlar. Ancak güvenli bir şekilde geliştirebilirsiniz. Herkesin bundan ilham almasını ve yapay zekanın ulaşılabilir ve güvenli olduğunu anlamasını istiyoruz. "

Diğerleri daha az kesindir.

Apollo Research'ten Hobbhahn, "Adil olmak gerekirse, varoluşsal riskin doğru olduğunu düşünmüyorum. "Buna felaket riski diyelim." Son yıllardaki gelişme hızı göz önüne alındığında, üretken yapay zeka uygulamaları büyük dil modellerini ana akım haline getirdi ve en büyük endişenin bir isyanda yapay zekanın kendisinden ziyade yapay zekayı kullanan kötü aktörler olmaya devam edeceğine inanıyor: biyolojik savaş için kullanmak, ulusal güvenlik durumu ve demokratik süreci değiştirebilecek yanlış bilgiler. Tüm bunların, AI'nın felaket bir rol oynayacağına inandığı alanlar olduğunu söyledi.

"Turing Ödülü kazananlar, hayatta kalma ve felaket riskleri konusunda açıkça endişe duyuyorlar... Bunu gerçekten düşünmeliyiz" diye ekledi.

İş Beklentileri

Ciddi riskler olsa da Birleşik Krallık, yapay zeka hakkında büyük konuşmalara ev sahipliği yaparak ülkeyi yapay zeka şirketleri için doğal bir yuva haline getirmek istiyor. Ancak bazı analistler, yapay zekaya yatırım yapmanın yolunun bazılarının tahmin ettiği kadar sorunsuz olmayabileceğine inanıyor.

Gartner'ın kurumsal başkan yardımcısı analisti Avivah Litan, "İşletmelerin, üretkenliği ve geliri gerçekten artırabilecek güvenilir çıktılar elde etmek için üretken yapay zeka projelerine ne kadar zaman ve para ayırmaları gerektiğini anlamaya başladıkları gerçeğinin ortaya çıkmaya başladığını düşünüyorum" dedi. "Projede yinelemeli ayarlamalar ve mühendislik yapsalar bile, yine de operasyonların ve çıktıların manuel olarak denetlenmesine ihtiyaçları var. Kısacası, GenAI'nin çıktısı yeterince güvenilir değildir ve onu güvenilir kılmak için çok fazla kaynak gerektirir. Tabii ki, model her zaman gelişiyor, ancak pazarın mevcut durumu bu. Yine de, aynı zamanda, üretim aşamasına giren daha fazla proje görüyoruz. "

Yapay zeka yatırımlarının "yapay zeka kullanan işletmelerin ve devlet kurumlarının büyümesini kesinlikle yavaşlatacağına" inanıyor. Satıcılar yapay zeka uygulamalarını ve ürünlerini zorluyor, ancak işletmeler bunları zorlandıkları kadar hızlı benimseyemiyor. Ayrıca, bir kuruluş içinde bile gizli bilgilere kolay erişimi demokratikleştirmek gibi GenAI uygulamalarıyla ilişkili birçok risk vardır. "

Tıpkı "dijital dönüşüm" gerçekte daha yavaş yanan bir kavram olduğu gibi, bir işletmenin yapay zeka yatırım stratejisinin de daha fazla zamana ihtiyacı vardır. "İşletmelerin yapılandırılmış ve yapılandırılmamış veri kümelerini kilitlemeleri ve izinleri doğru ve verimli bir şekilde ayarlamaları zaman alıyor. Kuruluşta o zamana kadar gerçekten önemli olmayan çok fazla aşırı paylaşım var. Litan, "Artık herkes, İngilizce gibi basit bir ana dil komutu kullanarak başkalarının yeterince korunmadığı herhangi bir dosyaya erişebilir" diye ekliyor. "

Yapay zekanın ticari çıkarlarının Bletchley Park'ın tartışacağı güvenlik ve risk konularıyla nasıl dengeleneceği, önümüzdeki görev hakkında çok şey söylüyor, ancak aynı zamanda durumun gerginliğini de vurguluyor. Konferansın ilerleyen saatlerinde, Bletchley'in organizatörlerinin, tartışmayı üst düzey güvenlik endişelerinin ötesinde, sağlık hizmetleri gibi risklerin gerçekten ortaya çıkabileceği alanlara genişletmek için çalıştıkları bildirildi, ancak bu değişiklik şu anda açıklanan gündemde ayrıntılı olarak açıklanmadı.

"Küçük olmayan yaklaşık 100 uzmandan oluşan bir yuvarlak masa olacak. Ben bir eleştirmenim, ama kulağa kötü bir fikir gibi gelmiyor" diyor Cambridge Üniversitesi'nde profesör olan Neff. "Şimdi, küresel düzenleme bir tartışma konusu olacak mı? Kesinlikle hayır. Doğu-Batı ilişkilerini normalleştirecek miyiz? Muhtemelen değil. Ama zirveye yaklaşıyoruz. Bu noktada çok ilginç fırsatlar olabileceğini düşünüyorum. "

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)