Yapay zekanın yedi devi Beyaz Saray'da 8 büyük vaatte bulundu.Ne sözü verdiler?

Meta'nın yeni nesil açık kaynak kodlu büyük dil modeli Llama 2'yi duyurmasından sadece üç gün sonra, şirketin üst düzey yöneticileri Microsoft, OpenAI, Amazon, Anthropic ve AI endüstrisindeki diğer yedi dev ve yeni başlayan şirketlerin yöneticileri, Amerika Birleşik Devletleri'ndeki Beyaz Saray'da yeniden bir araya geldi.

Bu etkinlikte, yedi şirket bir "Gönüllü Taahhütler" (Gönüllü Taahhütler) imzalayarak yapay zeka teknolojisi ve Ar-Ge'nin güvenliği, şeffaflığı ve riskleri hakkında "8 büyük taahhüt" verdi.

Görsel kaynağı: Unbounded AI tarafından oluşturuldu

AI şirketinin "denetim arayışı" draması burada küçük bir doruk noktasına ulaştı.

NYT köşe yazarı Kevin Roose, "8 büyük vaadin" neler söylediğini ve bunların getirdiği değişiklikleri ayrıntılı olarak açıklayan bir makale yazdı.

Araştırmanın sonucu, güvenlik testi, AI güvenlik bilgilerinin paylaşılması, güvenlik açıklarının bildirilmesi ve "sosyal zorlukları çözmek için AI'ya öncelik verilmesi" gibi bu 8 taahhüdün bazı büyük sorunlar gibi göründüğü ve ilgili taahhütlerin ayrıntıdan yoksun olduğudur.

Bu "Kaynak Taahhüt Mektubu" daha çok, ABD düzenleyicilerinden yapay zeka şirketlerine son altı ay içinde yapılan çeşitli soruşturmaların dolaylı bir "sonuç gösterimi" gibidir ve muhtemelen uygulama açısından fazla bir önemi yoktur. Bununla birlikte, düzenleyiciler, hükümetin AI teknolojisinin uygulanması konusundaki pozisyonunun bu gösterinin en büyük önemi olduğunu belirterek, AI ile ilgili endişelerini birkaç kez dile getirdiler.

Kevin Roose'un "Gönüllü Taahhüt Mektubu"ndaki 8 taahhüde ilişkin yorumu şöyledir:

** Taahhüt 1: Şirket, yapay zeka sistemlerini piyasaya sürmeden önce dahili ve harici güvenlik testleri yapmayı taahhüt eder. **

Bu AI şirketlerinin tümü, piyasaya sürülmeden önce modelleri üzerinde - genellikle "kırmızı ekip testi" olarak anılan - güvenlik testleri gerçekleştirdi. Bir bakıma bu gerçekten yeni bir vaat değil, belirsiz. Ne tür testlerin gerekli olacağı veya kimin tarafından yapılacağı konusunda ayrıntı verilmedi.

Sonraki bir açıklamada Beyaz Saray, yalnızca yapay zeka modellerinin test edilmesinin "kısmen bağımsız uzmanlar tarafından yürütüleceğini" ve "biyogüvenlik ve siber güvenlik gibi yapay zeka risklerine ve bunların daha geniş toplumsal etkilerine" odaklanılacağını söyledi.

Yapay zeka şirketlerinin bu tür testlere devam etmeyi taahhüt etmesi ve test sürecinde daha fazla şeffaflığı teşvik etmesi iyi bir fikirdir. Ayrıca, hükümet ve askeri yetkililerin şirketlerden daha iyi değerlendirebilecekleri bazı yapay zeka riskleri de vardır - yapay zeka modellerinin biyolojik silahlar geliştirmek için kullanılabileceği tehlikesi gibi.

AI endüstrisinin, Hizalama Araştırma Merkezi'nin OpenAI ve Anthropic'in yayın öncesi modelleri için yaptığı "kendi kendini kopyalama" testleri gibi bir dizi standart güvenlik testi üzerinde anlaştığını görmekten memnunum. Ayrıca federal hükümetin, yüksek maliyetli olabilecek ve önemli teknik uzmanlığa sahip mühendisler gerektirebilecek bu tür testleri finanse ettiğini görmek isterim. Şu anda birçok güvenlik testi şirketler tarafından finanse edilmekte ve denetlenmektedir, bu da bariz çıkar çatışması sorunlarına yol açmaktadır.

** Taahhüt 2: Şirket, yapay zeka risklerinin yönetilmesine ilişkin bilgileri sektör genelinde ve hükümet, sivil toplum ve akademi ile paylaşmayı taahhüt eder. **

Bu söz de biraz belirsiz. Bu şirketlerden bazıları, genellikle akademik makalelerde veya kurumsal blog gönderilerinde yapay zeka modelleri hakkında bilgi yayınladı. OpenAI ve Anthropic dahil olmak üzere bu şirketlerden bazıları, bu modelleri daha güvenli hale getirmek için attıkları adımları özetleyen "Kartlar" adlı belgeler de yayınladılar.

Ancak bazen güvenlik endişelerini gerekçe göstererek bilgileri de saklıyorlar. OpenAI bu yıl en son yapay zeka modeli GPT-4'ü piyasaya sürdüğünde, eğitim verilerinin ne kadar büyük olduğunu veya modelinin ne kadar büyük olduğunu ("parametreler" adı verilen bir ölçüm) açıklamamayı seçerek endüstri geleneğini bozdu. Şirket, rekabet ve güvenlik endişeleri nedeniyle bilgileri açıklamayı reddettiğini söyledi. Aynı zamanda, teknoloji şirketlerinin rakiplerinden uzak tutmayı sevdiği türden veriler de oluyor.

Bu yeni taahhütler kapsamında, AI şirketleri bu tür bilgileri ifşa etmeye zorlanacak mı? Ya bunu yapmak bir AI silahlanma yarışını hızlandırma riski taşıyorsa?

Beyaz Saray'ın amacının şirketleri parametre numaralarını açıklamaya zorlamak değil, daha çok onları modellerinin ortaya koyduğu (veya koymadığı) riskler hakkında birbirleriyle bilgi alışverişinde bulunmaya teşvik etmek olduğundan şüpheleniyorum.

Ancak bu bilgi paylaşımı bile riskli olabilir. Google'ın AI ekibi, yayın öncesi testler sırasında yeni modellerin ölümcül biyolojik silahlar tasarlamak için kullanılmasını engellerse, bu bilgiyi Google dışında paylaşmalı mı? Bu, kötü oyunculara aynı görevi gerçekleştirmek için daha az korumalı bir modelin nasıl elde edileceği konusunda fikir veriyor mu?

** Taahhüt 3: Şirket, tescilli ve yayınlanmamış model ağırlıklarını korumak için siber güvenlik ve içeriden gelen tehditlere karşı koruma önlemlerine yatırım yapmayı taahhüt eder. **

Bu soru çok basit ve konuştuğum AI içerdekiler arasında tartışmalı değil. "Model Ağırlıkları", AI modellerine çalışma yeteneği veren matematiksel talimatlara atıfta bulunan teknik bir terimdir. Kendi ChatGPT sürümünüzü veya başka bir AI ürününü oluşturmak isteyen bir yabancı hükümetin (veya rakip bir şirketin) temsilcisiyseniz, çalmak istediğiniz şey ağırlıklardır. AI şirketleri, bunu sıkı bir şekilde kontrol etme konusunda kazanılmış bir çıkara sahiptir.

Model ağırlık sızıntısı sorunu iyi bilinmektedir.

Örneğin, Meta'nın orijinal LLaMA dil modelinin ağırlıkları, modelin halka açıklanmasından birkaç gün sonra 4chan ve diğer sitelere sızdırıldı. Daha fazla sızıntı riski ve diğer ülkelerin teknolojiyi ABD şirketlerinden çalmakla ilgilenme olasılığı göz önüne alındığında, yapay zeka şirketlerinin kendi güvenliklerine daha fazla yatırım yapmalarını istemek hiç akıllıca görünüyor.

** Taahhüt 4: Her iki şirket de yapay zeka sistemlerindeki güvenlik açıklarının üçüncü taraflarca keşfedilmesini ve raporlanmasını kolaylaştırmayı taahhüt eder. **

Bunun ne anlama geldiğinden pek emin değilim. Her yapay zeka şirketi bir model yayınladıktan sonra, genellikle kullanıcıların modelle kötü şeyler yapmaya çalışması veya şirketin öngörmediği şekillerde "jailbreak"i atlatmaya çalışması nedeniyle modelinde delikler keşfeder.

Beyaz Saray, şirketlerden güvenlik açıkları için "sağlam raporlama mekanizmaları" oluşturmalarını talep etme sözü verdi, ancak bunun ne anlama geldiği belli değil.

Facebook ve Twitter kullanıcılarının rahatsız edici gönderileri bildirmesine izin verenlere benzer bir uygulama içi geri bildirim düğmesi? OpenAI'nin bu yıl sistemlerinde hata bulan kullanıcıları ödüllendirmek için başlattığı program gibi bir hata ödül programı mı? Başka bir şey var mı? Daha fazla ayrıntı için beklememiz gerekecek.

** Taahhüt 5: Şirket, filigran sistemleri gibi içeriğin yapay zeka tarafından üretildiğinde kullanıcıların bunu bilmesini sağlamak için güçlü teknik mekanizmalar geliştirmeyi taahhüt eder. **

Bu ilginç bir fikir, ancak yorum için çok yer bırakıyor.

Şimdiye kadar AI şirketleri, insanların AI tarafından oluşturulan içeriği görüntüleyip görüntülemediklerini anlamalarına olanak tanıyan araçlar tasarlamak için mücadele etti. Bunun için iyi teknik nedenler var, ancak insanların yapay zeka tarafından üretilen işleri kendilerininmiş gibi gösterebilmeleri gerçek bir sorundur (herhangi bir lise öğretmenine sorun).

AI'nın çıktısını tespit edebildiği ilan edilen mevcut araçların çoğu, aslında bunu herhangi bir doğruluk derecesiyle yapamaz.

Bu sorunun tamamen çözüleceği konusunda iyimser değilim, ancak şirketlerin bu konuda çalışmaya kararlı olmasından memnunum.

**Taahhüt 6: Şirketler, AI sistemlerinin yetenekleri, sınırlamaları ve uygun ve uygunsuz kullanım alanları hakkında halka açık bir şekilde raporlama yapmayı taahhüt eder. **

Pek çok kıpırdama alanıyla kulağa mantıklı gelen başka bir taahhüt.

Şirketler, sistemlerinin yetenekleri ve sınırlamaları hakkında ne sıklıkla rapor vermeye ihtiyaç duyar? Bu bilgiler ne kadar ayrıntılı olmalıdır? Yapay zeka sistemleri kuran birçok şirketin, olaydan sonra sistemlerinin yetenekleri karşısında şaşırdığını düşünürsek, bu sistemleri gerçekten ne kadar önceden tanımlayabilirler?

** Taahhüt 7: Şirketler, zararlı önyargı ve ayrımcılıktan kaçınmak ve mahremiyeti korumak da dahil olmak üzere yapay zeka sistemlerinin toplum için oluşturabileceği risklere ilişkin araştırmalara öncelik vermeyi taahhüt eder. **

"Araştırmaya öncelik verme" taahhüdü belirsiz bir taahhüttür. Yine de, bu taahhüdün, AI güvenlik görevlilerinin yaptığı gibi kıyamet günü senaryoları hakkında endişelenmek yerine, AI şirketlerinin önyargı ve ayrımcılık gibi kısa vadeli zararları önlemeye öncelik vermesini isteyen AI etik topluluğundaki birçok kişi tarafından memnuniyetle karşılanacağına inanıyorum.

"AI etiği" ile "AI güvenliği" arasındaki fark konusunda kafanız karıştıysa, AI araştırma topluluğu içinde her biri diğerinin hatalardan kaynaklanan zararı önlemeye odaklandığına inanan iki rakip grup olduğunu bilin.

** Taahhüt 8: Her iki şirket de toplumun en büyük zorluklarını çözmeye yardımcı olmak için gelişmiş yapay zeka sistemleri geliştirmeye ve uygulamaya kararlıdır. **

Pek çok insanın, gelişmiş yapay zekanın toplumun en büyük zorluklarını çözmeye yardımcı olmak için kullanılmaması gerektiğini tartışacağını sanmıyorum. Beyaz Saray'ın, yapay zeka şirketlerinin odaklanmasını istediği iki alan olarak kanserin önlenmesi ve iklim değişikliğinin hafifletilmesi olduğunu söylemesine katılmıyorum.

Ancak bu hedefi biraz karmaşıklaştıran şey, yapay zeka araştırmalarında ilk başta sıkıcı görünen şeylerin daha ciddi sonuçlar doğurmasıdır.

Go masa oyunu oynamak için eğitilmiş bir yapay zeka sistemi olan DeepMind's AlphaGo tarafından kullanılan bazı teknikler, proteinlerin üç boyutlu yapısını tahmin etmede son derece yararlı olmuştur, temel bilimsel araştırmaları ilerleten önemli bir keşif.

Genel olarak, Beyaz Saray'ın AI şirketleriyle yaptığı anlaşmalar, önemli olmaktan çok sembolik görünüyor. Şirketlerin bu taahhütlere uymasını sağlayacak herhangi bir uygulama mekanizması yoktur ve bunların çoğu zaten yapay zeka şirketleri tarafından alınan önlemleri yansıtır.

Yine de makul bir ilk adım.

Bu kurallara uymayı kabul etmek, yapay zeka şirketlerinin hükümetlerle ilişki kurmadan önce başlarının belaya girmesini bekleyen ilk teknoloji şirketlerinin başarısızlıklarından ders çıkardığını gösteriyor. Washington'da, en azından teknoloji düzenlemesi söz konusu olduğunda, erken ortaya çıkmakta fayda var.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)