Kaynak: Power Plant, Yazar: Zhang Yongyi, Editör: Gao Yulei
Resim kaynağı: Unbounded AI aracı tarafından oluşturulmuştur
31 Temmuz'da Apple'ın Çin'deki App Store'unda bulunan chatgpt ürünleri toplu olarak raflardan kaldırıldı.Apple'a göre ilgili ürünlerin işletim lisansı alması gerekiyor.
Sadece Çin değil, bu alanda rekabet etmeye kararlı olan ABD ve Avrupa da aktif olarak mevzuat ve düzenlemeleri uygularken inovasyonu teşvik ediyor.
Nisan 2021'de Avrupa Komisyonu, ilk olarak makine öğrenimi uygulamalarının işleyişi ve yönetişimi için yapay zekanın düzenlenmesini öneren bir düzenleyici yapı önerisi yayınladı. O zamanlar yapay zeka endüstrisindeki en popüler görüş, Wu Enda'nın "günümüzde yapay zeka için endişelenmek, Mars'taki aşırı nüfus hakkında endişelenmek gibidir" şeklindeki ünlü esprisiydi.
Ancak 2023'e kadar böyle bir görüş artık ana akım haline gelemez: Üretken yapay zekanın dünyaya insanların yerini alacak ve mevcut dünyayı tamamen değiştirecek büyük potansiyeli göstermesi 6 aydan az sürdü - tıpkı İkinci Dünya Savaşı'nda geliştirildiği gibi. nükleer silah gibi.
Fizikçi J-Robert Oppenheimer, dünyanın ilk atom bombasının geliştirilmesine öncülük etti. O zamanlar, 2. Dünya Savaşı sona ermişti, ancak insanlık tarihindeki en korkunç silah olan nükleer bomba, tarihsel eğilime hâlâ büyük ölçüde hakimdi: Amerika Birleşik Devletleri Hükümet, Oppenheimer gibi uzmanların "nükleer silahların yayılmasının benzeri görülmemiş bir silahlanma yarışına yol açacağı" yönündeki eleştiri ve önerilerini benimsemedi ve bu da sonunda Amerika Birleşik Devletleri ile temsil ettiği Sovyetler Birliği arasında bir nükleer silahlanma yarışının patlak vermesine yol açtı. "süper nükleer bomba" hidrojen bombasının gelişimi - ve Küba Füze Krizi sırasında, neredeyse tüm insan uygarlığı kurtuluşun ötesinde karanlık bir uçuruma sürüklendi.
Oppenheimer'ın karşılaştığı krizin, insanların karşılaştığı mevcut "AI Omnic Crisis" ile pek çok benzerliği var: İnsanlar AI'yı kendilerini daha büyük ve kontrol edilemez bir geleceğe sürüklemek için kullanmadan önce, onu daha büyük ve kontrol edilemez bir geleceğe yönlendirin.Belki de en iyi yol, denetimi güvenli bir yolda uygulamak.
2021'de, Avrupa Birliği'nin "yağmurlu bir güne hazırlığı", nihayetinde insanlık tarihindeki yapay zeka endüstrisi için ilk düzenleyici çerçeve haline geldi - aynı zamanda Avrupa Birliği'nin Yapay Zeka Yasasının (AI Yasası) öncülüdür.
Ancak yasa koyucular bu tasarıyı tasarlarken, 2022'nin sonuna kadar üretken yapay zekanın veya büyük modellerin var olmasını beklemiyorlardı. büyük model kullanımının şeffaflığı ve kullanıcı verilerinin toplanması/kullanımının düzenlenmesi.
Şu anda, bu yasa tasarısı Avrupa Parlamentosu tarafından Haziran ayı ortasında oylanmıştır.Nihai şartlar için bir sonraki adım, yasanın üç AB karar organı olan Parlamento, Konsey ve Komisyon arasındaki müzakerelerde sonuçlandırılmasıdır. Bir anlaşmaya varılacak ve nihayet yürürlüğe girecek.
Çin'de, üretken AI ile ilgili mevzuat da devam ediyor: 13 Temmuz'da, yedi bakanlık ve komisyon tarafından ortaklaşa "Üretken Yapay Zeka Hizmetlerinin İdaresi için Geçici Tedbirler" (bundan sonra toplu olarak "Geçici Tedbirler" olarak anılacaktır) yayınlandı. Çin Siber Uzay İdaresi de dahil olmak üzere, Ağustos ayında yürürlüğe girecek.
Bu, nihayet uygulanacak olan ilk üretken yapay zeka yönetimi düzenlemesi olabilir. "AI Yasama Yarışı"nın son turunda, Çin'in AI mevzuat süreci onu aştı ve üretken alanda en hızlı büyüyen özel düzenleme haline geldi. Al.
Birleşik Krallık ve Amerika Birleşik Devletleri gibi yapay zeka gelişiminin ilk kademesinde yer alan diğer ülkelerde de yapay zeka ile ilgili düzenleyici mevzuat devam ediyor: 16 Mart'ta ABD Telif Hakkı Bürosu, telif hakkı yasası ve politika konularını incelemek için bir girişim başlattı. yapay zeka teknolojisinden kaynaklanan: yapay zeka araçları kullanılarak oluşturulan eserlerdeki telif hakkı kapsamı ve makine öğrenimi amacıyla telif hakkıyla korunan materyallerin kullanımı dahil. Birleşik Krallık hükümeti ilk yapay zeka düzenleme çerçevesini 4 Nisan'da yayınladı. O zamandan beri, ABD Ulusal Telekomünikasyon ve Bilgi İdaresi (NTIA), AI hesap verebilirlik önlemleri ve politikaları hakkında daha geniş kamuoyu geri bildirimi almak için bir AI hesap verebilirlik taslağı yayınladı.
"Nicelik ve zeka açısından nihayetinde insanların yerini alabilecek insan olmayan bir düşünce geliştirmeli miyiz?" Bu yıl Mart ayında bir dizi tanınmış CEO ve araştırmacı tarafından imzalanan açık bir mektupta ortaya atılan soru bu. Şimdi geriye dönüp bakıldığında, üretken yapay zeka geliştirme yolunda, "herkes altı ay boyunca araştırmayı askıya alır" çağrısı fazla idealisttir. Şu anda yalnızca düzenleyici rol oynayan üretken yapay zeka ile ilgili yasaları destekleyen ülkeler etkili olabilir.
İNOVASYON VE SORUMLULUK
Üretken yapay zekanın mevzuatı ve yönetişimi, daha önce hiç kimsenin ayak basmadığı yeni bir alandır ve her yasa koyucu, dış dünyadan gelen şüphelerin baskısına katlanmak zorundadır: Bu yılki Google I/O geliştirici konferansında Google, resmi olarak üretken AI Konuşma robotu Bard, ancak hizmet kapsamı Avrupa bölgesini tamamen hariç tutuyor.
Bu, birçok Avrupalı AI araştırmacısının/şirketinin şu soruyu sormasına neden oluyor: Avrupa neden kayıp? Daha sonra Google, "Avrupalı kullanıcılara açılmayı dört gözle beklediğini" defalarca belirtti ve bu, Google'ın üretken yapay zekada var olan ve AB'de büyük para cezalarına neden olan yasal gri alandan kaçınması için bir "koruma önlemi" olarak yorumlandı. .
Temmuz ayına gelindiğinde, Google nihayet nedenini açıkladı: Bard ürününün başkanı Jack Krawczyk, bir blog yazısında şunları yazdı: Araştırmanın başında, İrlanda Veri Koruma Komisyonu (DPC), Bard'ı Avrupa'da piyasaya sürme niyetini zaten önermişti, ancak Nihayetinde , düzenleyicinin bilgi verilmesi talebini karşılamak Temmuz ayına kadar sürdü.
Bugün, Avrupa Birliği'nin "Yapay Zeka Yasası" yayınlandı ve hemen hemen her yasa, mevcut yapay zeka gelişiminde ortaya çıkan veya potansiyel sorunlara doğrudan işaret ediyor: yanlış/yanlış bilginin yayılması, olası eğitim/akıl sağlığı ve diğer önemli sorunlar. problemler.
Ancak yasa koyucular, bu sorunu çözmenin daha karmaşık kısmının mevzuatın nasıl belirleneceği konusunda yattığını fark ettiler: yapay zeka alanında inovasyonu korumak/devlerin tekelinden kaçınmak ve yapay zekanın kontrol edilebilirliğini bir dereceye kadar sağlamak gerekiyor. . Sahte içerikle dolup taşmaktan kaçının. Çin, Amerika Birleşik Devletleri ve Avrupa'da üretken AI mevzuatının ortak çekirdeği haline geldi, ancak gerçek düzenlemelerde farklı vurguları var.
Yapay zekayla ilgili daha önceki birçok Avrupa vakası, Google ve OpenAI gibi kurumların olumsuz muamele görmesine neden oldu.Birçok yerel Avrupa teknoloji şirketi ve hatta yasa koyucu, aşırı katı mevzuatın Avrupa'nın yapay zekanın yardımıyla dünyanın lider düzeyine dönmesine izin vereceğinden endişe ediyor. Vizyonun gerçekleşmesi zorlaştı: "Yapay Zeka Yasası" resmen kabul edildikten sonra Avrupa Birliği'nin 30 milyon avroya veya şirketin yıllık gelirinin %6'sına kadar para cezası verme hakkı var , yapay zeka düzenlemelerini ihlal eden şirketlere karşı. Bu, şüphesiz Google ve Microsoft gibi üretken yapay zeka işlerini Avrupa'da genişletmek isteyen şirketler için bariz bir uyarıdır.
AB milletvekilleri, "Yapay Zeka Yasası"nın Haziran versiyonunda, teknolojik riskleri azaltırken sorumlu yapay zeka inovasyonunu teşvik etmek, yapay zekayı gerektiği gibi denetlemek ve onu ön plana çıkarmak için yeni hükümlere açıkça yer verdiler.Önemli pozisyon: Tasarının 1. maddesi açıkça küçük ve orta ölçekli işletmeler ve yeni kurulan şirketler için "düzenleyici korumalı alanların" oluşturulması ve küçük ve orta ölçekli işletmeler ile yeni kurulan şirketler üzerindeki uyum yükünü azaltmaya yönelik diğer önlemler dahil olmak üzere yenilikçi önlemleri destekler.
Bununla birlikte, yapay zeka hizmetlerini satmadan veya sistemleri pazara dağıtmadan önce, üretken yapay zeka risk yönetimi, veri, şeffaflık ve dokümantasyon için bir dizi yasal gerekliliği karşılamalıdır.Aynı zamanda kritik altyapı gibi hassas alanlarda yapay zeka kullanımı “Yüksek risk” olarak değerlendirilecek olan denetim kapsamına girmektedir.
Şu anda, "Geçici Tedbirler"e dayalı AI spesifikasyonu çoktan harekete geçti: 31 Temmuz'da, Çin'deki App Store'da ChatGPT hizmetleri sağlayan çok sayıda uygulama, Apple tarafından toplu olarak raflardan kaldırıldı ve Doğrudan ChatGPT erişimi sağlamaz, aynı zamanda yapay zeka işlevlerine de odaklanır. Şu an için başka bir uygulama grubu etkilenmeyecektir.
Apple'ın geliştiricilere verdiği yanıtta resmi inceleme önerisi, "üretken yapay zeka servislerinin, Sanayi ve Bilgi Teknolojileri Bakanlığı'ndan lisans almak da dahil olmak üzere, Çin'de faaliyet göstermek için lisanslama gereksinimlerini karşılaması gerektiği" yönünde. “Geçici Tedbirler”de “kamuya hizmet sunma” kategorisine.
Çin'in "Geçici Tedbirler"inin 15. Maddesi, riskli içerik üretmeye yönelik yönetim yönteminden de açıkça bahsediyor "sağlayıcılar, üretimi durdurma, iletimi durdurma ve eleme gibi önlemleri derhal almalı ve düzeltme yapmak için model optimizasyon eğitimi gibi önlemler almalıdır." Bu, "Yorumlar Taslağı"nda zaten belirtilmişti; ancak, önceki sürümle karşılaştırıldığında, "Geçici Tedbirler"deki açıklama daha ılımlı ve "üç ay içinde düzeltme" gibi son tarih açıklaması silindi .
Üretken yapay zekanın doğuşunu çevreleyen mevcut tartışmalar arasında, üretken yapay zeka için büyük ölçekli dil modellerini eğitmek için kullanılan veri telif hakkı anlaşmazlıkları arasında, üretken yapay zeka gelişiminin ilk kademesindeki üreticiler, yüksek kaliteli içerik eksikliği nedeniyle zaten sınırlı hissettiler." Görünmez tavan", ancak aynı zamanda sayısız içerik oluşturucu ve medya, üretici yapay zekanın neden olduğu telif hakkı sorunları hakkında yasal işlemler ve diğer eylemler başlatmaya başladı. Üretken yapay zekanın geliştirilmesi için içerik telif hakkı koruma maddelerinin formüle edilmesi yakındır.
Bu nedenle, bu aynı zamanda Amerika Birleşik Devletleri ve Avrupa'daki üretken AI mevzuatının odak noktasıdır: Avrupa "Yapay Zeka Yasası", büyük ölçekli model tedarikçilerinin AI'yı eğitmek için telif hakkıyla korunan materyalleri kullanıp kullanmadıklarını beyan etmelerini ve aynı zamanda kayıt yapmalarını açıkça zorunlu kılar. içerik oluşturucuların Tazminat talep etmesi için yeterli günlük bilgisi; ABD Telif Hakkı Ofisi ise yeni bir inceleme yayınlayarak üretici yapay zekanın gündeme getirdiği geniş telif hakkı sorunları hakkında öneriler istedi ve bunları çözmek için özel yasalar aradı.
Mevcut "Geçici Tedbirler"de, Nisan ayındaki görüşler taslağındaki ilgili paragraflar silinerek, mevcut "Geçici Tedbirler"de veri kaynaklarına ilişkin fikri mülkiyet haklarının korunmasına ilişkin acilen iyileştirilmesi gereken hükümler boş bırakılmıştır.
Bununla birlikte, üretken yapay zekanın geliştirme için güvendiği büyük modeller için; büyük modellerin yinelemeli gelişimini hızlandırmak için İnternette veri aramak geliştirme yasasıdır ve herkese uyan tek kısıtlamalar muhtemelen bir soruna neden olabilir. Tüm sektöre büyük darbe Farklı senaryolarda "muafiyet"ten bahsediliyor: Avrupa Birliği'nin "Yapay Zeka Yasası"nda açık kaynak geliştiriciler tarafından yapay zeka araştırmaları için bir muafiyet yer alıyor: işbirliği ve yapay zeka bileşenlerinin açık bir ortamda oluşturulması özel alacak koruma. Aynı zamanda “Geçici Tedbirler”de ilgili maddeler de kanun muafiyetinin kapsamına açıklık getirmektedir:
"İşletmeler, bilimsel araştırma kurumları vb. halka açık bir şekilde üretken yapay zeka hizmetleri sunmadıkça bu yasa uygulanmaz."
"Fikri mülkiyet alanındaki mevzuatın araştırma ve kanıtlama için hâlâ daha fazla zamana ihtiyacı var." Şu anda büyük ölçekli model üreticilerine hizmet veren bir hukuk danışmanı gazetecilere şunları söyledi: "Çin yüksek kaliteli veri setleri, İngilizce içerikten daha az bulunur ve üretkendir. Yapay zeka eğitimi, devlerin bile her platformla ve her içerik oluşturucuyla bağımsız olarak sözleşme imzalayamayacağını belirliyor, çok yüksek lisans ücretinin yeni başlayanlar için şimdiden büyük bir darbe olduğunu söylemeye gerek bile yok.”
"Belki de mevcut sorun, daha pratik çözümler elde etmek için sektörün gelişmesi için ancak zamana bırakılabilir." Danışman, rekabet ve işbirliği, diye ekledi. Çin ve Amerika Birleşik Devletleri arasındaki rekabette, AI gelişimi, Amerika Birleşik Devletleri'nin Çin'in gelişimini kontrol altına alması için ana savaş alanlarından biri haline gelmesine rağmen, üretken AI mevzuatı alanında, Çin, Amerika Birleşik Devletleri ve Avrupa arasındaki işbirliği giderek daha fazla hale geliyor. Ana akım.
Bu aşamada, Amerika Birleşik Devletleri'ndeki yapay zeka şirketleri, yapay zekanın gelişmesiyle birlikte gelen riskleri fark ettiler. Yapay zekanın "kötülük yapmamasını" sağlamak için sözler verildi: OpenAI, belirtilen görevinin "yapay genel zekanın tüm insanlığa fayda sağlamasını sağlamak" olduğunu belirtti. DeepMind'in çalışma ilkeleri, "yapay zeka alanında sorumlu bir öncü olma" taahhüdünü içerirken, DeepMind'in kurucuları ölümcül yapay zeka araştırmalarına girmemeyi taahhüt eder ve Google'ın yapay zeka araştırma ilkeleri ayrıca Google'ın Silahlar için dağıtım yapmayacağını veya bunlar için tasarım yapmayacağını şart koşar. insanlara zarar veren veya uluslararası gözetim normlarını ihlal eden yapay zeka.
26 Temmuz'da Anthropic, Google, Microsoft ve OpenAI, en yeni AI modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamaya odaklanan bir endüstri kuruluşu olan Frontier Model Forum'u başlattı.
Forum, yapay zeka araştırmasını ilerletirken "riski en aza indirmek ve güvenlik riskleri hakkında bilgi paylaşmak için politika yapıcılar, akademi ve sivil toplumla birlikte çalışmayı" amaçlayacak. Aynı zamanda, mevcut uluslararası çok taraflı işbirliğine aktif olarak entegre olun: G7, OECD ve diğer kuruluşların üretici yapay zekaya ilişkin politika formülasyonları dahil. Mevzuat ve düzenleyici kavramlar doğrultusunda ülkelerin senkronizasyonunu teşvik etmek için.
Daha önce Time dergisi, üretken yapay zekada "önemli oyuncular" olarak Çin ve ABD ile yeni teknoloji mevzuatında genellikle fiilen "öncü" olan Avrupa arasında işbirliği için birçok olasılık olduğunu yorumlamıştı. tüm tarafların yasama aşamasında işbirliğine başlaması ve aynı zamanda üretken yapay zekanın gelişimini teşvik etmenin önemli yollarından biridir.
Bu aynı zamanda Massachusetts Institute of Technology'de profesör ve Life of Life Institute'un kurucusu Max Tegmark'ın görüşleriyle de tutarlı: "Çin, üretken AI'nın birçok alanında avantajlı bir konumda ve muhtemelen kontrolde lider olacak. yapay zeka."
Çin ve Amerika Birleşik Devletleri'ndeki büyük ölçekli modellerin sayısı dünyanın %90'ını oluşturuyor, bu nedenle Çin, Amerika Birleşik Devletleri ve Avrupa arasındaki yasal koordinasyon, küresel üretken AI endüstrisinin gelişme eğilimini bile belirleyecek. "Amerika Birleşik Devletleri'nin çıkarlarına uygunluk temelinde Çin ile yasal koordinasyon", giderek Amerikan siyasi ve akademik çevrelerinin fikir birliği haline geldi.
KABLOLU uzun metrajlı hikaye kapağı
AI riskleri için derecelendirme önlemleri daha temsil edicidir: Çin'in "Geçici Önlemleri", "üretken yapay zeka hizmetleri için kapsayıcı ihtiyat ve sınıflandırma ve derecelendirme denetiminden" bahsetmiştir, ancak mevcut sürümdeki derecelendirme üzerinde ayrıntılı bilgi vermemiştir. karşılık gelen sınıflandırma ve derecelendirme denetim kurallarının veya kılavuzlarının geliştirilmesi" yazılmıştır.
Avrupa "Yapay Zeka Yasası" da farklı risk düzeylerine sahip yapay zeka geliştiricilerinin yükümlülüklerine karşılık gelen bir derecelendirme sistemi önermektedir. Önerilen mevcut yapay zeka "tehdit düzeyi" dört kategori içermektedir:
Sınırlı riskli AI
Yüksek riskli yapay zeka
Kabul edilemez risk seviyesi
Üretken AI: ChatGPT gibi ürünler
Mevcut versiyonda, "Yapay Zeka Yasası", üretken AI'yı bağımsız bir sınıflandırma olarak çıkarır ve aynı zamanda "yüksek riskli AI" olarak sınıflandırılan ürünleri katı bir şekilde kısıtlar. Bu aynı zamanda Çin ve Amerika Birleşik Devletleri'ndeki AI risklerine ilişkin gelecekteki mevzuat için bir "referans planı" olarak kabul edilir.
Ayrıca, fiili yasama sürecinden yola çıkarak, kamu ve yapay zeka araştırma kurumlarını yasama sürecine aktif olarak katılmaya davet etmek, çeşitli ülkelerdeki düzenleyici kurumların son altı aydaki deneyimlerle oluşturduğu bir fikir birliğidir. sorgulanamaz.
"Üretken yapay zeka hiçbir zaman mükemmel olmayabilir, ancak yasanın kaderinde yapay zeka gelişiminin kilit yönünde önemli bir rol oynamak var"
Oppenheimer'ın savaşta nükleer silahların kullanılmasına karşı çıkmasına rağmen New Mexico'da atom bombasını geliştirmekten asla pişman olmaması gibi, meraklı araştırmacıları daha akıllı yapay zeka, bilim geliştirmek için mevcut teknolojiyi kullanmaktan kimse alıkoyamaz. Keşiflerin hızı asla burada durmayacak. "Gerekli ve makul" denetim, yapay zekanın çılgınca koşma yolundaki "hız tümseği" ve aynı zamanda üretken yapay zekanın gerçek zarara yol açmasını önlemek için "son savunma hattı"dır.
Ancak "düzenlemenin neden olduğu AI yarışında geride kalmaktan nasıl kaçınılacağına" odaklanmak, milletvekillerini hala en çok endişelendiren şeylerden biri. İlgili mevzuat, daha fazla deneyim ve geri bildirim ile şüphesiz daha eksiksiz hale gelecektir.
"Düzenleyici kurumlar, bilimsel mevzuatın ve açık kapı mevzuatının ruhunu koruyacak ve zamanında revizyonlar ve iyileştirmeler yapacak." "Geçici Önlemler"de üretken yapay zeka ile ilgili pasaj, üretken yapay zeka çağındaki mevzuat için en iyi ilke olabilir.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ChatGPT ürünleri sonsuz bir akışta ortaya çıkıyor ve küresel düzenleme, taşları hissederek nehri geçiyor
Kaynak: Power Plant, Yazar: Zhang Yongyi, Editör: Gao Yulei
31 Temmuz'da Apple'ın Çin'deki App Store'unda bulunan chatgpt ürünleri toplu olarak raflardan kaldırıldı.Apple'a göre ilgili ürünlerin işletim lisansı alması gerekiyor.
Sadece Çin değil, bu alanda rekabet etmeye kararlı olan ABD ve Avrupa da aktif olarak mevzuat ve düzenlemeleri uygularken inovasyonu teşvik ediyor.
Nisan 2021'de Avrupa Komisyonu, ilk olarak makine öğrenimi uygulamalarının işleyişi ve yönetişimi için yapay zekanın düzenlenmesini öneren bir düzenleyici yapı önerisi yayınladı. O zamanlar yapay zeka endüstrisindeki en popüler görüş, Wu Enda'nın "günümüzde yapay zeka için endişelenmek, Mars'taki aşırı nüfus hakkında endişelenmek gibidir" şeklindeki ünlü esprisiydi.
Ancak 2023'e kadar böyle bir görüş artık ana akım haline gelemez: Üretken yapay zekanın dünyaya insanların yerini alacak ve mevcut dünyayı tamamen değiştirecek büyük potansiyeli göstermesi 6 aydan az sürdü - tıpkı İkinci Dünya Savaşı'nda geliştirildiği gibi. nükleer silah gibi.
Fizikçi J-Robert Oppenheimer, dünyanın ilk atom bombasının geliştirilmesine öncülük etti. O zamanlar, 2. Dünya Savaşı sona ermişti, ancak insanlık tarihindeki en korkunç silah olan nükleer bomba, tarihsel eğilime hâlâ büyük ölçüde hakimdi: Amerika Birleşik Devletleri Hükümet, Oppenheimer gibi uzmanların "nükleer silahların yayılmasının benzeri görülmemiş bir silahlanma yarışına yol açacağı" yönündeki eleştiri ve önerilerini benimsemedi ve bu da sonunda Amerika Birleşik Devletleri ile temsil ettiği Sovyetler Birliği arasında bir nükleer silahlanma yarışının patlak vermesine yol açtı. "süper nükleer bomba" hidrojen bombasının gelişimi - ve Küba Füze Krizi sırasında, neredeyse tüm insan uygarlığı kurtuluşun ötesinde karanlık bir uçuruma sürüklendi.
Oppenheimer'ın karşılaştığı krizin, insanların karşılaştığı mevcut "AI Omnic Crisis" ile pek çok benzerliği var: İnsanlar AI'yı kendilerini daha büyük ve kontrol edilemez bir geleceğe sürüklemek için kullanmadan önce, onu daha büyük ve kontrol edilemez bir geleceğe yönlendirin.Belki de en iyi yol, denetimi güvenli bir yolda uygulamak.
2021'de, Avrupa Birliği'nin "yağmurlu bir güne hazırlığı", nihayetinde insanlık tarihindeki yapay zeka endüstrisi için ilk düzenleyici çerçeve haline geldi - aynı zamanda Avrupa Birliği'nin Yapay Zeka Yasasının (AI Yasası) öncülüdür.
Ancak yasa koyucular bu tasarıyı tasarlarken, 2022'nin sonuna kadar üretken yapay zekanın veya büyük modellerin var olmasını beklemiyorlardı. büyük model kullanımının şeffaflığı ve kullanıcı verilerinin toplanması/kullanımının düzenlenmesi.
Şu anda, bu yasa tasarısı Avrupa Parlamentosu tarafından Haziran ayı ortasında oylanmıştır.Nihai şartlar için bir sonraki adım, yasanın üç AB karar organı olan Parlamento, Konsey ve Komisyon arasındaki müzakerelerde sonuçlandırılmasıdır. Bir anlaşmaya varılacak ve nihayet yürürlüğe girecek.
Çin'de, üretken AI ile ilgili mevzuat da devam ediyor: 13 Temmuz'da, yedi bakanlık ve komisyon tarafından ortaklaşa "Üretken Yapay Zeka Hizmetlerinin İdaresi için Geçici Tedbirler" (bundan sonra toplu olarak "Geçici Tedbirler" olarak anılacaktır) yayınlandı. Çin Siber Uzay İdaresi de dahil olmak üzere, Ağustos ayında yürürlüğe girecek.
Bu, nihayet uygulanacak olan ilk üretken yapay zeka yönetimi düzenlemesi olabilir. "AI Yasama Yarışı"nın son turunda, Çin'in AI mevzuat süreci onu aştı ve üretken alanda en hızlı büyüyen özel düzenleme haline geldi. Al.
Birleşik Krallık ve Amerika Birleşik Devletleri gibi yapay zeka gelişiminin ilk kademesinde yer alan diğer ülkelerde de yapay zeka ile ilgili düzenleyici mevzuat devam ediyor: 16 Mart'ta ABD Telif Hakkı Bürosu, telif hakkı yasası ve politika konularını incelemek için bir girişim başlattı. yapay zeka teknolojisinden kaynaklanan: yapay zeka araçları kullanılarak oluşturulan eserlerdeki telif hakkı kapsamı ve makine öğrenimi amacıyla telif hakkıyla korunan materyallerin kullanımı dahil. Birleşik Krallık hükümeti ilk yapay zeka düzenleme çerçevesini 4 Nisan'da yayınladı. O zamandan beri, ABD Ulusal Telekomünikasyon ve Bilgi İdaresi (NTIA), AI hesap verebilirlik önlemleri ve politikaları hakkında daha geniş kamuoyu geri bildirimi almak için bir AI hesap verebilirlik taslağı yayınladı.
İNOVASYON VE SORUMLULUK
Üretken yapay zekanın mevzuatı ve yönetişimi, daha önce hiç kimsenin ayak basmadığı yeni bir alandır ve her yasa koyucu, dış dünyadan gelen şüphelerin baskısına katlanmak zorundadır: Bu yılki Google I/O geliştirici konferansında Google, resmi olarak üretken AI Konuşma robotu Bard, ancak hizmet kapsamı Avrupa bölgesini tamamen hariç tutuyor.
Bu, birçok Avrupalı AI araştırmacısının/şirketinin şu soruyu sormasına neden oluyor: Avrupa neden kayıp? Daha sonra Google, "Avrupalı kullanıcılara açılmayı dört gözle beklediğini" defalarca belirtti ve bu, Google'ın üretken yapay zekada var olan ve AB'de büyük para cezalarına neden olan yasal gri alandan kaçınması için bir "koruma önlemi" olarak yorumlandı. .
Temmuz ayına gelindiğinde, Google nihayet nedenini açıkladı: Bard ürününün başkanı Jack Krawczyk, bir blog yazısında şunları yazdı: Araştırmanın başında, İrlanda Veri Koruma Komisyonu (DPC), Bard'ı Avrupa'da piyasaya sürme niyetini zaten önermişti, ancak Nihayetinde , düzenleyicinin bilgi verilmesi talebini karşılamak Temmuz ayına kadar sürdü.
Bugün, Avrupa Birliği'nin "Yapay Zeka Yasası" yayınlandı ve hemen hemen her yasa, mevcut yapay zeka gelişiminde ortaya çıkan veya potansiyel sorunlara doğrudan işaret ediyor: yanlış/yanlış bilginin yayılması, olası eğitim/akıl sağlığı ve diğer önemli sorunlar. problemler.
Ancak yasa koyucular, bu sorunu çözmenin daha karmaşık kısmının mevzuatın nasıl belirleneceği konusunda yattığını fark ettiler: yapay zeka alanında inovasyonu korumak/devlerin tekelinden kaçınmak ve yapay zekanın kontrol edilebilirliğini bir dereceye kadar sağlamak gerekiyor. . Sahte içerikle dolup taşmaktan kaçının. Çin, Amerika Birleşik Devletleri ve Avrupa'da üretken AI mevzuatının ortak çekirdeği haline geldi, ancak gerçek düzenlemelerde farklı vurguları var.
Yapay zekayla ilgili daha önceki birçok Avrupa vakası, Google ve OpenAI gibi kurumların olumsuz muamele görmesine neden oldu.Birçok yerel Avrupa teknoloji şirketi ve hatta yasa koyucu, aşırı katı mevzuatın Avrupa'nın yapay zekanın yardımıyla dünyanın lider düzeyine dönmesine izin vereceğinden endişe ediyor. Vizyonun gerçekleşmesi zorlaştı: "Yapay Zeka Yasası" resmen kabul edildikten sonra Avrupa Birliği'nin 30 milyon avroya veya şirketin yıllık gelirinin %6'sına kadar para cezası verme hakkı var , yapay zeka düzenlemelerini ihlal eden şirketlere karşı. Bu, şüphesiz Google ve Microsoft gibi üretken yapay zeka işlerini Avrupa'da genişletmek isteyen şirketler için bariz bir uyarıdır.
AB milletvekilleri, "Yapay Zeka Yasası"nın Haziran versiyonunda, teknolojik riskleri azaltırken sorumlu yapay zeka inovasyonunu teşvik etmek, yapay zekayı gerektiği gibi denetlemek ve onu ön plana çıkarmak için yeni hükümlere açıkça yer verdiler.Önemli pozisyon: Tasarının 1. maddesi açıkça küçük ve orta ölçekli işletmeler ve yeni kurulan şirketler için "düzenleyici korumalı alanların" oluşturulması ve küçük ve orta ölçekli işletmeler ile yeni kurulan şirketler üzerindeki uyum yükünü azaltmaya yönelik diğer önlemler dahil olmak üzere yenilikçi önlemleri destekler.
Bununla birlikte, yapay zeka hizmetlerini satmadan veya sistemleri pazara dağıtmadan önce, üretken yapay zeka risk yönetimi, veri, şeffaflık ve dokümantasyon için bir dizi yasal gerekliliği karşılamalıdır.Aynı zamanda kritik altyapı gibi hassas alanlarda yapay zeka kullanımı “Yüksek risk” olarak değerlendirilecek olan denetim kapsamına girmektedir.
Şu anda, "Geçici Tedbirler"e dayalı AI spesifikasyonu çoktan harekete geçti: 31 Temmuz'da, Çin'deki App Store'da ChatGPT hizmetleri sağlayan çok sayıda uygulama, Apple tarafından toplu olarak raflardan kaldırıldı ve Doğrudan ChatGPT erişimi sağlamaz, aynı zamanda yapay zeka işlevlerine de odaklanır. Şu an için başka bir uygulama grubu etkilenmeyecektir.
Üretken yapay zekanın doğuşunu çevreleyen mevcut tartışmalar arasında, üretken yapay zeka için büyük ölçekli dil modellerini eğitmek için kullanılan veri telif hakkı anlaşmazlıkları arasında, üretken yapay zeka gelişiminin ilk kademesindeki üreticiler, yüksek kaliteli içerik eksikliği nedeniyle zaten sınırlı hissettiler." Görünmez tavan", ancak aynı zamanda sayısız içerik oluşturucu ve medya, üretici yapay zekanın neden olduğu telif hakkı sorunları hakkında yasal işlemler ve diğer eylemler başlatmaya başladı. Üretken yapay zekanın geliştirilmesi için içerik telif hakkı koruma maddelerinin formüle edilmesi yakındır.
Bu nedenle, bu aynı zamanda Amerika Birleşik Devletleri ve Avrupa'daki üretken AI mevzuatının odak noktasıdır: Avrupa "Yapay Zeka Yasası", büyük ölçekli model tedarikçilerinin AI'yı eğitmek için telif hakkıyla korunan materyalleri kullanıp kullanmadıklarını beyan etmelerini ve aynı zamanda kayıt yapmalarını açıkça zorunlu kılar. içerik oluşturucuların Tazminat talep etmesi için yeterli günlük bilgisi; ABD Telif Hakkı Ofisi ise yeni bir inceleme yayınlayarak üretici yapay zekanın gündeme getirdiği geniş telif hakkı sorunları hakkında öneriler istedi ve bunları çözmek için özel yasalar aradı.
Mevcut "Geçici Tedbirler"de, Nisan ayındaki görüşler taslağındaki ilgili paragraflar silinerek, mevcut "Geçici Tedbirler"de veri kaynaklarına ilişkin fikri mülkiyet haklarının korunmasına ilişkin acilen iyileştirilmesi gereken hükümler boş bırakılmıştır.
Bununla birlikte, üretken yapay zekanın geliştirme için güvendiği büyük modeller için; büyük modellerin yinelemeli gelişimini hızlandırmak için İnternette veri aramak geliştirme yasasıdır ve herkese uyan tek kısıtlamalar muhtemelen bir soruna neden olabilir. Tüm sektöre büyük darbe Farklı senaryolarda "muafiyet"ten bahsediliyor: Avrupa Birliği'nin "Yapay Zeka Yasası"nda açık kaynak geliştiriciler tarafından yapay zeka araştırmaları için bir muafiyet yer alıyor: işbirliği ve yapay zeka bileşenlerinin açık bir ortamda oluşturulması özel alacak koruma. Aynı zamanda “Geçici Tedbirler”de ilgili maddeler de kanun muafiyetinin kapsamına açıklık getirmektedir:
"İşletmeler, bilimsel araştırma kurumları vb. halka açık bir şekilde üretken yapay zeka hizmetleri sunmadıkça bu yasa uygulanmaz."
"Fikri mülkiyet alanındaki mevzuatın araştırma ve kanıtlama için hâlâ daha fazla zamana ihtiyacı var." Şu anda büyük ölçekli model üreticilerine hizmet veren bir hukuk danışmanı gazetecilere şunları söyledi: "Çin yüksek kaliteli veri setleri, İngilizce içerikten daha az bulunur ve üretkendir. Yapay zeka eğitimi, devlerin bile her platformla ve her içerik oluşturucuyla bağımsız olarak sözleşme imzalayamayacağını belirliyor, çok yüksek lisans ücretinin yeni başlayanlar için şimdiden büyük bir darbe olduğunu söylemeye gerek bile yok.”
"Belki de mevcut sorun, daha pratik çözümler elde etmek için sektörün gelişmesi için ancak zamana bırakılabilir." Danışman, rekabet ve işbirliği, diye ekledi. Çin ve Amerika Birleşik Devletleri arasındaki rekabette, AI gelişimi, Amerika Birleşik Devletleri'nin Çin'in gelişimini kontrol altına alması için ana savaş alanlarından biri haline gelmesine rağmen, üretken AI mevzuatı alanında, Çin, Amerika Birleşik Devletleri ve Avrupa arasındaki işbirliği giderek daha fazla hale geliyor. Ana akım.
Bu aşamada, Amerika Birleşik Devletleri'ndeki yapay zeka şirketleri, yapay zekanın gelişmesiyle birlikte gelen riskleri fark ettiler. Yapay zekanın "kötülük yapmamasını" sağlamak için sözler verildi: OpenAI, belirtilen görevinin "yapay genel zekanın tüm insanlığa fayda sağlamasını sağlamak" olduğunu belirtti. DeepMind'in çalışma ilkeleri, "yapay zeka alanında sorumlu bir öncü olma" taahhüdünü içerirken, DeepMind'in kurucuları ölümcül yapay zeka araştırmalarına girmemeyi taahhüt eder ve Google'ın yapay zeka araştırma ilkeleri ayrıca Google'ın Silahlar için dağıtım yapmayacağını veya bunlar için tasarım yapmayacağını şart koşar. insanlara zarar veren veya uluslararası gözetim normlarını ihlal eden yapay zeka.
26 Temmuz'da Anthropic, Google, Microsoft ve OpenAI, en yeni AI modellerinin güvenli ve sorumlu bir şekilde geliştirilmesini sağlamaya odaklanan bir endüstri kuruluşu olan Frontier Model Forum'u başlattı.
Forum, yapay zeka araştırmasını ilerletirken "riski en aza indirmek ve güvenlik riskleri hakkında bilgi paylaşmak için politika yapıcılar, akademi ve sivil toplumla birlikte çalışmayı" amaçlayacak. Aynı zamanda, mevcut uluslararası çok taraflı işbirliğine aktif olarak entegre olun: G7, OECD ve diğer kuruluşların üretici yapay zekaya ilişkin politika formülasyonları dahil. Mevzuat ve düzenleyici kavramlar doğrultusunda ülkelerin senkronizasyonunu teşvik etmek için.
Bu aynı zamanda Massachusetts Institute of Technology'de profesör ve Life of Life Institute'un kurucusu Max Tegmark'ın görüşleriyle de tutarlı: "Çin, üretken AI'nın birçok alanında avantajlı bir konumda ve muhtemelen kontrolde lider olacak. yapay zeka."
Çin ve Amerika Birleşik Devletleri'ndeki büyük ölçekli modellerin sayısı dünyanın %90'ını oluşturuyor, bu nedenle Çin, Amerika Birleşik Devletleri ve Avrupa arasındaki yasal koordinasyon, küresel üretken AI endüstrisinin gelişme eğilimini bile belirleyecek. "Amerika Birleşik Devletleri'nin çıkarlarına uygunluk temelinde Çin ile yasal koordinasyon", giderek Amerikan siyasi ve akademik çevrelerinin fikir birliği haline geldi.
AI riskleri için derecelendirme önlemleri daha temsil edicidir: Çin'in "Geçici Önlemleri", "üretken yapay zeka hizmetleri için kapsayıcı ihtiyat ve sınıflandırma ve derecelendirme denetiminden" bahsetmiştir, ancak mevcut sürümdeki derecelendirme üzerinde ayrıntılı bilgi vermemiştir. karşılık gelen sınıflandırma ve derecelendirme denetim kurallarının veya kılavuzlarının geliştirilmesi" yazılmıştır.
Avrupa "Yapay Zeka Yasası" da farklı risk düzeylerine sahip yapay zeka geliştiricilerinin yükümlülüklerine karşılık gelen bir derecelendirme sistemi önermektedir. Önerilen mevcut yapay zeka "tehdit düzeyi" dört kategori içermektedir:
Mevcut versiyonda, "Yapay Zeka Yasası", üretken AI'yı bağımsız bir sınıflandırma olarak çıkarır ve aynı zamanda "yüksek riskli AI" olarak sınıflandırılan ürünleri katı bir şekilde kısıtlar. Bu aynı zamanda Çin ve Amerika Birleşik Devletleri'ndeki AI risklerine ilişkin gelecekteki mevzuat için bir "referans planı" olarak kabul edilir.
Ayrıca, fiili yasama sürecinden yola çıkarak, kamu ve yapay zeka araştırma kurumlarını yasama sürecine aktif olarak katılmaya davet etmek, çeşitli ülkelerdeki düzenleyici kurumların son altı aydaki deneyimlerle oluşturduğu bir fikir birliğidir. sorgulanamaz.
"Üretken yapay zeka hiçbir zaman mükemmel olmayabilir, ancak yasanın kaderinde yapay zeka gelişiminin kilit yönünde önemli bir rol oynamak var"
Oppenheimer'ın savaşta nükleer silahların kullanılmasına karşı çıkmasına rağmen New Mexico'da atom bombasını geliştirmekten asla pişman olmaması gibi, meraklı araştırmacıları daha akıllı yapay zeka, bilim geliştirmek için mevcut teknolojiyi kullanmaktan kimse alıkoyamaz. Keşiflerin hızı asla burada durmayacak. "Gerekli ve makul" denetim, yapay zekanın çılgınca koşma yolundaki "hız tümseği" ve aynı zamanda üretken yapay zekanın gerçek zarara yol açmasını önlemek için "son savunma hattı"dır.
Ancak "düzenlemenin neden olduğu AI yarışında geride kalmaktan nasıl kaçınılacağına" odaklanmak, milletvekillerini hala en çok endişelendiren şeylerden biri. İlgili mevzuat, daha fazla deneyim ve geri bildirim ile şüphesiz daha eksiksiz hale gelecektir.
"Düzenleyici kurumlar, bilimsel mevzuatın ve açık kapı mevzuatının ruhunu koruyacak ve zamanında revizyonlar ve iyileştirmeler yapacak." "Geçici Önlemler"de üretken yapay zeka ile ilgili pasaj, üretken yapay zeka çağındaki mevzuat için en iyi ilke olabilir.