Yazar: JOSH LEE KOK THONG Tercüme: Li Yang Düzeltme: Xiang Xinyi
Kaynak: Kağıt
Görsel kaynağı: Unbounded AI tarafından oluşturuldu
AI yönetişimi ve düzenlemesine küresel ilgi son aylarda patladı. Birçok kişi, OpenAI'nin ChatGPT ve DALL-E, Google'ın Bard, Stable Diffusion ve diğerleri gibi yetenekleri hayret verici olan üretken yapay zeka sistemleriyle başa çıkmak için yeni yönetişim ve düzenleyici yapıların gerekli olduğuna inanıyor. AB Yapay Zeka Yasası geniş ilgi gördü. Aslında, çeşitli AI yönetişim modelleri ve çerçeveleri dahil olmak üzere dünya çapında birçok başka önemli girişim ortaya çıkıyor.
Bu makale, Mayıs 2022'de yayınlanan Singapur Yapay Zeka Yönetişim Testi Çerçevesi ve Araç Kiti - "AI Doğrulaması" ile ilgilidir. Esas olarak üç temel noktayı çıkarır. ① Yapay zeka doğrulamasını başlatmadan önce Singapur'un yapay zeka yönetişimi konusundaki genel stratejisini ve hükümet tarafından yayınlanan temel girişimleri özetleyin. ② "Yapay zeka doğrulamasının" anahtarını açıklayın. ③ AI doğrulamasının geleceğini ve Singapur'un AI yönetişimi ve düzenlemesine yaklaşımını tartışan "AI Verification" bir yıllığına başlatıldı. Kısaca, ana noktalar aşağıdaki gibidir:
Singapur, özel sektördeki AI yönetişimi için yönergeler belirleyen AI Yönetişim Çerçeve Modeli ile AI yönetişimi ve düzenlemesine ılımlı bir müdahale yaklaşımı benimsemiştir.
"AI Verify", Mayıs 2022'de kullanıma sunulan bir AI yönetişim testi çerçevesi ve araç setidir. Deneme aşamasında olmasına rağmen, Singapur'un güvenilir yapay zeka sistemlerine yönelik artan talebi karşılamaya çalışan ve küresel yapay zeka düzenleyici çerçevesinin birbirine bağlanabilirliğini teşvik eden yapay zeka yönetişimi ve düzenlemesi konusundaki küresel söylemi daha da geliştirme çabalarını temsil ediyor.
"AI Verification", şirketlerin kendi AI sistemlerini test ederken kullanabilecekleri, uluslararası kabul görmüş AI yönetişim ilkelerine dayalı bir test çerçevesidir. "Yapay Zeka Doğrulaması", etik standartları tanımlamayı amaçlamaz, ancak yapay zeka sistem geliştiricilerinin ve sahiplerinin kendi yapay zeka sistemlerinin performansını doğrulayan beyanlar yayınlamasına izin vererek doğrulanabilirlik sağlamayı amaçlar.
– Başarılı olmak için "AI-doğrulanmış"ın daha fazla tanınması ve benimsenmesi gerekebilir. Bu, maliyet, paydaşları değeri konusunda ikna etme ve uluslararası düzenleyici çerçeve ile uygunluğu ve sinerjisi gibi faktörlere bağlıdır.
Singapur'da Yapay Zeka Yönetişimine Genel Yaklaşım
Ulusal Yapay Zeka Stratejisinde Singapur, ülkenin "ölçeklenebilir, etkili yapay zeka çözümlerinin geliştirilmesi ve konuşlandırılmasında ön saflarda yer almayı" hedeflediğini ve ülkenin "geliştirme, test etme, dağıtma ve ölçeklendirmede lider" rolünü pekiştirmeyi umduğunu duyurdu. yapay zeka." çözümler için küresel merkez. Yapay zekanın benimsenmesini artırma stratejisinde tanımlanan beş "ekosistem sağlayıcısından" biri, yapay zeka gelişimi için "ilerici ve güvenilir bir ortamı" teşvik etmektir - yenilik ve toplumsal riski en aza indirme dengeli ortam arasında bir denge.
Singapur, bu "ilerici ve güvenilir ortamı" yaratmak için şimdiye kadar yapay zeka düzenlemesine iyi huylu ve gönüllü bir yaklaşım benimsemiştir. Bunun nedeni, ülkenin AI emellerinin iki gerçeğini kabul etmesidir.
İlk olarak, Singapur hükümeti**, yapay zekayı ekonomiyi büyütmek ve vatandaşlarının yaşam kalitesini iyileştirmek için kilit bir stratejik kolaylaştırıcı** olarak görüyor. Sonuç olarak Singapur, inovasyonu ve yatırımı engellememek için yapay zekayı düzenleme konusunda sert adımlar atmadı. İkincisi, büyüklüğü göz önüne alındığında Singapur, yapay zeka yönetişim söylemi, çerçeveleri ve düzenlemeleri küresel olarak geliştikçe, hükümetin fiyat belirleyiciden ziyade fiyat alıcı olabileceğini kabul ediyor. Bu nedenle, mevcut strateji yapay zekanın ilkelerini yenilemek değil, "dünyanın gidişatını takip etmek ve dünyanın gidişatını değiştirmeye niyeti olmamak."("Dünyayı al dünyanın olmasını umduğu yer değil, olduğu yer.")
Singapur'un Kişisel Verileri Koruma Komisyonu (PDPC) tarafından denetlenen yapay zekaya yönelik düzenleyici yaklaşımının, 2022'de AI Verify'ın piyasaya sürülmesinden önce üç ayağı vardır:
AI yönetişimi ve veri kullanımı araştırma planı (araştırma projesi).
Aşağıdakiler "Çerçeve Modeli"ne odaklanmaktadır.
çerçeve modu
İlk olarak 2019'da Dünya Ekonomik Forumu Yıllık Toplantısında başlatılan Çerçeve Modeli, kuruluşlara yapay zeka çözümlerinin sorumlu bir ölçekte konuşlandırılmasında rehberlik eden gönüllü ve bağlayıcı olmayan bir çerçevedir ve çerçevenin geliştirme aşamasından bağımsız olduğuna dikkat çeker. teknoloji Bir kılavuz olarak, Çerçeve Modeli, özel sektör kuruluşları tarafından yapay zekanın konuşlandırılması için yalnızca pratik öneriler sunarken, yapay zekanın kamu sektörü kullanımı dahili yönergeler ve yapay zeka ve veri yönetişimi araç takımları tarafından yönetilir. **Çerçeve Modelleri "yaşayan bir belge" olarak bilinir ve gelecekteki sürümler, teknoloji ve toplum geliştikçe gelişecektir. Temeli teknoloji, endüstri, ölçek ve iş modelinin öngörülemezliğinde yatmaktadır. **
Temel olarak, çerçeve modeli, yapay zekada güven ve anlayışı destekleyen iki temel ilke tarafından yönlendirilir. **İlk olarak, karar vermede yapay zeka kullanan kuruluşlar, karar verme süreçlerinin açıklanabilir, şeffaf ve adil olmasını sağlamalıdır. İkinci olarak, AI sistemleri insan merkezli olmalıdır: AI'nın tasarımında, geliştirilmesinde ve kullanımında insan refahını ve güvenliğini korumak birincil düşünce olmalıdır. **
Çerçeve, bu yol gösterici ilkeleri, kurumsal karar verme ve teknoloji geliştirme süreçlerinin dört temel alanında eyleme geçirilebilir eylemlere dönüştürür:
(a) iç yönetişim yapıları ve uygulamaları;
(b) yapay zeka destekli karar verme sürecine insan katılımının düzeyini belirlemek;
(c) operasyon yönetimi;
(d) Paydaş etkileşimi ve iletişimi.
Aşağıdaki tablo, bu kilit alanlarda önerilen bazı hususları, yaklaşımları ve önlemleri özetlemektedir.
Çerçeve Modeline eşlik eden diğer girişimler
Singapur, 2020 Dünya Ekonomik Forumu'nda Çerçeve Modeli'nin ikinci baskısını başlattığında, buna iki başka belge daha eşlik etti: Kuruluşlar için Uygulama ve Öz Değerlendirme Kılavuzu (ISAGO) ve Kullanım Örnekleri Özeti (Derleme - Cilt 1 ve 2 ciltler) . ISAGO, kuruluşların AI yönetişim süreçlerinin model çerçevesiyle uyumunu değerlendirmesine yardımcı olan bir kontrol listesidir. Özet, Çerçeve'nin tavsiyelerinin sektörler, kullanım durumları ve yetki alanları genelinde benimsenmesine ilişkin gerçek dünyadan örnekler sunar.
Genel olarak, "Çerçeve Modeli" ve onu destekleyen belgeler, Singapur'daki yapay zeka düzenlemesinin esaslı düşüncesini demirler ve ana hatlarıyla belirtir. Bu girişimler, Singapur'un yapay zeka yönetişimindeki liderliğini takdir ederek 2019'da Birleşmiş Milletler Bilgi Toplumu Dünya Zirvesi Ödülü'nü kazandığını gördü.
Ocak 2020, AI düzenlemesine ilişkin küresel tartışmada bir dönüm noktası oldu. 17 Ocak 2020'de Avrupa Komisyonu tarafından yayınlanan bir teknik inceleme, uluslararası toplumun yapay zeka teknolojisine yönelik hükümet düzenlemesi olasılığına daha fazla dikkat etmesini sağladı. Şubat 2020'de Avrupa Komisyonu, yapay zeka için düzenleyici bir çerçeve oluşturma planlarını belirleyen "Yapay Zeka Üzerine Beyaz Kitap"ı resmi olarak yayınladı. Birkaç ay sonra, Avrupa Komisyonu yakında çıkacak olan Yapay Zeka Yasa Tasarısının taslağını sundu. Bu, bir devlet kurumunun AI sistemlerinin gelişimini ve kullanımını yatay olarak düzenlemek için somut kurallar getirmeye yönelik ilk ciddi girişimidir. Yapay Zeka Yasası'nın yargı dışı etkilerinin de olması beklenebilir ve Avrupa dışında yapay zeka sistemleri geliştiren şirketlerin yeni yasaya tabi olması beklenebilir.
Bunlar, Singapur'un yapay zeka düzenleyici ve yönetişim manzarasının geleceği hakkında düşünmeyi etkiledi. Singapur'un Kişisel Verileri Koruma Komisyonu (PDPC), AI düzenlemesine yönelik gönüllü ve gevşek yaklaşımını sürdürürken, AI'nın gelecekte daha sıkı bir gözetimle karşı karşıya kalacağını kabul ediyor. PDPC ayrıca, yapay zeka sistemlerinin ve geliştiricilerin güvenilirliği için tüketicilerden gelen artan talebi ve yapay zekayı yasal gerekliliklere göre kıyaslama ve değerlendirme için uluslararası yapay zeka standartlarına duyulan ihtiyacı da dikkate alıyor gibi görünüyor. Ek olarak, AI düzenleyici çerçevelerinin birlikte çalışabilirliğine yönelik gereksinimler de artmaktadır. **Bunun ışığında, Singapur gelişmeye başladı ve nihai sonuçlar "AI Verify" çerçevesinde birleştirildi.
"AI Doğrulaması" nedir
"AI Verify", Singapur İletişim ve Bilgi Bakanlığı'na bağlı yasal bir komite olan Infocomm Medya Geliştirme Otoritesi (IMDA) ve Kişisel Verileri Koruma Komitesi (PDPC) tarafından ortaklaşa yayınlanır ve bir yapay zeka yönetim testi çerçevesi ve araç setidir. **AI Verify'ı kullanan kuruluşlar, teknik testler ve süreç tabanlı denetimlerin bir kombinasyonunu kullanarak yapay zeka sistemlerinin gönüllü bir değerlendirmesini yapabilir. Buna karşılık, sistem, şirketlerin paydaşlara AI sistemlerinin sorumlu ve güvenilir bir şekilde uygulandığına dair objektif ve doğrulanabilir kanıtlar sağlamasına yardımcı olur. **
Yapay zeka test yöntemlerinin, standartlarının, göstergelerinin ve araçlarının sürekli gelişimi göz önüne alındığında, "yapay zeka doğrulaması" (AI Verify) şu anda "minimum uygulanabilir ürün" (MVP) aşamasındadır. Bunun iki anlamı vardır. İlk olarak, MVP sürümünün teknik sınırlamaları vardır ve test edilebilen veya analiz edilebilen yapay zeka modellerinin veya veri kümelerinin türü ve boyutuyla sınırlıdır. İkinci olarak, yapay zeka testi yetenekleri olgunlaştıkça yapay zeka doğrulamasının da gelişmesi bekleniyor.
"AI Onaylı" MVP sürümünü geliştirmenin dört hedefi şunlardır:
(a) İlk olarak IMDA, kuruluşların AI sistemlerinin performans ölçütlerini belirlemek için "AI doğrulamasını" kullanabileceklerini ve bu doğrulanmış ölçütleri tüketiciler ve çalışanlar gibi paydaşlara göstererek kuruluşların güven oluşturmasına yardımcı olacağını umuyor.
(b) İkinci olarak, çeşitli yapay zeka düzenleme ve yönetişim çerçevelerinin yanı sıra ortak güvenilir yapay zeka ilkeleri dikkate alınarak geliştirilmesi göz önüne alındığında, Yapay Zeka Doğrulaması, kuruluşların ortak çeşitli küresel YZ yönetişim çerçeveleri ve düzenlemeleri bulmasına yardımcı olmayı amaçlar. IMDA, "AI Doğrulaması" için test çerçevesini belirlenen çerçeveye eşlemek için düzenleyiciler ve standart kuruluşlarıyla birlikte çalışmaya devam edecektir. Çabalar, şirketlerin yapay zeka ürünlerini ve hizmetlerini birden çok pazarda işletmesini veya sunmasını sağlarken, Singapur'u yapay zeka yönetişimi ve düzenleyici testler için bir merkez haline getirmeyi amaçlıyor.
(c) Üçüncüsü, **IMDA, daha fazla kuruluş "AI Validation" ile deney yaptıkça ve test çerçevesini kullandıkça endüstri uygulamalarını, karşılaştırmalı değerlendirmeleri ve ölçümleri derleyebilecektir. **Singapur'un Global AI Partnership ve ISO/IEC JTC1/SC 42 gibi küresel AI yönetişim platformlarına katıldığı ve AI yönetişimi için uluslararası standart belirleme konusunda değerli perspektifler sağladığı düşünülürse, bunlar AI yönetişimi için konulan standartların geliştirilmesini kolaylaştırabilir. .
(d) Dördüncüsü, **IMDA, Singapur'da AI geliştiricileri ve sistem sahiplerinden (AI sistemlerini test etmek isteyen), teknoloji sağlayıcılardan (AI yönetişim uygulaması geliştiren ve test çözümleri), danışmanlık hizmeti sağlayıcıları (test ve sertifikasyon desteğinde uzmanlaşmış) ve araştırmacılar (test teknikleri, kıyaslamalar ve uygulamalar geliştiren).
"Yapay Zeka doğrulaması" ile ilgili bazı olası yanlış anlamaları açıklığa kavuşturmak da önemlidir. İlk olarak, **"AI Validation" etik standartları tanımlama girişiminde bulunmaz. **Yapay Zeka sistemlerinin sınıflandırılmasına işaret etmeye çalışmaz, bunun yerine doğrulanabilirlik sağlayarak Yapay Zeka sistem geliştiricilerinin ve sahiplerinin Yapay Zeka sistem performansları hakkındaki iddialarını kanıtlamalarına olanak tanır. İkincisi, "AI doğrulamasını" kullanan devlet kuruluşları, test edilen AI sistemlerinin risk veya önyargı içermediğini veya tamamen "güvenli" ve "etik" olduklarını garanti edemez. Üçüncüsü, "Yapay Zeka Doğrulaması", kuruluşların yapay zeka sistemleri hakkındaki hassas bilgileri (temel kodları veya eğitim verileri gibi) istemeden ifşa etmesini önlemeyi amaçlar. AI sistem geliştiricileri ve sahipleri tarafından kendi kendine test edilecek olan " AI Doğrulaması" adlı önemli bir koruma önlemi benimsemiştir. Bu, kuruluşun verilerinin ve modellerinin kuruluşun işletim ortamında kalmasına olanak tanır. **
"AI Doğrulaması" nasıl çalışır
"AI Validation" iki bölümden oluşur. İlki, uluslararası kabul görmüş 11 AI etiği ve yönetişim ilkesini beş sütun halinde organize eden Test Çerçevesidir. İkincisi, kuruluşların test çerçevesinde teknik testler ve belge süreç kontrolleri gerçekleştirmek için kullandıkları araç takımıdır.
"Yapay zeka doğrulaması" için test çerçevesi
"AI Doğrulama" test çerçevesinin beş ayağı ve on bir ilkesi ve amaçlanan değerlendirmeleri aşağıda listelenmiştir:
Aşağıdaki önemli bölümleri içeren gerçek test çerçevesi:
***(a) Tanımlar: *** Test çerçevesi, her bir AI ilkesi için anlaşılması kolay tanımlar sağlar. Örneğin, yorumlanabilirlik, "bir yapay zeka sisteminin kararına, genel davranışına, sonucuna ve etkisine yol açan faktörleri değerlendirme yeteneği" olarak tanımlanır.
***(b) Test Edilebilir Kriterler: ***Her ilke için bir dizi test edilebilir kriter sağlanır. Bu standartlar, bu yönetişim ilkesinin amaçlanan sonuçlarına ulaşılmasına katkıda bulunan teknik ve/veya teknik olmayan (süreçler, prosedürler veya organizasyon yapıları gibi) faktörleri dikkate alır.
Yorumlanabilirlik örnek alınarak, test edilebilir iki kriter verilmiştir. Geliştiriciler, kullanıcıların AI modellerini neyin yönlendirdiğini anlamalarına yardımcı olmak için açıklanabilirlik yöntemleri çalıştırabilir. Geliştiriciler ayrıca kararlarını açıklayan veya varsayılan olarak yapan yapay zeka modelleri geliştirmeyi tercih edebilirler.
***(c) Test Süreci: *** "AI Validation", test edilebilir her bir kriter için, nicel (istatistiksel veya teknik testler gibi) olabilen ve aynı zamanda nitel (örn. süreç denetimleri sırasında üretilen belgesel kanıtlar).
Yorumlanabilirlik söz konusu olduğunda, teknik testler ampirik analizi ve özelliklerin model çıktısına katkısının belirlenmesini içerebilir. Süreç tabanlı testler, AI modelinin mantığını, risk değerlendirmesini ve ödünleşimlerini belgeleyecektir.
***(d) Metrikler: ***Bunlar, test edilebilir her bir kriteri ölçmek veya kanıt sağlamak için kullanılan nicel veya nitel parametrelerdir.
Yukarıdaki yorumlanabilirlik örneğini kullanarak, özellik katkılarını belirlemek için kullanılan metrikler, SHAP ve LIME gibi teknik araçlardan elde edilen model çıktılarının katkıda bulunan özelliklerini inceler. Nihai modeli seçerken, değerlendirmeyi belgelemek için risk değerlendirmesi ve takas tatbikatları gibi sürece dayalı ölçütler kullanılabilir.
***(e) Eşikler (varsa): ***Mevcut olduğu durumlarda, test çerçevesi seçilen metrikler için kabul edilmiş değerler veya kıyaslamalar sağlayacaktır. Bu değerler veya ölçütler, düzenleyici kurumlar, endüstri birlikleri veya diğer tanınmış standart belirleyen kuruluşlar tarafından tanımlanabilir. AI teknolojilerinin hızlı gelişimi, bunların kullanım durumları ve AI sistemlerini test etme yöntemleri dikkate alındığında, "AI Validation" MVP modeli için herhangi bir eşik sağlanmamıştır. Bununla birlikte, AI yönetişim alanı olgunlaştıkça ve "AI Verify" kullanımı arttıkça IMDA, test çerçevesine eklemek için bağlama özel metrikleri ve eşikleri harmanlamayı ve geliştirmeyi amaçlıyor.
"Yapay Zeka Doğrulaması" AI Doğrulama Araç Seti
AI Verify'ın "yapay zeka doğrulaması" araç seti şu anda yalnızca AI Verify MVP programına başarılı bir şekilde kaydolan kuruluşlar tarafından kullanılabilirken, IMDA, araç setini kuruluşların teknik test yapması için "tek noktadan" bir araç olarak tanımlıyor. Özellikle araç seti, açık kaynak test kitaplıklarından kapsamlı bir şekilde yararlanır. Bu araçlar, açıklanabilirlik için SHAP (Shapley Additive ExPlanations), sağlamlık için Adversarial Robustness Toolkit ve adalet için AIF360 ve Fair Learning'i içerir.
"AI Verification" kullanıcıları, araç setini dahili ortamlarına yükleyebilir. Kullanıcı, test sürecini kullanıcı arayüzünün rehberliğinde gerçekleştirecektir. Örneğin araç, kullanıcıların kendi kullanım durumları ile ilgili adalet metriklerini belirlemeleri için bir "kılavuzlu adalet ağacı" içerir. Son olarak AI Verify, sistem geliştiricilerinin ve sahiplerinin test sonuçlarını yorumlamasına yardımcı olmak için bir özet rapor oluşturacaktır. Süreç denetimleri için rapor, test çerçevesinde belirtildiği gibi belgesel kanıtların varlığına veya yokluğuna ilişkin bir kontrol listesi sağlar. Test sonuçları daha sonra dağıtım için Docker® kapsayıcılarında paketlenir.
Sonuç olarak
IMDA, AI Verify'ı yayınladığında, üretken AI'ya olan ilgi dalgası henüz gerçekleşmemişti. Mevcut trendin ardından, yapay zeka sistemlerinin yönetişimine, test edilebilirliğine ve güvenilirliğine olan ilgi önemli ölçüde arttı. Bu makalede listelendiği gibi, "yapay zeka doğrulaması" AI Verify'ın çeşitli girişimleri mevcut duruma yanıt vermeye hazırlanıyor.
Singapur, daha önce yapay zeka yönetişimi ve düzenlemesi konusunda küresel söyleme ve düşünce liderliğine katkıda bulunma becerisini göstermişti. Yayınlanan Çerçeve Kalıpları bunun kanıtıdır. AI Verify'ın çıkarları kesinlikle yüksek, ancak girişime yönelik küresel talep de öyle. Başarılı olmak için daha fazla tanınması ve daha fazla kullanılması gerekebilir. Birkaç faktöre bağlıdır. İlk olarak, aracın erişilebilirliği çok önemlidir: AI Verify'ı kullanmak isteyen kuruluşların aracı düşük maliyetle veya ücretsiz olarak kullanabilmeleri gerekir. **İkincisi, kurumu değerine ikna etmek çok önemlidir. **Bu, IMDA'nın "yapay zeka doğrulaması" AI Verify'ın teknik ve prosedürel olarak sağlam olduğunu, yapay zeka modellerinin ve veri setlerinin daha yeni türleri ve ölçekleri için etkili bir şekilde kullanılabileceğini ve tescilli ticari duyarlılığı etkilemeyeceğini kanıtlamasını gerektirir. AI modeli veya veri kümesi. **Üçüncüsü ve belki de en önemlisi, uluslararası düzenleyici çerçevelerle birlikte çalışabilirliği korumalıdır. **IMDA'nın, AI Verify'ın kuruluşların AB AI Yasası, Kanada AI ve Veri Yasası ve ABD NIST AI Riskleri Düzenleme çerçevesi ve Singapur'unkiler gibi gelişmekte olan önemli küresel AI düzenleyici çerçevelerini ele almasına ve bunlarla birlikte çalışmasına yardımcı olmaya devam etmesini sağlaması gerekir. kendi ulusal model çerçevesi.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI Yönetişimini Doğrulanabilir Hale Getirmek: Singapur'un AI Verify Toolkit'i
Yazar: JOSH LEE KOK THONG Tercüme: Li Yang Düzeltme: Xiang Xinyi
Kaynak: Kağıt
AI yönetişimi ve düzenlemesine küresel ilgi son aylarda patladı. Birçok kişi, OpenAI'nin ChatGPT ve DALL-E, Google'ın Bard, Stable Diffusion ve diğerleri gibi yetenekleri hayret verici olan üretken yapay zeka sistemleriyle başa çıkmak için yeni yönetişim ve düzenleyici yapıların gerekli olduğuna inanıyor. AB Yapay Zeka Yasası geniş ilgi gördü. Aslında, çeşitli AI yönetişim modelleri ve çerçeveleri dahil olmak üzere dünya çapında birçok başka önemli girişim ortaya çıkıyor.
Bu makale, Mayıs 2022'de yayınlanan Singapur Yapay Zeka Yönetişim Testi Çerçevesi ve Araç Kiti - "AI Doğrulaması" ile ilgilidir. Esas olarak üç temel noktayı çıkarır. ① Yapay zeka doğrulamasını başlatmadan önce Singapur'un yapay zeka yönetişimi konusundaki genel stratejisini ve hükümet tarafından yayınlanan temel girişimleri özetleyin. ② "Yapay zeka doğrulamasının" anahtarını açıklayın. ③ AI doğrulamasının geleceğini ve Singapur'un AI yönetişimi ve düzenlemesine yaklaşımını tartışan "AI Verification" bir yıllığına başlatıldı. Kısaca, ana noktalar aşağıdaki gibidir:
Singapur, özel sektördeki AI yönetişimi için yönergeler belirleyen AI Yönetişim Çerçeve Modeli ile AI yönetişimi ve düzenlemesine ılımlı bir müdahale yaklaşımı benimsemiştir.
"AI Verify", Mayıs 2022'de kullanıma sunulan bir AI yönetişim testi çerçevesi ve araç setidir. Deneme aşamasında olmasına rağmen, Singapur'un güvenilir yapay zeka sistemlerine yönelik artan talebi karşılamaya çalışan ve küresel yapay zeka düzenleyici çerçevesinin birbirine bağlanabilirliğini teşvik eden yapay zeka yönetişimi ve düzenlemesi konusundaki küresel söylemi daha da geliştirme çabalarını temsil ediyor.
"AI Verification", şirketlerin kendi AI sistemlerini test ederken kullanabilecekleri, uluslararası kabul görmüş AI yönetişim ilkelerine dayalı bir test çerçevesidir. "Yapay Zeka Doğrulaması", etik standartları tanımlamayı amaçlamaz, ancak yapay zeka sistem geliştiricilerinin ve sahiplerinin kendi yapay zeka sistemlerinin performansını doğrulayan beyanlar yayınlamasına izin vererek doğrulanabilirlik sağlamayı amaçlar.
– Başarılı olmak için "AI-doğrulanmış"ın daha fazla tanınması ve benimsenmesi gerekebilir. Bu, maliyet, paydaşları değeri konusunda ikna etme ve uluslararası düzenleyici çerçeve ile uygunluğu ve sinerjisi gibi faktörlere bağlıdır.
Singapur'da Yapay Zeka Yönetişimine Genel Yaklaşım
Ulusal Yapay Zeka Stratejisinde Singapur, ülkenin "ölçeklenebilir, etkili yapay zeka çözümlerinin geliştirilmesi ve konuşlandırılmasında ön saflarda yer almayı" hedeflediğini ve ülkenin "geliştirme, test etme, dağıtma ve ölçeklendirmede lider" rolünü pekiştirmeyi umduğunu duyurdu. yapay zeka." çözümler için küresel merkez. Yapay zekanın benimsenmesini artırma stratejisinde tanımlanan beş "ekosistem sağlayıcısından" biri, yapay zeka gelişimi için "ilerici ve güvenilir bir ortamı" teşvik etmektir - yenilik ve toplumsal riski en aza indirme dengeli ortam arasında bir denge.
Singapur, bu "ilerici ve güvenilir ortamı" yaratmak için şimdiye kadar yapay zeka düzenlemesine iyi huylu ve gönüllü bir yaklaşım benimsemiştir. Bunun nedeni, ülkenin AI emellerinin iki gerçeğini kabul etmesidir.
İlk olarak, Singapur hükümeti**, yapay zekayı ekonomiyi büyütmek ve vatandaşlarının yaşam kalitesini iyileştirmek için kilit bir stratejik kolaylaştırıcı** olarak görüyor. Sonuç olarak Singapur, inovasyonu ve yatırımı engellememek için yapay zekayı düzenleme konusunda sert adımlar atmadı. İkincisi, büyüklüğü göz önüne alındığında Singapur, yapay zeka yönetişim söylemi, çerçeveleri ve düzenlemeleri küresel olarak geliştikçe, hükümetin fiyat belirleyiciden ziyade fiyat alıcı olabileceğini kabul ediyor. Bu nedenle, mevcut strateji yapay zekanın ilkelerini yenilemek değil, "dünyanın gidişatını takip etmek ve dünyanın gidişatını değiştirmeye niyeti olmamak."("Dünyayı al dünyanın olmasını umduğu yer değil, olduğu yer.")
Singapur'un Kişisel Verileri Koruma Komisyonu (PDPC) tarafından denetlenen yapay zekaya yönelik düzenleyici yaklaşımının, 2022'de AI Verify'ın piyasaya sürülmesinden önce üç ayağı vardır:
1 AI Yönetişim Çerçeve Modeli (Çerçeve Modeli).
Yapay Zeka ve Verilerin Etik Kullanımına İlişkin Danışma Komitesi (Danışma Komitesi).
AI yönetişimi ve veri kullanımı araştırma planı (araştırma projesi).
Aşağıdakiler "Çerçeve Modeli"ne odaklanmaktadır.
çerçeve modu
İlk olarak 2019'da Dünya Ekonomik Forumu Yıllık Toplantısında başlatılan Çerçeve Modeli, kuruluşlara yapay zeka çözümlerinin sorumlu bir ölçekte konuşlandırılmasında rehberlik eden gönüllü ve bağlayıcı olmayan bir çerçevedir ve çerçevenin geliştirme aşamasından bağımsız olduğuna dikkat çeker. teknoloji Bir kılavuz olarak, Çerçeve Modeli, özel sektör kuruluşları tarafından yapay zekanın konuşlandırılması için yalnızca pratik öneriler sunarken, yapay zekanın kamu sektörü kullanımı dahili yönergeler ve yapay zeka ve veri yönetişimi araç takımları tarafından yönetilir. **Çerçeve Modelleri "yaşayan bir belge" olarak bilinir ve gelecekteki sürümler, teknoloji ve toplum geliştikçe gelişecektir. Temeli teknoloji, endüstri, ölçek ve iş modelinin öngörülemezliğinde yatmaktadır. **
Temel olarak, çerçeve modeli, yapay zekada güven ve anlayışı destekleyen iki temel ilke tarafından yönlendirilir. **İlk olarak, karar vermede yapay zeka kullanan kuruluşlar, karar verme süreçlerinin açıklanabilir, şeffaf ve adil olmasını sağlamalıdır. İkinci olarak, AI sistemleri insan merkezli olmalıdır: AI'nın tasarımında, geliştirilmesinde ve kullanımında insan refahını ve güvenliğini korumak birincil düşünce olmalıdır. **
Çerçeve, bu yol gösterici ilkeleri, kurumsal karar verme ve teknoloji geliştirme süreçlerinin dört temel alanında eyleme geçirilebilir eylemlere dönüştürür:
(a) iç yönetişim yapıları ve uygulamaları;
(b) yapay zeka destekli karar verme sürecine insan katılımının düzeyini belirlemek;
(c) operasyon yönetimi;
(d) Paydaş etkileşimi ve iletişimi.
Aşağıdaki tablo, bu kilit alanlarda önerilen bazı hususları, yaklaşımları ve önlemleri özetlemektedir.
Singapur, 2020 Dünya Ekonomik Forumu'nda Çerçeve Modeli'nin ikinci baskısını başlattığında, buna iki başka belge daha eşlik etti: Kuruluşlar için Uygulama ve Öz Değerlendirme Kılavuzu (ISAGO) ve Kullanım Örnekleri Özeti (Derleme - Cilt 1 ve 2 ciltler) . ISAGO, kuruluşların AI yönetişim süreçlerinin model çerçevesiyle uyumunu değerlendirmesine yardımcı olan bir kontrol listesidir. Özet, Çerçeve'nin tavsiyelerinin sektörler, kullanım durumları ve yetki alanları genelinde benimsenmesine ilişkin gerçek dünyadan örnekler sunar.
Genel olarak, "Çerçeve Modeli" ve onu destekleyen belgeler, Singapur'daki yapay zeka düzenlemesinin esaslı düşüncesini demirler ve ana hatlarıyla belirtir. Bu girişimler, Singapur'un yapay zeka yönetişimindeki liderliğini takdir ederek 2019'da Birleşmiş Milletler Bilgi Toplumu Dünya Zirvesi Ödülü'nü kazandığını gördü.
Ocak 2020, AI düzenlemesine ilişkin küresel tartışmada bir dönüm noktası oldu. 17 Ocak 2020'de Avrupa Komisyonu tarafından yayınlanan bir teknik inceleme, uluslararası toplumun yapay zeka teknolojisine yönelik hükümet düzenlemesi olasılığına daha fazla dikkat etmesini sağladı. Şubat 2020'de Avrupa Komisyonu, yapay zeka için düzenleyici bir çerçeve oluşturma planlarını belirleyen "Yapay Zeka Üzerine Beyaz Kitap"ı resmi olarak yayınladı. Birkaç ay sonra, Avrupa Komisyonu yakında çıkacak olan Yapay Zeka Yasa Tasarısının taslağını sundu. Bu, bir devlet kurumunun AI sistemlerinin gelişimini ve kullanımını yatay olarak düzenlemek için somut kurallar getirmeye yönelik ilk ciddi girişimidir. Yapay Zeka Yasası'nın yargı dışı etkilerinin de olması beklenebilir ve Avrupa dışında yapay zeka sistemleri geliştiren şirketlerin yeni yasaya tabi olması beklenebilir.
Bunlar, Singapur'un yapay zeka düzenleyici ve yönetişim manzarasının geleceği hakkında düşünmeyi etkiledi. Singapur'un Kişisel Verileri Koruma Komisyonu (PDPC), AI düzenlemesine yönelik gönüllü ve gevşek yaklaşımını sürdürürken, AI'nın gelecekte daha sıkı bir gözetimle karşı karşıya kalacağını kabul ediyor. PDPC ayrıca, yapay zeka sistemlerinin ve geliştiricilerin güvenilirliği için tüketicilerden gelen artan talebi ve yapay zekayı yasal gerekliliklere göre kıyaslama ve değerlendirme için uluslararası yapay zeka standartlarına duyulan ihtiyacı da dikkate alıyor gibi görünüyor. Ek olarak, AI düzenleyici çerçevelerinin birlikte çalışabilirliğine yönelik gereksinimler de artmaktadır. **Bunun ışığında, Singapur gelişmeye başladı ve nihai sonuçlar "AI Verify" çerçevesinde birleştirildi.
"AI Doğrulaması" nedir
"AI Verify", Singapur İletişim ve Bilgi Bakanlığı'na bağlı yasal bir komite olan Infocomm Medya Geliştirme Otoritesi (IMDA) ve Kişisel Verileri Koruma Komitesi (PDPC) tarafından ortaklaşa yayınlanır ve bir yapay zeka yönetim testi çerçevesi ve araç setidir. **AI Verify'ı kullanan kuruluşlar, teknik testler ve süreç tabanlı denetimlerin bir kombinasyonunu kullanarak yapay zeka sistemlerinin gönüllü bir değerlendirmesini yapabilir. Buna karşılık, sistem, şirketlerin paydaşlara AI sistemlerinin sorumlu ve güvenilir bir şekilde uygulandığına dair objektif ve doğrulanabilir kanıtlar sağlamasına yardımcı olur. **
Yapay zeka test yöntemlerinin, standartlarının, göstergelerinin ve araçlarının sürekli gelişimi göz önüne alındığında, "yapay zeka doğrulaması" (AI Verify) şu anda "minimum uygulanabilir ürün" (MVP) aşamasındadır. Bunun iki anlamı vardır. İlk olarak, MVP sürümünün teknik sınırlamaları vardır ve test edilebilen veya analiz edilebilen yapay zeka modellerinin veya veri kümelerinin türü ve boyutuyla sınırlıdır. İkinci olarak, yapay zeka testi yetenekleri olgunlaştıkça yapay zeka doğrulamasının da gelişmesi bekleniyor.
"AI Onaylı" MVP sürümünü geliştirmenin dört hedefi şunlardır:
(a) İlk olarak IMDA, kuruluşların AI sistemlerinin performans ölçütlerini belirlemek için "AI doğrulamasını" kullanabileceklerini ve bu doğrulanmış ölçütleri tüketiciler ve çalışanlar gibi paydaşlara göstererek kuruluşların güven oluşturmasına yardımcı olacağını umuyor.
(b) İkinci olarak, çeşitli yapay zeka düzenleme ve yönetişim çerçevelerinin yanı sıra ortak güvenilir yapay zeka ilkeleri dikkate alınarak geliştirilmesi göz önüne alındığında, Yapay Zeka Doğrulaması, kuruluşların ortak çeşitli küresel YZ yönetişim çerçeveleri ve düzenlemeleri bulmasına yardımcı olmayı amaçlar. IMDA, "AI Doğrulaması" için test çerçevesini belirlenen çerçeveye eşlemek için düzenleyiciler ve standart kuruluşlarıyla birlikte çalışmaya devam edecektir. Çabalar, şirketlerin yapay zeka ürünlerini ve hizmetlerini birden çok pazarda işletmesini veya sunmasını sağlarken, Singapur'u yapay zeka yönetişimi ve düzenleyici testler için bir merkez haline getirmeyi amaçlıyor.
(c) Üçüncüsü, **IMDA, daha fazla kuruluş "AI Validation" ile deney yaptıkça ve test çerçevesini kullandıkça endüstri uygulamalarını, karşılaştırmalı değerlendirmeleri ve ölçümleri derleyebilecektir. **Singapur'un Global AI Partnership ve ISO/IEC JTC1/SC 42 gibi küresel AI yönetişim platformlarına katıldığı ve AI yönetişimi için uluslararası standart belirleme konusunda değerli perspektifler sağladığı düşünülürse, bunlar AI yönetişimi için konulan standartların geliştirilmesini kolaylaştırabilir. .
(d) Dördüncüsü, **IMDA, Singapur'da AI geliştiricileri ve sistem sahiplerinden (AI sistemlerini test etmek isteyen), teknoloji sağlayıcılardan (AI yönetişim uygulaması geliştiren ve test çözümleri), danışmanlık hizmeti sağlayıcıları (test ve sertifikasyon desteğinde uzmanlaşmış) ve araştırmacılar (test teknikleri, kıyaslamalar ve uygulamalar geliştiren).
"Yapay Zeka doğrulaması" ile ilgili bazı olası yanlış anlamaları açıklığa kavuşturmak da önemlidir. İlk olarak, **"AI Validation" etik standartları tanımlama girişiminde bulunmaz. **Yapay Zeka sistemlerinin sınıflandırılmasına işaret etmeye çalışmaz, bunun yerine doğrulanabilirlik sağlayarak Yapay Zeka sistem geliştiricilerinin ve sahiplerinin Yapay Zeka sistem performansları hakkındaki iddialarını kanıtlamalarına olanak tanır. İkincisi, "AI doğrulamasını" kullanan devlet kuruluşları, test edilen AI sistemlerinin risk veya önyargı içermediğini veya tamamen "güvenli" ve "etik" olduklarını garanti edemez. Üçüncüsü, "Yapay Zeka Doğrulaması", kuruluşların yapay zeka sistemleri hakkındaki hassas bilgileri (temel kodları veya eğitim verileri gibi) istemeden ifşa etmesini önlemeyi amaçlar. AI sistem geliştiricileri ve sahipleri tarafından kendi kendine test edilecek olan " AI Doğrulaması" adlı önemli bir koruma önlemi benimsemiştir. Bu, kuruluşun verilerinin ve modellerinin kuruluşun işletim ortamında kalmasına olanak tanır. **
"AI Doğrulaması" nasıl çalışır
"AI Validation" iki bölümden oluşur. İlki, uluslararası kabul görmüş 11 AI etiği ve yönetişim ilkesini beş sütun halinde organize eden Test Çerçevesidir. İkincisi, kuruluşların test çerçevesinde teknik testler ve belge süreç kontrolleri gerçekleştirmek için kullandıkları araç takımıdır.
"Yapay zeka doğrulaması" için test çerçevesi
"AI Doğrulama" test çerçevesinin beş ayağı ve on bir ilkesi ve amaçlanan değerlendirmeleri aşağıda listelenmiştir:
***(a) Tanımlar: *** Test çerçevesi, her bir AI ilkesi için anlaşılması kolay tanımlar sağlar. Örneğin, yorumlanabilirlik, "bir yapay zeka sisteminin kararına, genel davranışına, sonucuna ve etkisine yol açan faktörleri değerlendirme yeteneği" olarak tanımlanır.
***(b) Test Edilebilir Kriterler: ***Her ilke için bir dizi test edilebilir kriter sağlanır. Bu standartlar, bu yönetişim ilkesinin amaçlanan sonuçlarına ulaşılmasına katkıda bulunan teknik ve/veya teknik olmayan (süreçler, prosedürler veya organizasyon yapıları gibi) faktörleri dikkate alır.
Yorumlanabilirlik örnek alınarak, test edilebilir iki kriter verilmiştir. Geliştiriciler, kullanıcıların AI modellerini neyin yönlendirdiğini anlamalarına yardımcı olmak için açıklanabilirlik yöntemleri çalıştırabilir. Geliştiriciler ayrıca kararlarını açıklayan veya varsayılan olarak yapan yapay zeka modelleri geliştirmeyi tercih edebilirler.
***(c) Test Süreci: *** "AI Validation", test edilebilir her bir kriter için, nicel (istatistiksel veya teknik testler gibi) olabilen ve aynı zamanda nitel (örn. süreç denetimleri sırasında üretilen belgesel kanıtlar).
Yorumlanabilirlik söz konusu olduğunda, teknik testler ampirik analizi ve özelliklerin model çıktısına katkısının belirlenmesini içerebilir. Süreç tabanlı testler, AI modelinin mantığını, risk değerlendirmesini ve ödünleşimlerini belgeleyecektir.
***(d) Metrikler: ***Bunlar, test edilebilir her bir kriteri ölçmek veya kanıt sağlamak için kullanılan nicel veya nitel parametrelerdir.
Yukarıdaki yorumlanabilirlik örneğini kullanarak, özellik katkılarını belirlemek için kullanılan metrikler, SHAP ve LIME gibi teknik araçlardan elde edilen model çıktılarının katkıda bulunan özelliklerini inceler. Nihai modeli seçerken, değerlendirmeyi belgelemek için risk değerlendirmesi ve takas tatbikatları gibi sürece dayalı ölçütler kullanılabilir.
***(e) Eşikler (varsa): ***Mevcut olduğu durumlarda, test çerçevesi seçilen metrikler için kabul edilmiş değerler veya kıyaslamalar sağlayacaktır. Bu değerler veya ölçütler, düzenleyici kurumlar, endüstri birlikleri veya diğer tanınmış standart belirleyen kuruluşlar tarafından tanımlanabilir. AI teknolojilerinin hızlı gelişimi, bunların kullanım durumları ve AI sistemlerini test etme yöntemleri dikkate alındığında, "AI Validation" MVP modeli için herhangi bir eşik sağlanmamıştır. Bununla birlikte, AI yönetişim alanı olgunlaştıkça ve "AI Verify" kullanımı arttıkça IMDA, test çerçevesine eklemek için bağlama özel metrikleri ve eşikleri harmanlamayı ve geliştirmeyi amaçlıyor.
"Yapay Zeka Doğrulaması" AI Doğrulama Araç Seti
AI Verify'ın "yapay zeka doğrulaması" araç seti şu anda yalnızca AI Verify MVP programına başarılı bir şekilde kaydolan kuruluşlar tarafından kullanılabilirken, IMDA, araç setini kuruluşların teknik test yapması için "tek noktadan" bir araç olarak tanımlıyor. Özellikle araç seti, açık kaynak test kitaplıklarından kapsamlı bir şekilde yararlanır. Bu araçlar, açıklanabilirlik için SHAP (Shapley Additive ExPlanations), sağlamlık için Adversarial Robustness Toolkit ve adalet için AIF360 ve Fair Learning'i içerir.
"AI Verification" kullanıcıları, araç setini dahili ortamlarına yükleyebilir. Kullanıcı, test sürecini kullanıcı arayüzünün rehberliğinde gerçekleştirecektir. Örneğin araç, kullanıcıların kendi kullanım durumları ile ilgili adalet metriklerini belirlemeleri için bir "kılavuzlu adalet ağacı" içerir. Son olarak AI Verify, sistem geliştiricilerinin ve sahiplerinin test sonuçlarını yorumlamasına yardımcı olmak için bir özet rapor oluşturacaktır. Süreç denetimleri için rapor, test çerçevesinde belirtildiği gibi belgesel kanıtların varlığına veya yokluğuna ilişkin bir kontrol listesi sağlar. Test sonuçları daha sonra dağıtım için Docker® kapsayıcılarında paketlenir.
Sonuç olarak
IMDA, AI Verify'ı yayınladığında, üretken AI'ya olan ilgi dalgası henüz gerçekleşmemişti. Mevcut trendin ardından, yapay zeka sistemlerinin yönetişimine, test edilebilirliğine ve güvenilirliğine olan ilgi önemli ölçüde arttı. Bu makalede listelendiği gibi, "yapay zeka doğrulaması" AI Verify'ın çeşitli girişimleri mevcut duruma yanıt vermeye hazırlanıyor.
Singapur, daha önce yapay zeka yönetişimi ve düzenlemesi konusunda küresel söyleme ve düşünce liderliğine katkıda bulunma becerisini göstermişti. Yayınlanan Çerçeve Kalıpları bunun kanıtıdır. AI Verify'ın çıkarları kesinlikle yüksek, ancak girişime yönelik küresel talep de öyle. Başarılı olmak için daha fazla tanınması ve daha fazla kullanılması gerekebilir. Birkaç faktöre bağlıdır. İlk olarak, aracın erişilebilirliği çok önemlidir: AI Verify'ı kullanmak isteyen kuruluşların aracı düşük maliyetle veya ücretsiz olarak kullanabilmeleri gerekir. **İkincisi, kurumu değerine ikna etmek çok önemlidir. **Bu, IMDA'nın "yapay zeka doğrulaması" AI Verify'ın teknik ve prosedürel olarak sağlam olduğunu, yapay zeka modellerinin ve veri setlerinin daha yeni türleri ve ölçekleri için etkili bir şekilde kullanılabileceğini ve tescilli ticari duyarlılığı etkilemeyeceğini kanıtlamasını gerektirir. AI modeli veya veri kümesi. **Üçüncüsü ve belki de en önemlisi, uluslararası düzenleyici çerçevelerle birlikte çalışabilirliği korumalıdır. **IMDA'nın, AI Verify'ın kuruluşların AB AI Yasası, Kanada AI ve Veri Yasası ve ABD NIST AI Riskleri Düzenleme çerçevesi ve Singapur'unkiler gibi gelişmekte olan önemli küresel AI düzenleyici çerçevelerini ele almasına ve bunlarla birlikte çalışmasına yardımcı olmaya devam etmesini sağlaması gerekir. kendi ulusal model çerçevesi.