Yapay zeka kasırgası çağında, yapay zekaya nasıl güvenebiliriz?

Yazar: Chen Yongwei

Kaynak: Ekonomik Gözlemci

Giriiş

一|| **AI araçları, insanların üretkenliğini büyük ölçüde artırdı ve insanların yaşamlarına büyük kolaylıklar getirdi. Ancak yapay zeka geniş ölçekte insanlar tarafından kullanıldığında birçok sorun da ortaya çıktı. Bu sorunlar arasında en kritik olanı, işsizlik, çarpıklık, diskalifiye, başarısızlık ve kontrol kaybı olmak üzere beş "kayıp" olabilir. **

二|| **2017'den sonra yapay zeka teknolojisinin hızla gelişmesiyle birlikte, güvenilir yapay zeka teknolojisine ilişkin araştırmalar da patlama yaşıyor. Akademik alanda, güvenilir yapay zeka konusundaki makalelerin sayısı artıyor ve güvenilir yapay zekanın gereksinimlerini karşılayan teknolojiler üzerine araştırmalar derinleşiyor. Uygulama alanında, giderek daha fazla sayıda ülke, güvenilir AI standartlarına uygun olarak AI düzenlemelerini dahil etmeye başlamıştır. **

**三|| Güvenilir yapay zekayı gerçekleştirmek kolay bir iş değildir. Bunu gerçekleştirmek için hükümet, işletme, toplum ve teknolojinin koordinasyonunu gerektirir. **

Görsel kaynağı: Unbounded AI tarafından oluşturuldu

22 Haziran'da, yerel saatle, New York Güney Bölgesi Mahkemesi bir karar yayınladı: Levidow, Levidow & Oberman Hukuk Bürosu, kötü davranış nedeniyle mahkemeye yanlış bilgi vermekten 5.000 dolar para cezasına çarptırıldı. Endişenin nedeni, bu davada yanlış bilgi sağlanmasının, avukatların bilerek kişisel çıkarları nedeniyle yasayı çiğnemeleri değil, yapay zekanın yeteneklerine çok fazla inanmalarıydı.

Bu yılın Mart ayında, şirketin avukatları Peter LoDuca ve Steven Schwartz, müvekkili Roberto Mata tarafından kendisinin ve Avianca Havayolları arasındaki bir davanın sorumluluğunu üstlenmek üzere görevlendirildi. Amerika Birleşik Devletleri bir içtihat ülkesi olduğundan, yargıçlar hüküm verirken mevcut içtihatlarla çok ilgilenirler, bu nedenle, olağan uygulamaya göre, taslak belgelerde mevcut davaları ayırmaları ve özetlemeleri gerekir. İlgili vakalar genellikle bunaltıcıdır ve bunları insan gücüyle çözmek genellikle uzun zaman alır. Tam bu sırada ChatGPT tüm İnternet'te popüler hale geldi. Bu nedenle iki avukat, bu görevleri tamamlamalarına yardımcı olması için ChatGPT'yi kullanmaya karar verdi. ChatGPT, yalnızca düzgün bir biçime ve titiz tartışmalara sahip olmakla kalmayıp, aynı zamanda birçok ilgili vakayı özel olarak ekleyen eksiksiz bir belgeyi hızlı bir şekilde oluşturdu. AI tarafından oluşturulan belgeyi biraz değiştirdikten sonra mahkemeye sundular.

Sunulan belgeleri okuduktan sonra, davaya bakan yargıç Kevin Castel, içinde bahsedilen birkaç dava karşısında çok şaşırdı ve izlenimine göre, bu davaları hiç duymamış gibi görünüyordu. Biraz araştırdıktan sonra, sonunda bu vakaların hiç olmadığını doğruladı. Görüşülen iki avukat, AI'yı yalnızca belgeleri yazmaya yardımcı olmak için kullandıklarını savundu.Belgelerde belirtilen davaları gördüklerinde, AI'nın bilmedikleri davaları bulmalarına yardımcı olduğunu hissettiler ve kasıtlı olarak davalar uydurmadılar. mahkemeyi aldatmak, kasıtsız bir kayıptır. Bununla birlikte, Yargıç Custer, avukatların "sorumluluklarını terk ettiklerini" ve evraklara itiraz edildikten sonra "yanlış fikirleri savunmaya devam ettiklerini" tespit etti. Yargıç Custer, yukarıdaki karara dayanarak bir ceza kararı verdi.

ChatGPT tarafından sağlanan yanlış bilgiler nedeniyle para cezasına çarptırılan bu avukat olayı saçma görünüyor, ancak çok önemli bir soruyu yansıtıyor: AI çılgınlığı çağında AI'ya nasıl güvenebiliriz?

Yapay zeka çağında beş "kayıp"

Son yıllarda bilgi işlem gücü ve algoritma teknolojisindeki atılımlarla birlikte yapay zeka teknolojisi hızlı bir gelişim göstermiş ve bilimkurgudan hızla insanların günlük hayatına girmiştir. Özellikle geçen yıl Kasım ayında ChatGPT'nin ortaya çıkmasından sonra, üretken yapay zeka güçlü gücünü insanlara gösterdi ve çeşitli büyük modeller yağmurdan sonra mantar gibi türedi ve büyük ölçekli ticarileştirme elde etti. Artık insanlar ChatGPT, Stable Diffusion ve Midjourney gibi AI ürünlerini çok düşük bir maliyetle zaten kullanabilirler.

AI araçları, insanların üretkenliğini büyük ölçüde artırdı ve insanların yaşamlarına büyük kolaylıklar getirdi. Ancak yapay zeka geniş ölçekte insanlar tarafından kullanıldığında birçok sorun da ortaya çıktı. Bu sorunlar arasında en kritik olanı, işsizlik, çarpıklık, diskalifiye, başarısızlık ve kontrol kaybı olmak üzere beş "kayıp" olabilir.

(1) İşsiz

Adından da anlaşılacağı gibi sözde "işsizlik", yapay zekanın getirdiği teknik işsizlik sorununu ifade eder. Yapay zekanın üretim verimliliği insanlardan çok daha yüksek olduğundan, yapay zeka araçları yaygın olarak kullanılmaya başladıktan sonra birçok insan işinin yerini alma riski vardır. Özellikle üretken yapay zekanın yükselişinden sonra, yapay zekanın yerini aldığı hedef kitle artık düşük gelirli, tekrarlayan işlerde çalışan işçilerle sınırlı değil ve birçok yüksek maaşlı beyaz yakalı işçi de yapay zekanın yerini alma riskiyle karşı karşıya.

(2) Bozulma

Sözde "çarpıtma", AI uygulamasının (esas olarak üretken AI) insanların metinlerin, resimlerin ve hatta videoların gerçekliğini belirlemesini zorlaştırdığı gerçeğini ifade eder. "Resimler ve gerçekler var" böylece tarih oldu. .

"Bozulma" problemleri "yanlış doğru" ve "doğru yanlış" olarak ikiye ayrılabilir. Bunlar arasında "yanlış doğru", insanlar yapay zeka araçlarını kullanırken yapay zeka tarafından insan izni olmadan üretilen yanlış içeriği ifade eder. Bu içerikler kişilerin subjektif kötü niyetlerinden kaynaklanmasa da bazı durumlarda örneğin bu yazının başında bahsettiğimiz gibi çok fazla soruna yol açabilmektedir.

Ve "doğru ve sahte", sahtekarlık davranışı gerçekleştirmek için yapay zeka araçlarının kullanılması olan öznel müzakereye dayanır. Birkaç yıl önce, "deepfake" teknolojisi çıktıktan sonra, bazı insanlar bu teknolojiyi dolandırıcılık yapmak, yanlış bilgi uydurmak, pornografik içerik yaymak ve diğer yasa dışı ve suç teşkil eden faaliyetler için kullandı. Ancak o zamanlar, bu teknolojiyi kullanmanın yüksek maliyeti nedeniyle, ilgili suçların insidansı özellikle yüksek değildi. Üretken yapay zekanın yaygın olarak uygulanmasıyla, sahteciliğin maliyeti büyük ölçüde azaldı ve suçlular çok düşük bir maliyetle büyük miktarda sahte içeriği kolayca oluşturabilirken, bu tür içeriği belirleme maliyeti önemli ölçüde arttı. Gelgitler altında, herhangi bir müdahale olmazsa, dolandırıcılık suçları yapmak için yapay zeka kullanımının hızla artacağı öngörülebilir.

(3) Diskalifiye

Sözde "diskalifiye", AI'nın başvuru sürecinde etik ve ahlakı ihlal eden bazı sorunları ifade eder.

İlk tipik sorun ayrımcılıktır. Örnek olarak dil modelini ele alalım: Dil modeli internetteki metin verilerini eğitim materyalleri olarak kullandığından, metinde yer alan ırk ayrımcılığını ve cinsiyet ayrımcılığını müdahale olmaksızın miras alacaktır. Mevcut AI sağlayıcıları bu sorunun üstesinden gelmek için birçok yöntem kullanmış olsa da, örneğin OpenAI, ChatGPT'yi eğitirken düzeltmek için "İnsan Geri Bildiriminden Takviyeli Öğrenme" (İnsan Geri Bildiriminden Takviyeli Öğrenme, RL-HF) algoritmasını uyguladı. çıktı içeriğinin kalitesi büyük ölçüde iyileştirildi, ancak gerçekte yapay zeka modellerinin ayrımcı içerik çıktısı alması hâlâ alışılmadık bir durum değil. Örneğin, birisi bir keresinde bir deney yaptı ve ChatGPT'den bir dizi özgeçmiş arasından mükemmel bilim insanı olma potansiyeline sahip kişileri seçmek için bir program yazmasını istedi. ChatGPT tarafından yazılan programda cinsiyet ve ırkın açıklayıcı değişkenler olarak kullanıldığı ve beyaz erkeklerin iyi bilim insanı olma ihtimalinin diğerlerine göre daha yüksek olduğu ortaya çıktı. Açıkçası, böyle bir model çok cinsiyetçi ve ırkçıdır.

İkinci önemli konu bilgi koza odası sorunudur. Şu anda birçok uygulama, kişiselleştirilmiş öneriler için AI kullanıyor. Şu anda önerilen içerikler kullanıcıların ihtiyaçlarını daha iyi karşılayabilse de zamanla kullanıcılar bir bilgi kozasına hapsolacak ve hemfikir olmadıkları çeşitli bilgilere erişimleri zorlaşacaktır. Bilgi kozalarının potansiyel zararı çok büyüktür: mikro düzeyde, kullanıcıların bilişsel becerilerinin bozulmasına yol açabilir; makro düzeyde, grup görüşlerinin kutuplaşmasına yol açarak farklı görüşler arasında grup çatışmasına yol açabilir.

Üçüncü önemli konu ise mahremiyet ve bilgi sızıntısıdır. AI eğitimi ve kullanımı sürecinde, büyük miktarda veri gereklidir.Bu süreçte, insanların kişisel verilerini toplamaktan ve kullanmaktan kaçınmak zordur, bu nedenle mahremiyetin kullanılmasını ve ifşa edilmesini içerecektir. Özellikle üretken yapay zekanın popülaritesinden sonra, insanlar çeşitli görevleri tamamlamak için doğrudan yapay zeka ile kolayca etkileşime geçebilir ve süreçte girilen kişisel bilgiler sızdırılma sorunuyla karşı karşıya kalır.

(4) Kayıp

Sözde "düşme", yapay zekanın harici saldırılara veya müdahaleye veya beklenmedik durumlardan gelen saldırılara yanıt vermedeki zorluğunu ifade eder ve bu da modelin rolünü normal şekilde oynamasını zorlaştırır.

Bu rahatsızlıklardan bazıları insan dışı faktörlerden kaynaklanırken, diğerleri insan yapımı yıkımdan kaynaklanmaktadır. Spesifik olarak, bu müdahaleler aşağıdaki kategorilere ayrılabilir:

Birincisi "rastgele saldırı". Bu tür parazitlere temel olarak bazı dış etkenler neden olur. Örneğin bazı özel durumlarda anlık olarak üretilen bazı parametreler, model tarafından belirlenen işleme eşiğini aşabilir ve bu da AI modelinin normal şekilde kullanılamamasına neden olabilir.

İkincisi, "beyaz kutu saldırısı" dır. AI modelinin kendine özgü yapısını öğrendikten sonra sağlayıcı tarafından başlatılan modele yapılan saldırıyı ifade eder. Bu tür saldırılar hedefli olduğu için yıkıcılıkları çok yüksektir.

Üçüncüsü ise "kara kutu saldırısı"dır. Bu tür bir saldırı, "beyaz kutu saldırısı" ile ilişkilidir. Bu durumda sağlayıcı, hedef modelin kendine özgü yapısını bilmez, bu nedenle yalnızca modelle etkileşime geçebilir, girdi ve çıktı sonuçlarını gözlemleyebilir ve ardından modelin yapısı hakkında akıl yürütebilir ve buna göre saldırılar başlatabilir. Yüz tanımayı örnek olarak alan yapay zeka, yüzdeki belirli temel özellikler aracılığıyla yüzleri tanır. Dolayısıyla saldırgan orijinal modelin kendine özgü yapısını bilmese bile testi tekrar ettiği sürece hangi özelliklere odaklandığını anlayabilir. Bu bilgiyi deşifre ettikten sonra, AI'yı aldatan karşılık gelen bir "sahte yüz" oluşturabilirsiniz.

Dördüncü kategori, sözde kör kutu saldırısıdır. Bu durumda, tedarikçi AI modelinin yapısını bilmez, ancak yargılama kurallarını açıkça bilebilir (buna benzer şekilde, kör kutuda ne görüneceğini bilmiyoruz, ancak çeşitli olasılıkların olasılığını biliyoruz. içinde) ). Şu anda, ilgili saldırıları başlatmak için kuralları kullanabilirler.

Yukarıda bahsedilen müdahale veya saldırı türleri etkili bir şekilde ele alınamıyorsa, yapay zeka modeli gerçekte çok kırılgandır.

(5) KONTROL DIŞI

Sözde "kontrol dışı", insanların yapay zekayı kontrol etmesinin giderek zorlaşacağı anlamına gelir. Bu sorunun iki yönü var:

Bir yandan, son AI gelişmelerinin tümü derin öğrenme modellerine dayanmaktadır ve bu tür modellerin yorumlanabilirliği çok düşüktür. Önceki makine öğrenimi modellerinde, ister regresyon ister sınıflandırma ağacı olsun, insanlar modelin tam amacını ve modeldeki her parametrenin anlamını kolayca açıklayabilir. Ancak derin öğrenme modeli, yüz milyonlarca parametre ve nöron içeren karmaşık bir sinir ağından oluşur.Bu nöronlar arasındaki ilişki karmaşık ve insanların açıklaması zor.

ChatGPT'nin ortaya çıkmasıyla birlikte, bazı akademisyenler, ChatGPT'nin yeteneğinin yardımıyla bazı sinir ağı modellerinin açıklanabileceğini keşfettiler, bu da yapay zekanın açıklanabilirliğine bir umut ışığı getiriyor gibi görünüyor. Ancak bu, başka bir sorun yaratır: ChatGPT'nin kendisi, derin öğrenme yoluyla oluşturulmuş devasa bir modeldir ve tasarımcıları bile, onun güçlü yeteneklerinin nasıl "ortaya çıktığını" tam olarak bilmediklerini kabul etmektedirler. Bu durumda ChatGPT'yi diğer derin öğrenme modellerini açıklamak için kullanmak, yalnızca bilinmeyeni bilinmeyeni açıklamak için kullanmak olarak kabul edilebilir. Ve yorumunun doğru olup olmadığını nasıl anlarız?

Derin öğrenme çağında, AI programları bile yorumlanamadığı için, programları doğrudan ayarlayarak AI'yı kontrol etmek daha da zordur.

Öte yandan, son yıllarda yapay zeka teknolojisinin gelişmesiyle birlikte, yapay zeka modellerinin birçok yönden yetenekleri insanlarınkini geride bıraktı. Bu insanı memnun ederken bir yandan da endişelendiriyor çünkü yapay zekanın yeteneği insanınkini aştığında kendi iradesini uyandırırsa o zaman "Terminator" ve "The Terminator" gibi filmlerde öngörülen yapay zeka köleleştirmesi. Matrix" İnsanoğlunun konusu ya da insanın yok oluşu artık bilim kurgu değil mi?

Geri adım atmak, AI kendi iradesini uyandırmasa ve sadece insan talimatlarına göre hareket etse bile, yeteneğinin insanınkinden üstün olması yine de çok tehlikelidir ve insanlar önceki talimatları hiçbir zaman değiştiremezler. Örneğin yapay zeka ile ilgili birçok felsefe kitabında bir düşünce deneyinden bahsedilir: İnsanlar yapay zekaya kalem yapma emrini verdi. Bu talimatı tamamlamak için kalem, kalem tutacağını yapmak için yeryüzündeki ağaçları kesmeye devam edecek. Yapay zeka yürütme yeteneğinde insanları geride bıraktığından, insanların önceki talimatlardaki sorunları keşfettikten sonra yapay zeka davranışını durdurması zordur. Sonunda yeryüzündeki ağaçlar kesildi, ekoloji tamamen çöktü ve insanlar yok oldu. Gerçekte, bu düşünce deneyinin öngördüğü senaryonun gerçekleşmesi neredeyse imkansız olsa da, insanlar artık herhangi bir zamanda yapay zekanın davranışını kontrol edemediğinde, benzer sorunlar ortaya çıkabilir ve olası kayıplar çok büyük olacaktır. Özellikle, AI'ya bilgisayar korsanları veya davetsiz misafirler tarafından yasa dışı bir hedef yerleştirildiğinde, AI kullanıcısı bunu zamanında düzeltemezse, sonuçlar oldukça ciddi olabilir.

Yukarıdaki beş soru türü arasında, ilk soru olan "işsizlik" hariç, geri kalan dört sorunun tümü yapay zekanın güvenilirliğini içerir. İnsanların “çarpıtma”, “diskalifiye olma”, “düşme” ve “kontrolden çıkma” durumlarına etkili bir şekilde tepki verememesi durumunda, ister kullanım amaçlı olsun, ister kullanım sırasında yapay zekaya bir araç olarak güvenmelerinin zor olacağını görmek zor değil. AI'nın yaygınlaşması, üretimin gelişmesi veya toplumun ilerlemesi için iyi değil. Tam da bu nedenle, AI'nın güvenilirliğinin gerçekleştirilmesi, mevcut AI alanındaki en endişeli sıcak noktalardan biri haline geldi.

Güvenilir Yapay Zekanın Tarihçesi ve Standartları

Güvenilir yapay zeka kavramı ilk olarak akademide ortaya çıktı. Örneğin, 2015 tarihli bir makalede, yapay zekanın kullanıcılar tarafından güvenilmesi için yararlılık, zararsızlık, özerklik, adalet ve mantık dahil olmak üzere bir dizi koşul önerildi. Daha sonra bu kavram hükümetler ve uluslararası kuruluşlar tarafından kabul edilmiş ve ilgili kanunlar, yönetmelikler ve kılavuz belgeler yavaş yavaş bu kavrama dayalı olarak oluşturulmuştur. 2017'den sonra yapay zeka teknolojisinin hızla gelişmesiyle birlikte güvenilir yapay zeka teknolojisine yönelik araştırmalar da patlama yaşıyor. Akademik alanda, güvenilir yapay zeka konusundaki makalelerin sayısı artıyor ve güvenilir yapay zekanın gereksinimlerini karşılayan teknolojiler üzerine araştırmalar derinleşiyor. Uygulama alanında, giderek daha fazla sayıda ülke, güvenilir AI standartlarına uygun olarak AI düzenlemelerini dahil etmeye başlamıştır. Yakın zamanda Amerika Birleşik Devletleri, yapay zekayı düzenlemek için beş ilke öneren "Yapay Zeka Haklar Bildirgesi Taslağı"nı yayınladı; Yönetmelikler, rekabet ve diğer konular şart koşuldu; Avrupa Parlamentosu, yapay zekanın teklifinin müzakere yetkisi taslağını kabul etti. Güvenilir yapay zekanın temel fikirlerini de yansıtan "Yapay Zeka Yasası".

Ülkemde, güvenilir yapay zeka kavramı ilk olarak 2017'de Xiangshan Bilim Konferansı'nın 36. Sempozyumunda Akademisyen He Jifeng tarafından tanıtıldı. Akabinde bu kavram hem devletin hem de sektörün ilgisini çekmiştir. Aralık 2017'de Sanayi ve Bilgi Teknolojileri Bakanlığı, güvenilir yapay zekanın temel fikirlerinden yararlanan "Yeni Nesil Yapay Zeka Endüstrisinin Geliştirilmesini Teşvik Etmek İçin Üç Yıllık Eylem Planı (2018-2020)" yayınladı. Ardından, Tencent, Ali, Baidu, JD.com vb. gibi yüksek teknoloji şirketleri, güvenilir yapay zeka etrafında kendi standartlarını ve uygulama planlarını ortaya koydu.

Çeşitli kurumların belgelerinde, güvenilir yapay zekanın ifadesi biraz farklıdır. Bu belgeleri inceledikten ve bunlara atıfta bulunduktan sonra, aşağıdaki kriterlerin en önemli olabileceğini düşünüyorum:

Biri sağlamlıktır (sağlam, sağlam olarak da çevrilir), yani yapay zeka sistemi kötü niyetli saldırılara veya dış müdahaleye direnme yeteneğine sahip olmalıdır. Bu standart esas olarak yukarıda belirtilen "düşme" sorunu için önerilmiştir. Yalnızca bir AI sistemi yeterli sağlamlığa sahip olduğunda, hala normal şekilde çalışabilir ve çeşitli saldırılar veya müdahaleler karşısında ana işlevlerini yerine getirebilir, güvenli ve güvenilir olabilir ve kullanıcılar tarafından güvenilebilir.

İkincisi şeffaf ve açıklanabilir. Açıkçası, bu standart esas olarak önceki "kontrolden çıkma" sorunu için önerilmiştir. Uygulamada, şeffaflık ve açıklanabilirliğin tam olarak ne anlama geldiği konusunda önemli tartışmalar vardır. Bazıları, bu standardın, kullanılan verilerin yanı sıra tüm AI program kodunun kullanıcılara sunulması gerektiği anlamına geldiğini iddia ediyor. Bana göre bunu yapmak sadece imkansız değil, aynı zamanda gereksiz de. Bir yandan, birçok mevcut yapay zeka işletmelerin fikri varlıklarıdır, kodlar gibi temel bilgilerin ifşa edilmesi zorunlu ise, bu ciddi bir fikri mülkiyet hakkı ihlali anlamına gelir; Kod ifşa edilse bile, insanların her bir özel parametrenin ardındaki tam anlamı tam olarak anlaması zordur. Buna karşılık, kullanıcıların genel ilkelerini ve hangi işlevleri başarabileceklerini bilmeleri için AI modelindeki her bileşen için net işlevsel açıklamalar vermek daha uygun bir fikir olduğunu düşünüyorum; Kaynağı, örneklem büyüklüğünü, temsil edilebilirliği ve diğerlerini belirtin bilgi verir, olası sorunları ve eksiklikleri açıklar. Bu şekilde, kullanıcılar ne bildiklerini bilebilirler ve ikisi arasında daha iyi bir denge elde etmek için model geliştiricilerin fikri mülkiyet haklarını etkili bir şekilde koruyabilirler.

Üçüncüsü doğrulanabilir. Bu, AI modelinin işlevlerinin değerlendirilebilir olmasını ve ürettiği içeriğin doğru veya yanlış olduğunun doğrulanabilmesini sağlaması gerektiği anlamına gelir. Bu nokta esas olarak yukarıda belirtilen "çarpıtma" sorunu için gündeme getirilmiştir. Bazıları, yapay zeka modellerinin geliştiricilerinin, modelleri tarafından oluşturulan içeriğin gerçekliğini garanti etmesi gerektiğini savunuyor. Bunu başarmak zordur. Aslında, sözde üretken AI tarafından üretilen içerik, orijinal dünyada değildir veya başka bir deyişle "sahte" dir. Ama bu tür "sahte" kişiler için sıkıntı yaratmıyorsa herhangi bir sorun yaratmaz. Örneğin, Midjourney'i kendi takdirimiz için Van Gogh tarzı bir resim oluşturmak için kullanırsak veya bunu bir ev dekorasyonu olarak basarsak, bu başkalarını hiç etkilemeyecektir. Oluşturulan bu içeriğin "sahteliği", ancak insanlar onu aldatmak için kullanırsa veya içeriğin farkında olmadan dağıtılır ve karartılırsa sorun olabilir. Bu nedenle, üretilen içerik gerçek içerikten teknik olarak ayırt edilebildiği sürece "sahte" bir sorun olmayacaktır.

Dördüncüsü adalettir. Bu, AI modellerinin geliştirilmesi, eğitimi ve uygulanması sürecinde adaletin sağlanması ve belirli kullanıcı gruplarına karşı ayrımcılık yapılmaması gerektiği anlamına gelir. Bu standart pek çok yönü içermektedir.Özellikle, modelin temel ilkelerinin geliştirme aşamasında ayrımcı olmamasını, eğitim aşamasında ise ayrımcı olabilecek materyalleri kullanmaktan kaçınmaya çalışmasını ve bunu gerçekleştirmek için teknik araçlar kullanmasını gerektirmektedir. olası ayrımcılık sorunlarını düzeltmek, uygulama sürecinde farklı insan gruplarına farklı muamele edilmemelidir.

Beşincisi mahremiyetin korunmasıdır. Bu standart temel olarak AI modelinin eğitim sürecinde kişilerin kişisel bilgilerine ve mahremiyetine saygı duymasını ve bilgilerin korunmasını iyileştirmesini ve kişisel bilgileri ve mahremiyeti ihlal etmemeye veya ifşa etmemeye çalışmasını gerektirir.

Altıncısı sorumludur. Yani, bir şeyler ters gittiğinde, bu sorunlardan birinin sorumlu olması gerekir. Tabii ki, en azından şimdiye kadar, AI bilinci uyandırmadı. İnsan gibi bir özne olarak görülemeyeceği ve insan gibi aynı sorumlulukları taşıyamayacağı için, sorumluluğunu alacak biri olmalıdır. Ancak bu sorumluluğun yapay zeka geliştiricileri mi yoksa yapay zeka kullanıcıları mı yoksa her iki tarafça mı paylaşılması gerektiği hala tartışmaya değer bir sorudur.

Belirtmek gerekir ki, yukarıdaki birkaç standarda ek olarak birçok literatürde güvenlik (güvenli), kapsayıcılık (kapsayıcılık), unutulma hakkı (unutulma hakkı) ve insanlığın yararına olan standartlar da yer almaktadır. AI kategorisi. Kanaatimce, bu içerikler az çok yukarıda belirtilen birkaç kriterde özetlenebilir veya yukarıda belirtilen kriterlerle açıklanabilir. Bu nedenle yer darlığından dolayı burada tekrar etmeyeceğim.

Güvenilir yapay zekayı gerçekleştirmek için birçok tarafın ortak çabalarını kullanma

Güvenilir yapay zekayı gerçekleştirmek kolay bir iş değildir ve hükümet, işletmeler, toplum ve teknoloji gibi çeşitli güçlerin koordinasyonunu gerektirir.

Her şeyden önce, bir düzenleyici olarak hükümetin güvenilir yapay zeka için ilgili standartları ve operasyonel yönergeleri formüle etmesi ve standartlara dayalı olarak yapay zeka geliştiricilerini ve kullanıcılarını denetlemesi gerekir. Bir yandan, farklı uygulama senaryolarına ve farklı model kategorilerine göre farklı kurallar formüle etmesi, özellikle uyulması gereken bazı temel kurallar hakkında net hükümler koyması ve aynı zamanda iyi bir bağlantı kurma işi yapması gerekir. mevcut yasa ve yönetmelikler. Ancak bu şekilde AI geliştiricileri ve kullanıcıları, gereksiz belirsizliklerden rahatsız olmadan pratikte uymaları gereken kurallara sahip olabilir. Öte yandan, denetim ve kanun yaptırımında iyi bir rol oynaması gerekiyor. Bazı belirgin veya yaygın sorunlar için, endüstri için karşılık gelen normları oluşturmak amacıyla zamanında ele alınmalıdır. Burada belirtilmesi gereken, AI teknolojisinin mevcut gelişimi hala çok hızlı olduğu için henüz istikrarlı bir duruma ulaşmadığıdır. Bu, hükümetin bu süreçte ortaya çıkan sorunlarla başa çıkarken dikkatli olması, "bir süre daha mermileri savurması", durumu net bir şekilde gördükten sonra harekete geçmesi ve bu sorunlarla başa çıkarken yöntem ve yöntemlere dikkat etmesi gerektiği anlamına gelir. sorunlar. . Körü körüne başlayıp çok hızlı ve çok fazla yönetirsek, yapay zekanın gelişimi üzerinde de olumsuz bir etkisi olabilir.

İkinci olarak, ilgili şirketler, güvenilir yapay zekanın özel olarak gerçekleştirilmesi için belirli uygulama planları ve ayrıntılı standartlar formüle etmelidir. Devletle karşılaştırıldığında işletmeler piyasaya daha yakın ve teknolojiyi daha iyi anlıyor. AI modellerinin teknik özellikleri, güçlü ve zayıf yönleri hakkında hükümetlerden daha fazla şey biliyorlar. Bu nedenle, hükümetin sorumluluğu güvenilir yapay zeka için geniş bir çerçeve önermekse, işletmeler bu geniş çerçevenin belirli uygulayıcıları olmalıdır. Bu çerçevede, piyasanın ve teknolojinin özelliklerini birleştirerek daha spesifik planlar sunmalı ve bunları disiplinli bir şekilde uygulamalıdırlar.

Üçüncüsü, kullanıcılar ayrıca geri bildirim ve süpervizör rolünü oynamalı, kendi taleplerini ortaya koymalı, kendi sorunlarını yansıtmalı ve kuruluşun güvenilir yapay zeka uygulamasını denetlemelidir. Yapay zekanın yaygınlaşmasıyla birlikte toplumdaki herkes yapay zekanın kullanıcısı ve paydaşı haline gelecek ve yapay zekanın güvenilirliğinde en çok söz sahibi olacaklar. Yalnızca sesleri tam olarak ifade edildiğinde, güvenilir yapay zekanın standart ayarı ve ilgili teknolojilerin geliştirilmesi en değerli hale gelir.

Son olarak, teknolojinin gücüne tamamen güvenmeliyiz. İlgili kurallar önemlidir, ancak son tahlilde, güvenilir yapay zekanın gerçekleştirilmesi hala teknolojinin gücüne bağlıdır. Aslında, kuralları kullanarak çözmesi zor olan birçok problem teknik yollarla çözülebilir. Örneğin, üretken yapay zekanın üretilmesinden sonra, "çarpıklık" sorunu, düzenleyici otoriteler için bir baş ağrısı olmuştur, ancak aslında, yeni teknolojilere güvenerek, bu sorunu çözmek zor olmayabilir. Örneğin, Google daha önce çıplak gözle görülemeyen ancak makineler tarafından tanınabilen bir elektronik filigran teknolojisini kullanıma sunmuştu. Bunu oluşturulan resimlere veya videolara uygulamak, bunların doğrulanabilir olmasını etkili bir şekilde sağlayabilir. Metin içeriğinin doğrulanabilirliği için New Bing (New Bing) arama örneğini takip edebilirsiniz. Belirli bir içerikten alıntı yaptığında, oluşturulan içeriğin arkasına atıfta bulunulan belgeleri ekler, böylece kullanıcılar, oluşturulan içeriğin orijinalliğini ihtiyaçlarına göre kendileri belirleyebilirler.

Sonuç olarak, güvenilir yapay zekanın gerçekleştirilmesi kolay bir iş değildir, ancak tüm tarafların ortak çabalarından iyi bir şekilde yararlanırsak, bu hedefe kesinlikle ulaşılacaktır.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • Comment
  • Share
Comment
0/400
No comments
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)