Görsel kaynağı: Unbounded AI tarafından oluşturuldu
Üretken yapay zeka ürünleri dalgasının kurumsal güvenlik üzerindeki etkisi
ChatGPT gibi bir dizi üretici yapay zeka ürününün, çalışanları sıkıcı ve tekrarlayan görevlerden kurtarması bekleniyor ve çalışanlar, şirket için daha değerli olan işlere daha fazla zaman ve enerji ayırabiliyor. Bununla birlikte, kurumsal güvenlik açısından üretken yapay zeka ürünleri, işletmeler için iki ucu keskin bir kılıç olan yeni riskler getirebilir.
01 Siber saldırı tehdidi yoğunlaştı
Üretken yapay zeka, bilgisayar korsanları için giriş engelini azaltır. Bilgisayar korsanları, çeşitli siber saldırı yöntemlerini hızlı bir şekilde entegre etmek, saldırı yöntemlerini uygun bir şekilde "silah haline getirmek" ve muhtemelen yenilikçi saldırı yöntemleri elde etmek için üretken yapay zekayı kullanabilir. PwC'nin siber güvenlik ekibi, müşterilerin aldığı kimlik avı e-postaları gibi sosyal mühendislik saldırılarının son aylarda önemli ölçüde arttığını ve bunun ChatGPT'nin yaygın kullanımıyla aynı zamana denk geldiğini net bir şekilde gözlemledi; ChatGPT'nin toplu nesil kimlik avı siteleri için daha yanıltıcı olduğu da tespit edildi.
02 Kurumsal Hassas Veri Sızıntısı
Güvenlik uzmanlarının, kurumsal hassas verilerin olası sızıntısı konusunda endişeleri vardır ve çalışanların uygun olmayan giriş davranışları, hassas verilerin üretken yapay zeka ürünleri veritabanında kalmasına neden olabilir. OpenAI'nin gizlilik politikası, ChatGPT kullanırken kullanıcılar tarafından girilen içeriğin AI algoritma modelini eğitmek için kullanılacağını göstermektedir. Ayrıca, ChatGPT ciddi güvenlik sorunlarına maruz kalmıştır.Açık kaynak kitaplığındaki güvenlik açıkları nedeniyle, bazı kullanıcılar diğer kullanıcıların konuşma geçmişlerinin başlıklarını görebilir. Şu anda Amazon ve Microsoft gibi birçok teknoloji devi, çalışanlarına hassas verileri ChatGPT ile paylaşmamalarını hatırlattı.
03 Üretken AI Zehirlenme Riski
Eğitim verisi zehirlenmesi, üretken yapay zekanın karşılaştığı yaygın bir güvenlik tehdididir. Kötü amaçlı verilerin, yapay zeka algoritmalarının sonuçları üzerinde olumsuz bir etkisi olacaktır. Operasyon yönetimi büyük ölçüde üretici yapay zekaya dayanıyorsa, kritik konularda yanlış kararlar alınabilir. Öte yandan, üretken yapay zeka da potansiyel "önyargı" sorunlarına sahiptir. Pek çok tanınmış uzman ve akademisyenin katıldığı "Yapay Zehir için 100 Şişe Zehir" etkinliğine benzer şekilde, yapay zekayı geliştirme veya kullanma sürecinde işletmeler, yapay zeka zehirlenmesi tehdidine stratejik bir şekilde aktif olarak yanıt vermelidir.
04Gizlilik koruma sorunu
Üretken AI ön eğitim aşaması, birçok müşteri ve çalışanın özel bilgilerini içerebilen büyük miktarda veri toplama ve madencilik gerektirir. Üretken yapay zeka, bu özel bilgileri gerektiği gibi koruyamaz ve anonimleştiremezse, bu durum gizlilik sızıntılarına yol açabilir ve hatta bu özel bilgiler, kullanıcı davranışını analiz etmek ve üzerinde spekülasyon yapmak için kötüye kullanılabilir. Örneğin, cep telefonu uygulama pazarı, görüntü oluşturma yazılımlarıyla doludur.Kullanıcıların yalnızca birden fazla avatar yüklemesi gerekir ve yazılım, farklı sahnelerin ve temaların birleşik fotoğraflarını oluşturabilir. Ancak yazılım şirketlerinin bu kullanıcılar tarafından yüklenen avatarları nasıl kullandıkları, mahremiyet koruması ve diğer güvenlik risklerini getirip getirmeyeceği dikkat ve yanıt almaya değer.
05 Kurumsal Güvenlik Uyum Riski
Etkili yönetim önlemlerinin yokluğunda, üretken AI ürünlerinin kitlesel olarak benimsenmesi, kurumsal güvenlik yöneticileri için şüphesiz büyük bir zorluk olan güvenlik uyumluluğu sorunlarına yol açabilir. Çin Siber Uzay İdaresi tarafından incelenip onaylanan ve Ulusal Kalkınma ve Reform Komisyonu ile Eğitim Bakanlığı da dahil olmak üzere altı departman tarafından onaylanan Üretken Yapay Zeka Hizmetlerinin İdaresi için Geçici Tedbirler birkaç gün önce açıklandı. 151 Ağustos 2'de yürürlüğe girer. Teknoloji geliştirme ve yönetişim, hizmet spesifikasyonu, denetim ve teftiş ve yasal sorumluluk perspektiflerinden temel gereksinimleri ortaya koyar ve üretken yapay zekanın benimsenmesi için temel bir uyumluluk çerçevesi oluşturur.
Gerçek dünyadaki üretken yapay zeka güvenlik tehdidi senaryoları hakkında bilgi edinin
Üretken yapay zekanın getirdiği güvenlik risklerini anladıktan sonra, aşağıda sorunun daha spesifik bir güvenlik tehdidi senaryosunda nasıl ortaya çıktığı analiz edilecek ve üretken yapay zekanın kurumsal güvenlik üzerindeki ince etkisi keşfedilecek.
01 Sosyal Mühendislik Saldırısı
Dünyaca ünlü hacker Kevin Mitnick bir keresinde şöyle demişti: "Güvenlik zincirindeki en zayıf halka insan unsurudur." Sosyal mühendislik korsanlarının olağan taktiği, şirket çalışanlarını cezbetmek için tatlı sözler kullanmaktır ve üretken yapay zekanın ortaya çıkışı, sosyal mühendislik saldırılarını büyük ölçüde kolaylaştırmıştır. Üretken yapay zeka, sahte haberler, sahte sosyal medya gönderileri, sahte e-postalar ve daha fazlası dahil olmak üzere oldukça gerçekçi sahte içerikler üretebilir. Bu sahte içerikler, kullanıcıları yanıltabilir, yanlış bilgiler yayabilir veya çalışanları yanlış kararlar almaları için kandırabilir. Üretken yapay zeka, sahtekarlık yapmak veya kanıtları tahrif etmek için kullanılabilecek ses veya videoyu gerçek görünecek şekilde sentezlemek için bile kullanılabilir. Baotou Belediyesi Kamu Güvenliği Bürosu Telekomünikasyon Ağı Suç Soruşturma Bürosu, akıllı yapay zeka teknolojisi kullanılarak bir telekomünikasyon dolandırıcılığı vakası yayınladı.Suçlular, yapay zeka yüz değiştiren teknoloji aracılığıyla 10 dakikada 4,3 milyon yuan dolandırdı.
02 Çalışanlar tarafından yapılan bilinçsiz ihlaller
Birçok teknoloji üreticisi, çok sayıda üretken AI işlevini ürün ve hizmetlere entegre ederek üretken AI yolunu aktif olarak düzenlemeye başladı. Çalışanlar, üretici yapay zeka ürünlerini kullanmadan önce kullanıcı kullanım koşullarını dikkatlice okumadan istemeden kullanabilir. Kurumsal çalışanlar üretken yapay zeka kullandığında finansal veriler, proje bilgileri, şirket sırları vb. gibi hassas bilgiler içeren içerik girebilir ve bu da kurumsal hassas bilgilerin sızmasına neden olabilir. Hassas kurumsal bilgilerin üretici yapay zeka tarafından ifşa edilmesini önlemek için kuruluşların kapsamlı güvenlik önlemleri almaları gerekir: veri sızıntısına karşı koruma teknolojisini geliştirmek ve çalışanların çevrimiçi davranışlarını kısıtlamak dahil; aynı zamanda, veri güvenliğini artırmak için çalışanlara güvenlik eğitimi sağlamaları gerekir. ve gizlilik teyakkuzu bekleyin. Bir çalışanın ihlali tespit edildiğinde, şirketin etkiyi hemen değerlendirmesi ve zamanında önlem alması gerekir.
03 Kaçınılmaz Ayrımcılık ve Önyargı
Üretken yapay zekanın ayrımcılığa ve önyargıya sahip olmasının nedeni, temel olarak eğitim verilerinin ve model tasarımının özelliklerinden kaynaklanmaktadır. İnternetten alınan eğitim verileri, ırk, cinsiyet, kültür, din ve sosyal statü gibi hususlar da dahil olmak üzere gerçek dünyadaki önyargıları yansıtır. Eğitim verilerinin işlenmesi sırasında, önyargılı verileri hariç tutmak için yeterli tarama ve temizleme önlemi olmayabilir. Aynı şekilde, üretken yapay zeka için model tasarımında ve algoritma seçiminde yanlılığın azaltılmasına yeterince dikkat edilmeyebilir. Algoritmik modeller, öğrenirken eğitim verilerindeki önyargıları toplar ve oluşturulan metinde benzer önyargılara yol açar. Üretken yapay zekadan kaynaklanan önyargı ve ayrımcılığı ortadan kaldırmak karmaşık bir zorluk olsa da işletmelerin bunları hafifletmeye yardımcı olmak için atabilecekleri adımlar vardır3.
04 Gizlilik korumasından taviz
Üretken yapay zeka ürünlerini kullanma sürecinde, verimli otomasyon ve kişiselleştirilmiş hizmetler peşinde koşmak için işletmeler ve bireyler, üretken yapay zekanın bazı özel verileri toplamasına izin vererek mahremiyetin korunması açısından bazı tavizler verebilir. Kullanıcıların kullanım sırasında üretici yapay zekaya kişisel gizlilik içeriğini ifşa etmesine ek olarak, üretken yapay zeka, kullanıcı tarafından girilen içeriği de analiz edebilir ve kullanıcının kişisel bilgileri, tercihleri veya davranışları üzerinde spekülasyon yapmak için algoritmalar kullanabilir ve kullanıcının gizliliğini daha fazla ihlal edebilir. Veri duyarsızlaştırma ve anonimleştirme, yaygın bir gizlilik koruma önlemidir, ancak verilerin bazı bilgilerinin kaybına yol açarak üretim modelinin doğruluğunu azaltabilir.Kişisel gizliliğin korunması ile oluşturulan içeriğin kalitesi arasında bir denge bulunması gerekir. . Üretken bir yapay zeka sağlayıcısı olarak, kullanıcıların bilgiye dayalı kararlar alabilmeleri için verilerin toplanması, kullanılması ve paylaşılması konusunda kullanıcıları bilgilendirmek üzere şeffaf bir gizlilik politikası beyanı sağlamalıdır.
05 Mevzuata Uygunlukta Başlıca Eğilimler
Mevcut bakış açısından, üretken yapay zekanın karşılaştığı yasal uyumluluk riskleri, esas olarak "yasa ve düzenlemelerin içerik ihlalleri" ve "fikri mülkiyet ihlali"nden kaynaklanmaktadır. Denetimin olmadığı durumlarda üretici yapay zeka, hakaret, iftira, pornografi, şiddet gibi yasa dışı veya yasa dışı unsurlar içerebilecek yasa dışı veya uygunsuz içerik üretebilir; öte yandan, üretici yapay zeka, telif hakkıyla korunan mevcut içeriğe dayalı içerik üretebilir. fikri mülkiyet ihlali ile sonuçlanır. Üretken yapay zeka kullanan kuruluşlar, uygulamalarının ilgili düzenlemelere ve standartlara uygun olmasını sağlamak ve gereksiz yasal risklerden kaçınmak için uyumluluk incelemeleri yapmalıdır. İşletmeler öncelikle kullandıkları ürünlerin “Üretken Yapay Zeka Hizmetlerinin İdaresine Yönelik Geçici Tedbirler” hükümlerine uygun olup olmadığını değerlendirmeli, aynı zamanda ilgili yasa ve yönetmeliklerdeki güncelleme ve değişiklikleri yakından takip etmeli, ve uyumluluğu sağlamak için zamanında ayarlamalar yapın. Kuruluşlar, tedarikçiler veya ortaklarla üretken yapay zekayı kullandıklarında, her bir tarafın hak ve sorumluluklarını netleştirmeleri ve sözleşmede karşılık gelen yükümlülükleri ve kısıtlamaları belirtmeleri gerekir.
Bireyler ve İşletmeler Üretken Yapay Zekanın Risklerini ve Zorluklarını Proaktif Olarak Nasıl Ele Alabilir
Bireysel kullanıcılar ve kurumsal çalışanlar, üretken yapay zekanın getirdiği çeşitli kolaylıklardan yararlanırken, kişisel mahremiyetlerinin ve diğer hassas bilgilerinin korunmasını güçlendirmeleri gerektiğini anlamalıdır.
01Kişisel gizliliğin ifşasından kaçının
Üretken yapay zeka ürünlerini kullanmadan önce çalışanlar, hizmet sağlayıcının kullanıcıların gizliliğini ve güvenliğini makul ölçüde koruyacağından emin olmalı, gizlilik politikasını ve kullanıcı şartlarını dikkatlice okumalı ve halk tarafından doğrulanmış güvenilir bir sağlayıcı seçmeye çalışmalıdır. Kullanım sırasında kişisel gizlilik verilerini girmekten kaçının ve gerçek kimlik bilgisi gerektirmeyen senaryolarda sanal kimlikler veya anonim bilgiler kullanın.Olası hassas verilerin girilmeden önce gizlenmesi gerekir. Çalışanlar, internette, özellikle sosyal medyada ve halka açık forumlarda adlar, adresler, telefon numaraları vb. gibi kişisel bilgileri aşırı derecede paylaşmaktan kaçınmalı ve bilgileri herkesin erişebileceği web sitelerine ve içeriğe kolayca ifşa etmemelidir.
02 Yanıltıcı içerik oluşturmaktan kaçının
Üretken yapay zekanın teknik ilkelerinin sınırlamaları nedeniyle, sonuçlar kaçınılmaz olarak yanıltıcı veya taraflı olacaktır.Sektör uzmanları da sürekli olarak veri zehirlenmesi riskinden nasıl kaçınılacağını araştırıyor. Çalışanlar, önemli bilgileri birden çok bağımsız ve güvenilir kaynaktan doğrulamalıdır ve aynı bilgiler yalnızca tek bir yerde görünüyorsa, bunların gerçekliğini doğrulamak için daha fazla araştırma gerekebilir. Sonuçlarda belirtilen bilgilerin somut kanıtlarla desteklenip desteklenmediğini öğrenin.Eğer somut bir temel yoksa, bilgilere şüpheyle yaklaşmanız gerekebilir. Üretken yapay zekanın yanıltıcılığını ve önyargısını belirlemek, kullanıcıların eleştirel düşünmeyi sürdürmelerini, dijital okuryazarlıklarını sürekli geliştirmelerini ve ürün ve hizmetlerini güvenli bir şekilde nasıl kullanacaklarını anlamalarını gerektirir.
Bireysel kullanıcıların açık tutumuyla karşılaştırıldığında, işletmeler hala üretken yapay zekayı bekliyor ve izliyor. Üretken yapay zekanın tanıtılması, işletmeler için hem bir fırsat hem de bir zorluktur. Kuruluşların önceden genel risk değerlendirmelerini gerçekleştirmesi ve bazı stratejik müdahale dağıtımları yapması gerekir.PwC, kuruluşların ilgili işe aşağıdaki yönlerden başlamayı düşünmelerini önerir.
01 Kurumsal ağ güvenlik değerlendirmesi, savunma eksikliklerine açıklık getiriyor
İşletmelerin karşı karşıya olduğu bir numaralı zorluk, üretken yapay zekanın neden olduğu yeni nesil siber saldırılara karşı nasıl savunma yapılacağıdır. Kuruluşlar için, mevcut ağ güvenlik durumunu değerlendirmek, kuruluşun bu saldırılarla başa çıkmak için yeterli güvenlik algılama ve savunma yeteneklerine sahip olup olmadığını belirlemek, potansiyel ağ güvenlik savunması açıklarını belirlemek ve bunlarla aktif olarak başa çıkmak için karşılık gelen takviye önlemlerini almak zorunludur. Yukarıdaki hedeflere ulaşmak için, PwC siber güvenlik ekibi, işletmelerin bu gerçek siber saldırı tehdidi senaryolarına, yani siber güvenlik "kırmızı ve mavi yüzleşmesine" dayalı olarak saldırı ve savunma amaçlı çatışma tatbikatları yapmalarını tavsiye etmektedir. Farklı saldırı senaryolarından, ağ güvenliği savunmasının olası eksikliklerini önceden keşfedebilir ve kurumun BT varlıklarını ve veri güvenliğini korumak için savunma kusurlarını kapsamlı ve sistematik bir şekilde onarabiliriz.
02 Kuruluşun dahili üretken yapay zeka test ortamını dağıtın
Üretken yapay zekanın teknik ilkelerini anlamak ve üretken yapay zeka modellerinin sonuçlarını daha iyi kontrol etmek için kuruluşlar, yapay zeka ürünlerinin kurumsal verilere yönelik kontrol edilemeyen üretken yapay zeka olası tehditlerini önlemek için kendi üretken yapay zeka sanal alan test ortamlarını dahili olarak oluşturmayı düşünebilir. Şirketler, yalıtılmış bir ortamda test ederek, yapay zeka geliştirme için doğru ve doğası gereği önyargısız verilerin mevcut olduğundan emin olabilir ve hassas verileri açığa çıkarma riski olmadan model performansını daha güvenli bir şekilde keşfedebilir ve değerlendirebilir. Yalıtılmış bir test ortamı, üretken yapay zekaya yönelik veri zehirlenmesini ve diğer dış saldırıları da önleyebilir ve üretken yapay zeka modelinin kararlılığını koruyabilir.
03Üretken yapay zeka için bir risk yönetimi stratejisi oluşturun
Kuruluşlar, üretken yapay zekayı mümkün olan en kısa sürede risk yönetiminin hedef kapsamına dahil etmeli ve risk yönetimi çerçevesini ve stratejisini tamamlamalı ve değiştirmelidir. Üretken yapay zekayı kullanarak iş senaryoları için risk değerlendirmeleri yapın, potansiyel riskleri ve güvenlik açıklarını belirleyin, ilgili risk planlarını formüle edin ve karşı önlemleri ve sorumluluk atamalarını netleştirin. Kuruluş tarafından onaylanan üretici yapay zeka ürünlerine yalnızca yetkili personelin erişebilmesini ve bunları kullanabilmesini sağlamak için katı bir erişim yönetim sistemi oluşturun. Aynı zamanda, kullanıcıların kullanım davranışları düzenlenmeli ve kurumsal çalışanlar, çalışanların güvenlik farkındalığını ve başa çıkma yeteneklerini geliştirmek için üretken yapay zeka risk yönetimi konusunda eğitilmelidir. Girişimciler ayrıca üretken yapay zeka uygulamaları geliştirirken tasarım gereği bir gizlilik yaklaşımı benimsemelidir, böylece son kullanıcılar sağladıkları verilerin nasıl kullanılacağını ve hangi verilerin tutulacağını bilir.
04 Özel bir üretken yapay zeka araştırma çalışma grubu oluşturun
Kuruluşlar, üretken yapay zeka teknolojisinin potansiyel fırsatlarını ve risklerini ortaklaşa keşfetmek için kuruluş içinde profesyonel bilgi ve beceriler toplayabilir ve veri yönetişimi uzmanları, yapay zeka modeli uzmanları, iş alanı uzmanları dahil olmak üzere ilgili alanları anlayan üyeleri çalışma grubuna katılmaya davet edebilir. ve yasal uyum uzmanları bekler. Kurumsal yönetim, çalışma grubu üyelerinin, üretken yapay zekanın potansiyel fırsatlarını ve fırsatlarını daha iyi anlamak için test ortamlarında deney yapmalarını ve doğrulamalarını teşvik ederken, çalışma grubu üyelerinin keşfetmelerine ve deney yapmalarına izin vermek için gereken verilere ve kaynaklara erişmelerini sağlamalıdır. senaryolar, ileri teknoloji uygulama faydalarını elde etmek için riskleri dengeleyebilir.
Çözüm
Üretken yapay zekanın geliştirilmesi ve uygulanması, teknoloji üzerinde üretkenlikte yeni bir devrimi tetikleyebilecek büyük bir etkiye sahip. Generative AI, bilgisayar sistemlerinin insan dilinde içerik üretmesini sağlamak için derin öğrenme, doğal dil işleme ve büyük veri gibi alanlardaki ilerlemeleri birleştiren güçlü bir teknolojidir. İşletmelerin ve çalışanların bu güçlü teknolojiyi kontrol altında tutması, geliştirilmesinin ve uygulanmasının hukuk, etik ve sosyal sorumluluk çerçevesinde yürütülmesini sağlaması, gelecekte önemli bir konu olacaktır. PwC'nin yapay zeka uzman ekibi, şirketlerin eksiksiz bir üretken yapay zeka yönetimi mekanizması kurmasına nasıl yardımcı olunacağını araştırmaya kararlıdır4, böylece şirketler bu gelişmekte olan teknolojiyi gönül rahatlığıyla uygulayabilir ve geliştirebilir, bu da şirketlerin dalgaya katılmasına yardımcı olur Yapay zeka teknolojisinin, üretken yapay zeka, işletmelere sürdürülebilir rekabet avantajları sağlayabilir.
İnovasyon ve Yönetişim: Üretken yapay zekadaki en son düzenleyici eğilimleri yorumlama
Algoritmik önyargıyı ve yapay zekada nasıl güven oluşturulacağını anlamak
Üretken AI risklerini yönetme: PwC
Feragatname: Bu makaledeki bilgiler yalnızca genel bilgi amaçlıdır ve eksiksiz olarak kabul edilmemelidir ve PwC'den yasal, vergi veya diğer profesyonel tavsiye veya hizmetler teşkil etmez. PwC'ye üye kurumlar, bu makale içeriğinin kullanılması nedeniyle herhangi bir konuda meydana gelebilecek zararlardan sorumlu tutulamaz.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
PwC: Üretken Yapay Zekanın Ortaya Çıkardığı Güvenlik Risklerinin ve Zorluklarının Çözümlenmesi
Kaynak: PwC
Üretken yapay zeka ürünleri dalgasının kurumsal güvenlik üzerindeki etkisi
ChatGPT gibi bir dizi üretici yapay zeka ürününün, çalışanları sıkıcı ve tekrarlayan görevlerden kurtarması bekleniyor ve çalışanlar, şirket için daha değerli olan işlere daha fazla zaman ve enerji ayırabiliyor. Bununla birlikte, kurumsal güvenlik açısından üretken yapay zeka ürünleri, işletmeler için iki ucu keskin bir kılıç olan yeni riskler getirebilir.
01 Siber saldırı tehdidi yoğunlaştı
Üretken yapay zeka, bilgisayar korsanları için giriş engelini azaltır. Bilgisayar korsanları, çeşitli siber saldırı yöntemlerini hızlı bir şekilde entegre etmek, saldırı yöntemlerini uygun bir şekilde "silah haline getirmek" ve muhtemelen yenilikçi saldırı yöntemleri elde etmek için üretken yapay zekayı kullanabilir. PwC'nin siber güvenlik ekibi, müşterilerin aldığı kimlik avı e-postaları gibi sosyal mühendislik saldırılarının son aylarda önemli ölçüde arttığını ve bunun ChatGPT'nin yaygın kullanımıyla aynı zamana denk geldiğini net bir şekilde gözlemledi; ChatGPT'nin toplu nesil kimlik avı siteleri için daha yanıltıcı olduğu da tespit edildi.
02 Kurumsal Hassas Veri Sızıntısı
Güvenlik uzmanlarının, kurumsal hassas verilerin olası sızıntısı konusunda endişeleri vardır ve çalışanların uygun olmayan giriş davranışları, hassas verilerin üretken yapay zeka ürünleri veritabanında kalmasına neden olabilir. OpenAI'nin gizlilik politikası, ChatGPT kullanırken kullanıcılar tarafından girilen içeriğin AI algoritma modelini eğitmek için kullanılacağını göstermektedir. Ayrıca, ChatGPT ciddi güvenlik sorunlarına maruz kalmıştır.Açık kaynak kitaplığındaki güvenlik açıkları nedeniyle, bazı kullanıcılar diğer kullanıcıların konuşma geçmişlerinin başlıklarını görebilir. Şu anda Amazon ve Microsoft gibi birçok teknoloji devi, çalışanlarına hassas verileri ChatGPT ile paylaşmamalarını hatırlattı.
03 Üretken AI Zehirlenme Riski
Eğitim verisi zehirlenmesi, üretken yapay zekanın karşılaştığı yaygın bir güvenlik tehdididir. Kötü amaçlı verilerin, yapay zeka algoritmalarının sonuçları üzerinde olumsuz bir etkisi olacaktır. Operasyon yönetimi büyük ölçüde üretici yapay zekaya dayanıyorsa, kritik konularda yanlış kararlar alınabilir. Öte yandan, üretken yapay zeka da potansiyel "önyargı" sorunlarına sahiptir. Pek çok tanınmış uzman ve akademisyenin katıldığı "Yapay Zehir için 100 Şişe Zehir" etkinliğine benzer şekilde, yapay zekayı geliştirme veya kullanma sürecinde işletmeler, yapay zeka zehirlenmesi tehdidine stratejik bir şekilde aktif olarak yanıt vermelidir.
04Gizlilik koruma sorunu
Üretken AI ön eğitim aşaması, birçok müşteri ve çalışanın özel bilgilerini içerebilen büyük miktarda veri toplama ve madencilik gerektirir. Üretken yapay zeka, bu özel bilgileri gerektiği gibi koruyamaz ve anonimleştiremezse, bu durum gizlilik sızıntılarına yol açabilir ve hatta bu özel bilgiler, kullanıcı davranışını analiz etmek ve üzerinde spekülasyon yapmak için kötüye kullanılabilir. Örneğin, cep telefonu uygulama pazarı, görüntü oluşturma yazılımlarıyla doludur.Kullanıcıların yalnızca birden fazla avatar yüklemesi gerekir ve yazılım, farklı sahnelerin ve temaların birleşik fotoğraflarını oluşturabilir. Ancak yazılım şirketlerinin bu kullanıcılar tarafından yüklenen avatarları nasıl kullandıkları, mahremiyet koruması ve diğer güvenlik risklerini getirip getirmeyeceği dikkat ve yanıt almaya değer.
05 Kurumsal Güvenlik Uyum Riski
Etkili yönetim önlemlerinin yokluğunda, üretken AI ürünlerinin kitlesel olarak benimsenmesi, kurumsal güvenlik yöneticileri için şüphesiz büyük bir zorluk olan güvenlik uyumluluğu sorunlarına yol açabilir. Çin Siber Uzay İdaresi tarafından incelenip onaylanan ve Ulusal Kalkınma ve Reform Komisyonu ile Eğitim Bakanlığı da dahil olmak üzere altı departman tarafından onaylanan Üretken Yapay Zeka Hizmetlerinin İdaresi için Geçici Tedbirler birkaç gün önce açıklandı. 151 Ağustos 2'de yürürlüğe girer. Teknoloji geliştirme ve yönetişim, hizmet spesifikasyonu, denetim ve teftiş ve yasal sorumluluk perspektiflerinden temel gereksinimleri ortaya koyar ve üretken yapay zekanın benimsenmesi için temel bir uyumluluk çerçevesi oluşturur.
Gerçek dünyadaki üretken yapay zeka güvenlik tehdidi senaryoları hakkında bilgi edinin
Üretken yapay zekanın getirdiği güvenlik risklerini anladıktan sonra, aşağıda sorunun daha spesifik bir güvenlik tehdidi senaryosunda nasıl ortaya çıktığı analiz edilecek ve üretken yapay zekanın kurumsal güvenlik üzerindeki ince etkisi keşfedilecek.
01 Sosyal Mühendislik Saldırısı
Dünyaca ünlü hacker Kevin Mitnick bir keresinde şöyle demişti: "Güvenlik zincirindeki en zayıf halka insan unsurudur." Sosyal mühendislik korsanlarının olağan taktiği, şirket çalışanlarını cezbetmek için tatlı sözler kullanmaktır ve üretken yapay zekanın ortaya çıkışı, sosyal mühendislik saldırılarını büyük ölçüde kolaylaştırmıştır. Üretken yapay zeka, sahte haberler, sahte sosyal medya gönderileri, sahte e-postalar ve daha fazlası dahil olmak üzere oldukça gerçekçi sahte içerikler üretebilir. Bu sahte içerikler, kullanıcıları yanıltabilir, yanlış bilgiler yayabilir veya çalışanları yanlış kararlar almaları için kandırabilir. Üretken yapay zeka, sahtekarlık yapmak veya kanıtları tahrif etmek için kullanılabilecek ses veya videoyu gerçek görünecek şekilde sentezlemek için bile kullanılabilir. Baotou Belediyesi Kamu Güvenliği Bürosu Telekomünikasyon Ağı Suç Soruşturma Bürosu, akıllı yapay zeka teknolojisi kullanılarak bir telekomünikasyon dolandırıcılığı vakası yayınladı.Suçlular, yapay zeka yüz değiştiren teknoloji aracılığıyla 10 dakikada 4,3 milyon yuan dolandırdı.
02 Çalışanlar tarafından yapılan bilinçsiz ihlaller
Birçok teknoloji üreticisi, çok sayıda üretken AI işlevini ürün ve hizmetlere entegre ederek üretken AI yolunu aktif olarak düzenlemeye başladı. Çalışanlar, üretici yapay zeka ürünlerini kullanmadan önce kullanıcı kullanım koşullarını dikkatlice okumadan istemeden kullanabilir. Kurumsal çalışanlar üretken yapay zeka kullandığında finansal veriler, proje bilgileri, şirket sırları vb. gibi hassas bilgiler içeren içerik girebilir ve bu da kurumsal hassas bilgilerin sızmasına neden olabilir. Hassas kurumsal bilgilerin üretici yapay zeka tarafından ifşa edilmesini önlemek için kuruluşların kapsamlı güvenlik önlemleri almaları gerekir: veri sızıntısına karşı koruma teknolojisini geliştirmek ve çalışanların çevrimiçi davranışlarını kısıtlamak dahil; aynı zamanda, veri güvenliğini artırmak için çalışanlara güvenlik eğitimi sağlamaları gerekir. ve gizlilik teyakkuzu bekleyin. Bir çalışanın ihlali tespit edildiğinde, şirketin etkiyi hemen değerlendirmesi ve zamanında önlem alması gerekir.
03 Kaçınılmaz Ayrımcılık ve Önyargı
Üretken yapay zekanın ayrımcılığa ve önyargıya sahip olmasının nedeni, temel olarak eğitim verilerinin ve model tasarımının özelliklerinden kaynaklanmaktadır. İnternetten alınan eğitim verileri, ırk, cinsiyet, kültür, din ve sosyal statü gibi hususlar da dahil olmak üzere gerçek dünyadaki önyargıları yansıtır. Eğitim verilerinin işlenmesi sırasında, önyargılı verileri hariç tutmak için yeterli tarama ve temizleme önlemi olmayabilir. Aynı şekilde, üretken yapay zeka için model tasarımında ve algoritma seçiminde yanlılığın azaltılmasına yeterince dikkat edilmeyebilir. Algoritmik modeller, öğrenirken eğitim verilerindeki önyargıları toplar ve oluşturulan metinde benzer önyargılara yol açar. Üretken yapay zekadan kaynaklanan önyargı ve ayrımcılığı ortadan kaldırmak karmaşık bir zorluk olsa da işletmelerin bunları hafifletmeye yardımcı olmak için atabilecekleri adımlar vardır3.
04 Gizlilik korumasından taviz
Üretken yapay zeka ürünlerini kullanma sürecinde, verimli otomasyon ve kişiselleştirilmiş hizmetler peşinde koşmak için işletmeler ve bireyler, üretken yapay zekanın bazı özel verileri toplamasına izin vererek mahremiyetin korunması açısından bazı tavizler verebilir. Kullanıcıların kullanım sırasında üretici yapay zekaya kişisel gizlilik içeriğini ifşa etmesine ek olarak, üretken yapay zeka, kullanıcı tarafından girilen içeriği de analiz edebilir ve kullanıcının kişisel bilgileri, tercihleri veya davranışları üzerinde spekülasyon yapmak için algoritmalar kullanabilir ve kullanıcının gizliliğini daha fazla ihlal edebilir. Veri duyarsızlaştırma ve anonimleştirme, yaygın bir gizlilik koruma önlemidir, ancak verilerin bazı bilgilerinin kaybına yol açarak üretim modelinin doğruluğunu azaltabilir.Kişisel gizliliğin korunması ile oluşturulan içeriğin kalitesi arasında bir denge bulunması gerekir. . Üretken bir yapay zeka sağlayıcısı olarak, kullanıcıların bilgiye dayalı kararlar alabilmeleri için verilerin toplanması, kullanılması ve paylaşılması konusunda kullanıcıları bilgilendirmek üzere şeffaf bir gizlilik politikası beyanı sağlamalıdır.
05 Mevzuata Uygunlukta Başlıca Eğilimler
Mevcut bakış açısından, üretken yapay zekanın karşılaştığı yasal uyumluluk riskleri, esas olarak "yasa ve düzenlemelerin içerik ihlalleri" ve "fikri mülkiyet ihlali"nden kaynaklanmaktadır. Denetimin olmadığı durumlarda üretici yapay zeka, hakaret, iftira, pornografi, şiddet gibi yasa dışı veya yasa dışı unsurlar içerebilecek yasa dışı veya uygunsuz içerik üretebilir; öte yandan, üretici yapay zeka, telif hakkıyla korunan mevcut içeriğe dayalı içerik üretebilir. fikri mülkiyet ihlali ile sonuçlanır. Üretken yapay zeka kullanan kuruluşlar, uygulamalarının ilgili düzenlemelere ve standartlara uygun olmasını sağlamak ve gereksiz yasal risklerden kaçınmak için uyumluluk incelemeleri yapmalıdır. İşletmeler öncelikle kullandıkları ürünlerin “Üretken Yapay Zeka Hizmetlerinin İdaresine Yönelik Geçici Tedbirler” hükümlerine uygun olup olmadığını değerlendirmeli, aynı zamanda ilgili yasa ve yönetmeliklerdeki güncelleme ve değişiklikleri yakından takip etmeli, ve uyumluluğu sağlamak için zamanında ayarlamalar yapın. Kuruluşlar, tedarikçiler veya ortaklarla üretken yapay zekayı kullandıklarında, her bir tarafın hak ve sorumluluklarını netleştirmeleri ve sözleşmede karşılık gelen yükümlülükleri ve kısıtlamaları belirtmeleri gerekir.
Bireyler ve İşletmeler Üretken Yapay Zekanın Risklerini ve Zorluklarını Proaktif Olarak Nasıl Ele Alabilir
Bireysel kullanıcılar ve kurumsal çalışanlar, üretken yapay zekanın getirdiği çeşitli kolaylıklardan yararlanırken, kişisel mahremiyetlerinin ve diğer hassas bilgilerinin korunmasını güçlendirmeleri gerektiğini anlamalıdır.
01Kişisel gizliliğin ifşasından kaçının
Üretken yapay zeka ürünlerini kullanmadan önce çalışanlar, hizmet sağlayıcının kullanıcıların gizliliğini ve güvenliğini makul ölçüde koruyacağından emin olmalı, gizlilik politikasını ve kullanıcı şartlarını dikkatlice okumalı ve halk tarafından doğrulanmış güvenilir bir sağlayıcı seçmeye çalışmalıdır. Kullanım sırasında kişisel gizlilik verilerini girmekten kaçının ve gerçek kimlik bilgisi gerektirmeyen senaryolarda sanal kimlikler veya anonim bilgiler kullanın.Olası hassas verilerin girilmeden önce gizlenmesi gerekir. Çalışanlar, internette, özellikle sosyal medyada ve halka açık forumlarda adlar, adresler, telefon numaraları vb. gibi kişisel bilgileri aşırı derecede paylaşmaktan kaçınmalı ve bilgileri herkesin erişebileceği web sitelerine ve içeriğe kolayca ifşa etmemelidir.
02 Yanıltıcı içerik oluşturmaktan kaçının
Üretken yapay zekanın teknik ilkelerinin sınırlamaları nedeniyle, sonuçlar kaçınılmaz olarak yanıltıcı veya taraflı olacaktır.Sektör uzmanları da sürekli olarak veri zehirlenmesi riskinden nasıl kaçınılacağını araştırıyor. Çalışanlar, önemli bilgileri birden çok bağımsız ve güvenilir kaynaktan doğrulamalıdır ve aynı bilgiler yalnızca tek bir yerde görünüyorsa, bunların gerçekliğini doğrulamak için daha fazla araştırma gerekebilir. Sonuçlarda belirtilen bilgilerin somut kanıtlarla desteklenip desteklenmediğini öğrenin.Eğer somut bir temel yoksa, bilgilere şüpheyle yaklaşmanız gerekebilir. Üretken yapay zekanın yanıltıcılığını ve önyargısını belirlemek, kullanıcıların eleştirel düşünmeyi sürdürmelerini, dijital okuryazarlıklarını sürekli geliştirmelerini ve ürün ve hizmetlerini güvenli bir şekilde nasıl kullanacaklarını anlamalarını gerektirir.
Bireysel kullanıcıların açık tutumuyla karşılaştırıldığında, işletmeler hala üretken yapay zekayı bekliyor ve izliyor. Üretken yapay zekanın tanıtılması, işletmeler için hem bir fırsat hem de bir zorluktur. Kuruluşların önceden genel risk değerlendirmelerini gerçekleştirmesi ve bazı stratejik müdahale dağıtımları yapması gerekir.PwC, kuruluşların ilgili işe aşağıdaki yönlerden başlamayı düşünmelerini önerir.
01 Kurumsal ağ güvenlik değerlendirmesi, savunma eksikliklerine açıklık getiriyor
İşletmelerin karşı karşıya olduğu bir numaralı zorluk, üretken yapay zekanın neden olduğu yeni nesil siber saldırılara karşı nasıl savunma yapılacağıdır. Kuruluşlar için, mevcut ağ güvenlik durumunu değerlendirmek, kuruluşun bu saldırılarla başa çıkmak için yeterli güvenlik algılama ve savunma yeteneklerine sahip olup olmadığını belirlemek, potansiyel ağ güvenlik savunması açıklarını belirlemek ve bunlarla aktif olarak başa çıkmak için karşılık gelen takviye önlemlerini almak zorunludur. Yukarıdaki hedeflere ulaşmak için, PwC siber güvenlik ekibi, işletmelerin bu gerçek siber saldırı tehdidi senaryolarına, yani siber güvenlik "kırmızı ve mavi yüzleşmesine" dayalı olarak saldırı ve savunma amaçlı çatışma tatbikatları yapmalarını tavsiye etmektedir. Farklı saldırı senaryolarından, ağ güvenliği savunmasının olası eksikliklerini önceden keşfedebilir ve kurumun BT varlıklarını ve veri güvenliğini korumak için savunma kusurlarını kapsamlı ve sistematik bir şekilde onarabiliriz.
02 Kuruluşun dahili üretken yapay zeka test ortamını dağıtın
Üretken yapay zekanın teknik ilkelerini anlamak ve üretken yapay zeka modellerinin sonuçlarını daha iyi kontrol etmek için kuruluşlar, yapay zeka ürünlerinin kurumsal verilere yönelik kontrol edilemeyen üretken yapay zeka olası tehditlerini önlemek için kendi üretken yapay zeka sanal alan test ortamlarını dahili olarak oluşturmayı düşünebilir. Şirketler, yalıtılmış bir ortamda test ederek, yapay zeka geliştirme için doğru ve doğası gereği önyargısız verilerin mevcut olduğundan emin olabilir ve hassas verileri açığa çıkarma riski olmadan model performansını daha güvenli bir şekilde keşfedebilir ve değerlendirebilir. Yalıtılmış bir test ortamı, üretken yapay zekaya yönelik veri zehirlenmesini ve diğer dış saldırıları da önleyebilir ve üretken yapay zeka modelinin kararlılığını koruyabilir.
03Üretken yapay zeka için bir risk yönetimi stratejisi oluşturun
Kuruluşlar, üretken yapay zekayı mümkün olan en kısa sürede risk yönetiminin hedef kapsamına dahil etmeli ve risk yönetimi çerçevesini ve stratejisini tamamlamalı ve değiştirmelidir. Üretken yapay zekayı kullanarak iş senaryoları için risk değerlendirmeleri yapın, potansiyel riskleri ve güvenlik açıklarını belirleyin, ilgili risk planlarını formüle edin ve karşı önlemleri ve sorumluluk atamalarını netleştirin. Kuruluş tarafından onaylanan üretici yapay zeka ürünlerine yalnızca yetkili personelin erişebilmesini ve bunları kullanabilmesini sağlamak için katı bir erişim yönetim sistemi oluşturun. Aynı zamanda, kullanıcıların kullanım davranışları düzenlenmeli ve kurumsal çalışanlar, çalışanların güvenlik farkındalığını ve başa çıkma yeteneklerini geliştirmek için üretken yapay zeka risk yönetimi konusunda eğitilmelidir. Girişimciler ayrıca üretken yapay zeka uygulamaları geliştirirken tasarım gereği bir gizlilik yaklaşımı benimsemelidir, böylece son kullanıcılar sağladıkları verilerin nasıl kullanılacağını ve hangi verilerin tutulacağını bilir.
04 Özel bir üretken yapay zeka araştırma çalışma grubu oluşturun
Kuruluşlar, üretken yapay zeka teknolojisinin potansiyel fırsatlarını ve risklerini ortaklaşa keşfetmek için kuruluş içinde profesyonel bilgi ve beceriler toplayabilir ve veri yönetişimi uzmanları, yapay zeka modeli uzmanları, iş alanı uzmanları dahil olmak üzere ilgili alanları anlayan üyeleri çalışma grubuna katılmaya davet edebilir. ve yasal uyum uzmanları bekler. Kurumsal yönetim, çalışma grubu üyelerinin, üretken yapay zekanın potansiyel fırsatlarını ve fırsatlarını daha iyi anlamak için test ortamlarında deney yapmalarını ve doğrulamalarını teşvik ederken, çalışma grubu üyelerinin keşfetmelerine ve deney yapmalarına izin vermek için gereken verilere ve kaynaklara erişmelerini sağlamalıdır. senaryolar, ileri teknoloji uygulama faydalarını elde etmek için riskleri dengeleyebilir.
Çözüm
Üretken yapay zekanın geliştirilmesi ve uygulanması, teknoloji üzerinde üretkenlikte yeni bir devrimi tetikleyebilecek büyük bir etkiye sahip. Generative AI, bilgisayar sistemlerinin insan dilinde içerik üretmesini sağlamak için derin öğrenme, doğal dil işleme ve büyük veri gibi alanlardaki ilerlemeleri birleştiren güçlü bir teknolojidir. İşletmelerin ve çalışanların bu güçlü teknolojiyi kontrol altında tutması, geliştirilmesinin ve uygulanmasının hukuk, etik ve sosyal sorumluluk çerçevesinde yürütülmesini sağlaması, gelecekte önemli bir konu olacaktır. PwC'nin yapay zeka uzman ekibi, şirketlerin eksiksiz bir üretken yapay zeka yönetimi mekanizması kurmasına nasıl yardımcı olunacağını araştırmaya kararlıdır4, böylece şirketler bu gelişmekte olan teknolojiyi gönül rahatlığıyla uygulayabilir ve geliştirebilir, bu da şirketlerin dalgaya katılmasına yardımcı olur Yapay zeka teknolojisinin, üretken yapay zeka, işletmelere sürdürülebilir rekabet avantajları sağlayabilir.
Not
Üretken Yapay Zeka Hizmetlerinin İdaresi İçin Geçici Tedbirler_Devlet Konseyi Departman Belgeleri_ChinaGov.com
İnovasyon ve Yönetişim: Üretken yapay zekadaki en son düzenleyici eğilimleri yorumlama
Algoritmik önyargıyı ve yapay zekada nasıl güven oluşturulacağını anlamak
Üretken AI risklerini yönetme: PwC
Feragatname: Bu makaledeki bilgiler yalnızca genel bilgi amaçlıdır ve eksiksiz olarak kabul edilmemelidir ve PwC'den yasal, vergi veya diğer profesyonel tavsiye veya hizmetler teşkil etmez. PwC'ye üye kurumlar, bu makale içeriğinin kullanılması nedeniyle herhangi bir konuda meydana gelebilecek zararlardan sorumlu tutulamaz.