Resim kaynağı: Unbounded AI aracı tarafından oluşturulmuştur
AIGC'nin şeffaflığa ihtiyacı olduğu açıktır, ancak filigranlar gibi önlemlerin değeri açık değildir.
Mayıs ayı sonlarında Pentagon'un alevler içindeki görüntüleri viral oldu. Ve kilometrelerce ötede, Beyaz Saray yardımcıları ve muhabirler, patlayan binanın görüntülerinin gerçek olup olmadığını anlamak için çabaladılar.
Bu resimlerin yapay zeka tarafından üretildiği ortaya çıktı. Ancak hükümet yetkilileri, gazeteciler ve teknoloji şirketleri, görüntüler gerçek bir etki yaratmadan harekete geçemedi. Bu sadece kafa karışıklığı yaratmakla kalmadı, aynı zamanda finansal piyasaları da çökertti.
Manipülatif ve yanıltıcı içerik yeni bir olgu değil. Ancak yapay zeka, içerik oluşturmayı daha kolay ve genellikle daha gerçekçi hale getiriyor. AI, sanatsal ifade veya erişilebilirlik iyileştirmeleri için kullanılabilse de, siyasi olayları sorgulamak veya karalamak, taciz etmek ve istismar etmek için de kötüye kullanılabilir.
Seçim bütünlüğünü desteklemek, kanıtları korumak, yanlış bilgileri azaltmak veya geçmiş kayıtları korumak için izleyiciler, içeriğin manipüle edilip edilmediğini veya yapay zeka tarafından üretilip üretilmediğini bilmekten yararlanabilir. Pentagon görseli yapay zeka tarafından üretilmiş eserler içeriyorsa, teknoloji platformları daha hızlı harekete geçebilir, zamanla görselin yayılmasını azaltabilir veya izleyicilerin görselin sahte olduğunu daha kolay tanımlayabilmesi için içeriği etiketleyebilirdi. Bu, kafa karışıklığını ve dolayısıyla piyasa oynaklığını önler.
Hiç şüphe yok ki gerçek ile sahteyi ayırt edebilmek için daha fazla şeffaflığa ihtiyacımız var. Geçen ay, Beyaz Saray bunun nasıl yapılabileceğine ağırlık verdi ve en önde gelen AI şirketlerinden yedisinin "kullanıcıların filigranlar gibi AI tarafından üretilen içeriği bilmelerini sağlamak için sağlam teknik önlemler geliştirme" sözü verdiğini duyurdu.
Filigran gibi açıklama yöntemleri iyi bir başlangıçtır. Ancak bu yöntemler pratikte karmaşıktır ve hızlı ve etkili bir çözüm değildir. Filigranın Twitter kullanıcılarının Pentagon'un sahte bir görüntüsünü belirlemesine yardımcı olup olmayacağı veya Trump'ın yakın tarihli bir reklam kampanyasındaki sesinin sentezlenip sentezlenmediği açık değil. Ve kaynak ve meta verilerin açıklanması gibi diğer yaklaşımların daha büyük bir etkisi var mı? En önemlisi, içeriğin yapay zeka tarafından üretildiğini açıklamak, izleyicilerin gerçekle kurguyu ayırt etmesine veya gerçek dünyadaki zararı azaltmasına yardımcı oluyor mu?
Bu soruları cevaplamak için, filigranlar ve diğer açıklama yöntemleri ile ne kastedildiğini açıklığa kavuşturmamız gerekir. Bunların ne olduğu, makul olarak onlardan ne yapmalarını bekleyebileceğimiz ve bu yöntemler uygulansa bile hangi sorunların var olduğu konusunda net olmamız gerekiyor. Tanımlar üzerindeki tartışma ne kadar ukala görünse de, "filigranlama" teriminin yaygın kullanımı şu anda yapay zeka alanında kafa karışıklığına neden oluyor. Bu farklı yaklaşımların ne anlama geldiğinin tanımlanması, yapay zeka alanında işbirliği ve açıklama standartları üzerinde anlaşma için önemli bir ön koşuldur. Aksi takdirde, insanlar birbirleriyle konuşacaktır.
OpenAI, Adobe, Witness, Microsoft, BBC ve bir söz veren diğerleri gibi kâr amacı gütmeyen Yapay Zeka Ortaklığının (PAI) sorumlu sentetik medya için yönergeler geliştirmeye yönelik çok sektörlü çabasına liderlik ederken bu sorunu ilk elden gördüm. .
Bir yandan filigran, son kullanıcı tarafından görülebilen bir sinyale atıfta bulunabilir (örneğin, bir görüntü sağlayıcının ortamına yazdırılan "Getty Images" sözcükleri). Bununla birlikte, çıplak gözle veya kulakla algılanamayan içeriğe gömülü teknik sinyallere de atıfta bulunabilir. "Doğrudan" ve "dolaylı" açıklamalar olarak bilinen her iki filigran türü de şeffaflığı sağlamak için kritik öneme sahiptir. Bu nedenle, damgalamanın zorlukları ve fırsatlarına ilişkin herhangi bir tartışma, hangi tür damgalamanın değerlendirildiğini vurgulamalıdır.
Konuları daha da karmaşık hale getirmek için, pek çok yaklaşım olmasına rağmen, damgalama genellikle genel içerik ifşası sağlama eylemi için bir "şemsiye" terim olarak kullanılır. Beyaz Saray taahhüdünün yakından okunması, görünmez sinyaller yerine kriptografik imzalara dayanan, "kaynak" olarak bilinen başka bir ifşa yöntemini ortaya çıkarır. Bununla birlikte, popüler medyada bu genellikle bir filigran olarak da tanımlanır. Bu karışık terimleri kafa karıştırıcı buluyorsanız endişelenmeyin, yalnız değilsiniz. Netlik önemlidir: Farklı teknolojileri ne olarak adlandıracağımız konusunda bile anlaşamazsak, yapay zeka alanında tutarlı ve sağlam şeffaflık önlemleri olmayacaktır.
Yanıt olarak, damgalamanın ve diğer YZ açıklama yöntemlerinin faydasını değerlendirmemize yardımcı olabilecek altı ön soru öneriyorum. Bu sorular, tüm tarafların tamamen aynı konuları tartışmasını ve her bir yaklaşımı kapsamlı ve tutarlı bir şekilde değerlendirebilmemizi sağlamaya yardımcı olmalıdır.
**Filigranın kendisi kurcalanabilir mi? **
İronik bir şekilde, içeriğin kaynağını ve içeriğin nasıl değiştirildiğini ölçmede yardımcı olduğu öne sürülen teknik sinyaller bazen kendileri de kurcalanabiliyor. Zor olmasına rağmen, hem görünmez hem de görünür filigranlar kaldırılabilir veya kurcalanabilir. Filigranların kurcalanma kolaylığı, içerik türüne göre değişir.
Görünmez damgalama genellikle üretken yapay zeka ile başa çıkmak için geniş bir çözüm olarak ilan edilirken, bu tür gömülü sinyaller, görsel-işitsel içerikten çok metinde daha kolay manipüle edilir. Bu, muhtemelen Beyaz Saray brifinginin neden filigranlamanın tüm AI türleri için geçerli olacağını öne sürdüğünü açıklıyor, ancak şirketin yalnızca görsel-işitsel materyal için açıklama taahhüdünde bulunduğunu tam olarak açıkça ortaya koyuyor. Bu nedenle, AI politikası geliştirirken, görünmez filigran gibi ifşa tekniklerinin içerik türleri arasında etkililik ve daha geniş teknik sağlamlık açısından nasıl değiştiğini belirtmek zorunludur. Bir ifşa çözümü resimler için yararlı olabilir, ancak metin için yararlı olmayabilir.
**Bu görünmez sinyalleri kim algılayabilir? **
AI endüstrisi görünmez filigran uygulamayı kabul etse bile, kaçınılmaz olarak kimin bu sinyalleri tespit etme yeteneğine sahip olduğu ve nihayetinde bunlara dayanarak yetkili iddialarda bulunduğu hakkında daha derin sorular ortaya çıkıyor. İçeriğin yanıltıcı olup olmadığına, içeriğin yapay zeka tarafından mı yoksa uzantı olarak mı üretildiğine kim karar verecek? Herkes filigranları tespit edebilseydi, bu onları kötü adamlar tarafından kötüye kullanılmaya karşı savunmasız hale getirebilirdi. Öte yandan, görünmez filigranları tespit etmek için erişimi kontrol etmek - özellikle büyük yapay zeka şirketlerinin hakimiyetindeyse - açıklığı azaltabilir ve teknik bekçiliği güçlendirebilir. Nasıl yönetileceğini belirlemeden bu tür ifşa yöntemlerini uygulamak, bu yöntemlere güvensizlik ve etkisizliğe yol açabilir. Ayrıca, bu teknolojiler geniş çapta benimsenmezse, kötü aktörler zararlı ve yanıltıcı içerik oluşturmak için görünmez filigranlar içermeyen açık kaynak teknolojilerine yönelebilirler.
**Filigranlar gizliliği koruyor mu? **
İnsan hakları ve teknoloji grubu Witness'ın yaptığı büyük çalışmanın gösterdiği gibi, içerikle birlikte zaman içinde dolaşan herhangi bir izleme sistemi, içerik oluşturucular için mahremiyet endişelerine yol açabilir. AI endüstrisi, filigranların ve diğer ifşa tekniklerinin, içerik oluşturucuları riske atabilecek tanımlayıcı bilgiler içermeyecek şekilde tasarlanmasını sağlamalıdır. Örneğin, insan hakları savunucuları, tanımlayıcı bilgilerle filigran eklenmiş fotoğraflar aracılığıyla ihlalleri yakalayabilir ve bu da onları otoriter hükümetler için kolay hedef haline getirir. Bir filigranın bir aktivistin kimliğini ortaya çıkarabileceğini bilmek bile ifade ve söylem üzerinde caydırıcı bir etki yaratabilir. Politika yapıcılar, içerik oluşturucuların mahremiyetini korumak için açıklamaların nasıl tasarlanması gerektiğine dair daha net rehberlik sağlamalı ve aynı zamanda yeterince yararlı ve pratik ayrıntı içermelidir.
**Görünür ifşaatlar, izleyicilerin üretici yapay zekanın rolünü anlamasına yardımcı oluyor mu? **
Görünmez filigran teknik olarak gizliliği uzun süre korusa bile hedef kitlenin içeriği yorumlamasına yardımcı olamayabilir. Doğrudan ifşalar (görünür filigranlar gibi) daha fazla şeffaflık sağlama gibi sezgisel bir çekiciliğe sahip olsa da, bu tür ifşaatlar her zaman istenen etkiye sahip değildir ve içeriğin orijinalliği doğru olsa bile ataerkil, önyargılı ve cezalandırıcı olarak algılanma eğilimindedir. belirtilmedi. Ek olarak, doğrudan açıklamalar izleyiciler tarafından yanlış yorumlanabilir. 2021 çalışmamda, bir katılımcı Twitter'ın "manipüle edilmiş medya" etiketini yanlış anladı ve onu yanlış yönlendirmek için belirli bir videonun içeriğinin düzenlenmesinden ziyade "medya" kuruluşunun kendisini manipüle ettiğini düşündü. Farklı kullanıcı deneyimi tasarımlarının, izleyicilerin içerik açıklama algılarını nasıl etkilediğine dair araştırmalar ortaya çıkmaya devam ederken, araştırmaların çoğu büyük teknoloji şirketlerine ve çoğunlukla seçimler gibi çeşitli bağlamlara odaklanmıştır. Yalnızca yapay zeka tarafından oluşturulan içeriği etiketlemenin sezgisel çekiciliğine güvenmek yerine doğrudan açıklama ve kullanıcı deneyiminin etkilerini incelemek, şeffaflığı artıran etkili karar verme için kritik öneme sahiptir.
**AIGC'ye görünür bir filigran koymak insanların "gerçek" içeriğe olan güvenini azaltır mı? **
Belki de değerlendirilmesi en zor toplumsal soru, koordineli doğrudan açıklamanın bilgiye yönelik geniş tutumları nasıl etkileyeceği ve neyin "gerçek" olduğuna olan güveni potansiyel olarak azaltacağıdır. Yapay zeka kuruluşları ve sosyal medya platformları, içeriği yalnızca yapay zeka tarafından oluşturulmuş veya değiştirilmiş olarak işaretlerse - hangi iddiaların yanıltıcı veya zararlı olduğu konusunda yargıya varmaktan kaçınmanın anlaşılır ancak sınırlı bir yolu - bu, içeriği çevrimiçi görüntüleme şeklimizi nasıl etkiler?
İfşa yoluyla medya okuryazarlığını geliştirmek asil bir amaçtır; ancak, teknoloji şirketlerinin içindeki ve dışındaki politika ekiplerinde çalışan birçok kişi, üretilen tüm içeriği etiketlemek için erken bir baskının "dolandırıcı ayrımına" yol açacağından endişe ediyor - toplumun, olabilecek tüm içeriği onaylamaması. Yapay zeka tarafından oluşturulan içeriğe yönelik şüphecilik o kadar belirgindir ki, yapay zeka tarafından üretilmemiş özgün içeriğe olan güveni baltalar ve endişe anlaşılabilir. Beklenti ayrıca, AI içerik oluşturmanın görünüşte düşük riskli tüm kullanımlarının - örneğin, iPhone'un AI teknolojisine dayanan portre modu veya Beyaz Saray taahhüdünde bahsedilen ses asistanı - yapay bilgilerin ifşa edilmesini gerektirip gerektirmeyeceği konusunda belirsizliğe yol açtı. zeka Akıllı katılım. Alanın, toplumun bilgiye yönelik uzun vadeli tutumlarını ölçmek ve yapay zekanın katılımını ifşa etmenin ne zaman mantıklı olduğunu belirlemek için birlikte çalışması gerekiyor. En önemlisi, gerçekten önemsediğimiz şeyin yerine içeriğin nasıl oluşturulduğunu (bazı içeriklerin yapay zeka tarafından oluşturulduğunu veya düzenlendiğini söyleyerek) açıklayan açıklamaların görünürlük etkisini değerlendirmeleri gerekir: bir içerik iddiasının doğru mu yoksa yanlış mı olduğunu belirtmek.
Damgalama ve diğer ifşa tekniklerinin getirdiği zorluklar, eylemsizlik veya şeffaflığı sınırlamak için bir mazeret olarak kullanılmamalıdır. Bunun yerine, tanımları geliştirmek ve uygulamadaki kaçınılmaz takasları nasıl değerlendireceklerine karar vermek için şirketleri, politika yapıcıları ve diğerlerini bir araya getirmeye zorlamalılar. Ancak o zaman üretken AI politikası, izleyicilerin gerçekleri uydurmadan ayırmasına yeterince yardımcı olabilir.
View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
DeepFake selinin altında, filigranlar AIGC'ye daha fazla güven getirebilir mi?
Senaryo: Claire Leibowicz
Kaynak: MIT Teknoloji İncelemesi
Mayıs ayı sonlarında Pentagon'un alevler içindeki görüntüleri viral oldu. Ve kilometrelerce ötede, Beyaz Saray yardımcıları ve muhabirler, patlayan binanın görüntülerinin gerçek olup olmadığını anlamak için çabaladılar.
Bu resimlerin yapay zeka tarafından üretildiği ortaya çıktı. Ancak hükümet yetkilileri, gazeteciler ve teknoloji şirketleri, görüntüler gerçek bir etki yaratmadan harekete geçemedi. Bu sadece kafa karışıklığı yaratmakla kalmadı, aynı zamanda finansal piyasaları da çökertti.
Manipülatif ve yanıltıcı içerik yeni bir olgu değil. Ancak yapay zeka, içerik oluşturmayı daha kolay ve genellikle daha gerçekçi hale getiriyor. AI, sanatsal ifade veya erişilebilirlik iyileştirmeleri için kullanılabilse de, siyasi olayları sorgulamak veya karalamak, taciz etmek ve istismar etmek için de kötüye kullanılabilir.
Seçim bütünlüğünü desteklemek, kanıtları korumak, yanlış bilgileri azaltmak veya geçmiş kayıtları korumak için izleyiciler, içeriğin manipüle edilip edilmediğini veya yapay zeka tarafından üretilip üretilmediğini bilmekten yararlanabilir. Pentagon görseli yapay zeka tarafından üretilmiş eserler içeriyorsa, teknoloji platformları daha hızlı harekete geçebilir, zamanla görselin yayılmasını azaltabilir veya izleyicilerin görselin sahte olduğunu daha kolay tanımlayabilmesi için içeriği etiketleyebilirdi. Bu, kafa karışıklığını ve dolayısıyla piyasa oynaklığını önler.
Hiç şüphe yok ki gerçek ile sahteyi ayırt edebilmek için daha fazla şeffaflığa ihtiyacımız var. Geçen ay, Beyaz Saray bunun nasıl yapılabileceğine ağırlık verdi ve en önde gelen AI şirketlerinden yedisinin "kullanıcıların filigranlar gibi AI tarafından üretilen içeriği bilmelerini sağlamak için sağlam teknik önlemler geliştirme" sözü verdiğini duyurdu.
Filigran gibi açıklama yöntemleri iyi bir başlangıçtır. Ancak bu yöntemler pratikte karmaşıktır ve hızlı ve etkili bir çözüm değildir. Filigranın Twitter kullanıcılarının Pentagon'un sahte bir görüntüsünü belirlemesine yardımcı olup olmayacağı veya Trump'ın yakın tarihli bir reklam kampanyasındaki sesinin sentezlenip sentezlenmediği açık değil. Ve kaynak ve meta verilerin açıklanması gibi diğer yaklaşımların daha büyük bir etkisi var mı? En önemlisi, içeriğin yapay zeka tarafından üretildiğini açıklamak, izleyicilerin gerçekle kurguyu ayırt etmesine veya gerçek dünyadaki zararı azaltmasına yardımcı oluyor mu?
Bu soruları cevaplamak için, filigranlar ve diğer açıklama yöntemleri ile ne kastedildiğini açıklığa kavuşturmamız gerekir. Bunların ne olduğu, makul olarak onlardan ne yapmalarını bekleyebileceğimiz ve bu yöntemler uygulansa bile hangi sorunların var olduğu konusunda net olmamız gerekiyor. Tanımlar üzerindeki tartışma ne kadar ukala görünse de, "filigranlama" teriminin yaygın kullanımı şu anda yapay zeka alanında kafa karışıklığına neden oluyor. Bu farklı yaklaşımların ne anlama geldiğinin tanımlanması, yapay zeka alanında işbirliği ve açıklama standartları üzerinde anlaşma için önemli bir ön koşuldur. Aksi takdirde, insanlar birbirleriyle konuşacaktır.
OpenAI, Adobe, Witness, Microsoft, BBC ve bir söz veren diğerleri gibi kâr amacı gütmeyen Yapay Zeka Ortaklığının (PAI) sorumlu sentetik medya için yönergeler geliştirmeye yönelik çok sektörlü çabasına liderlik ederken bu sorunu ilk elden gördüm. .
Bir yandan filigran, son kullanıcı tarafından görülebilen bir sinyale atıfta bulunabilir (örneğin, bir görüntü sağlayıcının ortamına yazdırılan "Getty Images" sözcükleri). Bununla birlikte, çıplak gözle veya kulakla algılanamayan içeriğe gömülü teknik sinyallere de atıfta bulunabilir. "Doğrudan" ve "dolaylı" açıklamalar olarak bilinen her iki filigran türü de şeffaflığı sağlamak için kritik öneme sahiptir. Bu nedenle, damgalamanın zorlukları ve fırsatlarına ilişkin herhangi bir tartışma, hangi tür damgalamanın değerlendirildiğini vurgulamalıdır.
Konuları daha da karmaşık hale getirmek için, pek çok yaklaşım olmasına rağmen, damgalama genellikle genel içerik ifşası sağlama eylemi için bir "şemsiye" terim olarak kullanılır. Beyaz Saray taahhüdünün yakından okunması, görünmez sinyaller yerine kriptografik imzalara dayanan, "kaynak" olarak bilinen başka bir ifşa yöntemini ortaya çıkarır. Bununla birlikte, popüler medyada bu genellikle bir filigran olarak da tanımlanır. Bu karışık terimleri kafa karıştırıcı buluyorsanız endişelenmeyin, yalnız değilsiniz. Netlik önemlidir: Farklı teknolojileri ne olarak adlandıracağımız konusunda bile anlaşamazsak, yapay zeka alanında tutarlı ve sağlam şeffaflık önlemleri olmayacaktır.
Yanıt olarak, damgalamanın ve diğer YZ açıklama yöntemlerinin faydasını değerlendirmemize yardımcı olabilecek altı ön soru öneriyorum. Bu sorular, tüm tarafların tamamen aynı konuları tartışmasını ve her bir yaklaşımı kapsamlı ve tutarlı bir şekilde değerlendirebilmemizi sağlamaya yardımcı olmalıdır.
**Filigranın kendisi kurcalanabilir mi? **
İronik bir şekilde, içeriğin kaynağını ve içeriğin nasıl değiştirildiğini ölçmede yardımcı olduğu öne sürülen teknik sinyaller bazen kendileri de kurcalanabiliyor. Zor olmasına rağmen, hem görünmez hem de görünür filigranlar kaldırılabilir veya kurcalanabilir. Filigranların kurcalanma kolaylığı, içerik türüne göre değişir.
**Farklı içerik türlerinin filigran geçerliliği tutarlı mı? **
Görünmez damgalama genellikle üretken yapay zeka ile başa çıkmak için geniş bir çözüm olarak ilan edilirken, bu tür gömülü sinyaller, görsel-işitsel içerikten çok metinde daha kolay manipüle edilir. Bu, muhtemelen Beyaz Saray brifinginin neden filigranlamanın tüm AI türleri için geçerli olacağını öne sürdüğünü açıklıyor, ancak şirketin yalnızca görsel-işitsel materyal için açıklama taahhüdünde bulunduğunu tam olarak açıkça ortaya koyuyor. Bu nedenle, AI politikası geliştirirken, görünmez filigran gibi ifşa tekniklerinin içerik türleri arasında etkililik ve daha geniş teknik sağlamlık açısından nasıl değiştiğini belirtmek zorunludur. Bir ifşa çözümü resimler için yararlı olabilir, ancak metin için yararlı olmayabilir.
**Bu görünmez sinyalleri kim algılayabilir? **
AI endüstrisi görünmez filigran uygulamayı kabul etse bile, kaçınılmaz olarak kimin bu sinyalleri tespit etme yeteneğine sahip olduğu ve nihayetinde bunlara dayanarak yetkili iddialarda bulunduğu hakkında daha derin sorular ortaya çıkıyor. İçeriğin yanıltıcı olup olmadığına, içeriğin yapay zeka tarafından mı yoksa uzantı olarak mı üretildiğine kim karar verecek? Herkes filigranları tespit edebilseydi, bu onları kötü adamlar tarafından kötüye kullanılmaya karşı savunmasız hale getirebilirdi. Öte yandan, görünmez filigranları tespit etmek için erişimi kontrol etmek - özellikle büyük yapay zeka şirketlerinin hakimiyetindeyse - açıklığı azaltabilir ve teknik bekçiliği güçlendirebilir. Nasıl yönetileceğini belirlemeden bu tür ifşa yöntemlerini uygulamak, bu yöntemlere güvensizlik ve etkisizliğe yol açabilir. Ayrıca, bu teknolojiler geniş çapta benimsenmezse, kötü aktörler zararlı ve yanıltıcı içerik oluşturmak için görünmez filigranlar içermeyen açık kaynak teknolojilerine yönelebilirler.
**Filigranlar gizliliği koruyor mu? **
İnsan hakları ve teknoloji grubu Witness'ın yaptığı büyük çalışmanın gösterdiği gibi, içerikle birlikte zaman içinde dolaşan herhangi bir izleme sistemi, içerik oluşturucular için mahremiyet endişelerine yol açabilir. AI endüstrisi, filigranların ve diğer ifşa tekniklerinin, içerik oluşturucuları riske atabilecek tanımlayıcı bilgiler içermeyecek şekilde tasarlanmasını sağlamalıdır. Örneğin, insan hakları savunucuları, tanımlayıcı bilgilerle filigran eklenmiş fotoğraflar aracılığıyla ihlalleri yakalayabilir ve bu da onları otoriter hükümetler için kolay hedef haline getirir. Bir filigranın bir aktivistin kimliğini ortaya çıkarabileceğini bilmek bile ifade ve söylem üzerinde caydırıcı bir etki yaratabilir. Politika yapıcılar, içerik oluşturucuların mahremiyetini korumak için açıklamaların nasıl tasarlanması gerektiğine dair daha net rehberlik sağlamalı ve aynı zamanda yeterince yararlı ve pratik ayrıntı içermelidir.
**Görünür ifşaatlar, izleyicilerin üretici yapay zekanın rolünü anlamasına yardımcı oluyor mu? **
Görünmez filigran teknik olarak gizliliği uzun süre korusa bile hedef kitlenin içeriği yorumlamasına yardımcı olamayabilir. Doğrudan ifşalar (görünür filigranlar gibi) daha fazla şeffaflık sağlama gibi sezgisel bir çekiciliğe sahip olsa da, bu tür ifşaatlar her zaman istenen etkiye sahip değildir ve içeriğin orijinalliği doğru olsa bile ataerkil, önyargılı ve cezalandırıcı olarak algılanma eğilimindedir. belirtilmedi. Ek olarak, doğrudan açıklamalar izleyiciler tarafından yanlış yorumlanabilir. 2021 çalışmamda, bir katılımcı Twitter'ın "manipüle edilmiş medya" etiketini yanlış anladı ve onu yanlış yönlendirmek için belirli bir videonun içeriğinin düzenlenmesinden ziyade "medya" kuruluşunun kendisini manipüle ettiğini düşündü. Farklı kullanıcı deneyimi tasarımlarının, izleyicilerin içerik açıklama algılarını nasıl etkilediğine dair araştırmalar ortaya çıkmaya devam ederken, araştırmaların çoğu büyük teknoloji şirketlerine ve çoğunlukla seçimler gibi çeşitli bağlamlara odaklanmıştır. Yalnızca yapay zeka tarafından oluşturulan içeriği etiketlemenin sezgisel çekiciliğine güvenmek yerine doğrudan açıklama ve kullanıcı deneyiminin etkilerini incelemek, şeffaflığı artıran etkili karar verme için kritik öneme sahiptir.
**AIGC'ye görünür bir filigran koymak insanların "gerçek" içeriğe olan güvenini azaltır mı? **
Belki de değerlendirilmesi en zor toplumsal soru, koordineli doğrudan açıklamanın bilgiye yönelik geniş tutumları nasıl etkileyeceği ve neyin "gerçek" olduğuna olan güveni potansiyel olarak azaltacağıdır. Yapay zeka kuruluşları ve sosyal medya platformları, içeriği yalnızca yapay zeka tarafından oluşturulmuş veya değiştirilmiş olarak işaretlerse - hangi iddiaların yanıltıcı veya zararlı olduğu konusunda yargıya varmaktan kaçınmanın anlaşılır ancak sınırlı bir yolu - bu, içeriği çevrimiçi görüntüleme şeklimizi nasıl etkiler?
İfşa yoluyla medya okuryazarlığını geliştirmek asil bir amaçtır; ancak, teknoloji şirketlerinin içindeki ve dışındaki politika ekiplerinde çalışan birçok kişi, üretilen tüm içeriği etiketlemek için erken bir baskının "dolandırıcı ayrımına" yol açacağından endişe ediyor - toplumun, olabilecek tüm içeriği onaylamaması. Yapay zeka tarafından oluşturulan içeriğe yönelik şüphecilik o kadar belirgindir ki, yapay zeka tarafından üretilmemiş özgün içeriğe olan güveni baltalar ve endişe anlaşılabilir. Beklenti ayrıca, AI içerik oluşturmanın görünüşte düşük riskli tüm kullanımlarının - örneğin, iPhone'un AI teknolojisine dayanan portre modu veya Beyaz Saray taahhüdünde bahsedilen ses asistanı - yapay bilgilerin ifşa edilmesini gerektirip gerektirmeyeceği konusunda belirsizliğe yol açtı. zeka Akıllı katılım. Alanın, toplumun bilgiye yönelik uzun vadeli tutumlarını ölçmek ve yapay zekanın katılımını ifşa etmenin ne zaman mantıklı olduğunu belirlemek için birlikte çalışması gerekiyor. En önemlisi, gerçekten önemsediğimiz şeyin yerine içeriğin nasıl oluşturulduğunu (bazı içeriklerin yapay zeka tarafından oluşturulduğunu veya düzenlendiğini söyleyerek) açıklayan açıklamaların görünürlük etkisini değerlendirmeleri gerekir: bir içerik iddiasının doğru mu yoksa yanlış mı olduğunu belirtmek.
Damgalama ve diğer ifşa tekniklerinin getirdiği zorluklar, eylemsizlik veya şeffaflığı sınırlamak için bir mazeret olarak kullanılmamalıdır. Bunun yerine, tanımları geliştirmek ve uygulamadaki kaçınılmaz takasları nasıl değerlendireceklerine karar vermek için şirketleri, politika yapıcıları ve diğerlerini bir araya getirmeye zorlamalılar. Ancak o zaman üretken AI politikası, izleyicilerin gerçekleri uydurmadan ayırmasına yeterince yardımcı olabilir.