Di bawah banjir DeepFake, dapatkah tanda air membawa lebih banyak kepercayaan ke AIGC?

Ditulis oleh: Claire Leibowicz

Sumber: Tinjauan Teknologi MIT

Sumber gambar: Dihasilkan oleh alat AI Tak Terbatas

AIGC jelas membutuhkan transparansi, tetapi nilai tindakan seperti tanda air tidak jelas.

Pada akhir Mei, gambar Pentagon yang terbakar menjadi viral. Dan bermil-mil jauhnya, para pembantu dan wartawan Gedung Putih berebut untuk mencari tahu apakah gambar gedung yang meledak itu nyata.

Ternyata foto-foto ini dihasilkan oleh kecerdasan buatan. Tetapi pejabat pemerintah, jurnalis, dan perusahaan teknologi tidak dapat bertindak sebelum gambar tersebut memiliki dampak yang nyata. Hal ini tidak hanya menimbulkan kebingungan, tetapi juga menurunkan pasar keuangan.

Konten yang manipulatif dan menyesatkan bukanlah fenomena baru. Tetapi kecerdasan buatan membuat pembuatan konten lebih mudah dan seringkali lebih realistis. Meskipun AI dapat digunakan untuk ekspresi artistik atau peningkatan aksesibilitas, AI juga dapat disalahgunakan untuk mempertanyakan peristiwa politik, atau mencemarkan nama baik, melecehkan, dan mengeksploitasi.

Baik untuk mempromosikan integritas pemilu, melindungi bukti, mengurangi misinformasi, atau melestarikan catatan sejarah, audiens dapat memperoleh manfaat dengan mengetahui apakah konten telah dimanipulasi atau dihasilkan oleh kecerdasan buatan. Jika gambar Pentagon berisi artefak buatan AI, platform teknologi mungkin dapat mengambil tindakan lebih cepat; pada waktunya mereka dapat mengurangi penyebaran gambar, atau menandai konten sehingga audiens dapat dengan mudah mengidentifikasi gambar tersebut sebagai palsu. Ini menghindari kebingungan dan, dengan perluasan, volatilitas pasar.

Tidak diragukan lagi bahwa kita membutuhkan lebih banyak transparansi untuk membedakan antara yang asli dan yang palsu. Bulan lalu, Gedung Putih mempertimbangkan bagaimana hal ini dapat dilakukan, mengumumkan bahwa tujuh perusahaan AI paling terkemuka telah berjanji untuk "mengembangkan langkah-langkah teknis yang kuat untuk memastikan pengguna mengetahui konten apa yang dihasilkan AI, seperti tanda air."

Metode pengungkapan seperti tanda air adalah awal yang baik. Namun, metode ini rumit dalam praktiknya, dan bukan solusi yang cepat dan efektif. Tidak jelas apakah tanda air itu akan membantu pengguna Twitter mengidentifikasi gambar palsu Pentagon, atau apakah suara Trump dalam kampanye iklan baru-baru ini disintesis. Dan apakah pendekatan lain, seperti pengungkapan sumber dan metadata, berdampak lebih besar? Yang paling penting, apakah sekadar mengungkapkan bahwa konten dihasilkan oleh AI membantu audiens membedakan fakta dari fiksi, atau mengurangi bahaya di dunia nyata?

Untuk menjawab pertanyaan tersebut, kita perlu mengklarifikasi apa yang dimaksud dengan watermark dan jenis metode pengungkapan lainnya. Kita harus jelas tentang apa itu, apa yang secara wajar dapat kita harapkan dari mereka, dan masalah apa yang ada bahkan jika metode ini diperkenalkan. Betapapun pentingnya perdebatan tentang definisi, meluasnya penggunaan istilah "watermarking" saat ini menyebabkan kebingungan di bidang AI. Mendefinisikan apa arti pendekatan yang berbeda ini merupakan prasyarat penting untuk kolaborasi di bidang AI dan kesepakatan tentang standar pengungkapan. Kalau tidak, orang akan berbicara satu sama lain.

Saya melihat masalah ini secara langsung saat saya memimpin upaya multisektoral Partnership on Artificial Intelligence (PAI) nirlaba untuk mengembangkan pedoman media sintetik yang bertanggung jawab, dengan organisasi seperti OpenAI, Adobe, Witness, Microsoft, BBC, dan lainnya membuat janji .

Di satu sisi, tanda air dapat merujuk pada sinyal yang terlihat oleh pengguna akhir (misalnya, kata "Getty Images" yang dicetak pada media penyedia gambar). Namun, itu juga bisa merujuk pada sinyal teknis yang disematkan dalam konten yang tidak terlihat oleh mata telanjang atau telinga. Kedua jenis tanda air -- dikenal sebagai pengungkapan "langsung" dan "tidak langsung" -- sangat penting untuk memastikan transparansi. Oleh karena itu, setiap diskusi tentang tantangan dan peluang watermarking harus menekankan jenis watermarking mana yang sedang dievaluasi.

Untuk lebih memperumit masalah, watermarking sering digunakan sebagai istilah "payung" untuk tindakan umum penyediaan pengungkapan konten, meskipun ada banyak pendekatan. Pembacaan saksama dari janji Gedung Putih mengungkapkan metode pengungkapan lain yang dikenal sebagai "asalnya", yang mengandalkan tanda tangan kriptografi daripada sinyal tak terlihat. Namun, di media populer hal ini juga sering digambarkan sebagai watermark. Jika Anda menemukan istilah campur aduk ini membingungkan, jangan khawatir, Anda tidak sendirian. Kejelasan penting: Jika kita bahkan tidak dapat menyepakati apa yang disebut teknologi yang berbeda, tidak akan ada langkah transparansi yang konsisten dan kuat di bidang AI.

Sebagai tanggapan, saya mengusulkan enam pertanyaan awal yang dapat membantu kami menilai kegunaan watermarking dan metode pengungkapan AI lainnya. Pertanyaan-pertanyaan ini akan membantu memastikan bahwa semua pihak mendiskusikan masalah yang persis sama dan bahwa kita dapat mengevaluasi setiap pendekatan secara komprehensif dan konsisten.

**Bisakah tanda air itu sendiri dirusak? **

Ironisnya, sinyal teknis yang disebut-sebut membantu dalam mengukur asal konten dan bagaimana konten tersebut dimodifikasi terkadang dapat dirusak sendiri. Meski sulit, baik watermark yang tidak terlihat maupun yang terlihat dapat dihilangkan atau dirusak. Kemudahan watermark dapat dirusak bervariasi menurut jenis konten.

**Apakah validitas tanda air dari berbagai jenis konten konsisten? **

Sementara tanda air tak terlihat sering diiklankan sebagai solusi luas untuk menangani kecerdasan buatan generatif, sinyal yang disematkan seperti itu lebih mudah dimanipulasi dalam teks daripada konten audiovisual. Itu mungkin menjelaskan mengapa pengarahan Gedung Putih menunjukkan bahwa watermarking akan berlaku untuk semua jenis AI, tetapi menjelaskan secara penuh bahwa perusahaan hanya berkomitmen untuk mengungkapkan materi audiovisual. Oleh karena itu, ketika mengembangkan kebijakan AI, sangat penting untuk menentukan bagaimana teknik pengungkapan seperti watermarking tak terlihat bervariasi dalam keefektifannya dan kekuatan teknis yang lebih luas di seluruh jenis konten. Solusi pengungkapan mungkin berguna untuk gambar, tetapi tidak untuk teks.

**Siapa yang dapat mendeteksi sinyal tak kasat mata ini? **

Bahkan jika industri AI setuju untuk menerapkan tanda air yang tidak terlihat, pertanyaan yang lebih dalam pasti muncul tentang siapa yang memiliki kemampuan untuk mendeteksi sinyal ini dan pada akhirnya membuat klaim otoritatif berdasarkan hal tersebut. Siapa yang dapat memutuskan apakah konten tersebut dihasilkan oleh AI, atau dengan ekstensi, jika kontennya menyesatkan? Jika semua orang bisa mendeteksi tanda air, ini bisa membuat mereka rentan disalahgunakan oleh orang jahat. Di sisi lain, mengontrol akses untuk mendeteksi watermark yang tidak terlihat—terutama jika didominasi oleh perusahaan AI besar—dapat mengurangi keterbukaan dan memperkuat penjagaan gerbang teknis. Menerapkan metode pengungkapan seperti itu tanpa menentukan bagaimana mengelolanya dapat menyebabkan ketidakpercayaan dan ketidakefektifan metode tersebut. Dan, jika teknologi ini tidak diadopsi secara luas, pelaku kejahatan dapat beralih ke teknologi sumber terbuka yang tidak memiliki tanda air yang tidak terlihat untuk membuat konten yang berbahaya dan menyesatkan.

**Apakah tanda air melindungi privasi? **

Seperti yang ditunjukkan oleh karya besar kelompok hak asasi manusia dan teknologi Witness, sistem pelacakan apa pun yang berjalan dengan konten dari waktu ke waktu dapat menimbulkan masalah privasi bagi pembuat konten. Industri AI harus memastikan bahwa tanda air dan teknik pengungkapan lainnya dirancang sedemikian rupa sehingga tidak mengandung informasi pengenal yang dapat membahayakan pencipta. Misalnya, pembela hak asasi manusia dapat menangkap pelanggaran melalui foto yang diberi tanda air dengan informasi identitas, menjadikannya sasaran empuk bagi pemerintah otoriter. Bahkan mengetahui bahwa tanda air dapat mengungkap identitas seorang aktivis dapat berdampak buruk pada ekspresi dan wacana. Pembuat kebijakan harus memberikan panduan yang lebih jelas tentang bagaimana pengungkapan harus dirancang untuk melindungi privasi pembuat konten sambil menyertakan detail yang cukup berguna dan praktis.

**Apakah pengungkapan yang terlihat membantu audiens memahami peran AI generatif? **

Meskipun tanda air yang tidak terlihat dapat melindungi privasi untuk waktu yang lama secara teknis, tanda air tersebut mungkin tidak dapat membantu pemirsa menafsirkan konten. Sementara pengungkapan langsung (seperti tanda air yang terlihat) memiliki daya tarik intuitif untuk memberikan transparansi yang lebih besar, pengungkapan semacam itu tidak selalu memiliki efek yang diinginkan, dan cenderung dianggap sebagai paternalistik, bias, dan menghukum, meskipun keaslian konten tidak disebutkan. Selain itu, pengungkapan langsung dapat disalahartikan oleh khalayak. Dalam studi saya tahun 2021, seorang peserta salah memahami label "media yang dimanipulasi" Twitter, mengira itu adalah lembaga "media" yang memanipulasinya, daripada konten video tertentu yang diedit untuk menyesatkannya. Sementara penelitian terus bermunculan tentang bagaimana desain UX yang berbeda memengaruhi persepsi pemirsa tentang pengungkapan konten, sebagian besar penelitian difokuskan di dalam perusahaan teknologi besar, dan sebagian besar dalam konteks yang beragam seperti pemilihan. Meneliti efek dari pengungkapan langsung dan pengalaman pengguna, daripada hanya mengandalkan daya tarik intuitif dari pelabelan konten yang dihasilkan AI, sangat penting untuk pengambilan keputusan yang efektif yang meningkatkan transparansi.

**Apakah memberi tanda air yang terlihat pada AIGC akan mengurangi kepercayaan orang pada konten "nyata"? **

Mungkin pertanyaan masyarakat yang paling sulit untuk dinilai adalah bagaimana pengungkapan langsung yang terkoordinasi akan memengaruhi sikap luas terhadap informasi dan berpotensi mengurangi kepercayaan pada apa yang "asli". Jika organisasi AI dan platform media sosial hanya menandai konten sebagai dibuat atau dimodifikasi oleh AI -- cara yang dapat dimengerti tetapi terbatas untuk menghindari penilaian tentang klaim mana yang menyesatkan atau berbahaya -- Bagaimana hal ini memengaruhi cara kita melihat konten secara online?

Meningkatkan literasi media melalui pengungkapan adalah tujuan mulia; namun, banyak orang yang bekerja dalam tim kebijakan di dalam dan di luar perusahaan teknologi khawatir bahwa dorongan prematur untuk melabeli semua konten yang dihasilkan akan mengarah pada "perpecahan penipu" — ketidaksetujuan masyarakat terhadap semua konten yang mungkin dapat dihasilkan oleh manusia.Skeptisisme terhadap konten yang dihasilkan oleh AI begitu nyata sehingga merusak kepercayaan pada konten asli yang tidak dihasilkan oleh AI, dan kekhawatiran tersebut dapat dimengerti. Prospek juga menyebabkan ketidakpastian tentang apakah semua penggunaan pembuatan konten AI yang tampaknya berisiko rendah – misalnya, mode potret iPhone yang bergantung pada teknologi AI, atau asisten suara yang disebutkan dalam janji Gedung Putih – akan memerlukan pengungkapan buatan. kecerdasan Keterlibatan cerdas. Bidang ini perlu bekerja sama untuk mengukur sikap jangka panjang masyarakat terhadap informasi dan menentukan kapan masuk akal untuk mengungkapkan keterlibatan AI. Yang terpenting, mereka harus menilai dampak visibilitas pengungkapan yang hanya menjelaskan bagaimana konten dibuat (mengatakan bahwa beberapa konten dibuat atau diedit oleh AI) sebagai pengganti dari apa yang benar-benar kami pedulikan: menyatakan apakah klaim konten itu benar atau salah.

Tantangan yang ditimbulkan oleh watermarking dan teknik pengungkapan lainnya tidak boleh digunakan sebagai alasan untuk tidak bertindak atau membatasi transparansi. Sebaliknya, mereka harus mendorong perusahaan, pembuat kebijakan, dan lainnya untuk bersama-sama mengembangkan definisi dan memutuskan bagaimana menilai pertukaran yang tak terhindarkan dalam implementasi. Hanya dengan begitu kebijakan AI generatif dapat secara memadai membantu audiens membedakan fakta dari fabrikasi.

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Bagikan
Komentar
0/400
Tidak ada komentar
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)