AIGC rõ ràng cần sự minh bạch, nhưng giá trị của các biện pháp như hình mờ không rõ ràng.
Vào cuối tháng 5, hình ảnh Lầu Năm Góc bốc cháy lan truyền trên mạng. Và cách đó nhiều dặm, các trợ lý và phóng viên của Nhà Trắng tranh nhau tìm xem liệu những hình ảnh tòa nhà nổ tung có phải là thật hay không.
Hóa ra những bức ảnh này được tạo ra bởi trí tuệ nhân tạo. Nhưng các quan chức chính phủ, nhà báo và các công ty công nghệ đã không thể hành động trước khi những hình ảnh đó có tác động thực sự. Điều này không chỉ tạo ra sự nhầm lẫn mà còn khiến thị trường tài chính đi xuống.
Nội dung thao túng và gây hiểu lầm không phải là một hiện tượng mới. Nhưng trí tuệ nhân tạo đang làm cho việc tạo nội dung trở nên dễ dàng hơn và thường thực tế hơn. Mặc dù AI có thể được sử dụng để cải thiện khả năng tiếp cận hoặc thể hiện nghệ thuật, nhưng nó cũng có thể bị lạm dụng để đặt câu hỏi về các sự kiện chính trị hoặc để phỉ báng, quấy rối và lợi dụng.
Cho dù để thúc đẩy tính toàn vẹn của cuộc bầu cử, bảo vệ bằng chứng, giảm thông tin sai lệch hay lưu giữ hồ sơ lịch sử, khán giả đều có thể hưởng lợi khi biết liệu nội dung có bị trí tuệ nhân tạo thao túng hoặc tạo ra hay không. Nếu hình ảnh của Lầu Năm Góc chứa các tạo tác giả do AI tạo ra, thì các nền tảng công nghệ có thể đã hành động nhanh hơn; kịp thời, họ có thể giảm mức độ lan truyền của hình ảnh hoặc gắn thẻ nội dung để khán giả có thể dễ dàng xác định hình ảnh đó là giả mạo hơn. Điều này tránh nhầm lẫn và nói rộng ra là sự biến động của thị trường.
Không còn nghi ngờ gì nữa, chúng ta cần minh bạch hơn để phân biệt giữa hàng thật và hàng giả. Tháng trước, Nhà Trắng đã cân nhắc về cách thực hiện điều này, thông báo rằng bảy trong số các công ty AI nổi tiếng nhất đã cam kết "phát triển các biện pháp kỹ thuật mạnh mẽ để đảm bảo người dùng biết nội dung nào do AI tạo ra, chẳng hạn như hình mờ".
Các phương pháp tiết lộ như hình mờ là một khởi đầu tốt. Tuy nhiên, những phương pháp này rất phức tạp trong thực tế và chúng không phải là một giải pháp nhanh chóng và hiệu quả. Không rõ liệu hình mờ có giúp người dùng Twitter xác định hình ảnh giả mạo của Lầu năm góc hay giọng nói của Trump trong một chiến dịch quảng cáo gần đây đã được tổng hợp. Và các cách tiếp cận khác, chẳng hạn như tiết lộ nguồn gốc và siêu dữ liệu, có tác động lớn hơn không? Quan trọng nhất, liệu việc tiết lộ nội dung do AI tạo ra có giúp khán giả phân biệt được sự thật với hư cấu hay giảm thiểu tác hại trong thế giới thực không?
Để trả lời những câu hỏi này, chúng ta cần làm rõ ý nghĩa của hình mờ và các loại phương pháp tiết lộ khác. Chúng ta cần hiểu rõ chúng là gì, chúng ta có thể mong đợi chúng làm gì một cách hợp lý và những vấn đề tồn tại ngay cả khi những phương pháp này được giới thiệu. Cũng giống như cuộc tranh luận về các định nghĩa, việc sử dụng rộng rãi thuật ngữ "watermarking" hiện đang gây nhầm lẫn trong lĩnh vực AI. Việc xác định ý nghĩa của những cách tiếp cận khác nhau này là điều kiện tiên quyết quan trọng để hợp tác trong lĩnh vực AI và thỏa thuận về các tiêu chuẩn tiết lộ thông tin. Nếu không, mọi người sẽ nói chuyện với nhau.
Tôi đã tận mắt chứng kiến vấn đề này khi lãnh đạo nỗ lực đa ngành của Tổ chức đối tác phi lợi nhuận về Trí tuệ nhân tạo (PAI) nhằm phát triển các hướng dẫn cho phương tiện truyền thông tổng hợp có trách nhiệm, với các tổ chức như OpenAI, Adobe, Witness, Microsoft, BBC và những tổ chức khác đã đưa ra lời hứa .
Một mặt, hình mờ có thể đề cập đến tín hiệu mà người dùng cuối có thể nhìn thấy (ví dụ: dòng chữ "Getty Images" được in trên phương tiện của nhà cung cấp hình ảnh). Tuy nhiên, nó cũng có thể đề cập đến các tín hiệu kỹ thuật được nhúng trong nội dung mà mắt thường hoặc tai không thể nhận thấy được. Cả hai loại hình mờ - được gọi là tiết lộ "trực tiếp" và "gián tiếp" - đều rất quan trọng để đảm bảo tính minh bạch. Do đó, bất kỳ cuộc thảo luận nào về những thách thức và cơ hội của thủy vân đều phải nhấn mạnh loại thủy vân nào đang được đánh giá.
Để làm phức tạp thêm vấn đề, thủy vân thường được sử dụng như một thuật ngữ "ô che" cho hành động chung cung cấp tiết lộ nội dung, mặc dù có nhiều cách tiếp cận. Đọc kỹ cam kết của Nhà Trắng cho thấy một phương pháp tiết lộ khác được gọi là "xuất xứ", dựa trên chữ ký mật mã thay vì tín hiệu vô hình. Tuy nhiên, trong các phương tiện phổ biến, điều này cũng thường được mô tả như một hình mờ. Nếu bạn thấy những thuật ngữ lộn xộn này khó hiểu, đừng lo lắng, bạn không đơn độc. Vấn đề rõ ràng: Nếu chúng ta thậm chí không thể đồng ý về cách gọi các công nghệ khác nhau, thì sẽ không có biện pháp minh bạch nhất quán và mạnh mẽ nào trong lĩnh vực AI.
Để trả lời, tôi đề xuất sáu câu hỏi sơ bộ có thể giúp chúng tôi đánh giá tiện ích của hình mờ và các phương pháp tiết lộ AI khác. Những câu hỏi này sẽ giúp đảm bảo rằng tất cả các bên đang thảo luận chính xác các vấn đề giống nhau và chúng ta có thể đánh giá từng cách tiếp cận một cách toàn diện và nhất quán.
**Bản thân hình mờ có thể bị giả mạo không? **
Trớ trêu thay, các tín hiệu kỹ thuật được quảng cáo là hữu ích trong việc đánh giá nguồn gốc của nội dung và cách nội dung đó được sửa đổi đôi khi lại có thể bị giả mạo. Mặc dù khó, nhưng cả hình mờ nhìn thấy được và không nhìn thấy được đều có thể bị xóa hoặc giả mạo. Mức độ dễ dàng mà hình mờ có thể bị giả mạo khác nhau tùy theo loại nội dung.
**Tính hợp lệ của hình mờ của các loại nội dung khác nhau có nhất quán không? **
Mặc dù hình mờ vô hình thường được quảng cáo là một giải pháp rộng rãi để xử lý trí tuệ nhân tạo tổng quát, nhưng các tín hiệu nhúng như vậy dễ dàng bị thao túng trong văn bản hơn là trong nội dung nghe nhìn. Điều đó có thể giải thích tại sao bản tóm tắt của Nhà Trắng gợi ý rằng hình mờ sẽ áp dụng cho tất cả các loại AI, nhưng nói rõ đầy đủ rằng công ty chỉ cam kết tiết lộ đối với tài liệu nghe nhìn. Do đó, khi phát triển chính sách AI, bắt buộc phải chỉ rõ mức độ khác biệt của các kỹ thuật tiết lộ chẳng hạn như hình mờ vô hình về hiệu quả và độ bền kỹ thuật rộng hơn giữa các loại nội dung. Giải pháp tiết lộ có thể hữu ích cho hình ảnh, nhưng không hữu ích cho văn bản.
**Ai có thể phát hiện ra những tín hiệu vô hình này? **
Ngay cả khi ngành công nghiệp AI đồng ý triển khai hình mờ vô hình, chắc chắn sẽ nảy sinh những câu hỏi sâu sắc hơn về việc ai có khả năng phát hiện các tín hiệu này và cuối cùng đưa ra tuyên bố có thẩm quyền dựa trên chúng. Ai có thể quyết định xem nội dung do AI tạo ra hay theo phần mở rộng, nếu nội dung đó gây hiểu lầm? Nếu mọi người có thể phát hiện hình mờ, điều này có thể khiến chúng dễ bị kẻ xấu lợi dụng. Mặt khác, việc kiểm soát quyền truy cập để phát hiện các hình mờ vô hình—đặc biệt nếu bị chi phối bởi các công ty AI lớn—có thể làm giảm tính cởi mở và tăng cường khả năng canh gác kỹ thuật. Việc thực hiện các phương pháp tiết lộ như vậy mà không xác định cách quản lý chúng có thể dẫn đến sự mất lòng tin và tính không hiệu quả của các phương pháp này. Và, nếu những công nghệ này không được áp dụng rộng rãi, những kẻ xấu có thể chuyển sang sử dụng các công nghệ nguồn mở không có hình mờ vô hình để tạo ra nội dung gây hại và gây hiểu lầm.
**Hình mờ có bảo vệ quyền riêng tư không? **
Như công việc chính của nhóm nhân quyền và công nghệ Witness đã chỉ ra, bất kỳ hệ thống theo dõi nào di chuyển theo nội dung theo thời gian đều có thể gây lo ngại về quyền riêng tư cho người tạo nội dung. Ngành công nghiệp AI phải đảm bảo rằng hình mờ và các kỹ thuật tiết lộ khác được thiết kế theo cách chúng không chứa thông tin nhận dạng có thể khiến người sáng tạo gặp rủi ro. Ví dụ: những người bảo vệ nhân quyền có thể nắm bắt được các hành vi lạm dụng thông qua các bức ảnh được đánh dấu bằng thông tin nhận dạng, khiến chúng trở thành mục tiêu dễ dàng cho các chính phủ độc tài. Ngay cả khi biết rằng một hình mờ có thể tiết lộ danh tính của một nhà hoạt động có thể có tác động đáng sợ đối với cách diễn đạt và diễn ngôn. Các nhà hoạch định chính sách phải cung cấp hướng dẫn rõ ràng hơn về cách tiết lộ thông tin nên được thiết kế để bảo vệ quyền riêng tư của người tạo nội dung đồng thời bao gồm đủ chi tiết hữu ích và thiết thực.
**Việc tiết lộ bằng hình ảnh có giúp khán giả hiểu được vai trò của trí tuệ nhân tạo không? **
Ngay cả khi hình mờ vô hình có thể bảo vệ quyền riêng tư trong một thời gian dài về mặt kỹ thuật, nó có thể không giúp khán giả diễn giải nội dung. Mặc dù tiết lộ trực tiếp (chẳng hạn như hình mờ có thể nhìn thấy) có sức hấp dẫn trực quan mang lại tính minh bạch cao hơn, nhưng những tiết lộ như vậy không nhất thiết phải có tác dụng mong muốn và chúng có xu hướng bị coi là gia trưởng, thiên vị và trừng phạt, ngay cả khi chúng. đã không được nêu ra. Ngoài ra, các tiết lộ trực tiếp có thể bị khán giả hiểu sai. Trong nghiên cứu năm 2021 của tôi, một người tham gia đã hiểu nhầm nhãn "phương tiện truyền thông bị thao túng" của Twitter, nghĩ rằng cơ sở "truyền thông" đang thao túng anh ta, chứ không phải nội dung của một video cụ thể được chỉnh sửa để đánh lừa anh ta. Mặc dù nghiên cứu tiếp tục nổi lên về cách các thiết kế UX khác nhau ảnh hưởng đến nhận thức của khán giả về việc tiết lộ nội dung, nhưng hầu hết nghiên cứu đều tập trung vào các công ty công nghệ lớn và chủ yếu trong các bối cảnh đa dạng như bầu cử. Việc xem xét tác động của việc tiết lộ trực tiếp và trải nghiệm người dùng, thay vì chỉ dựa vào sự hấp dẫn trực quan của việc gắn nhãn nội dung do AI tạo, là rất quan trọng đối với việc ra quyết định hiệu quả giúp tăng tính minh bạch.
**Liệu việc đặt hình mờ có thể nhìn thấy trên AIGC có làm giảm lòng tin của mọi người vào nội dung "thực" không? **
Có lẽ câu hỏi xã hội khó đánh giá nhất là việc công khai trực tiếp có phối hợp sẽ ảnh hưởng như thế nào đến thái độ rộng rãi đối với thông tin và có khả năng làm giảm niềm tin vào những gì là "xác thực". Nếu các tổ chức AI và nền tảng truyền thông xã hội chỉ đơn giản gắn cờ nội dung là do AI tạo hoặc sửa đổi -- một cách dễ hiểu nhưng hạn chế để tránh đưa ra phán đoán về tuyên bố nào gây hiểu lầm hoặc có hại -- Điều này ảnh hưởng như thế nào đến cách chúng ta xem nội dung trực tuyến?
Cải thiện kiến thức truyền thông thông qua tiết lộ thông tin là một nguyên nhân cao quý; tuy nhiên, nhiều người làm việc trong các nhóm chính sách bên trong và bên ngoài các công ty công nghệ lo ngại rằng việc thúc đẩy quá sớm để dán nhãn cho tất cả nội dung được tạo ra sẽ dẫn đến “sự chia rẽ giữa những kẻ gian lận” — xã hội không chấp nhận tất cả nội dung có thể Sự hoài nghi về nội dung do AI tạo ra rõ ràng đến mức nó làm suy yếu niềm tin vào nội dung xác thực không do AI tạo ra và mối lo ngại này là điều dễ hiểu. Triển vọng cũng dẫn đến sự không chắc chắn về việc liệu tất cả các cách sử dụng sáng tạo nội dung AI dường như có rủi ro thấp – ví dụ: chế độ dọc của iPhone phụ thuộc vào công nghệ AI hoặc trợ lý giọng nói được đề cập trong cam kết của Nhà Trắng – có yêu cầu tiết lộ nội dung nhân tạo hay không. trí thông minh. Sự tham gia thông minh. Lĩnh vực này cần phải làm việc cùng nhau để đo lường thái độ lâu dài của xã hội đối với thông tin và xác định khi nào nên tiết lộ sự tham gia của AI. Quan trọng nhất, họ phải đánh giá tác động về khả năng hiển thị của các tiết lộ mô tả đơn giản cách nội dung được tạo (nói rằng một số nội dung được tạo hoặc chỉnh sửa bởi AI) để thay thế cho điều chúng tôi thực sự quan tâm: nêu rõ khiếu nại nội dung là đúng hay sai.
Những thách thức đặt ra bởi thủy vân và các kỹ thuật tiết lộ khác không nên được sử dụng như một cái cớ cho việc không hành động hoặc để hạn chế tính minh bạch. Thay vào đó, họ nên thúc đẩy các công ty, nhà hoạch định chính sách và những người khác cùng nhau xây dựng các định nghĩa và quyết định cách đánh giá những đánh đổi không thể tránh khỏi trong quá trình thực hiện. Chỉ khi đó, chính sách AI sáng tạo mới có thể giúp khán giả phân biệt sự thật với sự bịa đặt một cách đầy đủ.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Dưới cơn lũ DeepFake, hình mờ có thể mang lại sự tin tưởng hơn cho AIGC không?
Được viết bởi: Claire Leibowicz
Nguồn: MIT Technology Review
Vào cuối tháng 5, hình ảnh Lầu Năm Góc bốc cháy lan truyền trên mạng. Và cách đó nhiều dặm, các trợ lý và phóng viên của Nhà Trắng tranh nhau tìm xem liệu những hình ảnh tòa nhà nổ tung có phải là thật hay không.
Hóa ra những bức ảnh này được tạo ra bởi trí tuệ nhân tạo. Nhưng các quan chức chính phủ, nhà báo và các công ty công nghệ đã không thể hành động trước khi những hình ảnh đó có tác động thực sự. Điều này không chỉ tạo ra sự nhầm lẫn mà còn khiến thị trường tài chính đi xuống.
Nội dung thao túng và gây hiểu lầm không phải là một hiện tượng mới. Nhưng trí tuệ nhân tạo đang làm cho việc tạo nội dung trở nên dễ dàng hơn và thường thực tế hơn. Mặc dù AI có thể được sử dụng để cải thiện khả năng tiếp cận hoặc thể hiện nghệ thuật, nhưng nó cũng có thể bị lạm dụng để đặt câu hỏi về các sự kiện chính trị hoặc để phỉ báng, quấy rối và lợi dụng.
Cho dù để thúc đẩy tính toàn vẹn của cuộc bầu cử, bảo vệ bằng chứng, giảm thông tin sai lệch hay lưu giữ hồ sơ lịch sử, khán giả đều có thể hưởng lợi khi biết liệu nội dung có bị trí tuệ nhân tạo thao túng hoặc tạo ra hay không. Nếu hình ảnh của Lầu Năm Góc chứa các tạo tác giả do AI tạo ra, thì các nền tảng công nghệ có thể đã hành động nhanh hơn; kịp thời, họ có thể giảm mức độ lan truyền của hình ảnh hoặc gắn thẻ nội dung để khán giả có thể dễ dàng xác định hình ảnh đó là giả mạo hơn. Điều này tránh nhầm lẫn và nói rộng ra là sự biến động của thị trường.
Không còn nghi ngờ gì nữa, chúng ta cần minh bạch hơn để phân biệt giữa hàng thật và hàng giả. Tháng trước, Nhà Trắng đã cân nhắc về cách thực hiện điều này, thông báo rằng bảy trong số các công ty AI nổi tiếng nhất đã cam kết "phát triển các biện pháp kỹ thuật mạnh mẽ để đảm bảo người dùng biết nội dung nào do AI tạo ra, chẳng hạn như hình mờ".
Các phương pháp tiết lộ như hình mờ là một khởi đầu tốt. Tuy nhiên, những phương pháp này rất phức tạp trong thực tế và chúng không phải là một giải pháp nhanh chóng và hiệu quả. Không rõ liệu hình mờ có giúp người dùng Twitter xác định hình ảnh giả mạo của Lầu năm góc hay giọng nói của Trump trong một chiến dịch quảng cáo gần đây đã được tổng hợp. Và các cách tiếp cận khác, chẳng hạn như tiết lộ nguồn gốc và siêu dữ liệu, có tác động lớn hơn không? Quan trọng nhất, liệu việc tiết lộ nội dung do AI tạo ra có giúp khán giả phân biệt được sự thật với hư cấu hay giảm thiểu tác hại trong thế giới thực không?
Để trả lời những câu hỏi này, chúng ta cần làm rõ ý nghĩa của hình mờ và các loại phương pháp tiết lộ khác. Chúng ta cần hiểu rõ chúng là gì, chúng ta có thể mong đợi chúng làm gì một cách hợp lý và những vấn đề tồn tại ngay cả khi những phương pháp này được giới thiệu. Cũng giống như cuộc tranh luận về các định nghĩa, việc sử dụng rộng rãi thuật ngữ "watermarking" hiện đang gây nhầm lẫn trong lĩnh vực AI. Việc xác định ý nghĩa của những cách tiếp cận khác nhau này là điều kiện tiên quyết quan trọng để hợp tác trong lĩnh vực AI và thỏa thuận về các tiêu chuẩn tiết lộ thông tin. Nếu không, mọi người sẽ nói chuyện với nhau.
Tôi đã tận mắt chứng kiến vấn đề này khi lãnh đạo nỗ lực đa ngành của Tổ chức đối tác phi lợi nhuận về Trí tuệ nhân tạo (PAI) nhằm phát triển các hướng dẫn cho phương tiện truyền thông tổng hợp có trách nhiệm, với các tổ chức như OpenAI, Adobe, Witness, Microsoft, BBC và những tổ chức khác đã đưa ra lời hứa .
Một mặt, hình mờ có thể đề cập đến tín hiệu mà người dùng cuối có thể nhìn thấy (ví dụ: dòng chữ "Getty Images" được in trên phương tiện của nhà cung cấp hình ảnh). Tuy nhiên, nó cũng có thể đề cập đến các tín hiệu kỹ thuật được nhúng trong nội dung mà mắt thường hoặc tai không thể nhận thấy được. Cả hai loại hình mờ - được gọi là tiết lộ "trực tiếp" và "gián tiếp" - đều rất quan trọng để đảm bảo tính minh bạch. Do đó, bất kỳ cuộc thảo luận nào về những thách thức và cơ hội của thủy vân đều phải nhấn mạnh loại thủy vân nào đang được đánh giá.
Để làm phức tạp thêm vấn đề, thủy vân thường được sử dụng như một thuật ngữ "ô che" cho hành động chung cung cấp tiết lộ nội dung, mặc dù có nhiều cách tiếp cận. Đọc kỹ cam kết của Nhà Trắng cho thấy một phương pháp tiết lộ khác được gọi là "xuất xứ", dựa trên chữ ký mật mã thay vì tín hiệu vô hình. Tuy nhiên, trong các phương tiện phổ biến, điều này cũng thường được mô tả như một hình mờ. Nếu bạn thấy những thuật ngữ lộn xộn này khó hiểu, đừng lo lắng, bạn không đơn độc. Vấn đề rõ ràng: Nếu chúng ta thậm chí không thể đồng ý về cách gọi các công nghệ khác nhau, thì sẽ không có biện pháp minh bạch nhất quán và mạnh mẽ nào trong lĩnh vực AI.
Để trả lời, tôi đề xuất sáu câu hỏi sơ bộ có thể giúp chúng tôi đánh giá tiện ích của hình mờ và các phương pháp tiết lộ AI khác. Những câu hỏi này sẽ giúp đảm bảo rằng tất cả các bên đang thảo luận chính xác các vấn đề giống nhau và chúng ta có thể đánh giá từng cách tiếp cận một cách toàn diện và nhất quán.
**Bản thân hình mờ có thể bị giả mạo không? **
Trớ trêu thay, các tín hiệu kỹ thuật được quảng cáo là hữu ích trong việc đánh giá nguồn gốc của nội dung và cách nội dung đó được sửa đổi đôi khi lại có thể bị giả mạo. Mặc dù khó, nhưng cả hình mờ nhìn thấy được và không nhìn thấy được đều có thể bị xóa hoặc giả mạo. Mức độ dễ dàng mà hình mờ có thể bị giả mạo khác nhau tùy theo loại nội dung.
**Tính hợp lệ của hình mờ của các loại nội dung khác nhau có nhất quán không? **
Mặc dù hình mờ vô hình thường được quảng cáo là một giải pháp rộng rãi để xử lý trí tuệ nhân tạo tổng quát, nhưng các tín hiệu nhúng như vậy dễ dàng bị thao túng trong văn bản hơn là trong nội dung nghe nhìn. Điều đó có thể giải thích tại sao bản tóm tắt của Nhà Trắng gợi ý rằng hình mờ sẽ áp dụng cho tất cả các loại AI, nhưng nói rõ đầy đủ rằng công ty chỉ cam kết tiết lộ đối với tài liệu nghe nhìn. Do đó, khi phát triển chính sách AI, bắt buộc phải chỉ rõ mức độ khác biệt của các kỹ thuật tiết lộ chẳng hạn như hình mờ vô hình về hiệu quả và độ bền kỹ thuật rộng hơn giữa các loại nội dung. Giải pháp tiết lộ có thể hữu ích cho hình ảnh, nhưng không hữu ích cho văn bản.
**Ai có thể phát hiện ra những tín hiệu vô hình này? **
Ngay cả khi ngành công nghiệp AI đồng ý triển khai hình mờ vô hình, chắc chắn sẽ nảy sinh những câu hỏi sâu sắc hơn về việc ai có khả năng phát hiện các tín hiệu này và cuối cùng đưa ra tuyên bố có thẩm quyền dựa trên chúng. Ai có thể quyết định xem nội dung do AI tạo ra hay theo phần mở rộng, nếu nội dung đó gây hiểu lầm? Nếu mọi người có thể phát hiện hình mờ, điều này có thể khiến chúng dễ bị kẻ xấu lợi dụng. Mặt khác, việc kiểm soát quyền truy cập để phát hiện các hình mờ vô hình—đặc biệt nếu bị chi phối bởi các công ty AI lớn—có thể làm giảm tính cởi mở và tăng cường khả năng canh gác kỹ thuật. Việc thực hiện các phương pháp tiết lộ như vậy mà không xác định cách quản lý chúng có thể dẫn đến sự mất lòng tin và tính không hiệu quả của các phương pháp này. Và, nếu những công nghệ này không được áp dụng rộng rãi, những kẻ xấu có thể chuyển sang sử dụng các công nghệ nguồn mở không có hình mờ vô hình để tạo ra nội dung gây hại và gây hiểu lầm.
**Hình mờ có bảo vệ quyền riêng tư không? **
Như công việc chính của nhóm nhân quyền và công nghệ Witness đã chỉ ra, bất kỳ hệ thống theo dõi nào di chuyển theo nội dung theo thời gian đều có thể gây lo ngại về quyền riêng tư cho người tạo nội dung. Ngành công nghiệp AI phải đảm bảo rằng hình mờ và các kỹ thuật tiết lộ khác được thiết kế theo cách chúng không chứa thông tin nhận dạng có thể khiến người sáng tạo gặp rủi ro. Ví dụ: những người bảo vệ nhân quyền có thể nắm bắt được các hành vi lạm dụng thông qua các bức ảnh được đánh dấu bằng thông tin nhận dạng, khiến chúng trở thành mục tiêu dễ dàng cho các chính phủ độc tài. Ngay cả khi biết rằng một hình mờ có thể tiết lộ danh tính của một nhà hoạt động có thể có tác động đáng sợ đối với cách diễn đạt và diễn ngôn. Các nhà hoạch định chính sách phải cung cấp hướng dẫn rõ ràng hơn về cách tiết lộ thông tin nên được thiết kế để bảo vệ quyền riêng tư của người tạo nội dung đồng thời bao gồm đủ chi tiết hữu ích và thiết thực.
**Việc tiết lộ bằng hình ảnh có giúp khán giả hiểu được vai trò của trí tuệ nhân tạo không? **
Ngay cả khi hình mờ vô hình có thể bảo vệ quyền riêng tư trong một thời gian dài về mặt kỹ thuật, nó có thể không giúp khán giả diễn giải nội dung. Mặc dù tiết lộ trực tiếp (chẳng hạn như hình mờ có thể nhìn thấy) có sức hấp dẫn trực quan mang lại tính minh bạch cao hơn, nhưng những tiết lộ như vậy không nhất thiết phải có tác dụng mong muốn và chúng có xu hướng bị coi là gia trưởng, thiên vị và trừng phạt, ngay cả khi chúng. đã không được nêu ra. Ngoài ra, các tiết lộ trực tiếp có thể bị khán giả hiểu sai. Trong nghiên cứu năm 2021 của tôi, một người tham gia đã hiểu nhầm nhãn "phương tiện truyền thông bị thao túng" của Twitter, nghĩ rằng cơ sở "truyền thông" đang thao túng anh ta, chứ không phải nội dung của một video cụ thể được chỉnh sửa để đánh lừa anh ta. Mặc dù nghiên cứu tiếp tục nổi lên về cách các thiết kế UX khác nhau ảnh hưởng đến nhận thức của khán giả về việc tiết lộ nội dung, nhưng hầu hết nghiên cứu đều tập trung vào các công ty công nghệ lớn và chủ yếu trong các bối cảnh đa dạng như bầu cử. Việc xem xét tác động của việc tiết lộ trực tiếp và trải nghiệm người dùng, thay vì chỉ dựa vào sự hấp dẫn trực quan của việc gắn nhãn nội dung do AI tạo, là rất quan trọng đối với việc ra quyết định hiệu quả giúp tăng tính minh bạch.
**Liệu việc đặt hình mờ có thể nhìn thấy trên AIGC có làm giảm lòng tin của mọi người vào nội dung "thực" không? **
Có lẽ câu hỏi xã hội khó đánh giá nhất là việc công khai trực tiếp có phối hợp sẽ ảnh hưởng như thế nào đến thái độ rộng rãi đối với thông tin và có khả năng làm giảm niềm tin vào những gì là "xác thực". Nếu các tổ chức AI và nền tảng truyền thông xã hội chỉ đơn giản gắn cờ nội dung là do AI tạo hoặc sửa đổi -- một cách dễ hiểu nhưng hạn chế để tránh đưa ra phán đoán về tuyên bố nào gây hiểu lầm hoặc có hại -- Điều này ảnh hưởng như thế nào đến cách chúng ta xem nội dung trực tuyến?
Cải thiện kiến thức truyền thông thông qua tiết lộ thông tin là một nguyên nhân cao quý; tuy nhiên, nhiều người làm việc trong các nhóm chính sách bên trong và bên ngoài các công ty công nghệ lo ngại rằng việc thúc đẩy quá sớm để dán nhãn cho tất cả nội dung được tạo ra sẽ dẫn đến “sự chia rẽ giữa những kẻ gian lận” — xã hội không chấp nhận tất cả nội dung có thể Sự hoài nghi về nội dung do AI tạo ra rõ ràng đến mức nó làm suy yếu niềm tin vào nội dung xác thực không do AI tạo ra và mối lo ngại này là điều dễ hiểu. Triển vọng cũng dẫn đến sự không chắc chắn về việc liệu tất cả các cách sử dụng sáng tạo nội dung AI dường như có rủi ro thấp – ví dụ: chế độ dọc của iPhone phụ thuộc vào công nghệ AI hoặc trợ lý giọng nói được đề cập trong cam kết của Nhà Trắng – có yêu cầu tiết lộ nội dung nhân tạo hay không. trí thông minh. Sự tham gia thông minh. Lĩnh vực này cần phải làm việc cùng nhau để đo lường thái độ lâu dài của xã hội đối với thông tin và xác định khi nào nên tiết lộ sự tham gia của AI. Quan trọng nhất, họ phải đánh giá tác động về khả năng hiển thị của các tiết lộ mô tả đơn giản cách nội dung được tạo (nói rằng một số nội dung được tạo hoặc chỉnh sửa bởi AI) để thay thế cho điều chúng tôi thực sự quan tâm: nêu rõ khiếu nại nội dung là đúng hay sai.
Những thách thức đặt ra bởi thủy vân và các kỹ thuật tiết lộ khác không nên được sử dụng như một cái cớ cho việc không hành động hoặc để hạn chế tính minh bạch. Thay vào đó, họ nên thúc đẩy các công ty, nhà hoạch định chính sách và những người khác cùng nhau xây dựng các định nghĩa và quyết định cách đánh giá những đánh đổi không thể tránh khỏi trong quá trình thực hiện. Chỉ khi đó, chính sách AI sáng tạo mới có thể giúp khán giả phân biệt sự thật với sự bịa đặt một cách đầy đủ.