Fonte da imagem: Gerada pela ferramenta Unbounded AI
O AIGC claramente precisa de transparência, mas o valor de medidas como marcas d'água não é óbvio.
No final de maio, as imagens do Pentágono em chamas se tornaram virais. E a quilômetros de distância, assessores e repórteres da Casa Branca lutavam para descobrir se as imagens do prédio explodindo eram reais.
Acontece que essas imagens foram geradas por inteligência artificial. Mas funcionários do governo, jornalistas e empresas de tecnologia não conseguiram agir antes que as imagens tivessem um impacto real. Isso não apenas criou confusão, mas também derrubou os mercados financeiros.
Conteúdo manipulador e enganoso não é um fenômeno novo. Mas a inteligência artificial está tornando a criação de conteúdo mais fácil e muitas vezes mais realista. Embora a IA possa ser usada para expressão artística ou melhorias de acessibilidade, ela também pode ser mal utilizada para questionar eventos políticos ou para difamar, assediar e explorar.
Seja para promover a integridade eleitoral, proteger evidências, reduzir a desinformação ou preservar registros históricos, o público pode se beneficiar ao saber se o conteúdo foi manipulado ou gerado por inteligência artificial. Se a imagem do Pentágono contivesse artefatos gerados por IA, as plataformas de tecnologia poderiam ter agido mais rapidamente; eles poderiam ter reduzido a propagação da imagem no tempo ou marcado o conteúdo para que o público pudesse identificar mais facilmente a imagem como falsa. Isso evita confusão e, por extensão, a volatilidade do mercado.
Não há dúvida de que precisamos de mais transparência para distinguir entre o real e o falso. No mês passado, a Casa Branca avaliou como isso poderia ser feito, anunciando que sete das empresas de IA mais proeminentes se comprometeram a "desenvolver medidas técnicas robustas para garantir que os usuários saibam qual conteúdo é gerado por IA, como marcas d'água".
Métodos de divulgação, como marcas d'água, são um bom começo. No entanto, esses métodos são complicados na prática e não são uma solução rápida e eficaz. Não está claro se a marca d'água teria ajudado os usuários do Twitter a identificar uma imagem falsa do Pentágono ou se a voz de Trump em uma recente campanha publicitária foi sintetizada. E outras abordagens, como divulgação de proveniência e metadados, têm um impacto maior? Mais importante ainda, a simples divulgação de que o conteúdo é gerado por IA ajuda o público a distinguir o fato da ficção ou a mitigar os danos no mundo real?
Para responder a essas perguntas, precisamos esclarecer o que significa marcas d'água e outros tipos de métodos de divulgação. Precisamos ser claros sobre o que são, o que podemos razoavelmente esperar que façam e quais problemas existem mesmo se esses métodos forem introduzidos. Por mais pedante que pareça o debate sobre as definições, o uso generalizado do termo "marca d'água" está causando confusão no campo da IA. Definir o que essas diferentes abordagens significam é um pré-requisito importante para a colaboração no campo da IA e o acordo sobre os padrões de divulgação. Caso contrário, as pessoas vão falar umas com as outras.
Eu vi esse problema em primeira mão enquanto liderava o esforço multissetorial sem fins lucrativos Partnership on Artificial Intelligence (PAI) para desenvolver diretrizes para mídia sintética responsável, com organizações como OpenAI, Adobe, Witness, Microsoft, BBC e outras fizeram uma promessa .
Por um lado, uma marca d'água pode se referir a um sinal visível para o usuário final (por exemplo, as palavras "Getty Images" impressas na mídia de um provedor de imagens). No entanto, também pode se referir a sinais técnicos embutidos no conteúdo que são imperceptíveis a olho nu ou ouvido. Ambos os tipos de marcas d'água - conhecidos como divulgações "diretas" e "indiretas" - são essenciais para garantir a transparência. Portanto, qualquer discussão sobre os desafios e oportunidades da marca d'água deve enfatizar qual tipo de marca d'água está sendo avaliado.
Para complicar ainda mais as coisas, a marca d'água costuma ser usada como um termo "guarda-chuva" para o ato geral de fornecer divulgação de conteúdo, embora existam muitas abordagens. Uma leitura atenta da promessa da Casa Branca revela outro método de divulgação conhecido como "origem", que se baseia em assinaturas criptográficas em vez de sinais invisíveis. No entanto, na mídia popular, isso também é frequentemente descrito como uma marca d'água. Se você achar confusos esses termos confusos, não se preocupe, você não está sozinho. Clareza é importante: se não conseguirmos concordar sobre como chamar as diferentes tecnologias, não haverá medidas de transparência consistentes e robustas no campo da IA.
Em resposta, proponho seis perguntas preliminares que podem nos ajudar a avaliar a utilidade da marca d'água e outros métodos de divulgação de IA. Essas perguntas devem ajudar a garantir que todas as partes estejam discutindo exatamente as mesmas questões e que possamos avaliar cada abordagem de maneira abrangente e consistente.
**A própria marca d'água pode ser adulterada? **
Ironicamente, os sinais técnicos apresentados como úteis para avaliar a origem do conteúdo e como ele foi modificado podem, às vezes, ser adulterados. Embora difíceis, marcas d'água invisíveis e visíveis podem ser removidas ou adulteradas. A facilidade com que as marcas d'água podem ser adulteradas varia de acordo com o tipo de conteúdo.
**A validade da marca d'água de diferentes tipos de conteúdo é consistente? **
Embora a marca d'água invisível seja frequentemente anunciada como uma solução ampla para lidar com inteligência artificial generativa, esses sinais incorporados são mais facilmente manipulados em texto do que em conteúdo audiovisual. Isso provavelmente explica por que o resumo da Casa Branca sugere que a marca d'água se aplicará a todos os tipos de IA, mas deixa claro que a empresa só está se comprometendo a divulgar material audiovisual. Portanto, ao desenvolver a política de IA, é imperativo especificar como as técnicas de divulgação, como marcas d'água invisíveis, variam em sua eficácia e robustez técnica mais ampla entre os tipos de conteúdo. Uma solução de divulgação pode ser útil para imagens, mas não para texto.
**Quem pode detectar esses sinais invisíveis? **
Mesmo que a indústria de IA concorde em implementar marcas d'água invisíveis, inevitavelmente surgem questões mais profundas sobre quem tem a capacidade de detectar esses sinais e, finalmente, fazer reivindicações de autoridade com base neles. Quem decide se o conteúdo é gerado por IA ou, por extensão, se o conteúdo é enganoso? Se todos pudessem detectar marcas d'água, isso poderia torná-los vulneráveis ao uso indevido pelos bandidos. Por outro lado, controlar o acesso para detectar marcas d'água invisíveis – especialmente se dominadas por grandes empresas de IA – pode reduzir a abertura e fortalecer o controle técnico. A implementação de tais métodos de divulgação sem determinar como gerenciá-los pode levar à desconfiança e à ineficácia desses métodos. E, se essas tecnologias não forem amplamente adotadas, os malfeitores podem recorrer a tecnologias de código aberto que não possuem marcas d'água invisíveis para criar conteúdo prejudicial e enganoso.
**As marcas d'água protegem a privacidade? **
Como mostrou o importante trabalho do grupo de direitos humanos e tecnologia Witness, qualquer sistema de rastreamento que viaje com o conteúdo ao longo do tempo pode levantar questões de privacidade para os criadores de conteúdo. A indústria de IA deve garantir que as marcas d'água e outras técnicas de divulgação sejam projetadas de forma que não contenham informações de identificação que possam colocar os criadores em risco. Por exemplo, os defensores dos direitos humanos podem capturar abusos por meio de fotos com marcas d'água com informações de identificação, tornando-os alvos fáceis para governos autoritários. Mesmo saber que uma marca d'água pode revelar a identidade de um ativista pode ter um efeito assustador na expressão e no discurso. Os formuladores de políticas devem fornecer orientações mais claras sobre como as divulgações devem ser projetadas para proteger a privacidade dos criadores de conteúdo, incluindo detalhes úteis e práticos suficientes.
**As divulgações visíveis ajudam o público a entender o papel da IA generativa? **
Mesmo que a marca d'água invisível possa proteger tecnicamente a privacidade por muito tempo, ela pode não ser capaz de ajudar o público a interpretar o conteúdo. Embora as divulgações diretas (como marcas d'água visíveis) tenham o apelo intuitivo de fornecer maior transparência, essas divulgações não têm necessariamente o efeito desejado e tendem a ser percebidas como paternalistas, tendenciosas e punitivas, mesmo que a autenticidade do conteúdo não foi declarado. Além disso, divulgações diretas podem ser mal interpretadas pelo público. Em meu estudo de 2021, um participante interpretou mal o rótulo de "mídia manipulada" do Twitter, pensando que era o estabelecimento da "mídia" que o manipulava, em vez do conteúdo de um vídeo específico sendo editado para enganá-lo. Embora a pesquisa continue a surgir sobre como diferentes designs de UX afetam as percepções do público sobre a divulgação de conteúdo, a maior parte da pesquisa se concentrou em grandes empresas de tecnologia e, principalmente, em contextos tão diversos quanto eleições. Examinar os efeitos da divulgação direta e da experiência do usuário, em vez de confiar apenas no apelo intuitivo de rotular o conteúdo gerado por IA, é fundamental para uma tomada de decisão eficaz que aumenta a transparência.
**Colocar uma marca d'água visível no AIGC reduziria a confiança das pessoas no conteúdo "real"? **
Talvez a questão social mais difícil de avaliar seja como a divulgação direta coordenada afetará atitudes amplas em relação à informação e potencialmente reduzirá a confiança no que é "autêntico". Se as organizações de IA e as plataformas de mídia social simplesmente sinalizam o conteúdo como gerado ou modificado por IA – uma maneira compreensível, mas limitada, de evitar julgamentos sobre quais alegações são enganosas ou prejudiciais – como isso afeta a maneira como vemos o conteúdo online?
Melhorar a alfabetização midiática por meio da divulgação é uma causa nobre; no entanto, muitos que trabalham em equipes de políticas dentro e fora de empresas de tecnologia temem que um esforço prematuro para rotular todo o conteúdo gerado leve a uma “divisão trapaceira” — a desaprovação da sociedade de todo conteúdo que possa ser gerado por humanos. O ceticismo do conteúdo gerado por IA é tão pronunciado que mina a confiança em conteúdo autêntico não gerado por IA, e a preocupação é compreensível. A perspectiva também gerou incerteza sobre se todos os usos aparentemente de baixo risco da criação de conteúdo de IA - por exemplo, a dependência do modo retrato do iPhone na tecnologia de IA ou o assistente de voz mencionado na promessa da Casa Branca - exigiriam a divulgação de informações artificiais inteligência Engajamento inteligente. O campo precisa trabalhar em conjunto para medir as atitudes de longo prazo da sociedade em relação à informação e determinar quando faz sentido divulgar o envolvimento da IA. Mais importante ainda, eles devem avaliar o impacto da visibilidade de divulgações que simplesmente descrevem como o conteúdo foi criado (dizendo que algum conteúdo foi gerado ou editado por IA) como um substituto para o que realmente importa: declarar se uma reivindicação de conteúdo é verdadeira ou falsa.
Os desafios impostos pela marca d'água e outras técnicas de divulgação não devem ser usados como desculpa para a inação ou para limitar a transparência. Em vez disso, eles devem pressionar empresas, formuladores de políticas e outros a se unirem para desenvolver definições e decidir como avaliar os inevitáveis trade-offs na implementação. Só então a política de IA generativa pode ajudar adequadamente o público a distinguir o fato da fabricação.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
Sob a enxurrada de DeepFake, as marcas d'água podem trazer mais confiança ao AIGC?
Escrito por: Claire Leibowicz
Fonte: Revisão de Tecnologia do MIT
No final de maio, as imagens do Pentágono em chamas se tornaram virais. E a quilômetros de distância, assessores e repórteres da Casa Branca lutavam para descobrir se as imagens do prédio explodindo eram reais.
Acontece que essas imagens foram geradas por inteligência artificial. Mas funcionários do governo, jornalistas e empresas de tecnologia não conseguiram agir antes que as imagens tivessem um impacto real. Isso não apenas criou confusão, mas também derrubou os mercados financeiros.
Conteúdo manipulador e enganoso não é um fenômeno novo. Mas a inteligência artificial está tornando a criação de conteúdo mais fácil e muitas vezes mais realista. Embora a IA possa ser usada para expressão artística ou melhorias de acessibilidade, ela também pode ser mal utilizada para questionar eventos políticos ou para difamar, assediar e explorar.
Seja para promover a integridade eleitoral, proteger evidências, reduzir a desinformação ou preservar registros históricos, o público pode se beneficiar ao saber se o conteúdo foi manipulado ou gerado por inteligência artificial. Se a imagem do Pentágono contivesse artefatos gerados por IA, as plataformas de tecnologia poderiam ter agido mais rapidamente; eles poderiam ter reduzido a propagação da imagem no tempo ou marcado o conteúdo para que o público pudesse identificar mais facilmente a imagem como falsa. Isso evita confusão e, por extensão, a volatilidade do mercado.
Não há dúvida de que precisamos de mais transparência para distinguir entre o real e o falso. No mês passado, a Casa Branca avaliou como isso poderia ser feito, anunciando que sete das empresas de IA mais proeminentes se comprometeram a "desenvolver medidas técnicas robustas para garantir que os usuários saibam qual conteúdo é gerado por IA, como marcas d'água".
Métodos de divulgação, como marcas d'água, são um bom começo. No entanto, esses métodos são complicados na prática e não são uma solução rápida e eficaz. Não está claro se a marca d'água teria ajudado os usuários do Twitter a identificar uma imagem falsa do Pentágono ou se a voz de Trump em uma recente campanha publicitária foi sintetizada. E outras abordagens, como divulgação de proveniência e metadados, têm um impacto maior? Mais importante ainda, a simples divulgação de que o conteúdo é gerado por IA ajuda o público a distinguir o fato da ficção ou a mitigar os danos no mundo real?
Para responder a essas perguntas, precisamos esclarecer o que significa marcas d'água e outros tipos de métodos de divulgação. Precisamos ser claros sobre o que são, o que podemos razoavelmente esperar que façam e quais problemas existem mesmo se esses métodos forem introduzidos. Por mais pedante que pareça o debate sobre as definições, o uso generalizado do termo "marca d'água" está causando confusão no campo da IA. Definir o que essas diferentes abordagens significam é um pré-requisito importante para a colaboração no campo da IA e o acordo sobre os padrões de divulgação. Caso contrário, as pessoas vão falar umas com as outras.
Eu vi esse problema em primeira mão enquanto liderava o esforço multissetorial sem fins lucrativos Partnership on Artificial Intelligence (PAI) para desenvolver diretrizes para mídia sintética responsável, com organizações como OpenAI, Adobe, Witness, Microsoft, BBC e outras fizeram uma promessa .
Por um lado, uma marca d'água pode se referir a um sinal visível para o usuário final (por exemplo, as palavras "Getty Images" impressas na mídia de um provedor de imagens). No entanto, também pode se referir a sinais técnicos embutidos no conteúdo que são imperceptíveis a olho nu ou ouvido. Ambos os tipos de marcas d'água - conhecidos como divulgações "diretas" e "indiretas" - são essenciais para garantir a transparência. Portanto, qualquer discussão sobre os desafios e oportunidades da marca d'água deve enfatizar qual tipo de marca d'água está sendo avaliado.
Para complicar ainda mais as coisas, a marca d'água costuma ser usada como um termo "guarda-chuva" para o ato geral de fornecer divulgação de conteúdo, embora existam muitas abordagens. Uma leitura atenta da promessa da Casa Branca revela outro método de divulgação conhecido como "origem", que se baseia em assinaturas criptográficas em vez de sinais invisíveis. No entanto, na mídia popular, isso também é frequentemente descrito como uma marca d'água. Se você achar confusos esses termos confusos, não se preocupe, você não está sozinho. Clareza é importante: se não conseguirmos concordar sobre como chamar as diferentes tecnologias, não haverá medidas de transparência consistentes e robustas no campo da IA.
Em resposta, proponho seis perguntas preliminares que podem nos ajudar a avaliar a utilidade da marca d'água e outros métodos de divulgação de IA. Essas perguntas devem ajudar a garantir que todas as partes estejam discutindo exatamente as mesmas questões e que possamos avaliar cada abordagem de maneira abrangente e consistente.
**A própria marca d'água pode ser adulterada? **
Ironicamente, os sinais técnicos apresentados como úteis para avaliar a origem do conteúdo e como ele foi modificado podem, às vezes, ser adulterados. Embora difíceis, marcas d'água invisíveis e visíveis podem ser removidas ou adulteradas. A facilidade com que as marcas d'água podem ser adulteradas varia de acordo com o tipo de conteúdo.
**A validade da marca d'água de diferentes tipos de conteúdo é consistente? **
Embora a marca d'água invisível seja frequentemente anunciada como uma solução ampla para lidar com inteligência artificial generativa, esses sinais incorporados são mais facilmente manipulados em texto do que em conteúdo audiovisual. Isso provavelmente explica por que o resumo da Casa Branca sugere que a marca d'água se aplicará a todos os tipos de IA, mas deixa claro que a empresa só está se comprometendo a divulgar material audiovisual. Portanto, ao desenvolver a política de IA, é imperativo especificar como as técnicas de divulgação, como marcas d'água invisíveis, variam em sua eficácia e robustez técnica mais ampla entre os tipos de conteúdo. Uma solução de divulgação pode ser útil para imagens, mas não para texto.
**Quem pode detectar esses sinais invisíveis? **
Mesmo que a indústria de IA concorde em implementar marcas d'água invisíveis, inevitavelmente surgem questões mais profundas sobre quem tem a capacidade de detectar esses sinais e, finalmente, fazer reivindicações de autoridade com base neles. Quem decide se o conteúdo é gerado por IA ou, por extensão, se o conteúdo é enganoso? Se todos pudessem detectar marcas d'água, isso poderia torná-los vulneráveis ao uso indevido pelos bandidos. Por outro lado, controlar o acesso para detectar marcas d'água invisíveis – especialmente se dominadas por grandes empresas de IA – pode reduzir a abertura e fortalecer o controle técnico. A implementação de tais métodos de divulgação sem determinar como gerenciá-los pode levar à desconfiança e à ineficácia desses métodos. E, se essas tecnologias não forem amplamente adotadas, os malfeitores podem recorrer a tecnologias de código aberto que não possuem marcas d'água invisíveis para criar conteúdo prejudicial e enganoso.
**As marcas d'água protegem a privacidade? **
Como mostrou o importante trabalho do grupo de direitos humanos e tecnologia Witness, qualquer sistema de rastreamento que viaje com o conteúdo ao longo do tempo pode levantar questões de privacidade para os criadores de conteúdo. A indústria de IA deve garantir que as marcas d'água e outras técnicas de divulgação sejam projetadas de forma que não contenham informações de identificação que possam colocar os criadores em risco. Por exemplo, os defensores dos direitos humanos podem capturar abusos por meio de fotos com marcas d'água com informações de identificação, tornando-os alvos fáceis para governos autoritários. Mesmo saber que uma marca d'água pode revelar a identidade de um ativista pode ter um efeito assustador na expressão e no discurso. Os formuladores de políticas devem fornecer orientações mais claras sobre como as divulgações devem ser projetadas para proteger a privacidade dos criadores de conteúdo, incluindo detalhes úteis e práticos suficientes.
**As divulgações visíveis ajudam o público a entender o papel da IA generativa? **
Mesmo que a marca d'água invisível possa proteger tecnicamente a privacidade por muito tempo, ela pode não ser capaz de ajudar o público a interpretar o conteúdo. Embora as divulgações diretas (como marcas d'água visíveis) tenham o apelo intuitivo de fornecer maior transparência, essas divulgações não têm necessariamente o efeito desejado e tendem a ser percebidas como paternalistas, tendenciosas e punitivas, mesmo que a autenticidade do conteúdo não foi declarado. Além disso, divulgações diretas podem ser mal interpretadas pelo público. Em meu estudo de 2021, um participante interpretou mal o rótulo de "mídia manipulada" do Twitter, pensando que era o estabelecimento da "mídia" que o manipulava, em vez do conteúdo de um vídeo específico sendo editado para enganá-lo. Embora a pesquisa continue a surgir sobre como diferentes designs de UX afetam as percepções do público sobre a divulgação de conteúdo, a maior parte da pesquisa se concentrou em grandes empresas de tecnologia e, principalmente, em contextos tão diversos quanto eleições. Examinar os efeitos da divulgação direta e da experiência do usuário, em vez de confiar apenas no apelo intuitivo de rotular o conteúdo gerado por IA, é fundamental para uma tomada de decisão eficaz que aumenta a transparência.
**Colocar uma marca d'água visível no AIGC reduziria a confiança das pessoas no conteúdo "real"? **
Talvez a questão social mais difícil de avaliar seja como a divulgação direta coordenada afetará atitudes amplas em relação à informação e potencialmente reduzirá a confiança no que é "autêntico". Se as organizações de IA e as plataformas de mídia social simplesmente sinalizam o conteúdo como gerado ou modificado por IA – uma maneira compreensível, mas limitada, de evitar julgamentos sobre quais alegações são enganosas ou prejudiciais – como isso afeta a maneira como vemos o conteúdo online?
Melhorar a alfabetização midiática por meio da divulgação é uma causa nobre; no entanto, muitos que trabalham em equipes de políticas dentro e fora de empresas de tecnologia temem que um esforço prematuro para rotular todo o conteúdo gerado leve a uma “divisão trapaceira” — a desaprovação da sociedade de todo conteúdo que possa ser gerado por humanos. O ceticismo do conteúdo gerado por IA é tão pronunciado que mina a confiança em conteúdo autêntico não gerado por IA, e a preocupação é compreensível. A perspectiva também gerou incerteza sobre se todos os usos aparentemente de baixo risco da criação de conteúdo de IA - por exemplo, a dependência do modo retrato do iPhone na tecnologia de IA ou o assistente de voz mencionado na promessa da Casa Branca - exigiriam a divulgação de informações artificiais inteligência Engajamento inteligente. O campo precisa trabalhar em conjunto para medir as atitudes de longo prazo da sociedade em relação à informação e determinar quando faz sentido divulgar o envolvimento da IA. Mais importante ainda, eles devem avaliar o impacto da visibilidade de divulgações que simplesmente descrevem como o conteúdo foi criado (dizendo que algum conteúdo foi gerado ou editado por IA) como um substituto para o que realmente importa: declarar se uma reivindicação de conteúdo é verdadeira ou falsa.
Os desafios impostos pela marca d'água e outras técnicas de divulgação não devem ser usados como desculpa para a inação ou para limitar a transparência. Em vez disso, eles devem pressionar empresas, formuladores de políticas e outros a se unirem para desenvolver definições e decidir como avaliar os inevitáveis trade-offs na implementação. Só então a política de IA generativa pode ajudar adequadamente o público a distinguir o fato da fabricação.