Source de l'image : générée par l'outil d'IA illimitée
L'AIGC a clairement besoin de transparence, mais la valeur de mesures telles que les filigranes n'est pas évidente.
Fin mai, les images du Pentagone en feu sont devenues virales. Et à des kilomètres de là, les assistants et les journalistes de la Maison Blanche se sont précipités pour déterminer si les images de l'explosion du bâtiment étaient réelles.
Il s'avère que ces images ont été générées par l'intelligence artificielle. Mais les responsables gouvernementaux, les journalistes et les entreprises technologiques n'ont pas pu agir avant que les images n'aient un impact réel. Non seulement cela a créé de la confusion, mais cela a également fait chuter les marchés financiers.
Le contenu manipulateur et trompeur n'est pas un phénomène nouveau. Mais l'intelligence artificielle rend la création de contenu plus facile et souvent plus réaliste. Bien que l'IA puisse être utilisée pour l'expression artistique ou l'amélioration de l'accessibilité, elle peut également être utilisée à mauvais escient pour remettre en question des événements politiques ou pour diffamer, harceler et exploiter.
Qu'il s'agisse de promouvoir l'intégrité des élections, de protéger les preuves, de réduire la désinformation ou de préserver les archives historiques, le public peut bénéficier de savoir si le contenu a été manipulé ou généré par l'intelligence artificielle. Si l'image du Pentagone contenait des artefacts générés par l'IA, les plates-formes technologiques auraient peut-être pu agir plus rapidement ; elles auraient pu réduire la propagation de l'image dans le temps ou étiqueter le contenu afin que le public puisse plus facilement identifier l'image comme fausse. Cela évite la confusion et, par extension, la volatilité des marchés.
Il ne fait aucun doute que nous avons besoin de plus de transparence pour faire la distinction entre le vrai et le faux. Le mois dernier, la Maison Blanche s'est penchée sur la manière dont cela pourrait être fait, annonçant que sept des plus importantes sociétés d'IA s'étaient engagées à "développer des mesures techniques solides pour garantir que les utilisateurs sachent quel contenu est généré par l'IA, comme les filigranes".
Les méthodes de divulgation telles que les filigranes sont un bon début. Cependant, ces méthodes sont compliquées en pratique, et elles ne constituent pas une solution rapide et efficace. On ne sait pas si le filigrane aurait aidé les utilisateurs de Twitter à identifier une fausse image du Pentagone, ou si la voix de Trump dans une récente campagne publicitaire a été synthétisée. Et d'autres approches, telles que la divulgation de la provenance et des métadonnées, ont-elles un plus grand impact ? Plus important encore, le simple fait de divulguer que le contenu est généré par l'IA aide-t-il le public à distinguer les faits de la fiction ou à atténuer les dommages réels ?
Pour répondre à ces questions, nous devons clarifier ce que l'on entend par filigranes et autres types de méthodes de divulgation. Nous devons être clairs sur ce qu'ils sont, ce que nous pouvons raisonnablement attendre d'eux et quels problèmes existent même si ces méthodes sont introduites. Aussi pédant que puisse paraître le débat sur les définitions, l'utilisation généralisée du terme "watermarking" sème actuellement la confusion dans le domaine de l'IA. Définir ce que signifient ces différentes approches est une condition préalable importante à la collaboration dans le domaine de l'IA et à un accord sur les normes de divulgation. Sinon, les gens se parleront.
J'ai vu ce problème de première main alors que je dirigeais l'effort multisectoriel du Partenariat à but non lucratif sur l'intelligence artificielle (PAI) pour élaborer des lignes directrices pour des médias synthétiques responsables, avec des organisations comme OpenAI, Adobe, Witness, Microsoft, la BBC et d'autres qui ont fait une promesse. .
D'une part, un filigrane peut faire référence à un signal visible par l'utilisateur final (par exemple, la mention "Getty Images" imprimée sur le support d'un fournisseur d'images). Cependant, il peut également faire référence à des signaux techniques intégrés dans un contenu qui sont imperceptibles à l'œil nu ou à l'oreille. Les deux types de filigranes - connus sous le nom de divulgations "directes" et "indirectes" - sont essentiels pour assurer la transparence. Par conséquent, toute discussion sur les défis et les opportunités du tatouage doit mettre l'accent sur le type de tatouage qui est évalué.
Pour compliquer davantage les choses, le filigrane est souvent utilisé comme terme « parapluie » pour l'acte général de divulgation de contenu, bien qu'il existe de nombreuses approches. Une lecture attentive de l'engagement de la Maison Blanche révèle une autre méthode de divulgation connue sous le nom de "provenance", qui repose sur des signatures cryptographiques plutôt que sur des signaux invisibles. Cependant, dans les médias populaires, cela est également souvent décrit comme un filigrane. Si vous trouvez ces termes confus déroutants, ne vous inquiétez pas, vous n'êtes pas seul. La clarté compte : si nous ne pouvons même pas nous mettre d'accord sur ce qu'il faut appeler différentes technologies, il n'y aura pas de mesures de transparence cohérentes et robustes dans le domaine de l'IA.
En réponse, je propose six questions préliminaires qui pourraient nous aider à évaluer l'utilité du filigrane et d'autres méthodes de divulgation de l'IA. Ces questions devraient aider à garantir que toutes les parties discutent exactement des mêmes problèmes et que nous pouvons évaluer chaque approche de manière complète et cohérente.
**Le filigrane lui-même peut-il être altéré ? **
Ironiquement, les signaux techniques présentés comme utiles pour évaluer l'origine du contenu et la façon dont il a été modifié peuvent parfois eux-mêmes être falsifiés. Bien que difficiles, les filigranes invisibles et visibles peuvent être supprimés ou altérés. La facilité avec laquelle les filigranes peuvent être falsifiés varie selon le type de contenu.
**La validité du filigrane des différents types de contenu est-elle cohérente ? **
Alors que le filigrane invisible est souvent présenté comme une solution globale pour faire face à l'intelligence artificielle générative, ces signaux intégrés sont plus facilement manipulés dans le texte que dans le contenu audiovisuel. Cela explique probablement pourquoi le mémoire de la Maison Blanche suggère que le filigrane s'appliquera à tous les types d'IA, mais indique clairement que l'entreprise ne s'engage à divulguer que du matériel audiovisuel. Par conséquent, lors de l'élaboration d'une politique d'IA, il est impératif de spécifier comment les techniques de divulgation telles que le filigrane invisible varient dans leur efficacité et leur robustesse technique plus large selon les types de contenu. Une solution de divulgation peut être utile pour les images, mais pas pour le texte.
**Qui peut détecter ces signaux invisibles ? **
Même si l'industrie de l'IA accepte de mettre en œuvre un filigrane invisible, des questions plus profondes se posent inévitablement quant à savoir qui a la capacité de détecter ces signaux et, en fin de compte, de faire des déclarations faisant autorité sur la base de ceux-ci. Qui décide si le contenu est généré par l'IA ou, par extension, si le contenu est trompeur ? Si tout le monde pouvait détecter les filigranes, cela pourrait les rendre vulnérables à une mauvaise utilisation par les méchants. D'un autre côté, contrôler l'accès pour détecter les filigranes invisibles, en particulier s'ils sont dominés par de grandes entreprises d'IA, pourrait réduire l'ouverture et renforcer le contrôle technique. La mise en œuvre de telles méthodes de divulgation sans déterminer comment les gérer peut conduire à la méfiance et à l'inefficacité de ces méthodes. Et, si ces technologies ne sont pas largement adoptées, les acteurs malveillants peuvent se tourner vers des technologies open source dépourvues de filigranes invisibles pour créer des contenus nuisibles et trompeurs.
**Les filigranes protègent-ils la vie privée ? **
Comme l'ont montré les travaux majeurs du groupe des droits de l'homme et de la technologie Witness, tout système de suivi qui voyage avec du contenu dans le temps peut soulever des problèmes de confidentialité pour les créateurs de contenu. L'industrie de l'IA doit veiller à ce que les filigranes et autres techniques de divulgation soient conçus de manière à ne pas contenir d'informations d'identification susceptibles de mettre les créateurs en danger. Par exemple, les défenseurs des droits humains peuvent capturer des abus à travers des photos filigranées avec des informations d'identification, ce qui en fait des cibles faciles pour les gouvernements autoritaires. Même savoir qu'un filigrane pourrait révéler l'identité d'un militant pourrait avoir un effet dissuasif sur l'expression et le discours. Les décideurs politiques doivent fournir des orientations plus claires sur la manière dont les divulgations doivent être conçues pour protéger la vie privée des créateurs de contenu tout en incluant suffisamment de détails utiles et pratiques.
**Les informations visibles aident-elles le public à comprendre le rôle de l'IA générative ? **
Même si le filigrane invisible peut techniquement protéger la vie privée pendant longtemps, il peut ne pas être en mesure d'aider le public à interpréter le contenu. Bien que les divulgations directes (telles que les filigranes visibles) aient l'attrait intuitif d'offrir une plus grande transparence, de telles divulgations n'ont pas nécessairement l'effet souhaité et elles ont tendance à être perçues comme paternalistes, biaisées et punitives, même si elles n'était pas indiqué. De plus, les divulgations directes peuvent être mal interprétées par le public. Dans mon étude de 2021, un participant a mal compris l'étiquette "média manipulé" de Twitter, pensant que c'était l'establishment des "médias" qui le manipulait, plutôt que le contenu d'une vidéo particulière éditée pour l'induire en erreur. Alors que la recherche continue d'émerger sur la façon dont différentes conceptions UX affectent les perceptions du public sur la divulgation de contenu, la plupart des recherches se sont concentrées sur les grandes entreprises technologiques, et principalement dans des contextes aussi divers que les élections. L'examen des effets de la divulgation directe et de l'expérience utilisateur, plutôt que de se fier uniquement à l'attrait intuitif de l'étiquetage du contenu généré par l'IA, est essentiel pour une prise de décision efficace qui augmente la transparence.
**Le fait de placer un filigrane visible sur l'AIGC réduirait-il la confiance des utilisateurs dans le "vrai" contenu ? **
La question de société la plus difficile à évaluer est peut-être la façon dont la divulgation directe coordonnée affectera les attitudes générales à l'égard de l'information et réduira potentiellement la confiance dans ce qui est « authentique ». Si les organisations d'IA et les plateformes de médias sociaux signalent simplement le contenu comme généré ou modifié par l'IA - un moyen compréhensible mais limité d'éviter de porter des jugements sur les allégations trompeuses ou nuisibles - Comment cela affecte-t-il la façon dont nous visualisons le contenu en ligne ?
L'amélioration de l'éducation aux médias par la divulgation est une noble cause ; cependant, beaucoup de ceux qui travaillent dans des équipes politiques à l'intérieur et à l'extérieur des entreprises technologiques craignent qu'une poussée prématurée pour étiqueter tout le contenu généré ne conduise à une «division des tricheurs» - la désapprobation de la société à l'égard de tout contenu qui pourrait Le scepticisme à l'égard du contenu généré par l'IA est si prononcé qu'il sape la confiance dans le contenu authentique non généré par l'IA, et cette inquiétude est compréhensible. Cette perspective a également conduit à une incertitude quant à savoir si toutes les utilisations apparemment à faible risque de la création de contenu IA - par exemple, la dépendance du mode portrait de l'iPhone à la technologie IA, ou l'assistant vocal mentionné dans l'engagement de la Maison Blanche - nécessiteraient la divulgation d'informations artificielles l'intelligence Engagement intelligent. Le domaine doit travailler ensemble pour mesurer les attitudes à long terme de la société envers l'information et déterminer quand il est logique de divulguer l'implication de l'IA. Plus important encore, ils doivent évaluer l'impact sur la visibilité des divulgations qui décrivent simplement comment le contenu a été créé (en disant qu'une partie du contenu a été généré ou modifié par l'IA) en remplacement de ce qui nous intéresse vraiment : indiquer si une revendication de contenu est vraie ou fausse.
Les défis posés par le filigrane et les autres techniques de divulgation ne doivent pas servir d'excuse à l'inaction ou pour limiter la transparence. Au lieu de cela, ils devraient pousser les entreprises, les décideurs politiques et autres à se réunir pour élaborer des définitions et décider comment évaluer les compromis inévitables dans la mise en œuvre. Ce n'est qu'alors que la politique d'IA générative peut aider de manière adéquate le public à distinguer les faits de la fabrication.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Sous le déluge de DeepFake, les filigranes peuvent-ils apporter plus de confiance à l'AIGC ?
Écrit par : Claire Leibowicz
Source : Examen de la technologie du MIT
Fin mai, les images du Pentagone en feu sont devenues virales. Et à des kilomètres de là, les assistants et les journalistes de la Maison Blanche se sont précipités pour déterminer si les images de l'explosion du bâtiment étaient réelles.
Il s'avère que ces images ont été générées par l'intelligence artificielle. Mais les responsables gouvernementaux, les journalistes et les entreprises technologiques n'ont pas pu agir avant que les images n'aient un impact réel. Non seulement cela a créé de la confusion, mais cela a également fait chuter les marchés financiers.
Le contenu manipulateur et trompeur n'est pas un phénomène nouveau. Mais l'intelligence artificielle rend la création de contenu plus facile et souvent plus réaliste. Bien que l'IA puisse être utilisée pour l'expression artistique ou l'amélioration de l'accessibilité, elle peut également être utilisée à mauvais escient pour remettre en question des événements politiques ou pour diffamer, harceler et exploiter.
Qu'il s'agisse de promouvoir l'intégrité des élections, de protéger les preuves, de réduire la désinformation ou de préserver les archives historiques, le public peut bénéficier de savoir si le contenu a été manipulé ou généré par l'intelligence artificielle. Si l'image du Pentagone contenait des artefacts générés par l'IA, les plates-formes technologiques auraient peut-être pu agir plus rapidement ; elles auraient pu réduire la propagation de l'image dans le temps ou étiqueter le contenu afin que le public puisse plus facilement identifier l'image comme fausse. Cela évite la confusion et, par extension, la volatilité des marchés.
Il ne fait aucun doute que nous avons besoin de plus de transparence pour faire la distinction entre le vrai et le faux. Le mois dernier, la Maison Blanche s'est penchée sur la manière dont cela pourrait être fait, annonçant que sept des plus importantes sociétés d'IA s'étaient engagées à "développer des mesures techniques solides pour garantir que les utilisateurs sachent quel contenu est généré par l'IA, comme les filigranes".
Les méthodes de divulgation telles que les filigranes sont un bon début. Cependant, ces méthodes sont compliquées en pratique, et elles ne constituent pas une solution rapide et efficace. On ne sait pas si le filigrane aurait aidé les utilisateurs de Twitter à identifier une fausse image du Pentagone, ou si la voix de Trump dans une récente campagne publicitaire a été synthétisée. Et d'autres approches, telles que la divulgation de la provenance et des métadonnées, ont-elles un plus grand impact ? Plus important encore, le simple fait de divulguer que le contenu est généré par l'IA aide-t-il le public à distinguer les faits de la fiction ou à atténuer les dommages réels ?
Pour répondre à ces questions, nous devons clarifier ce que l'on entend par filigranes et autres types de méthodes de divulgation. Nous devons être clairs sur ce qu'ils sont, ce que nous pouvons raisonnablement attendre d'eux et quels problèmes existent même si ces méthodes sont introduites. Aussi pédant que puisse paraître le débat sur les définitions, l'utilisation généralisée du terme "watermarking" sème actuellement la confusion dans le domaine de l'IA. Définir ce que signifient ces différentes approches est une condition préalable importante à la collaboration dans le domaine de l'IA et à un accord sur les normes de divulgation. Sinon, les gens se parleront.
J'ai vu ce problème de première main alors que je dirigeais l'effort multisectoriel du Partenariat à but non lucratif sur l'intelligence artificielle (PAI) pour élaborer des lignes directrices pour des médias synthétiques responsables, avec des organisations comme OpenAI, Adobe, Witness, Microsoft, la BBC et d'autres qui ont fait une promesse. .
D'une part, un filigrane peut faire référence à un signal visible par l'utilisateur final (par exemple, la mention "Getty Images" imprimée sur le support d'un fournisseur d'images). Cependant, il peut également faire référence à des signaux techniques intégrés dans un contenu qui sont imperceptibles à l'œil nu ou à l'oreille. Les deux types de filigranes - connus sous le nom de divulgations "directes" et "indirectes" - sont essentiels pour assurer la transparence. Par conséquent, toute discussion sur les défis et les opportunités du tatouage doit mettre l'accent sur le type de tatouage qui est évalué.
Pour compliquer davantage les choses, le filigrane est souvent utilisé comme terme « parapluie » pour l'acte général de divulgation de contenu, bien qu'il existe de nombreuses approches. Une lecture attentive de l'engagement de la Maison Blanche révèle une autre méthode de divulgation connue sous le nom de "provenance", qui repose sur des signatures cryptographiques plutôt que sur des signaux invisibles. Cependant, dans les médias populaires, cela est également souvent décrit comme un filigrane. Si vous trouvez ces termes confus déroutants, ne vous inquiétez pas, vous n'êtes pas seul. La clarté compte : si nous ne pouvons même pas nous mettre d'accord sur ce qu'il faut appeler différentes technologies, il n'y aura pas de mesures de transparence cohérentes et robustes dans le domaine de l'IA.
En réponse, je propose six questions préliminaires qui pourraient nous aider à évaluer l'utilité du filigrane et d'autres méthodes de divulgation de l'IA. Ces questions devraient aider à garantir que toutes les parties discutent exactement des mêmes problèmes et que nous pouvons évaluer chaque approche de manière complète et cohérente.
**Le filigrane lui-même peut-il être altéré ? **
Ironiquement, les signaux techniques présentés comme utiles pour évaluer l'origine du contenu et la façon dont il a été modifié peuvent parfois eux-mêmes être falsifiés. Bien que difficiles, les filigranes invisibles et visibles peuvent être supprimés ou altérés. La facilité avec laquelle les filigranes peuvent être falsifiés varie selon le type de contenu.
**La validité du filigrane des différents types de contenu est-elle cohérente ? **
Alors que le filigrane invisible est souvent présenté comme une solution globale pour faire face à l'intelligence artificielle générative, ces signaux intégrés sont plus facilement manipulés dans le texte que dans le contenu audiovisuel. Cela explique probablement pourquoi le mémoire de la Maison Blanche suggère que le filigrane s'appliquera à tous les types d'IA, mais indique clairement que l'entreprise ne s'engage à divulguer que du matériel audiovisuel. Par conséquent, lors de l'élaboration d'une politique d'IA, il est impératif de spécifier comment les techniques de divulgation telles que le filigrane invisible varient dans leur efficacité et leur robustesse technique plus large selon les types de contenu. Une solution de divulgation peut être utile pour les images, mais pas pour le texte.
**Qui peut détecter ces signaux invisibles ? **
Même si l'industrie de l'IA accepte de mettre en œuvre un filigrane invisible, des questions plus profondes se posent inévitablement quant à savoir qui a la capacité de détecter ces signaux et, en fin de compte, de faire des déclarations faisant autorité sur la base de ceux-ci. Qui décide si le contenu est généré par l'IA ou, par extension, si le contenu est trompeur ? Si tout le monde pouvait détecter les filigranes, cela pourrait les rendre vulnérables à une mauvaise utilisation par les méchants. D'un autre côté, contrôler l'accès pour détecter les filigranes invisibles, en particulier s'ils sont dominés par de grandes entreprises d'IA, pourrait réduire l'ouverture et renforcer le contrôle technique. La mise en œuvre de telles méthodes de divulgation sans déterminer comment les gérer peut conduire à la méfiance et à l'inefficacité de ces méthodes. Et, si ces technologies ne sont pas largement adoptées, les acteurs malveillants peuvent se tourner vers des technologies open source dépourvues de filigranes invisibles pour créer des contenus nuisibles et trompeurs.
**Les filigranes protègent-ils la vie privée ? **
Comme l'ont montré les travaux majeurs du groupe des droits de l'homme et de la technologie Witness, tout système de suivi qui voyage avec du contenu dans le temps peut soulever des problèmes de confidentialité pour les créateurs de contenu. L'industrie de l'IA doit veiller à ce que les filigranes et autres techniques de divulgation soient conçus de manière à ne pas contenir d'informations d'identification susceptibles de mettre les créateurs en danger. Par exemple, les défenseurs des droits humains peuvent capturer des abus à travers des photos filigranées avec des informations d'identification, ce qui en fait des cibles faciles pour les gouvernements autoritaires. Même savoir qu'un filigrane pourrait révéler l'identité d'un militant pourrait avoir un effet dissuasif sur l'expression et le discours. Les décideurs politiques doivent fournir des orientations plus claires sur la manière dont les divulgations doivent être conçues pour protéger la vie privée des créateurs de contenu tout en incluant suffisamment de détails utiles et pratiques.
**Les informations visibles aident-elles le public à comprendre le rôle de l'IA générative ? **
Même si le filigrane invisible peut techniquement protéger la vie privée pendant longtemps, il peut ne pas être en mesure d'aider le public à interpréter le contenu. Bien que les divulgations directes (telles que les filigranes visibles) aient l'attrait intuitif d'offrir une plus grande transparence, de telles divulgations n'ont pas nécessairement l'effet souhaité et elles ont tendance à être perçues comme paternalistes, biaisées et punitives, même si elles n'était pas indiqué. De plus, les divulgations directes peuvent être mal interprétées par le public. Dans mon étude de 2021, un participant a mal compris l'étiquette "média manipulé" de Twitter, pensant que c'était l'establishment des "médias" qui le manipulait, plutôt que le contenu d'une vidéo particulière éditée pour l'induire en erreur. Alors que la recherche continue d'émerger sur la façon dont différentes conceptions UX affectent les perceptions du public sur la divulgation de contenu, la plupart des recherches se sont concentrées sur les grandes entreprises technologiques, et principalement dans des contextes aussi divers que les élections. L'examen des effets de la divulgation directe et de l'expérience utilisateur, plutôt que de se fier uniquement à l'attrait intuitif de l'étiquetage du contenu généré par l'IA, est essentiel pour une prise de décision efficace qui augmente la transparence.
**Le fait de placer un filigrane visible sur l'AIGC réduirait-il la confiance des utilisateurs dans le "vrai" contenu ? **
La question de société la plus difficile à évaluer est peut-être la façon dont la divulgation directe coordonnée affectera les attitudes générales à l'égard de l'information et réduira potentiellement la confiance dans ce qui est « authentique ». Si les organisations d'IA et les plateformes de médias sociaux signalent simplement le contenu comme généré ou modifié par l'IA - un moyen compréhensible mais limité d'éviter de porter des jugements sur les allégations trompeuses ou nuisibles - Comment cela affecte-t-il la façon dont nous visualisons le contenu en ligne ?
L'amélioration de l'éducation aux médias par la divulgation est une noble cause ; cependant, beaucoup de ceux qui travaillent dans des équipes politiques à l'intérieur et à l'extérieur des entreprises technologiques craignent qu'une poussée prématurée pour étiqueter tout le contenu généré ne conduise à une «division des tricheurs» - la désapprobation de la société à l'égard de tout contenu qui pourrait Le scepticisme à l'égard du contenu généré par l'IA est si prononcé qu'il sape la confiance dans le contenu authentique non généré par l'IA, et cette inquiétude est compréhensible. Cette perspective a également conduit à une incertitude quant à savoir si toutes les utilisations apparemment à faible risque de la création de contenu IA - par exemple, la dépendance du mode portrait de l'iPhone à la technologie IA, ou l'assistant vocal mentionné dans l'engagement de la Maison Blanche - nécessiteraient la divulgation d'informations artificielles l'intelligence Engagement intelligent. Le domaine doit travailler ensemble pour mesurer les attitudes à long terme de la société envers l'information et déterminer quand il est logique de divulguer l'implication de l'IA. Plus important encore, ils doivent évaluer l'impact sur la visibilité des divulgations qui décrivent simplement comment le contenu a été créé (en disant qu'une partie du contenu a été généré ou modifié par l'IA) en remplacement de ce qui nous intéresse vraiment : indiquer si une revendication de contenu est vraie ou fausse.
Les défis posés par le filigrane et les autres techniques de divulgation ne doivent pas servir d'excuse à l'inaction ou pour limiter la transparence. Au lieu de cela, ils devraient pousser les entreprises, les décideurs politiques et autres à se réunir pour élaborer des définitions et décider comment évaluer les compromis inévitables dans la mise en œuvre. Ce n'est qu'alors que la politique d'IA générative peut aider de manière adéquate le public à distinguer les faits de la fabrication.