Eric Goldman, professeur à la faculté de droit de l'université de Santa Clara aux États-Unis, estime que la vague de litiges ne fait que commencer, et que les "deuxième et troisième vagues" arrivent, qui définiront l'avenir de l'intelligence artificielle.
Les sociétés d'IA soutiennent qu'il est raisonnable d'utiliser des œuvres protégées par le droit d'auteur pour former l'IA - une référence au concept d '"utilisation transformatrice" dans la loi américaine sur le droit d'auteur, où le matériel est modifié de manière "transformative" créera une exception.
Source de l'image : générée par l'outil d'IA illimitée
L'American Screenwriters Guild est en grève depuis plus de 70 jours, réclamant des augmentations de salaire, l'augmentation de la part des plateformes de streaming et l'encadrement de l'intelligence artificielle.
Un «soulèvement des données» éclate en Amérique, avec Hollywood, des artistes, des écrivains, des sociétés de médias sociaux et des organes de presse parmi les rebelles.
Tout le blâme pointe vers des outils d'intelligence artificielle générative tels que ChatGPT et Stable Diffusion, qui sont accusés d'utiliser illégalement le travail de créateurs de contenu pour former de grands modèles de langage sans autorisation ni compensation.
Au cœur de ce « soulèvement des données » se trouve une nouvelle reconnaissance que les informations en ligne - histoires, œuvres d'art, articles de presse, publications Web et photos - peuvent avoir une valeur inexploitée importante. La pratique de la récupération de contenu public sur Internet a une longue histoire, et la plupart des entreprises et des organisations à but non lucratif qui le font la divulguent publiquement. Mais avant la sortie de ChatGPT, les propriétaires de données n'en savaient pas grand-chose et ne le considéraient pas non plus comme un problème particulièrement grave. Maintenant, cela a changé à mesure que le public en apprend davantage sur les bases de la formation à l'IA.
"Il s'agit d'une refonte fondamentale de la valeur des données. Brandon Duderstadt, fondateur et PDG de Nomic, a déclaré dans une interview aux médias. Vous pouvez accéder aux données et diffuser des publicités pour en tirer de la valeur. Désormais, les gens pensent qu'ils doivent protéger leurs données.
Marée après vague
Au cours des derniers mois, des entreprises de médias sociaux comme Reddit et Twitter, des organes de presse comme le New York Times et NBC, l'auteur de science-fiction Paul Tremblay et l'actrice Sarah Silverman (Sarah Silverman) et d'autres ont pris des mesures pour s'opposer à la collecte non autorisée de leurs œuvres et données. par l'intelligence artificielle. Cette série de mouvements a été surnommée "Data Revolt" par les médias américains.
La semaine dernière, Silverman a déposé une plainte contre OpenAI et Meta, les accusant d'utiliser des copies piratées de son livre dans leurs données de formation, car les chatbots des entreprises peuvent résumer avec précision le contenu de son livre. De plus, plus de 5 000 auteurs, dont Jodi Picoult, Margaret Atwood et Viet Thanh Nguyen, ont signé une pétition appelant les entreprises technologiques à demander leur permission et à leur donner une attribution et une compensation lorsqu'elles utilisent leurs livres comme données de formation.
Pour protéger leur travail, écrivains et artistes ont eu recours à différentes formes de protestation. Certains choisissent de verrouiller les œuvres et d'empêcher l'intelligence artificielle de les obtenir ; certains choisissent de boycotter les sites Web qui publient du contenu généré par l'intelligence artificielle ; certains choisissent d'écrire du contenu subversif pour interférer avec l'apprentissage de l'intelligence artificielle.
Le 13 juillet, SAG-AFTRA, l'un des trois principaux syndicats hollywoodiens avec 160 000 membres, a annoncé une grève, alors qu'avant cela, l'American Screenwriters Guild était en grève depuis plus de 70 jours. Selon le New York Times, la grève générale a paralysé l'industrie américaine du cinéma et de la télévision, d'une valeur de 134 milliards de dollars, garantissant de ne pas remplacer les acteurs par l'IA et les visages et voix générés par ordinateur.
Pendant ce temps, certaines agences de presse résistent à l'IA. En juin, dans une note interne sur l'utilisation de l'IA générative, le New York Times a déclaré : « Les entreprises d'IA doivent respecter notre propriété intellectuelle. » Dans un communiqué, des éditeurs en ligne tels que le New York Times et le Washington Post ont fait valoir que l'utilisation de droits d'auteur articles de presse car les données de formation pour l'intelligence artificielle présentent des risques potentiels et des problèmes juridiques, et ils ont appelé les sociétés d'intelligence artificielle à respecter les connaissances des éditeurs. Droits de propriété et travail créatif.
Les entreprises de médias sociaux ont également pris position. En avril, le site d'actualités sociales Reddit a annoncé vouloir facturer à des tiers l'accès à son interface de programmation d'applications (API). Le PDG de Reddit, Steve Hoffman, a déclaré que son entreprise "n'a pas besoin de donner gratuitement toute la valeur à certaines des plus grandes entreprises du monde." En juillet, le propriétaire de Twitter, Elon Musk (Elon Musk), a également déclaré que certaines entreprises et organisations illégalement" saisir une grande quantité de données Twitter. En réponse à "l'extrême collecte de données et la manipulation du système", Twitter a décidé de limiter le nombre de tweets que les comptes individuels peuvent voir.
Le fondateur et PDG de Reddit, Steve Hoffman, veut facturer à des tiers l'accès à son interface de programmation d'applications (API), déclenchant un tollé massif parmi les internautes.
Ce « soulèvement des données » comprend également une « vague de poursuites », certaines sociétés d'intelligence artificielle étant poursuivies plusieurs fois pour des problèmes de confidentialité des données. En novembre, un groupe de programmeurs a déposé un recours collectif contre Microsoft et OpenAI, alléguant que les sociétés avaient violé leurs droits d'auteur en utilisant leur code pour former des assistants de programmation d'intelligence artificielle. En juin de cette année, le cabinet d'avocats Clarkson, basé à Los Angeles, a déposé un recours collectif de 151 pages contre OpenAI et Microsoft, soulignant comment OpenAI collectait des données auprès de mineurs, affirmant que le scraping Web violait la loi sur le droit d'auteur et constituait un "vol". L'entreprise a depuis déposé une plainte similaire contre Google.
Le professeur de la faculté de droit de l'Université de Santa Clara, Eric Goldman (Eric Goldman), a déclaré dans une interview aux médias que les arguments de ce procès étaient trop larges et qu'il était peu probable qu'ils soient acceptés par le tribunal. Mais il soutient que la vague de poursuites ne fait que commencer, avec une « deuxième et troisième vague » à venir qui définiront l'avenir de l'intelligence artificielle.
Controverse Juridique
ChatGPT et Dall-E d'OpenAI, Bard de Google, Stable Diffusion de Stability AI et d'autres IA génératives sont tous formés sur la base d'articles de presse massifs, de livres, d'images, de vidéos et de billets de blog récupérés sur Internet, dont beaucoup sont publics et protégés par le droit d'auteur.
En mars de cette année, OpenAI a publié un rapport d'analyse du modèle linguistique principal de l'institution, montrant que la partie textuelle des données de formation utilisait des données provenant de sites Web d'actualités, de Wikipedia et d'une base de données de livres piratés (LibGen), qui est actuellement fermée. le ministère de la Justice des États-Unis.
Le 13 juillet, la Federal Trade Commission (FTC) des États-Unis a envoyé un document de 20 pages à OpenAI, demandant à OpenAI de fournir des enregistrements sur la gestion des risques, la sécurité des données et l'examen des informations de ses modèles d'intelligence artificielle pour déterminer s'il violait les réglementations sur les droits des consommateurs. droits.
Le 12 juillet, le sous-comité du Sénat américain a tenu une audience sur l'intelligence artificielle, la propriété intellectuelle et les questions de droit d'auteur, et les témoins qui y ont assisté ont prêté serment devant le tribunal. L'audience a entendu l'industrie de la musique, le fabricant de Photoshop Adobe, la société d'intelligence artificielle Stability AI et l'illustratrice Karla Ortiz.
Mais lors d'apparitions publiques et en réponse à des poursuites judiciaires, les sociétés d'IA ont fait valoir qu'il est raisonnable d'utiliser des œuvres protégées par le droit d'auteur pour former l'IA - une référence au concept d '«utilisation transformatrice» dans la loi américaine sur le droit d'auteur, qui se produit si le matériel est publié dans un A manière "transformatrice" de changer qui crée une exception.
"Le modèle d'IA apprend essentiellement à partir de toutes les informations. C'est comme un étudiant qui lit dans une bibliothèque et apprend ensuite à écrire et à lire", a déclaré Kent Walker, président des affaires mondiales de Google, dans une interview. fois, vous devez vous assurer que vous ne copiez pas le travail de quelqu'un d'autre ou que vous ne faites pas quelque chose qui viole le droit d'auteur."
Halimah DeLaine Prado, avocate générale de Google, a déclaré aux médias : "Il est clair pour tout le monde depuis des années que nous utilisons des données provenant de sources publiques, telles que la publication sur le Web ouvert et des données publiques. Informations collectées pour former les modèles d'IA derrière les services comme Google Translate." Elle a noté, "La loi américaine soutient la création de nouvelles utilisations bénéfiques de l'information publique, et nous sommes impatients de réfuter ces affirmations sans fondement."
Andres Sawicki, professeur à l'Université de Miami qui étudie le droit de la propriété intellectuelle, a déclaré dans une interview qu'il existe un précédent qui pourrait favoriser les entreprises technologiques, comme une décision de la Cour d'appel américaine de 1992 qui a permis aux entreprises de poursuivre d'autres entreprises pour leur propriété intellectuelle. Les codes logiciels sont rétro-conçus pour concevoir des produits concurrents. Mais beaucoup disent qu'il est intuitivement injuste pour les grandes entreprises d'utiliser le travail des créateurs pour créer de nouveaux outils lucratives. "Il est vraiment difficile de répondre à la question sur l'IA générative", a-t-il déclaré.
Jessica D. Litman Sawicki, professeur de droit d'auteur à l'Université de Miami, a déclaré que la doctrine de l'utilisation équitable est une défense puissante pour les entreprises d'IA en raison de la taille des modèles d'IA. être humain particulier. Mais elle soutient que si les créateurs qui poursuivent les entreprises d'IA peuvent montrer suffisamment d'exemples de résultats d'IA qui ressemblent étroitement à leur travail, ils auront de bonnes raisons de croire que le droit d'auteur est violé.
Les entreprises d'IA commencent à réagir
Les entreprises d'IA peuvent éviter cela en installant des filtres dans leurs produits pour s'assurer qu'elles ne génèrent rien de trop similaire au travail existant, a déclaré Sauwicki. Par exemple, le site vidéo YouTube utilise déjà une technologie pour détecter et supprimer automatiquement les œuvres protégées par le droit d'auteur téléchargées sur son site. En théorie, les entreprises d'IA pourraient également créer des algorithmes qui trouvent des résultats qui ressemblent étroitement à des œuvres d'art, de musique ou d'écriture existantes.
Ce « soulèvement des données » pourrait ne pas faire de vagues à long terme. Les géants de la technologie comme Google et Microsoft possèdent déjà de grandes quantités de données propriétaires et ont la capacité d'en acquérir davantage. Mais les start-ups et les organisations à but non lucratif qui cherchent à s'attaquer aux plus grands acteurs peuvent ne pas obtenir suffisamment de données pour former leurs systèmes, car le contenu devient plus difficile à obtenir.
Début juillet, Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley et auteur de "Artificial Intelligence: A Modern Approach", a averti que des robots pilotés par l'IA tels que ChatGPT pourraient bientôt "manquer de l'univers". « texte » et les techniques de formation des bots en collectant de grandes quantités de texte « ont commencé à se débattre ».
Certaines entreprises surfent également sur la vague avec une attitude coopérative. Dans un communiqué, OpenAI a déclaré : "Nous respectons les droits des créatifs et des auteurs et nous nous réjouissons de continuer à travailler avec eux pour protéger leurs intérêts." OpenAI, tout en utilisant également la technologie et les produits d'OpenAI.
Google a également déclaré dans un communiqué qu'il était impliqué dans des négociations sur la manière dont les éditeurs géreront leur contenu à l'avenir. "Nous pensons que tout le monde peut bénéficier d'un écosystème de contenu dynamique", a déclaré la société.
Margaret Mitchell (Margaret Mitchell), scientifique en chef de l'éthique de la société d'intelligence artificielle HuggingFace, a déclaré dans une interview aux médias : "L'ensemble du système de collecte de données doit être modifié, et malheureusement, cela doit être réalisé par le biais de litiges, ce qui est souvent le C'est le moyen de pousser les entreprises technologiques à changer." Elle a déclaré qu'elle ne serait pas surprise si OpenAI retirait entièrement l'un de ses produits d'ici la fin de l'année en raison de poursuites ou de nouvelles réglementations.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Un « soulèvement des données » éclate aux États-Unis : la littérature, le journalisme et les médias sociaux hollywoodiens se rebellent contre l'IA
Auteur : stagiaire Chen Xiaorui ; journaliste Fang Xiao
Source: Le papier
Eric Goldman, professeur à la faculté de droit de l'université de Santa Clara aux États-Unis, estime que la vague de litiges ne fait que commencer, et que les "deuxième et troisième vagues" arrivent, qui définiront l'avenir de l'intelligence artificielle.
Les sociétés d'IA soutiennent qu'il est raisonnable d'utiliser des œuvres protégées par le droit d'auteur pour former l'IA - une référence au concept d '"utilisation transformatrice" dans la loi américaine sur le droit d'auteur, où le matériel est modifié de manière "transformative" créera une exception.
L'American Screenwriters Guild est en grève depuis plus de 70 jours, réclamant des augmentations de salaire, l'augmentation de la part des plateformes de streaming et l'encadrement de l'intelligence artificielle.
Un «soulèvement des données» éclate en Amérique, avec Hollywood, des artistes, des écrivains, des sociétés de médias sociaux et des organes de presse parmi les rebelles.
Tout le blâme pointe vers des outils d'intelligence artificielle générative tels que ChatGPT et Stable Diffusion, qui sont accusés d'utiliser illégalement le travail de créateurs de contenu pour former de grands modèles de langage sans autorisation ni compensation.
Au cœur de ce « soulèvement des données » se trouve une nouvelle reconnaissance que les informations en ligne - histoires, œuvres d'art, articles de presse, publications Web et photos - peuvent avoir une valeur inexploitée importante. La pratique de la récupération de contenu public sur Internet a une longue histoire, et la plupart des entreprises et des organisations à but non lucratif qui le font la divulguent publiquement. Mais avant la sortie de ChatGPT, les propriétaires de données n'en savaient pas grand-chose et ne le considéraient pas non plus comme un problème particulièrement grave. Maintenant, cela a changé à mesure que le public en apprend davantage sur les bases de la formation à l'IA.
"Il s'agit d'une refonte fondamentale de la valeur des données. Brandon Duderstadt, fondateur et PDG de Nomic, a déclaré dans une interview aux médias. Vous pouvez accéder aux données et diffuser des publicités pour en tirer de la valeur. Désormais, les gens pensent qu'ils doivent protéger leurs données.
Marée après vague
Au cours des derniers mois, des entreprises de médias sociaux comme Reddit et Twitter, des organes de presse comme le New York Times et NBC, l'auteur de science-fiction Paul Tremblay et l'actrice Sarah Silverman (Sarah Silverman) et d'autres ont pris des mesures pour s'opposer à la collecte non autorisée de leurs œuvres et données. par l'intelligence artificielle. Cette série de mouvements a été surnommée "Data Revolt" par les médias américains.
La semaine dernière, Silverman a déposé une plainte contre OpenAI et Meta, les accusant d'utiliser des copies piratées de son livre dans leurs données de formation, car les chatbots des entreprises peuvent résumer avec précision le contenu de son livre. De plus, plus de 5 000 auteurs, dont Jodi Picoult, Margaret Atwood et Viet Thanh Nguyen, ont signé une pétition appelant les entreprises technologiques à demander leur permission et à leur donner une attribution et une compensation lorsqu'elles utilisent leurs livres comme données de formation.
Pour protéger leur travail, écrivains et artistes ont eu recours à différentes formes de protestation. Certains choisissent de verrouiller les œuvres et d'empêcher l'intelligence artificielle de les obtenir ; certains choisissent de boycotter les sites Web qui publient du contenu généré par l'intelligence artificielle ; certains choisissent d'écrire du contenu subversif pour interférer avec l'apprentissage de l'intelligence artificielle.
Le 13 juillet, SAG-AFTRA, l'un des trois principaux syndicats hollywoodiens avec 160 000 membres, a annoncé une grève, alors qu'avant cela, l'American Screenwriters Guild était en grève depuis plus de 70 jours. Selon le New York Times, la grève générale a paralysé l'industrie américaine du cinéma et de la télévision, d'une valeur de 134 milliards de dollars, garantissant de ne pas remplacer les acteurs par l'IA et les visages et voix générés par ordinateur.
Pendant ce temps, certaines agences de presse résistent à l'IA. En juin, dans une note interne sur l'utilisation de l'IA générative, le New York Times a déclaré : « Les entreprises d'IA doivent respecter notre propriété intellectuelle. » Dans un communiqué, des éditeurs en ligne tels que le New York Times et le Washington Post ont fait valoir que l'utilisation de droits d'auteur articles de presse car les données de formation pour l'intelligence artificielle présentent des risques potentiels et des problèmes juridiques, et ils ont appelé les sociétés d'intelligence artificielle à respecter les connaissances des éditeurs. Droits de propriété et travail créatif.
Les entreprises de médias sociaux ont également pris position. En avril, le site d'actualités sociales Reddit a annoncé vouloir facturer à des tiers l'accès à son interface de programmation d'applications (API). Le PDG de Reddit, Steve Hoffman, a déclaré que son entreprise "n'a pas besoin de donner gratuitement toute la valeur à certaines des plus grandes entreprises du monde." En juillet, le propriétaire de Twitter, Elon Musk (Elon Musk), a également déclaré que certaines entreprises et organisations illégalement" saisir une grande quantité de données Twitter. En réponse à "l'extrême collecte de données et la manipulation du système", Twitter a décidé de limiter le nombre de tweets que les comptes individuels peuvent voir.
Ce « soulèvement des données » comprend également une « vague de poursuites », certaines sociétés d'intelligence artificielle étant poursuivies plusieurs fois pour des problèmes de confidentialité des données. En novembre, un groupe de programmeurs a déposé un recours collectif contre Microsoft et OpenAI, alléguant que les sociétés avaient violé leurs droits d'auteur en utilisant leur code pour former des assistants de programmation d'intelligence artificielle. En juin de cette année, le cabinet d'avocats Clarkson, basé à Los Angeles, a déposé un recours collectif de 151 pages contre OpenAI et Microsoft, soulignant comment OpenAI collectait des données auprès de mineurs, affirmant que le scraping Web violait la loi sur le droit d'auteur et constituait un "vol". L'entreprise a depuis déposé une plainte similaire contre Google.
Le professeur de la faculté de droit de l'Université de Santa Clara, Eric Goldman (Eric Goldman), a déclaré dans une interview aux médias que les arguments de ce procès étaient trop larges et qu'il était peu probable qu'ils soient acceptés par le tribunal. Mais il soutient que la vague de poursuites ne fait que commencer, avec une « deuxième et troisième vague » à venir qui définiront l'avenir de l'intelligence artificielle.
Controverse Juridique
ChatGPT et Dall-E d'OpenAI, Bard de Google, Stable Diffusion de Stability AI et d'autres IA génératives sont tous formés sur la base d'articles de presse massifs, de livres, d'images, de vidéos et de billets de blog récupérés sur Internet, dont beaucoup sont publics et protégés par le droit d'auteur.
En mars de cette année, OpenAI a publié un rapport d'analyse du modèle linguistique principal de l'institution, montrant que la partie textuelle des données de formation utilisait des données provenant de sites Web d'actualités, de Wikipedia et d'une base de données de livres piratés (LibGen), qui est actuellement fermée. le ministère de la Justice des États-Unis.
Le 13 juillet, la Federal Trade Commission (FTC) des États-Unis a envoyé un document de 20 pages à OpenAI, demandant à OpenAI de fournir des enregistrements sur la gestion des risques, la sécurité des données et l'examen des informations de ses modèles d'intelligence artificielle pour déterminer s'il violait les réglementations sur les droits des consommateurs. droits.
Mais lors d'apparitions publiques et en réponse à des poursuites judiciaires, les sociétés d'IA ont fait valoir qu'il est raisonnable d'utiliser des œuvres protégées par le droit d'auteur pour former l'IA - une référence au concept d '«utilisation transformatrice» dans la loi américaine sur le droit d'auteur, qui se produit si le matériel est publié dans un A manière "transformatrice" de changer qui crée une exception.
"Le modèle d'IA apprend essentiellement à partir de toutes les informations. C'est comme un étudiant qui lit dans une bibliothèque et apprend ensuite à écrire et à lire", a déclaré Kent Walker, président des affaires mondiales de Google, dans une interview. fois, vous devez vous assurer que vous ne copiez pas le travail de quelqu'un d'autre ou que vous ne faites pas quelque chose qui viole le droit d'auteur."
Halimah DeLaine Prado, avocate générale de Google, a déclaré aux médias : "Il est clair pour tout le monde depuis des années que nous utilisons des données provenant de sources publiques, telles que la publication sur le Web ouvert et des données publiques. Informations collectées pour former les modèles d'IA derrière les services comme Google Translate." Elle a noté, "La loi américaine soutient la création de nouvelles utilisations bénéfiques de l'information publique, et nous sommes impatients de réfuter ces affirmations sans fondement."
Andres Sawicki, professeur à l'Université de Miami qui étudie le droit de la propriété intellectuelle, a déclaré dans une interview qu'il existe un précédent qui pourrait favoriser les entreprises technologiques, comme une décision de la Cour d'appel américaine de 1992 qui a permis aux entreprises de poursuivre d'autres entreprises pour leur propriété intellectuelle. Les codes logiciels sont rétro-conçus pour concevoir des produits concurrents. Mais beaucoup disent qu'il est intuitivement injuste pour les grandes entreprises d'utiliser le travail des créateurs pour créer de nouveaux outils lucratives. "Il est vraiment difficile de répondre à la question sur l'IA générative", a-t-il déclaré.
Jessica D. Litman Sawicki, professeur de droit d'auteur à l'Université de Miami, a déclaré que la doctrine de l'utilisation équitable est une défense puissante pour les entreprises d'IA en raison de la taille des modèles d'IA. être humain particulier. Mais elle soutient que si les créateurs qui poursuivent les entreprises d'IA peuvent montrer suffisamment d'exemples de résultats d'IA qui ressemblent étroitement à leur travail, ils auront de bonnes raisons de croire que le droit d'auteur est violé.
Les entreprises d'IA commencent à réagir
Les entreprises d'IA peuvent éviter cela en installant des filtres dans leurs produits pour s'assurer qu'elles ne génèrent rien de trop similaire au travail existant, a déclaré Sauwicki. Par exemple, le site vidéo YouTube utilise déjà une technologie pour détecter et supprimer automatiquement les œuvres protégées par le droit d'auteur téléchargées sur son site. En théorie, les entreprises d'IA pourraient également créer des algorithmes qui trouvent des résultats qui ressemblent étroitement à des œuvres d'art, de musique ou d'écriture existantes.
Ce « soulèvement des données » pourrait ne pas faire de vagues à long terme. Les géants de la technologie comme Google et Microsoft possèdent déjà de grandes quantités de données propriétaires et ont la capacité d'en acquérir davantage. Mais les start-ups et les organisations à but non lucratif qui cherchent à s'attaquer aux plus grands acteurs peuvent ne pas obtenir suffisamment de données pour former leurs systèmes, car le contenu devient plus difficile à obtenir.
Début juillet, Stuart Russell, professeur d'informatique à l'Université de Californie à Berkeley et auteur de "Artificial Intelligence: A Modern Approach", a averti que des robots pilotés par l'IA tels que ChatGPT pourraient bientôt "manquer de l'univers". « texte » et les techniques de formation des bots en collectant de grandes quantités de texte « ont commencé à se débattre ».
Certaines entreprises surfent également sur la vague avec une attitude coopérative. Dans un communiqué, OpenAI a déclaré : "Nous respectons les droits des créatifs et des auteurs et nous nous réjouissons de continuer à travailler avec eux pour protéger leurs intérêts." OpenAI, tout en utilisant également la technologie et les produits d'OpenAI.
Google a également déclaré dans un communiqué qu'il était impliqué dans des négociations sur la manière dont les éditeurs géreront leur contenu à l'avenir. "Nous pensons que tout le monde peut bénéficier d'un écosystème de contenu dynamique", a déclaré la société.
Margaret Mitchell (Margaret Mitchell), scientifique en chef de l'éthique de la société d'intelligence artificielle HuggingFace, a déclaré dans une interview aux médias : "L'ensemble du système de collecte de données doit être modifié, et malheureusement, cela doit être réalisé par le biais de litiges, ce qui est souvent le C'est le moyen de pousser les entreprises technologiques à changer." Elle a déclaré qu'elle ne serait pas surprise si OpenAI retirait entièrement l'un de ses produits d'ici la fin de l'année en raison de poursuites ou de nouvelles réglementations.