Source de l'image : générée par l'outil d'IA illimitée
Le 31 juillet, les produits chatgpt de l'App Store d'Apple en Chine ont été retirés collectivement des rayons. Selon Apple, les produits associés doivent obtenir une licence d'exploitation.
Non seulement la Chine, mais aussi les États-Unis et l'Europe, qui sont déterminés à être compétitifs dans ce domaine, appliquent activement la législation et la réglementation tout en encourageant l'innovation.
En avril 2021, la Commission européenne a publié pour la première fois une proposition de structure réglementaire pour le fonctionnement et la gouvernance des applications d'apprentissage automatique, proposant la réglementation de l'IA. À cette époque, le point de vue le plus populaire dans l'industrie de l'IA était encore la célèbre boutade de Wu Enda selon laquelle "s'inquiéter de l'intelligence artificielle aujourd'hui, c'est comme s'inquiéter de la surpopulation sur Mars".
Mais d'ici 2023, une telle vision ne peut plus devenir courante : il a fallu moins de 6 mois à l'IA générative pour montrer au monde le grand potentiel de remplacer les humains et de changer complètement le monde existant, tout comme il a été développé pendant la Seconde Guerre mondiale. comme une arme nucléaire.
Le physicien J-Robert Oppenheimer a dirigé le développement de la première bombe atomique au monde. À cette époque, la Seconde Guerre mondiale était terminée, mais la bombe nucléaire, en tant qu'arme la plus terrifiante de l'histoire de l'humanité, dominait encore largement la tendance historique : États-Unis Le gouvernement n'a pas adopté les critiques et les suggestions d'experts tels qu'Oppenheimer selon lesquelles "la prolifération nucléaire conduira à une course aux armements sans précédent", qui a finalement conduit au déclenchement d'une course aux armements nucléaires entre les États-Unis et l'Union soviétique représentée par le développement de la bombe à hydrogène "super bombe nucléaire" - et dans Pendant la crise des missiles de Cuba, presque toute la civilisation humaine a été entraînée dans un abîme sombre irrécupérable.
La crise qu'Oppenheimer a rencontrée présente de nombreuses similitudes avec la "crise omnique de l'IA" actuelle rencontrée par les humains : avant que les humains n'utilisent l'IA pour se traîner dans un avenir plus vaste et incontrôlable, guidez-la vers un avenir plus massif et incontrôlable. Peut-être que la meilleure façon est pour mettre en œuvre la supervision dans une voie sûre.
En 2021, la "préparation à un jour de pluie" de l'Union européenne est finalement devenue le premier cadre réglementaire pour l'industrie de l'intelligence artificielle dans l'histoire de l'humanité - c'est également le prédécesseur de la loi sur l'intelligence artificielle de l'Union européenne (loi sur l'IA).
Cependant, lorsque les législateurs ont conçu ce projet de loi, ils ne s'attendaient pas à l'existence d'intelligence artificielle générative ou de grands modèles d'ici la fin de 2022. Par conséquent, l'essor explosif de l'IA générative en 2023 a également ajouté plus La section sur l'IA générative : y compris le la transparence de son utilisation de grands modèles et la réglementation de la collecte/utilisation des données des utilisateurs.
Actuellement, ce projet de loi a été voté par le Parlement européen à la mi-juin.La prochaine étape pour les termes définitifs est de finaliser la loi dans les négociations entre les trois organes décisionnels de l'UE - le Parlement, le Conseil et la Commission. Un accord sera trouvé et entrera finalement en vigueur.
En Chine, la législation sur l'IA générative est également en cours : le 13 juillet, les "Mesures provisoires pour l'administration des services d'intelligence artificielle générative" (ci-après collectivement dénommées les "Mesures provisoires") ont été publiées conjointement par sept ministères et commissions. y compris l'Administration du cyberespace de Chine. Il entrera en vigueur en août.
Cela pourrait devenir la première réglementation de gestion de l'intelligence artificielle générative qui sera finalement mise en œuvre. Lors de la dernière série de "Course législative sur l'IA", le processus législatif chinois en matière d'IA l'a dépassé et est devenu la réglementation spécifique à la croissance la plus rapide dans le domaine de la générative. IA. .
Dans d'autres pays qui se situent au premier échelon du développement de l'IA, comme le Royaume-Uni et les États-Unis, une législation réglementaire sur l'IA est également en cours : le 16 mars, le US Copyright Office a lancé une initiative visant à étudier les questions de droit d'auteur et de politique découlant de la technologie de l'intelligence artificielle : y compris la portée du droit d'auteur sur les œuvres générées à l'aide d'outils d'intelligence artificielle et l'utilisation de matériel protégé par le droit d'auteur à des fins d'apprentissage automatique. Le gouvernement britannique a publié son premier cadre réglementaire sur l'IA le 4 avril. Depuis lors, la National Telecommunications and Information Administration (NTIA) des États-Unis a publié un projet de responsabilité en matière d'IA pour solliciter des commentaires du public plus larges sur les mesures et les politiques de responsabilité en matière d'IA.
« Devrions-nous développer une pensée non humaine qui pourrait éventuellement remplacer complètement les humains en termes de quantité et d'intelligence ? » C'est la question soulevée dans une lettre ouverte signée par un certain nombre de PDG et de chercheurs bien connus en mars de cette année. Avec le recul maintenant, dans la voie du développement de l'IA générative, l'appel à "tout le monde suspend la recherche pendant six mois" est trop idéaliste. À l'heure actuelle, seuls les pays promouvant des lois liées à l'IA générative qui jouent un rôle de réglementation peuvent être efficaces. raison.
INNOVATION ET RESPONSABILITÉ
La législation et la gouvernance de l'IA générative est un nouveau domaine dans lequel personne n'a jamais mis les pieds auparavant, et chaque législateur doit supporter la pression des doutes du monde extérieur : lors de la conférence des développeurs Google I/O de cette année, Google a officiellement publié son AI générative Le robot conversationnel Bard, mais la portée du service exclut complètement la région européenne.
Cela amène de nombreux chercheurs/entreprises européens en IA à s'interroger : pourquoi l'Europe manque-t-elle ? Plus tard, Google a déclaré à plusieurs reprises qu'il "avait hâte de s'ouvrir aux utilisateurs européens", ce qui a été interprété comme une "mesure de couverture" pour Google afin d'éviter la zone grise juridique qui existe dans l'IA générative, entraînant d'énormes amendes dans l'UE. .
En juillet, Google a finalement révélé pourquoi : Jack Krawczyk, responsable du produit Bard, a écrit dans un article de blog : Au début de la recherche, la Commission irlandaise de protection des données (DPC) avait déjà proposé l'intention de publier Bard en Europe, mais finalement , il a fallu attendre juillet pour répondre à la demande d'informations du régulateur.
Aujourd'hui, la « loi sur l'intelligence artificielle » de l'Union européenne a été publiée, et presque toutes les lois qu'elle contient pointent directement vers les problèmes émergents ou potentiels dans le développement actuel de l'IA : la propagation de fausses informations/désinformations, l'éventuelle éducation/santé mentale et d'autres problèmes majeurs. problèmes.
Mais ensuite, les législateurs ont constaté que la partie la plus compliquée de la résolution de ce problème réside dans la manière de déterminer la législation : il est nécessaire de protéger l'innovation/éviter le monopole des géants dans le domaine de l'IA, et d'assurer la contrôlabilité de l'IA dans une certaine mesure . Évitez d'inonder de faux contenus. Il est devenu le noyau commun de la législation sur l'IA générative en Chine, aux États-Unis et en Europe, mais ils ont des accents différents dans les réglementations actuelles.
De nombreuses affaires européennes antérieures sur l'intelligence artificielle ont causé un traitement négatif de la part d'institutions telles que Google et OpenAI. De nombreuses entreprises technologiques européennes locales et même des législateurs craignent qu'une législation trop stricte ne permette à l'Europe de revenir au premier rang mondial avec l'aide de l'IA La réalisation de la vision est devenue difficile : après l'adoption officielle de la "loi sur l'intelligence artificielle", l'Union européenne a le droit d'infliger une amende pouvant aller jusqu'à 30 millions d'euros, soit 6 % du chiffre d'affaires annuel de l'entreprise , contre les entreprises qui enfreignent les réglementations sur l'intelligence artificielle. Il s'agit sans aucun doute d'un avertissement évident pour des entreprises telles que Google et Microsoft qui souhaitent développer leur activité d'IA générative en Europe.
Dans la version de juin de la "loi sur l'intelligence artificielle", les législateurs européens ont clairement inclus de nouvelles dispositions pour encourager l'innovation responsable en matière d'intelligence artificielle tout en réduisant les risques technologiques, encadrer correctement l'intelligence artificielle et la placer au premier plan. soutient les mesures innovantes pour les petites et moyennes entreprises et les start-up, y compris la mise en place de "bacs à sable réglementaires" et d'autres mesures visant à réduire la charge de mise en conformité pesant sur les petites et moyennes entreprises et les start-up.
Cependant, avant de vendre des services d'IA ou de déployer des systèmes sur le marché, l'IA générative doit répondre à une série d'exigences réglementaires en matière de gestion des risques, de données, de transparence et de documentation. Parallèlement, l'utilisation de l'intelligence artificielle dans des domaines sensibles tels que les infrastructures critiques sera considéré comme « à haut risque » est inclus dans le champ de la surveillance.
À l'heure actuelle, la spécification AI basée sur les "mesures provisoires" a déjà pris des mesures : le 31 juillet, un grand nombre d'applications qui fournissaient des services ChatGPT dans l'App Store en Chine ont été collectivement retirées des étagères par Apple, et n'ont ne fournissent pas d'accès direct à ChatGPT, mais se concentrent également sur les fonctions d'IA. Un autre lot d'applications ne sera pas affecté pour le moment.
Dans la réponse aux développeurs, la suggestion officielle d'Apple est que "les services d'intelligence artificielle générative doivent satisfaire aux exigences de licence pour opérer en Chine, y compris l'obtention d'une licence du ministère de l'Industrie et des Technologies de l'information". à La catégorie "fournir des services au public" dans les "Mesures provisoires".
L'article 15 des "Mesures provisoires" de la Chine mentionne également clairement la méthode de gestion pour générer du contenu à risque "les fournisseurs doivent prendre rapidement des mesures telles que l'arrêt de la génération, l'arrêt de la transmission et l'élimination, et prendre des mesures telles que la formation à l'optimisation du modèle pour apporter des corrections". Cela a déjà été mentionné dans le "Draft for Comments" ; cependant, par rapport à la version précédente, la description dans les "Mesures provisoires" est plus modérée, et la description du délai telle que "rectification dans les trois mois" a été supprimée .
Parmi les controverses actuelles entourant la naissance de l'IA générative, les différends sur le droit d'auteur des données utilisées pour former des modèles de langage à grande échelle pour l'IA générative, les fabricants du premier échelon du développement de l'IA générative se sont déjà sentis limités par le manque de contenu de haute qualité. " Plafond invisible", mais en même temps, d'innombrables créateurs et médias ont commencé à engager des poursuites judiciaires et d'autres actions sur les problèmes de droit d'auteur causés par l'IA générative. Il est imminent de formuler des clauses de protection du droit d'auteur du contenu pour le développement de l'IA générative.
Par conséquent, c'est également l'objet de la législation sur l'IA générative aux États-Unis et en Europe : la "loi sur l'intelligence artificielle" européenne exige clairement que les fournisseurs de modèles à grande échelle déclarent s'ils utilisent des matériaux protégés par le droit d'auteur pour former l'IA, et en même temps enregistrent suffisamment d'informations de journal pour que les créateurs demandent une compensation ; tandis que le Bureau américain du droit d'auteur a publié un nouvel examen, sollicitant des suggestions sur les grands problèmes de droit d'auteur soulevés par l'IA générative et cherchant une législation spéciale pour les résoudre.
Dans les "mesures provisoires" actuelles, les paragraphes pertinents du projet pour commentaires en avril ont été supprimés, laissant les "mesures provisoires" actuelles avec des dispositions vides sur la protection des droits de propriété intellectuelle concernant les sources de données, qui doivent être améliorées de toute urgence.
Cependant, pour les grands modèles sur lesquels l'IA générative s'appuie pour le développement ; c'est la loi du développement de rechercher des données sur Internet pour accélérer le développement itératif de grands modèles, et des restrictions uniformes sont susceptibles de provoquer une Coup dur pour l'ensemble de l'industrie. "Exemption" mentionnée dans différents scénarios : dans la "loi sur l'intelligence artificielle" de l'Union européenne, une exemption pour la recherche sur l'IA par des développeurs open source est incluse : la coopération et la construction de composants d'intelligence artificielle dans un environnement ouvert bénéficieront d'une attention spéciale. protection. Dans le même temps, dans les "Mesures provisoires", les clauses pertinentes clarifient également le champ d'application de l'exemption de la loi :
"Tant que les entreprises, les instituts de recherche scientifique, etc. ne fournissent pas ouvertement des services d'intelligence artificielle générative au public, cette loi ne s'applique pas."
"La législation dans le domaine de la propriété intellectuelle a encore besoin de plus de temps pour la recherche et la démonstration." Un consultant juridique travaillant actuellement pour les fabricants de modèles à grande échelle a déclaré aux journalistes : "Les ensembles de données chinois de haute qualité sont plus rares que le contenu anglais et génératifs. Les caractéristiques de La formation à l'IA détermine que même les géants ne peuvent pas complètement signer des contrats avec chaque plate-forme et chaque créateur de contenu de manière indépendante, sans parler des frais de licence exorbitants qui sont déjà un coup dur pour les startups.
"Peut-être que le problème actuel ne peut être laissé qu'au temps pour que le développement de l'industrie obtienne de meilleures solutions pratiques." Concurrence et coopération, a ajouté le consultant. Bien que dans la concurrence entre la Chine et les États-Unis, le développement de l'IA est devenu l'un des principaux champs de bataille des États-Unis pour contenir le développement de la Chine, mais dans le domaine de la législation sur l'IA générative, la coopération entre la Chine, les États-Unis et l'Europe devient progressivement le grand public.
À ce stade, les sociétés d'intelligence artificielle aux États-Unis ont pris conscience des risques liés au développement de l'IA. Des promesses ont été faites pour garantir que l'IA "ne fasse pas le mal": OpenAI a déclaré que sa mission déclarée est "de garantir que l'intelligence générale artificielle profite à toute l'humanité". Les principes de fonctionnement de DeepMind incluent un engagement à "être un pionnier responsable dans le domaine de l'intelligence artificielle", tandis que les fondateurs de DeepMind s'engagent à ne pas s'engager dans des recherches meurtrières sur l'intelligence artificielle, et les principes de recherche sur l'intelligence artificielle de Google stipulent également que Google ne déploiera ni ne concevra d'armes. qui nuisent à l'homme ou à l'intelligence artificielle qui viole les normes internationales de surveillance.
Le 26 juillet, Anthropic, Google, Microsoft et OpenAI ont lancé le Frontier Model Forum, un organisme de l'industrie axé sur le développement sûr et responsable de modèles d'IA de pointe.
Le forum visera à "travailler avec les décideurs politiques, les universités et la société civile pour minimiser les risques et partager les connaissances sur les risques de sécurité" tout en faisant progresser la recherche sur l'IA. Dans le même temps, s'intégrer activement dans la coopération multilatérale internationale existante : y compris la formulation de politiques du G7, de l'OCDE et d'autres organisations sur l'IA générative. Afin de favoriser la synchronisation des pays dans le sens des concepts législatifs et réglementaires.
Auparavant, le magazine Time avait commenté qu'il existe de nombreuses possibilités de coopération entre la Chine et les États-Unis en tant qu'"acteurs importants" de l'IA générative, et l'Europe, qui a souvent été de facto "pionnière" dans la législation sur les nouvelles technologies, c'est dans l'intérêt de toutes les parties pour entamer la coopération au stade législatif, et c'est aussi l'un des moyens importants pour promouvoir le développement de l'IA générative.
Cela correspond également aux vues de Max Tegmark, professeur au Massachusetts Institute of Technology et fondateur du Future of Life Institute : « La Chine est dans une position avantageuse dans de nombreux domaines de l'IA générative, et deviendra probablement un leader dans le contrôle intelligence artificielle."
Le nombre de modèles à grande échelle en Chine et aux États-Unis représente 90 % du monde, de sorte que la coordination législative entre la Chine, les États-Unis et l'Europe déterminera même la tendance de développement de l'industrie mondiale de l'IA générative. La "coordination juridique avec la Chine sous prétexte de se conformer aux intérêts des États-Unis" est progressivement devenue le consensus des milieux politiques et universitaires américains.
Couverture du reportage WIRED
Plus représentatives sont les mesures de classement des risques liés à l'IA : les "mesures provisoires" de la Chine mentionnaient "la prudence inclusive et la supervision de la classification et du classement des services d'intelligence artificielle générative", mais n'ont pas précisé le classement dans la version actuelle. À l'heure actuelle, seuls les paragraphes tels que " l'élaboration de règles ou de lignes directrices correspondantes en matière de supervision de la classification et du classement » ont été rédigées.
La « loi sur l'intelligence artificielle » européenne propose également un système de notation correspondant aux obligations des développeurs d'IA avec différents niveaux de risque. Le « niveau de menace » actuellement proposé pour l'IA comprend quatre catégories :
IA à risque limité
IA à haut risque
Niveau de risque inacceptable
IA générative : produits comme ChatGPT
Dans sa version actuelle, la « loi sur l'intelligence artificielle » extrait l'IA générative en tant que classification indépendante, et en même temps restreint strictement les produits classés comme « IA à haut risque ». Possibilité de risque. Ceci est également considéré comme un "plan de référence" pour la future législation sur les risques liés à l'IA en Chine et aux États-Unis.
De plus, à en juger par le processus législatif actuel, inviter activement le public et les institutions de recherche en IA à participer au processus législatif est un consensus formé par les agences de réglementation dans divers pays grâce à l'expérience des six derniers mois. ne peut être remis en cause.
"L'IA générative ne sera peut-être jamais parfaite, mais la loi est destinée à jouer un rôle majeur dans l'orientation clé du développement de l'IA"
Tout comme Oppenheimer n'a jamais regretté d'avoir développé la bombe atomique au Nouveau-Mexique même s'il s'est opposé à l'utilisation d'armes nucléaires en temps de guerre, personne ne peut empêcher des chercheurs curieux d'utiliser la technologie existante pour développer une intelligence artificielle plus intelligente. Le rythme de l'exploration ne s'arrêtera jamais là. La supervision "nécessaire et raisonnable" est le "ralentisseur" sur le chemin de la course effrénée de l'IA, et c'est aussi la "dernière ligne de défense" pour empêcher l'intelligence artificielle générative de causer de réels dommages.
Mais se concentrer sur "comment éviter de prendre du retard dans la course à l'IA causée par la réglementation" reste l'une des choses les plus préoccupantes pour les législateurs. La législation pertinente deviendra sans aucun doute plus complète avec plus d'expérience et de retour d'expérience.
"Les organismes de réglementation respecteront l'esprit de la législation scientifique et de la législation de la porte ouverte, et apporteront des révisions et des améliorations en temps opportun." Le passage sur l'IA générative dans les "Mesures provisoires" peut être le meilleur principe de législation à l'ère de l'IA générative.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Les produits ChatGPT émergent dans un flot sans fin, et la réglementation mondiale traverse le fleuve en sentant les pierres
Source : Centrale électrique, Auteur : Zhang Yongyi, Éditeur : Gao Yulei
Le 31 juillet, les produits chatgpt de l'App Store d'Apple en Chine ont été retirés collectivement des rayons. Selon Apple, les produits associés doivent obtenir une licence d'exploitation.
Non seulement la Chine, mais aussi les États-Unis et l'Europe, qui sont déterminés à être compétitifs dans ce domaine, appliquent activement la législation et la réglementation tout en encourageant l'innovation.
En avril 2021, la Commission européenne a publié pour la première fois une proposition de structure réglementaire pour le fonctionnement et la gouvernance des applications d'apprentissage automatique, proposant la réglementation de l'IA. À cette époque, le point de vue le plus populaire dans l'industrie de l'IA était encore la célèbre boutade de Wu Enda selon laquelle "s'inquiéter de l'intelligence artificielle aujourd'hui, c'est comme s'inquiéter de la surpopulation sur Mars".
Mais d'ici 2023, une telle vision ne peut plus devenir courante : il a fallu moins de 6 mois à l'IA générative pour montrer au monde le grand potentiel de remplacer les humains et de changer complètement le monde existant, tout comme il a été développé pendant la Seconde Guerre mondiale. comme une arme nucléaire.
Le physicien J-Robert Oppenheimer a dirigé le développement de la première bombe atomique au monde. À cette époque, la Seconde Guerre mondiale était terminée, mais la bombe nucléaire, en tant qu'arme la plus terrifiante de l'histoire de l'humanité, dominait encore largement la tendance historique : États-Unis Le gouvernement n'a pas adopté les critiques et les suggestions d'experts tels qu'Oppenheimer selon lesquelles "la prolifération nucléaire conduira à une course aux armements sans précédent", qui a finalement conduit au déclenchement d'une course aux armements nucléaires entre les États-Unis et l'Union soviétique représentée par le développement de la bombe à hydrogène "super bombe nucléaire" - et dans Pendant la crise des missiles de Cuba, presque toute la civilisation humaine a été entraînée dans un abîme sombre irrécupérable.
La crise qu'Oppenheimer a rencontrée présente de nombreuses similitudes avec la "crise omnique de l'IA" actuelle rencontrée par les humains : avant que les humains n'utilisent l'IA pour se traîner dans un avenir plus vaste et incontrôlable, guidez-la vers un avenir plus massif et incontrôlable. Peut-être que la meilleure façon est pour mettre en œuvre la supervision dans une voie sûre.
En 2021, la "préparation à un jour de pluie" de l'Union européenne est finalement devenue le premier cadre réglementaire pour l'industrie de l'intelligence artificielle dans l'histoire de l'humanité - c'est également le prédécesseur de la loi sur l'intelligence artificielle de l'Union européenne (loi sur l'IA).
Cependant, lorsque les législateurs ont conçu ce projet de loi, ils ne s'attendaient pas à l'existence d'intelligence artificielle générative ou de grands modèles d'ici la fin de 2022. Par conséquent, l'essor explosif de l'IA générative en 2023 a également ajouté plus La section sur l'IA générative : y compris le la transparence de son utilisation de grands modèles et la réglementation de la collecte/utilisation des données des utilisateurs.
Actuellement, ce projet de loi a été voté par le Parlement européen à la mi-juin.La prochaine étape pour les termes définitifs est de finaliser la loi dans les négociations entre les trois organes décisionnels de l'UE - le Parlement, le Conseil et la Commission. Un accord sera trouvé et entrera finalement en vigueur.
En Chine, la législation sur l'IA générative est également en cours : le 13 juillet, les "Mesures provisoires pour l'administration des services d'intelligence artificielle générative" (ci-après collectivement dénommées les "Mesures provisoires") ont été publiées conjointement par sept ministères et commissions. y compris l'Administration du cyberespace de Chine. Il entrera en vigueur en août.
Cela pourrait devenir la première réglementation de gestion de l'intelligence artificielle générative qui sera finalement mise en œuvre. Lors de la dernière série de "Course législative sur l'IA", le processus législatif chinois en matière d'IA l'a dépassé et est devenu la réglementation spécifique à la croissance la plus rapide dans le domaine de la générative. IA. .
Dans d'autres pays qui se situent au premier échelon du développement de l'IA, comme le Royaume-Uni et les États-Unis, une législation réglementaire sur l'IA est également en cours : le 16 mars, le US Copyright Office a lancé une initiative visant à étudier les questions de droit d'auteur et de politique découlant de la technologie de l'intelligence artificielle : y compris la portée du droit d'auteur sur les œuvres générées à l'aide d'outils d'intelligence artificielle et l'utilisation de matériel protégé par le droit d'auteur à des fins d'apprentissage automatique. Le gouvernement britannique a publié son premier cadre réglementaire sur l'IA le 4 avril. Depuis lors, la National Telecommunications and Information Administration (NTIA) des États-Unis a publié un projet de responsabilité en matière d'IA pour solliciter des commentaires du public plus larges sur les mesures et les politiques de responsabilité en matière d'IA.
INNOVATION ET RESPONSABILITÉ
La législation et la gouvernance de l'IA générative est un nouveau domaine dans lequel personne n'a jamais mis les pieds auparavant, et chaque législateur doit supporter la pression des doutes du monde extérieur : lors de la conférence des développeurs Google I/O de cette année, Google a officiellement publié son AI générative Le robot conversationnel Bard, mais la portée du service exclut complètement la région européenne.
Cela amène de nombreux chercheurs/entreprises européens en IA à s'interroger : pourquoi l'Europe manque-t-elle ? Plus tard, Google a déclaré à plusieurs reprises qu'il "avait hâte de s'ouvrir aux utilisateurs européens", ce qui a été interprété comme une "mesure de couverture" pour Google afin d'éviter la zone grise juridique qui existe dans l'IA générative, entraînant d'énormes amendes dans l'UE. .
En juillet, Google a finalement révélé pourquoi : Jack Krawczyk, responsable du produit Bard, a écrit dans un article de blog : Au début de la recherche, la Commission irlandaise de protection des données (DPC) avait déjà proposé l'intention de publier Bard en Europe, mais finalement , il a fallu attendre juillet pour répondre à la demande d'informations du régulateur.
Aujourd'hui, la « loi sur l'intelligence artificielle » de l'Union européenne a été publiée, et presque toutes les lois qu'elle contient pointent directement vers les problèmes émergents ou potentiels dans le développement actuel de l'IA : la propagation de fausses informations/désinformations, l'éventuelle éducation/santé mentale et d'autres problèmes majeurs. problèmes.
Mais ensuite, les législateurs ont constaté que la partie la plus compliquée de la résolution de ce problème réside dans la manière de déterminer la législation : il est nécessaire de protéger l'innovation/éviter le monopole des géants dans le domaine de l'IA, et d'assurer la contrôlabilité de l'IA dans une certaine mesure . Évitez d'inonder de faux contenus. Il est devenu le noyau commun de la législation sur l'IA générative en Chine, aux États-Unis et en Europe, mais ils ont des accents différents dans les réglementations actuelles.
De nombreuses affaires européennes antérieures sur l'intelligence artificielle ont causé un traitement négatif de la part d'institutions telles que Google et OpenAI. De nombreuses entreprises technologiques européennes locales et même des législateurs craignent qu'une législation trop stricte ne permette à l'Europe de revenir au premier rang mondial avec l'aide de l'IA La réalisation de la vision est devenue difficile : après l'adoption officielle de la "loi sur l'intelligence artificielle", l'Union européenne a le droit d'infliger une amende pouvant aller jusqu'à 30 millions d'euros, soit 6 % du chiffre d'affaires annuel de l'entreprise , contre les entreprises qui enfreignent les réglementations sur l'intelligence artificielle. Il s'agit sans aucun doute d'un avertissement évident pour des entreprises telles que Google et Microsoft qui souhaitent développer leur activité d'IA générative en Europe.
Dans la version de juin de la "loi sur l'intelligence artificielle", les législateurs européens ont clairement inclus de nouvelles dispositions pour encourager l'innovation responsable en matière d'intelligence artificielle tout en réduisant les risques technologiques, encadrer correctement l'intelligence artificielle et la placer au premier plan. soutient les mesures innovantes pour les petites et moyennes entreprises et les start-up, y compris la mise en place de "bacs à sable réglementaires" et d'autres mesures visant à réduire la charge de mise en conformité pesant sur les petites et moyennes entreprises et les start-up.
Cependant, avant de vendre des services d'IA ou de déployer des systèmes sur le marché, l'IA générative doit répondre à une série d'exigences réglementaires en matière de gestion des risques, de données, de transparence et de documentation. Parallèlement, l'utilisation de l'intelligence artificielle dans des domaines sensibles tels que les infrastructures critiques sera considéré comme « à haut risque » est inclus dans le champ de la surveillance.
À l'heure actuelle, la spécification AI basée sur les "mesures provisoires" a déjà pris des mesures : le 31 juillet, un grand nombre d'applications qui fournissaient des services ChatGPT dans l'App Store en Chine ont été collectivement retirées des étagères par Apple, et n'ont ne fournissent pas d'accès direct à ChatGPT, mais se concentrent également sur les fonctions d'IA. Un autre lot d'applications ne sera pas affecté pour le moment.
Parmi les controverses actuelles entourant la naissance de l'IA générative, les différends sur le droit d'auteur des données utilisées pour former des modèles de langage à grande échelle pour l'IA générative, les fabricants du premier échelon du développement de l'IA générative se sont déjà sentis limités par le manque de contenu de haute qualité. " Plafond invisible", mais en même temps, d'innombrables créateurs et médias ont commencé à engager des poursuites judiciaires et d'autres actions sur les problèmes de droit d'auteur causés par l'IA générative. Il est imminent de formuler des clauses de protection du droit d'auteur du contenu pour le développement de l'IA générative.
Par conséquent, c'est également l'objet de la législation sur l'IA générative aux États-Unis et en Europe : la "loi sur l'intelligence artificielle" européenne exige clairement que les fournisseurs de modèles à grande échelle déclarent s'ils utilisent des matériaux protégés par le droit d'auteur pour former l'IA, et en même temps enregistrent suffisamment d'informations de journal pour que les créateurs demandent une compensation ; tandis que le Bureau américain du droit d'auteur a publié un nouvel examen, sollicitant des suggestions sur les grands problèmes de droit d'auteur soulevés par l'IA générative et cherchant une législation spéciale pour les résoudre.
Dans les "mesures provisoires" actuelles, les paragraphes pertinents du projet pour commentaires en avril ont été supprimés, laissant les "mesures provisoires" actuelles avec des dispositions vides sur la protection des droits de propriété intellectuelle concernant les sources de données, qui doivent être améliorées de toute urgence.
Cependant, pour les grands modèles sur lesquels l'IA générative s'appuie pour le développement ; c'est la loi du développement de rechercher des données sur Internet pour accélérer le développement itératif de grands modèles, et des restrictions uniformes sont susceptibles de provoquer une Coup dur pour l'ensemble de l'industrie. "Exemption" mentionnée dans différents scénarios : dans la "loi sur l'intelligence artificielle" de l'Union européenne, une exemption pour la recherche sur l'IA par des développeurs open source est incluse : la coopération et la construction de composants d'intelligence artificielle dans un environnement ouvert bénéficieront d'une attention spéciale. protection. Dans le même temps, dans les "Mesures provisoires", les clauses pertinentes clarifient également le champ d'application de l'exemption de la loi :
"Tant que les entreprises, les instituts de recherche scientifique, etc. ne fournissent pas ouvertement des services d'intelligence artificielle générative au public, cette loi ne s'applique pas."
"La législation dans le domaine de la propriété intellectuelle a encore besoin de plus de temps pour la recherche et la démonstration." Un consultant juridique travaillant actuellement pour les fabricants de modèles à grande échelle a déclaré aux journalistes : "Les ensembles de données chinois de haute qualité sont plus rares que le contenu anglais et génératifs. Les caractéristiques de La formation à l'IA détermine que même les géants ne peuvent pas complètement signer des contrats avec chaque plate-forme et chaque créateur de contenu de manière indépendante, sans parler des frais de licence exorbitants qui sont déjà un coup dur pour les startups.
"Peut-être que le problème actuel ne peut être laissé qu'au temps pour que le développement de l'industrie obtienne de meilleures solutions pratiques." Concurrence et coopération, a ajouté le consultant. Bien que dans la concurrence entre la Chine et les États-Unis, le développement de l'IA est devenu l'un des principaux champs de bataille des États-Unis pour contenir le développement de la Chine, mais dans le domaine de la législation sur l'IA générative, la coopération entre la Chine, les États-Unis et l'Europe devient progressivement le grand public.
À ce stade, les sociétés d'intelligence artificielle aux États-Unis ont pris conscience des risques liés au développement de l'IA. Des promesses ont été faites pour garantir que l'IA "ne fasse pas le mal": OpenAI a déclaré que sa mission déclarée est "de garantir que l'intelligence générale artificielle profite à toute l'humanité". Les principes de fonctionnement de DeepMind incluent un engagement à "être un pionnier responsable dans le domaine de l'intelligence artificielle", tandis que les fondateurs de DeepMind s'engagent à ne pas s'engager dans des recherches meurtrières sur l'intelligence artificielle, et les principes de recherche sur l'intelligence artificielle de Google stipulent également que Google ne déploiera ni ne concevra d'armes. qui nuisent à l'homme ou à l'intelligence artificielle qui viole les normes internationales de surveillance.
Le 26 juillet, Anthropic, Google, Microsoft et OpenAI ont lancé le Frontier Model Forum, un organisme de l'industrie axé sur le développement sûr et responsable de modèles d'IA de pointe.
Le forum visera à "travailler avec les décideurs politiques, les universités et la société civile pour minimiser les risques et partager les connaissances sur les risques de sécurité" tout en faisant progresser la recherche sur l'IA. Dans le même temps, s'intégrer activement dans la coopération multilatérale internationale existante : y compris la formulation de politiques du G7, de l'OCDE et d'autres organisations sur l'IA générative. Afin de favoriser la synchronisation des pays dans le sens des concepts législatifs et réglementaires.
Cela correspond également aux vues de Max Tegmark, professeur au Massachusetts Institute of Technology et fondateur du Future of Life Institute : « La Chine est dans une position avantageuse dans de nombreux domaines de l'IA générative, et deviendra probablement un leader dans le contrôle intelligence artificielle."
Le nombre de modèles à grande échelle en Chine et aux États-Unis représente 90 % du monde, de sorte que la coordination législative entre la Chine, les États-Unis et l'Europe déterminera même la tendance de développement de l'industrie mondiale de l'IA générative. La "coordination juridique avec la Chine sous prétexte de se conformer aux intérêts des États-Unis" est progressivement devenue le consensus des milieux politiques et universitaires américains.
Plus représentatives sont les mesures de classement des risques liés à l'IA : les "mesures provisoires" de la Chine mentionnaient "la prudence inclusive et la supervision de la classification et du classement des services d'intelligence artificielle générative", mais n'ont pas précisé le classement dans la version actuelle. À l'heure actuelle, seuls les paragraphes tels que " l'élaboration de règles ou de lignes directrices correspondantes en matière de supervision de la classification et du classement » ont été rédigées.
La « loi sur l'intelligence artificielle » européenne propose également un système de notation correspondant aux obligations des développeurs d'IA avec différents niveaux de risque. Le « niveau de menace » actuellement proposé pour l'IA comprend quatre catégories :
Dans sa version actuelle, la « loi sur l'intelligence artificielle » extrait l'IA générative en tant que classification indépendante, et en même temps restreint strictement les produits classés comme « IA à haut risque ». Possibilité de risque. Ceci est également considéré comme un "plan de référence" pour la future législation sur les risques liés à l'IA en Chine et aux États-Unis.
De plus, à en juger par le processus législatif actuel, inviter activement le public et les institutions de recherche en IA à participer au processus législatif est un consensus formé par les agences de réglementation dans divers pays grâce à l'expérience des six derniers mois. ne peut être remis en cause.
"L'IA générative ne sera peut-être jamais parfaite, mais la loi est destinée à jouer un rôle majeur dans l'orientation clé du développement de l'IA"
Tout comme Oppenheimer n'a jamais regretté d'avoir développé la bombe atomique au Nouveau-Mexique même s'il s'est opposé à l'utilisation d'armes nucléaires en temps de guerre, personne ne peut empêcher des chercheurs curieux d'utiliser la technologie existante pour développer une intelligence artificielle plus intelligente. Le rythme de l'exploration ne s'arrêtera jamais là. La supervision "nécessaire et raisonnable" est le "ralentisseur" sur le chemin de la course effrénée de l'IA, et c'est aussi la "dernière ligne de défense" pour empêcher l'intelligence artificielle générative de causer de réels dommages.
Mais se concentrer sur "comment éviter de prendre du retard dans la course à l'IA causée par la réglementation" reste l'une des choses les plus préoccupantes pour les législateurs. La législation pertinente deviendra sans aucun doute plus complète avec plus d'expérience et de retour d'expérience.
"Les organismes de réglementation respecteront l'esprit de la législation scientifique et de la législation de la porte ouverte, et apporteront des révisions et des améliorations en temps opportun." Le passage sur l'IA générative dans les "Mesures provisoires" peut être le meilleur principe de législation à l'ère de l'IA générative.