Le processus de législation mondiale sur l'IA s'est considérablement accéléré et les réglementations du monde entier rattrapent l'évolution de l'IA.
Le 14 juin, heure locale, le Parlement européen a voté par 499 voix pour, 28 contre et 93 abstentions, et a adopté le projet de mandat de négociation de la loi sur l'intelligence artificielle (loi IA). Selon le processus législatif de l'UE, le Parlement européen, les États membres de l'UE et la Commission européenne entameront des "négociations tripartites" pour déterminer les termes définitifs du projet de loi.
Le Parlement européen s'est dit "prêt à négocier" pour promulguer le tout premier projet de loi sur l'intelligence artificielle. Le président américain Biden a lancé un signal pour contrôler l'IA, et certains membres du Congrès américain ont soumis des propositions de législation réglementaire sur l'IA. Le leader démocrate du Sénat américain, Chuck Schumer, a dévoilé son "Framework for AI Safety Innovation" et prévoit de promulguer un projet de loi fédéral sur l'IA dans seulement "quelques mois".
la législation pertinente de mon pays a également été mise à l'ordre du jour, et le projet de loi sur l'intelligence artificielle va être soumis au Comité permanent de l'Assemblée populaire nationale pour délibération dans le courant de cette année. Le 20 juin, le premier lot de listes nationales de dépôt d'algorithmes de service de synthèse approfondie a également été publié, avec 26 sociétés dont Baidu, Alibaba et Tencent, et un total de 41 algorithmes sur la liste.
Bien que la Chine, les États-Unis et l'Union européenne préconisent tous des concepts réglementaires fondés sur des principes tels que la précision, la sécurité et la transparence, il existe de nombreuses différences dans les idées et les méthodes spécifiques. La promulgation de lois complètes sur l'IA est à l'origine de la production de ses propres règles, et elle veut saisir les avantages des règles.
Certains experts nationaux ont appelé à l'élaboration rapide de réglementations juridiques sur l'intelligence artificielle, mais les problèmes pratiques actuels ne peuvent être ignorés. De plus, il y a une autre considération importante : réglementer ou développer. Ce n'est pas un choix binaire, mais dans le domaine numérique, équilibrer les deux n'est pas facile.
Sprint de l'UE, la Chine et les États-Unis accélèrent
Si tout se passe bien, le projet de loi sur l'intelligence artificielle adopté par le Parlement européen devrait être approuvé d'ici la fin de cette année. La première loi réglementaire globale sur l'intelligence artificielle au monde devrait atterrir dans l'UE.
"Ce projet affectera d'autres pays qui sont en marge pour accélérer la législation. Pendant longtemps, la question de savoir si la technologie de l'intelligence artificielle devait être incluse dans le champ d'application de la surveillance juridique a toujours été controversée". " est mis en œuvre, les plates-formes de réseau pertinentes, telles que le contenu commercial et les plates-formes d'utilisateurs qui se concentrent sur la génération d'informations sont tenues d'assumer des obligations d'audit plus élevées. " Zhao Jingwu, professeur agrégé à la faculté de droit de l'Université de Beihang, a déclaré à China News Weekly.
Dans le cadre de la stratégie numérique, l'Union européenne espère réglementer de manière globale l'intelligence artificielle via la "loi sur l'intelligence artificielle", et le schéma stratégique qui la sous-tend a également été mis sur la table.
Peng Xiaoyan, directeur exécutif du cabinet d'avocats Beijing Wanshang Tianqin (Hangzhou), a déclaré à China News Weekly que la "loi sur l'intelligence artificielle" s'applique non seulement à l'UE, mais réglemente également les fournisseurs de systèmes situés en dehors de l'UE mais dont les données de sortie du système sont utilisées dans l'UE ou l'utilisateur. La portée de la compétence et de l'application de la Loi a été considérablement élargie, et les indices de préemption de la compétence des éléments de données peuvent également être entrevus.
Jin Ling, directeur adjoint et chercheur de l'Institut européen de l'Institut chinois d'études internationales, a également écrit dans l'article « La première législation sur l'intelligence artificielle au monde : un équilibre difficile entre l'innovation et la réglementation » que la « Loi sur l'intelligence artificielle » met en évidence la morale avantages de la gouvernance de l'IA de l'UE , est une autre tentative de l'UE de faire jouer pleinement son pouvoir normatif et de combler les lacunes techniques par les avantages des règles. Il reflète l'intention stratégique de l'UE de s'emparer de la haute morale dans le domaine de l'intelligence artificielle.
La loi sur l'intelligence artificielle a mis deux ans à se préparer. En avril 2021, la Commission européenne a présenté une proposition de législation sur l'intelligence artificielle basée sur le cadre de "classification des risques", qui a été discutée et révisée après plusieurs cycles. Après la popularité de l'IA générative telle que ChatGPT, les législateurs européens ont ajouté de toute urgence des "correctifs".
Un nouveau changement est que le dernier projet de "loi sur l'intelligence artificielle" a renforcé les exigences de transparence pour l'IA à usage général. Par exemple, l'IA générative basée sur le modèle de base doit étiqueter le contenu généré, aider les utilisateurs à distinguer les informations contrefaites des informations réelles et s'assurer que le contenu illégal ne peut pas être généré. Les fournisseurs de modèles de base tels que OpenAI et Google doivent également divulguer les détails des données de formation s'ils utilisent des données protégées par le droit d'auteur lors de la formation du modèle.
De plus, la technologie biométrique à distance en temps réel dans les lieux publics a été ajustée du niveau "à haut risque" au niveau "interdit", c'est-à-dire que la technologie de l'IA ne doit pas être utilisée pour la reconnaissance faciale dans les lieux publics des pays de l'UE.
Le dernier projet augmente également le montant des sanctions en cas d'infraction, en faisant passer le maximum de 30 millions d'euros ou 6 % du chiffre d'affaires global de l'entreprise contrevenante au cours de l'exercice précédent à un maximum de 40 millions d'euros ou 7 % du chiffre d'affaires annuel global. chiffre d'affaires de l'entreprise contrevenante au cours de l'année précédente. C'est nettement plus élevé que le règlement général sur la protection des données, la loi européenne sur la sécurité des données, qui peut entraîner des amendes pouvant atteindre 4% du chiffre d'affaires mondial, soit 20 millions d'euros.
Peng Xiaoyan a déclaré à China News Weekly que l'augmentation du montant des sanctions reflète la détermination et la force des autorités de l'UE à superviser l'intelligence artificielle. Pour les géants de la technologie tels que Google, Microsoft et Apple avec des centaines de milliards de dollars de revenus, s'ils enfreignent les dispositions de la "loi sur l'intelligence artificielle", les amendes peuvent atteindre des dizaines de milliards de dollars.
Aux États-Unis de l'autre côté de l'océan, alors que Washington était occupé à répondre à l'appel de Musk et d'autres pour un contrôle plus fort de l'IA, le 20 juin, le président américain Biden a rencontré un groupe d'experts et de chercheurs en intelligence artificielle à San Francisco pour discuter comment gérer les risques de cette nouvelle technologie. Biden a déclaré à l'époque que tout en saisissant l'énorme potentiel de l'IA, il était nécessaire de gérer les risques qu'elle pose pour la société, l'économie et la sécurité nationale.
Le contexte de la gestion et du contrôle des risques devenant un sujet brûlant dans l'IA est que les États-Unis n'ont pas adopté de mesures anti-monopole strictes contre la technologie de l'IA et n'ont pas encore introduit de lois réglementaires complètes sur l'IA au niveau fédéral.
La première incursion officielle du gouvernement fédéral américain dans le domaine de la réglementation de l'intelligence artificielle a eu lieu en janvier 2020, lorsqu'il a publié les « Lignes directrices réglementaires pour l'application de l'intelligence artificielle » afin de fournir des orientations sur les mesures réglementaires et non réglementaires pour les problèmes émergents liés à l'intelligence artificielle. Le "National Artificial Intelligence Initiative Act 2020" introduit en 2021 est davantage un schéma politique dans le domaine de l'IA, et il y a encore une certaine distance par rapport à la gouvernance de l'intelligence artificielle et à une supervision forte. Un an plus tard, le Blueprint for an AI Bill of Rights ("Blueprint") publié par la Maison Blanche en octobre 2022 fournit un cadre de soutien pour la gouvernance de l'IA, mais il ne s'agit pas d'une politique américaine officielle et n'est pas contraignante.
Peu de progrès ont été réalisés dans la législation sur l'IA aux États-Unis, ce qui a suscité de nombreuses insatisfactions. De nombreuses personnes ont critiqué le fait que les États-Unis ont pris du retard sur l'Union européenne et la Chine dans la formulation de règles pour l'économie numérique. Cependant, voyant peut-être que la « loi sur l'intelligence artificielle » de l'Union européenne est sur le point de franchir le « obstacle » final, le Congrès américain a récemment montré des signes d'accélération de la législation.
Le jour de la conférence sur l'IA de Biden, les représentants démocrates Ted W. Lieu et Anna Eshoo, ainsi que le représentant républicain Ken Buck, ont soumis la proposition du Conseil national sur l'intelligence artificielle. Pendant ce temps, le sénateur démocrate Brian Schatz présentera une législation complémentaire au Sénat qui se concentrera sur la réglementation de l'IA.
Selon le contenu du projet de loi, la commission sur l'intelligence artificielle sera composée de 20 experts du gouvernement, de l'industrie, de la société civile et de l'informatique. Ils examineront les méthodes actuelles de réglementation de l'intelligence artificielle aux États-Unis et élaboreront conjointement un cadre réglementaire complet. .
"L'IA fait des choses incroyables dans la société. Si elle n'est pas contrôlée et réglementée, elle peut causer des dommages importants. Le Congrès ne doit pas rester les bras croisés", a déclaré Ted Liu dans un communiqué.
Un jour plus tard, le 21 juin, le leader démocrate du Sénat, Chuck Schumer, a prononcé un discours au Centre d'études stratégiques et internationales (CSIS), révélant son "Framework for Artificial Intelligence Security Innovation" ("AI Framework") — — Encourager l'innovation tout en avançant sécurité, responsabilité, fondement et interprétabilité, faisant écho au grand plan, y compris le Plan directeur. Il a proposé le cadre en avril, mais a donné peu de détails à l'époque.
Derrière le cadre de l'IA se cache une stratégie législative de Chuck Schumer. Dans ce discours, il a déclaré qu'un projet de loi fédéral sur l'intelligence artificielle serait promulgué dans seulement "quelques mois". Cependant, le processus législatif américain est lourd : il doit non seulement être voté par le Sénat et la Chambre des représentants, mais aussi passer par plusieurs séries d'auditions, ce qui prend beaucoup de temps.
Afin d'accélérer les progrès, dans le cadre du cadre de l'IA, Chuck Schumer prévoit d'organiser une série de forums sur l'intelligence artificielle à partir de septembre de cette année, couvrant 10 sujets, dont l'innovation, la propriété intellectuelle, la sécurité nationale et la confidentialité. Il a déclaré au monde extérieur que l'Insight Forum ne remplacera pas les audiences du Congrès sur l'intelligence artificielle, mais se tiendra en parallèle afin que le législateur puisse introduire une politique sur la technologie en quelques mois plutôt qu'en quelques années. Il a prédit qu'il faudra peut-être attendre l'automne "pour commencer à voir des choses concrètes" dans la législation américaine sur l'IA.
Bien que les progrès n'aient pas rattrapé ceux de l'Union européenne, la législation pertinente de mon pays a également été mise à l'ordre du jour. Début juin, le Bureau général du Conseil d'État a publié le "Plan de travail législatif 2023 du Conseil d'État", qui mentionnait que le projet de loi sur l'intelligence artificielle était préparé pour être soumis au Comité permanent de l'Assemblée populaire nationale pour délibération. .
Conformément aux dispositions de la "loi législative" de mon pays, après que le Conseil d'État a proposé un projet de loi au Comité permanent de l'Assemblée populaire nationale, la réunion du président décide de l'inscrire à l'ordre du jour de la réunion du Comité permanent, ou le soumet d'abord à la commission spéciale compétente pour délibération et soumet un rapport, puis décide de l'inclure dans la Commission permanente L'ordre du jour de la réunion doit généralement passer par trois délibérations avant d'être voté.
Depuis le début de cette année, de nombreux pays ont accéléré la législation sur l'IA. Peng Xiaoyan estime que cela est le résultat à la fois de la concurrence et du développement technologique.
"Les éléments de données deviennent de plus en plus des éléments stratégiques nationaux, et les pays espèrent également établir une juridiction par le biais de la législation et saisir le droit de parler en intelligence artificielle. Dans le même temps, la mise à jour itérative des technologies d'intelligence artificielle telles que ChatGPT a permis à la société de voir de nouveaux espoirs pour le développement d'une intelligence artificielle forte. Nouveau Le développement de la technologie entraînera inévitablement de nouveaux problèmes sociaux et de nouvelles contradictions sociales, qui nécessitent une intervention et un ajustement réglementaires, et le développement de la technologie a favorisé dans une certaine mesure la mise à jour de la législation." Peng dit Xiaoyan.
La divergence dépasse de loin la convergence
La Chine, les États-Unis et l'Union européenne sont les principaux moteurs du développement mondial de l'IA, mais il existe également des différences dans la législation sur l'IA entre les trois.
La "loi sur l'intelligence artificielle" de l'Union européenne divise les risques des applications d'intelligence artificielle en quatre niveaux du point de vue de l'utilisation et de la fonction. Quel que soit le nombre de séries de révisions subies par le projet, la "classification des risques" reste le concept central de la stratégie de l'UE. Gouvernance de l'IA.
Le sommet de la pyramide devrait présenter un risque "inacceptable" pour la sécurité humaine. Par exemple, les systèmes de notation qui classent les personnes en fonction de leur comportement social ou de leurs caractéristiques personnelles, etc., seraient totalement interdits.
Dans le dernier projet, le Parlement européen a élargi la liste des "risques inacceptables" pour empêcher les systèmes d'IA intrusifs et discriminatoires. Six types de systèmes d'intelligence artificielle, tels que l'identification biométrique dans les espaces publics, la reconnaissance émotionnelle, la police prédictive (basée sur le profilage, la localisation ou le comportement criminel passé) et la saisie aléatoire d'images faciales sur Internet, sont totalement interdits.
La deuxième catégorie comprend les systèmes d'IA qui ont un impact négatif sur la sécurité humaine ou les droits fondamentaux et sont considérés comme "à haut risque". Par exemple, les systèmes d'IA utilisés dans des produits tels que l'aviation, les automobiles et les équipements médicaux, ainsi que huit domaines spécifiques qui doivent être enregistrés dans la base de données de l'UE, couvrant les infrastructures critiques, l'éducation, la formation, l'application de la loi, etc. Sous réserve des réglementations en matière d'IA et d'une évaluation de conformité préalable, divers systèmes d'IA "à haut risque" seront autorisés à entrer sur le marché de l'UE sous réserve d'un ensemble d'exigences et d'obligations.
En outre, les systèmes d'intelligence artificielle qui influencent les électeurs et les résultats des élections, ainsi que les systèmes de recommandation utilisés par les plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs, tels que Facebook, Twitter et Instagram, seront également placés sur la liste à haut risque sous la Loi sur les services numériques de l'UE .
Au bas de la pyramide se trouvent les systèmes d'IA avec un risque limité, peu ou pas. Le premier a des obligations de transparence spécifiques et doit informer les utilisateurs qu'ils interagissent avec les systèmes d'IA, tandis que le second n'a pas de réglementation obligatoire et n'est fondamentalement pas réglementé, comme les applications telles que les filtres anti-spam.
En raison de ses dispositions réglementaires strictes, la "loi sur l'intelligence artificielle" est considérée par de nombreux initiés de l'industrie comme ayant de nombreuses "dents" acérées. Cependant, le projet de loi tente également de trouver un équilibre entre une réglementation stricte et l'innovation.
Par exemple, le dernier projet oblige les États membres à établir au moins un "bac à sable réglementaire" qui peut être utilisé gratuitement par les petites et moyennes entreprises et les start-ups, dans un scénario supervisé, sûr et contrôlable, pour tester des solutions artificielles innovantes systèmes de renseignement avant leur mise en service, jusqu'à ce que les exigences de conformité soient satisfaites. L'UE estime généralement que la proposition permettra non seulement aux autorités de prêter attention aux changements technologiques en temps réel, mais aidera également les entreprises d'IA à continuer d'innover tout en réduisant la pression réglementaire.
Jin Ling a déclaré dans l'article susmentionné que d'une part, la méthode de gouvernance en amont de l'UE oblige les entreprises à supporter davantage de coûts initiaux, et d'autre part, l'incertitude de l'évaluation des risques affecte également l'enthousiasme des entreprises en matière d'investissement. Par conséquent, alors que la Commission a souligné à plusieurs reprises que la législation sur l'IA soutiendrait l'innovation et la croissance dans l'économie numérique européenne, une analyse économique réaliste ne semble pas étayer cette conclusion. Le projet de loi reflète le conflit inhérent à l'UE entre la promotion de l'innovation et la protection des droits, qui est difficile à équilibrer efficacement.
Comme l'Union européenne et la Chine, les États-Unis soutiennent une approche réglementaire de l'IA basée sur les risques, prônant l'exactitude, la sécurité et la transparence. Cependant, de l'avis de Zhao Jingwu, la pensée réglementaire américaine est davantage axée sur l'utilisation de l'IA pour promouvoir l'innovation et le développement de l'industrie de l'IA, et en fin de compte pour maintenir le leadership et la compétitivité des États-Unis.
« À la différence du concept réglementaire de « prévention des risques et de sécurité technologique » détenu par la Chine et l'UE, les États-Unis se concentrent sur le développement commercial. La Chine et l'UE se concentrent toutes deux sur la sécurité des applications de la technologie de l'intelligence artificielle pour empêcher l'abus de la technologie de l'intelligence artificielle. de porter atteinte aux droits individuels, tandis que les États-Unis se concentrent sur le développement industriel est au centre de la supervision », a déclaré Zhao Jingwu.
Des études ont montré que la législation du Congrès américain se concentre principalement sur l'incitation et l'orientation du gouvernement à utiliser l'intelligence artificielle. Par exemple, le Sénat américain a introduit une loi sur l'innovation en IA en 2021, obligeant le département américain de la Défense à mettre en œuvre un programme pilote pour s'assurer qu'il a accès aux meilleures capacités logicielles d'IA et d'apprentissage automatique.
Dans le discours susmentionné, Chuck Schumer considérait l'innovation comme l'étoile polaire, et son cadre d'IA consiste à libérer le grand potentiel de l'intelligence artificielle et à soutenir l'innovation menée par les États-Unis dans la technologie de l'intelligence artificielle. Au début des "Lignes directrices pour la supervision des applications d'intelligence artificielle", il est clair que l'avancement de la technologie et l'innovation doivent continuer à être encouragés. L'objectif ultime de la loi 2020 sur l'initiative nationale sur l'intelligence artificielle est également de garantir que les États-Unis conservent une position de leader dans le domaine mondial de la technologie de l'IA en augmentant les investissements dans la recherche et en établissant un système de main-d'œuvre.
Peng Xiaoyan a déclaré que du point de vue de l'orientation de la conception des spécifications, le développement de l'intelligence artificielle aux États-Unis est toujours dans un état de faible supervision aux niveaux législatif et institutionnel, et la société encourage activement l'innovation et l'expansion de la technologie de l'intelligence artificielle avec une attitude ouverte.
Par rapport à l'Union européenne, qui dispose de pouvoirs d'enquête plus clairs et d'une couverture réglementaire complète, les États-Unis ont adopté une approche décentralisée de la réglementation de l'IA, certains États et institutions faisant progresser la gouvernance de l'IA dans une moindre mesure. Par conséquent, les initiatives nationales de réglementation de l'IA sont très vastes et fondées sur des principes.
Par exemple, le « Blueprint » est un événement marquant dans la politique de gouvernance de l'intelligence artificielle aux États-Unis. Il a formulé cinq principes de base, y compris des systèmes sûrs et efficaces, la prévention de la discrimination algorithmique, la protection de la confidentialité des données, la notification et l'explication, et la participation humaine à la décision. Il n'y a pas de dispositions plus détaillées.
Peng Xiaoyan estime que le "Blueprint" ne formule pas de mesures de mise en œuvre spécifiques, mais construit un cadre de base pour le développement de l'intelligence artificielle de manière fondée sur des principes, visant à guider la conception, l'utilisation et le déploiement de systèmes d'intelligence artificielle.
"Des normes comme celle-ci ne sont pas obligatoires. C'est parce que les États-Unis envisagent de soutenir le développement de l'industrie de l'intelligence artificielle. À l'heure actuelle, l'intelligence artificielle est encore à un stade émergent de développement, et une supervision à haute intensité est vouée à limiter le développement industriel et l'innovation dans une certaine mesure. Par conséquent, les États-Unis maintiennent une attitude relativement modeste en matière de législation », a déclaré Peng Xiaoyan.
"Sans lois donnant de nouveaux pouvoirs aux agences, elles ne peuvent réglementer l'utilisation de l'intelligence artificielle qu'en fonction des pouvoirs dont elles disposent déjà. En revanche, les principes éthiques liés à l'intelligence artificielle restent moins réglementés, et les agences peuvent décider comment réglementer elles-mêmes. Selon l'analyste de Carnegie Hadrien Pouget, cela rend les agences fédérales dirigées par la Maison Blanche à la fois restreintes et libres.
Le concept de gouvernance de l'IA dominée par l'utilisation et l'innovation est destinée à ne pas être trop dure pour le "poing" des États-Unis. Alex Engler, chercheur à la Brookings Institution, un groupe de réflexion américain bien connu, a souligné que l'Union européenne et les États-Unis adoptent des approches réglementaires différentes de l'intelligence artificielle qui ont des impacts sociaux tels que l'éducation, la finance et l'emploi.
En termes d'applications spécifiques d'IA, la "loi sur l'intelligence artificielle" de l'Union européenne impose des exigences de transparence pour les robots de chat, alors qu'il n'existe aucune réglementation fédérale aux États-Unis. La reconnaissance faciale est considérée comme un "risque inacceptable" par l'Union européenne, et les États-Unis fournissent des informations publiques par le biais du programme de test des fournisseurs de reconnaissance faciale du National Institute of Standards and Technology (NIST), mais n'imposent pas de règles.
"La portée réglementaire de l'UE couvre non seulement un plus large éventail d'applications, mais établit davantage de règles pour ces applications d'IA. Alors que l'approche américaine se limite plus étroitement à adapter les régulateurs institutionnels actuels pour essayer de gouverner l'IA, la portée de l'IA C'est aussi beaucoup plus limité. » Alex Engler dit qu'il y a beaucoup plus de divergences que de convergences dans la gestion des risques liés à l'IA, malgré des principes globalement identiques.
Zhao Jingwu a résumé les modèles de réglementation de l'IA de la Chine, de l'Union européenne et des États-Unis, et a constaté que la Chine se limite aux scénarios d'application de la technologie de l'intelligence artificielle et a formulé des règles réglementaires spéciales pour les scénarios d'application tels que la technologie de reconnaissance faciale. , synthèse approfondie et recommandation automatisée. L'UE est guidée par le niveau de risque, selon que le niveau de risque des applications d'intelligence artificielle est un niveau acceptable. Les États-Unis jugent la légalité de l'application de la technologie de l'intelligence artificielle dans le cadre du système juridique traditionnel existant.
En outre, les États-Unis ont également accordé plus d'attention à la recherche sur l'intelligence artificielle et y ont investi davantage de fonds. Début mai, la Maison Blanche a annoncé un investissement d'environ 140 millions de dollars américains pour créer sept nouveaux instituts nationaux de recherche sur l'intelligence artificielle. Certains chercheurs pensent que cette décision des États-Unis espère mieux comprendre l'IA, atténuant ainsi les inquiétudes suscitées par le processus réglementaire.
Peng Xiaoyan a déclaré que mon pays avait adopté des mesures pour encourager le développement de la technologie de l'intelligence artificielle tout en réglementant la gestion des domaines connexes de manière limitée, et guider le développement de la technologie de l'intelligence artificielle avec des politiques coordonnées et des exigences de gestion.
la législation de mon pays rencontre de nombreux problèmes pratiques
L'Union européenne accélère la mise en œuvre du premier projet de loi réglementaire sur l'IA au monde. Zhao Jingwu a déclaré à China News Weekly que les mesures de réglementation de l'intelligence artificielle du « système de niveau de risque » de l'Union européenne, le concept de réglementation de « modèle général » proposé dans la « Loi sur l'intelligence artificielle » , et les règles spécifiques pour ChatGPT Les obligations de divulgation et les obligations de conformité au droit d'auteur des données des applications d'intelligence artificielle générative sont une valeur de référence pour la législation sur l'intelligence artificielle de mon pays.
En fait, la législation de mon pays sur l'intelligence artificielle a déjà commencé. En 2017, le Conseil d'État a publié le "Plan de développement de l'intelligence artificielle de nouvelle génération", qui proposait que d'ici 2025, les lois et réglementations, les normes éthiques et les systèmes politiques en matière d'intelligence artificielle soient initialement établies, et des évaluations et des politiques de sécurité de l'intelligence artificielle devraient être formées.
Localement, en 2022, la ville de Shenzhen a promulgué le « Règlement sur la promotion de l'industrie de l'intelligence artificielle dans la zone économique spéciale de Shenzhen », qui est considéré comme la première législation spéciale de mon pays pour l'industrie de l'intelligence artificielle. Le "Règlement" mentionnait que le mécanisme de surveillance dans le domaine de l'intelligence artificielle devrait être amélioré afin de prévenir les éventuels risques de sécurité éthique et les risques de conformité pouvant survenir dans les produits et services d'intelligence artificielle.
À l'heure actuelle, la réglementation de l'intelligence artificielle de mon pays est principalement promue conjointement par plusieurs grands ministères et commissions, qui promeuvent la réglementation et le développement de l'intelligence artificielle dans différents domaines. Des documents normatifs tels que le "Règlement sur l'administration des recommandations d'algorithmes pour les services d'information sur Internet", le "Règlement sur l'administration de la synthèse approfondie des services d'information sur Internet" et les "Mesures administratives pour les services d'intelligence artificielle générative (projet pour commentaire)" ont également été émis.
"Du point de vue des normes de gestion historiques, la réglementation de mon pays dans le domaine de l'intelligence artificielle adopte des mesures pour distinguer les domaines d'activité et les directions techniques, et les normes de gestion ont tendance à être décentralisées. Lorsque les normes sont introduites, elles ont souvent la caractéristique d'être opportunes. "Après l'émergence de technologies spécifiques, faites des règlements de gestion spéciaux. Les règlements sont promulgués par le département administratif, axés sur la supervision, et n'ont pas été transformés en lois au niveau de la réglementation", a déclaré Peng Xiaoyan.
Il convient de noter que le 20 juin, le premier lot de listes nationales de classement des algorithmes du service de synthèse approfondie a été publié. 26 sociétés, dont Baidu, Alibaba, Tencent, ByteDance et Meituan, et un total de 41 algorithmes figuraient sur la liste.
Alors que la chaleur de la législation sur l'IA se réchauffe, les experts nationaux ont commencé à appeler au développement rapide des réglementations juridiques sur l'intelligence artificielle. Cependant, selon Zhao Jingwu, la législation spéciale de mon pays sur l'intelligence artificielle est réalisable, mais elle est également confrontée à de nombreux problèmes pratiques.
"Le premier est le problème de la connexion du système entre les documents législatifs. La relation applicable entre la législation spécifique à l'intelligence artificielle et d'autres documents normatifs n'a pas encore été résolue, en particulier le contenu qui se chevauche de la législation spéciale et de la législation actuelle qui doit être résolu de toute urgence. Le deuxième est la technologie de l'intelligence artificielle. La vitesse de mise à jour et d'itération s'accélère et il est difficile d'assurer le développement simultané du droit et de la technologie ; troisièmement, les règles de réglementation de l'intelligence artificielle manquent d'intégrité et les règles de réglementation des trois éléments fondamentaux des données, des algorithmes et de la puissance de calcul en sont encore au stade exploratoire ; quatrièmement, la législation sur l'intelligence artificielle La question de savoir si l'accent doit être mis sur la gestion des risques de sécurité ou sur le développement industriel est plus controversée », a déclaré Zhao Jingwu.
Qu'il s'agisse de la «loi sur l'intelligence artificielle» de l'Union européenne ou des réglementations, initiatives et plans de la Chine, des États-Unis et d'autres pays en matière d'IA, ils tentent de créer un cadre réglementaire complet qui peut non seulement assurer la sécurité, mais aussi créer de meilleures conditions pour l'IA.
Sur la base de ce principe d'universalité, Peng Xiaoyan a déclaré à China News Weekly que l'établissement de lois sur l'intelligence artificielle dans mon pays devrait d'abord reposer sur l'encouragement actif du développement et de l'innovation, afin que l'intelligence artificielle puisse être réglementée et développée dans un espace relativement ouvert. ligne rouge.
"En outre, les problèmes juridiques dans le domaine de l'intelligence artificielle qui préoccupent tout le monde doivent maintenant être résolus, y compris, mais sans s'y limiter, l'interdiction des contenus illégaux dans l'intelligence artificielle, la protection de la sécurité des données de l'intelligence artificielle, la protection de l'intelligence artificielle l'éthique et la sécurité, la prévention de la violation de la propriété intellectuelle, etc. ", a déclaré Peng Xiaoyan.
Zhao Jingwu pense que mon pays devrait établir une loi sur l'intelligence artificielle orientée vers la protection du développement industriel.
"Dans une certaine mesure, la législation actuelle peut essentiellement répondre aux besoins de supervision des applications de la technologie de l'intelligence artificielle. La prévention des risques technologiques et la garantie de la sécurité technologique ne sont que le processus de gouvernance, et son objectif ultime doit encore revenir au niveau de développement de l'intelligence artificielle. Après tout, les lois sur l'intelligence artificielle ne limitent pas le développement des industries, mais guident et garantissent le bon développement des industries connexes", a déclaré Zhao Jingwu.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
L'énigme réglementaire de l'IA : comment « battre la magie par la magie »
Source originale : China News Weekly
Auteur : Hallic
Le processus de législation mondiale sur l'IA s'est considérablement accéléré et les réglementations du monde entier rattrapent l'évolution de l'IA.
Le 14 juin, heure locale, le Parlement européen a voté par 499 voix pour, 28 contre et 93 abstentions, et a adopté le projet de mandat de négociation de la loi sur l'intelligence artificielle (loi IA). Selon le processus législatif de l'UE, le Parlement européen, les États membres de l'UE et la Commission européenne entameront des "négociations tripartites" pour déterminer les termes définitifs du projet de loi.
Le Parlement européen s'est dit "prêt à négocier" pour promulguer le tout premier projet de loi sur l'intelligence artificielle. Le président américain Biden a lancé un signal pour contrôler l'IA, et certains membres du Congrès américain ont soumis des propositions de législation réglementaire sur l'IA. Le leader démocrate du Sénat américain, Chuck Schumer, a dévoilé son "Framework for AI Safety Innovation" et prévoit de promulguer un projet de loi fédéral sur l'IA dans seulement "quelques mois".
la législation pertinente de mon pays a également été mise à l'ordre du jour, et le projet de loi sur l'intelligence artificielle va être soumis au Comité permanent de l'Assemblée populaire nationale pour délibération dans le courant de cette année. Le 20 juin, le premier lot de listes nationales de dépôt d'algorithmes de service de synthèse approfondie a également été publié, avec 26 sociétés dont Baidu, Alibaba et Tencent, et un total de 41 algorithmes sur la liste.
Bien que la Chine, les États-Unis et l'Union européenne préconisent tous des concepts réglementaires fondés sur des principes tels que la précision, la sécurité et la transparence, il existe de nombreuses différences dans les idées et les méthodes spécifiques. La promulgation de lois complètes sur l'IA est à l'origine de la production de ses propres règles, et elle veut saisir les avantages des règles.
Certains experts nationaux ont appelé à l'élaboration rapide de réglementations juridiques sur l'intelligence artificielle, mais les problèmes pratiques actuels ne peuvent être ignorés. De plus, il y a une autre considération importante : réglementer ou développer. Ce n'est pas un choix binaire, mais dans le domaine numérique, équilibrer les deux n'est pas facile.
Sprint de l'UE, la Chine et les États-Unis accélèrent
Si tout se passe bien, le projet de loi sur l'intelligence artificielle adopté par le Parlement européen devrait être approuvé d'ici la fin de cette année. La première loi réglementaire globale sur l'intelligence artificielle au monde devrait atterrir dans l'UE.
"Ce projet affectera d'autres pays qui sont en marge pour accélérer la législation. Pendant longtemps, la question de savoir si la technologie de l'intelligence artificielle devait être incluse dans le champ d'application de la surveillance juridique a toujours été controversée". " est mis en œuvre, les plates-formes de réseau pertinentes, telles que le contenu commercial et les plates-formes d'utilisateurs qui se concentrent sur la génération d'informations sont tenues d'assumer des obligations d'audit plus élevées. " Zhao Jingwu, professeur agrégé à la faculté de droit de l'Université de Beihang, a déclaré à China News Weekly.
Dans le cadre de la stratégie numérique, l'Union européenne espère réglementer de manière globale l'intelligence artificielle via la "loi sur l'intelligence artificielle", et le schéma stratégique qui la sous-tend a également été mis sur la table.
Peng Xiaoyan, directeur exécutif du cabinet d'avocats Beijing Wanshang Tianqin (Hangzhou), a déclaré à China News Weekly que la "loi sur l'intelligence artificielle" s'applique non seulement à l'UE, mais réglemente également les fournisseurs de systèmes situés en dehors de l'UE mais dont les données de sortie du système sont utilisées dans l'UE ou l'utilisateur. La portée de la compétence et de l'application de la Loi a été considérablement élargie, et les indices de préemption de la compétence des éléments de données peuvent également être entrevus.
Jin Ling, directeur adjoint et chercheur de l'Institut européen de l'Institut chinois d'études internationales, a également écrit dans l'article « La première législation sur l'intelligence artificielle au monde : un équilibre difficile entre l'innovation et la réglementation » que la « Loi sur l'intelligence artificielle » met en évidence la morale avantages de la gouvernance de l'IA de l'UE , est une autre tentative de l'UE de faire jouer pleinement son pouvoir normatif et de combler les lacunes techniques par les avantages des règles. Il reflète l'intention stratégique de l'UE de s'emparer de la haute morale dans le domaine de l'intelligence artificielle.
La loi sur l'intelligence artificielle a mis deux ans à se préparer. En avril 2021, la Commission européenne a présenté une proposition de législation sur l'intelligence artificielle basée sur le cadre de "classification des risques", qui a été discutée et révisée après plusieurs cycles. Après la popularité de l'IA générative telle que ChatGPT, les législateurs européens ont ajouté de toute urgence des "correctifs".
Un nouveau changement est que le dernier projet de "loi sur l'intelligence artificielle" a renforcé les exigences de transparence pour l'IA à usage général. Par exemple, l'IA générative basée sur le modèle de base doit étiqueter le contenu généré, aider les utilisateurs à distinguer les informations contrefaites des informations réelles et s'assurer que le contenu illégal ne peut pas être généré. Les fournisseurs de modèles de base tels que OpenAI et Google doivent également divulguer les détails des données de formation s'ils utilisent des données protégées par le droit d'auteur lors de la formation du modèle.
De plus, la technologie biométrique à distance en temps réel dans les lieux publics a été ajustée du niveau "à haut risque" au niveau "interdit", c'est-à-dire que la technologie de l'IA ne doit pas être utilisée pour la reconnaissance faciale dans les lieux publics des pays de l'UE.
Le dernier projet augmente également le montant des sanctions en cas d'infraction, en faisant passer le maximum de 30 millions d'euros ou 6 % du chiffre d'affaires global de l'entreprise contrevenante au cours de l'exercice précédent à un maximum de 40 millions d'euros ou 7 % du chiffre d'affaires annuel global. chiffre d'affaires de l'entreprise contrevenante au cours de l'année précédente. C'est nettement plus élevé que le règlement général sur la protection des données, la loi européenne sur la sécurité des données, qui peut entraîner des amendes pouvant atteindre 4% du chiffre d'affaires mondial, soit 20 millions d'euros.
Peng Xiaoyan a déclaré à China News Weekly que l'augmentation du montant des sanctions reflète la détermination et la force des autorités de l'UE à superviser l'intelligence artificielle. Pour les géants de la technologie tels que Google, Microsoft et Apple avec des centaines de milliards de dollars de revenus, s'ils enfreignent les dispositions de la "loi sur l'intelligence artificielle", les amendes peuvent atteindre des dizaines de milliards de dollars.
Aux États-Unis de l'autre côté de l'océan, alors que Washington était occupé à répondre à l'appel de Musk et d'autres pour un contrôle plus fort de l'IA, le 20 juin, le président américain Biden a rencontré un groupe d'experts et de chercheurs en intelligence artificielle à San Francisco pour discuter comment gérer les risques de cette nouvelle technologie. Biden a déclaré à l'époque que tout en saisissant l'énorme potentiel de l'IA, il était nécessaire de gérer les risques qu'elle pose pour la société, l'économie et la sécurité nationale.
Le contexte de la gestion et du contrôle des risques devenant un sujet brûlant dans l'IA est que les États-Unis n'ont pas adopté de mesures anti-monopole strictes contre la technologie de l'IA et n'ont pas encore introduit de lois réglementaires complètes sur l'IA au niveau fédéral.
La première incursion officielle du gouvernement fédéral américain dans le domaine de la réglementation de l'intelligence artificielle a eu lieu en janvier 2020, lorsqu'il a publié les « Lignes directrices réglementaires pour l'application de l'intelligence artificielle » afin de fournir des orientations sur les mesures réglementaires et non réglementaires pour les problèmes émergents liés à l'intelligence artificielle. Le "National Artificial Intelligence Initiative Act 2020" introduit en 2021 est davantage un schéma politique dans le domaine de l'IA, et il y a encore une certaine distance par rapport à la gouvernance de l'intelligence artificielle et à une supervision forte. Un an plus tard, le Blueprint for an AI Bill of Rights ("Blueprint") publié par la Maison Blanche en octobre 2022 fournit un cadre de soutien pour la gouvernance de l'IA, mais il ne s'agit pas d'une politique américaine officielle et n'est pas contraignante.
Peu de progrès ont été réalisés dans la législation sur l'IA aux États-Unis, ce qui a suscité de nombreuses insatisfactions. De nombreuses personnes ont critiqué le fait que les États-Unis ont pris du retard sur l'Union européenne et la Chine dans la formulation de règles pour l'économie numérique. Cependant, voyant peut-être que la « loi sur l'intelligence artificielle » de l'Union européenne est sur le point de franchir le « obstacle » final, le Congrès américain a récemment montré des signes d'accélération de la législation.
Le jour de la conférence sur l'IA de Biden, les représentants démocrates Ted W. Lieu et Anna Eshoo, ainsi que le représentant républicain Ken Buck, ont soumis la proposition du Conseil national sur l'intelligence artificielle. Pendant ce temps, le sénateur démocrate Brian Schatz présentera une législation complémentaire au Sénat qui se concentrera sur la réglementation de l'IA.
Selon le contenu du projet de loi, la commission sur l'intelligence artificielle sera composée de 20 experts du gouvernement, de l'industrie, de la société civile et de l'informatique. Ils examineront les méthodes actuelles de réglementation de l'intelligence artificielle aux États-Unis et élaboreront conjointement un cadre réglementaire complet. .
"L'IA fait des choses incroyables dans la société. Si elle n'est pas contrôlée et réglementée, elle peut causer des dommages importants. Le Congrès ne doit pas rester les bras croisés", a déclaré Ted Liu dans un communiqué.
Un jour plus tard, le 21 juin, le leader démocrate du Sénat, Chuck Schumer, a prononcé un discours au Centre d'études stratégiques et internationales (CSIS), révélant son "Framework for Artificial Intelligence Security Innovation" ("AI Framework") — — Encourager l'innovation tout en avançant sécurité, responsabilité, fondement et interprétabilité, faisant écho au grand plan, y compris le Plan directeur. Il a proposé le cadre en avril, mais a donné peu de détails à l'époque.
Derrière le cadre de l'IA se cache une stratégie législative de Chuck Schumer. Dans ce discours, il a déclaré qu'un projet de loi fédéral sur l'intelligence artificielle serait promulgué dans seulement "quelques mois". Cependant, le processus législatif américain est lourd : il doit non seulement être voté par le Sénat et la Chambre des représentants, mais aussi passer par plusieurs séries d'auditions, ce qui prend beaucoup de temps.
Afin d'accélérer les progrès, dans le cadre du cadre de l'IA, Chuck Schumer prévoit d'organiser une série de forums sur l'intelligence artificielle à partir de septembre de cette année, couvrant 10 sujets, dont l'innovation, la propriété intellectuelle, la sécurité nationale et la confidentialité. Il a déclaré au monde extérieur que l'Insight Forum ne remplacera pas les audiences du Congrès sur l'intelligence artificielle, mais se tiendra en parallèle afin que le législateur puisse introduire une politique sur la technologie en quelques mois plutôt qu'en quelques années. Il a prédit qu'il faudra peut-être attendre l'automne "pour commencer à voir des choses concrètes" dans la législation américaine sur l'IA.
Bien que les progrès n'aient pas rattrapé ceux de l'Union européenne, la législation pertinente de mon pays a également été mise à l'ordre du jour. Début juin, le Bureau général du Conseil d'État a publié le "Plan de travail législatif 2023 du Conseil d'État", qui mentionnait que le projet de loi sur l'intelligence artificielle était préparé pour être soumis au Comité permanent de l'Assemblée populaire nationale pour délibération. .
Conformément aux dispositions de la "loi législative" de mon pays, après que le Conseil d'État a proposé un projet de loi au Comité permanent de l'Assemblée populaire nationale, la réunion du président décide de l'inscrire à l'ordre du jour de la réunion du Comité permanent, ou le soumet d'abord à la commission spéciale compétente pour délibération et soumet un rapport, puis décide de l'inclure dans la Commission permanente L'ordre du jour de la réunion doit généralement passer par trois délibérations avant d'être voté.
Depuis le début de cette année, de nombreux pays ont accéléré la législation sur l'IA. Peng Xiaoyan estime que cela est le résultat à la fois de la concurrence et du développement technologique.
"Les éléments de données deviennent de plus en plus des éléments stratégiques nationaux, et les pays espèrent également établir une juridiction par le biais de la législation et saisir le droit de parler en intelligence artificielle. Dans le même temps, la mise à jour itérative des technologies d'intelligence artificielle telles que ChatGPT a permis à la société de voir de nouveaux espoirs pour le développement d'une intelligence artificielle forte. Nouveau Le développement de la technologie entraînera inévitablement de nouveaux problèmes sociaux et de nouvelles contradictions sociales, qui nécessitent une intervention et un ajustement réglementaires, et le développement de la technologie a favorisé dans une certaine mesure la mise à jour de la législation." Peng dit Xiaoyan.
La divergence dépasse de loin la convergence
La Chine, les États-Unis et l'Union européenne sont les principaux moteurs du développement mondial de l'IA, mais il existe également des différences dans la législation sur l'IA entre les trois.
La "loi sur l'intelligence artificielle" de l'Union européenne divise les risques des applications d'intelligence artificielle en quatre niveaux du point de vue de l'utilisation et de la fonction. Quel que soit le nombre de séries de révisions subies par le projet, la "classification des risques" reste le concept central de la stratégie de l'UE. Gouvernance de l'IA.
Dans le dernier projet, le Parlement européen a élargi la liste des "risques inacceptables" pour empêcher les systèmes d'IA intrusifs et discriminatoires. Six types de systèmes d'intelligence artificielle, tels que l'identification biométrique dans les espaces publics, la reconnaissance émotionnelle, la police prédictive (basée sur le profilage, la localisation ou le comportement criminel passé) et la saisie aléatoire d'images faciales sur Internet, sont totalement interdits.
La deuxième catégorie comprend les systèmes d'IA qui ont un impact négatif sur la sécurité humaine ou les droits fondamentaux et sont considérés comme "à haut risque". Par exemple, les systèmes d'IA utilisés dans des produits tels que l'aviation, les automobiles et les équipements médicaux, ainsi que huit domaines spécifiques qui doivent être enregistrés dans la base de données de l'UE, couvrant les infrastructures critiques, l'éducation, la formation, l'application de la loi, etc. Sous réserve des réglementations en matière d'IA et d'une évaluation de conformité préalable, divers systèmes d'IA "à haut risque" seront autorisés à entrer sur le marché de l'UE sous réserve d'un ensemble d'exigences et d'obligations.
En outre, les systèmes d'intelligence artificielle qui influencent les électeurs et les résultats des élections, ainsi que les systèmes de recommandation utilisés par les plateformes de médias sociaux comptant plus de 45 millions d'utilisateurs, tels que Facebook, Twitter et Instagram, seront également placés sur la liste à haut risque sous la Loi sur les services numériques de l'UE .
Au bas de la pyramide se trouvent les systèmes d'IA avec un risque limité, peu ou pas. Le premier a des obligations de transparence spécifiques et doit informer les utilisateurs qu'ils interagissent avec les systèmes d'IA, tandis que le second n'a pas de réglementation obligatoire et n'est fondamentalement pas réglementé, comme les applications telles que les filtres anti-spam.
En raison de ses dispositions réglementaires strictes, la "loi sur l'intelligence artificielle" est considérée par de nombreux initiés de l'industrie comme ayant de nombreuses "dents" acérées. Cependant, le projet de loi tente également de trouver un équilibre entre une réglementation stricte et l'innovation.
Par exemple, le dernier projet oblige les États membres à établir au moins un "bac à sable réglementaire" qui peut être utilisé gratuitement par les petites et moyennes entreprises et les start-ups, dans un scénario supervisé, sûr et contrôlable, pour tester des solutions artificielles innovantes systèmes de renseignement avant leur mise en service, jusqu'à ce que les exigences de conformité soient satisfaites. L'UE estime généralement que la proposition permettra non seulement aux autorités de prêter attention aux changements technologiques en temps réel, mais aidera également les entreprises d'IA à continuer d'innover tout en réduisant la pression réglementaire.
Jin Ling a déclaré dans l'article susmentionné que d'une part, la méthode de gouvernance en amont de l'UE oblige les entreprises à supporter davantage de coûts initiaux, et d'autre part, l'incertitude de l'évaluation des risques affecte également l'enthousiasme des entreprises en matière d'investissement. Par conséquent, alors que la Commission a souligné à plusieurs reprises que la législation sur l'IA soutiendrait l'innovation et la croissance dans l'économie numérique européenne, une analyse économique réaliste ne semble pas étayer cette conclusion. Le projet de loi reflète le conflit inhérent à l'UE entre la promotion de l'innovation et la protection des droits, qui est difficile à équilibrer efficacement.
Comme l'Union européenne et la Chine, les États-Unis soutiennent une approche réglementaire de l'IA basée sur les risques, prônant l'exactitude, la sécurité et la transparence. Cependant, de l'avis de Zhao Jingwu, la pensée réglementaire américaine est davantage axée sur l'utilisation de l'IA pour promouvoir l'innovation et le développement de l'industrie de l'IA, et en fin de compte pour maintenir le leadership et la compétitivité des États-Unis.
« À la différence du concept réglementaire de « prévention des risques et de sécurité technologique » détenu par la Chine et l'UE, les États-Unis se concentrent sur le développement commercial. La Chine et l'UE se concentrent toutes deux sur la sécurité des applications de la technologie de l'intelligence artificielle pour empêcher l'abus de la technologie de l'intelligence artificielle. de porter atteinte aux droits individuels, tandis que les États-Unis se concentrent sur le développement industriel est au centre de la supervision », a déclaré Zhao Jingwu.
Des études ont montré que la législation du Congrès américain se concentre principalement sur l'incitation et l'orientation du gouvernement à utiliser l'intelligence artificielle. Par exemple, le Sénat américain a introduit une loi sur l'innovation en IA en 2021, obligeant le département américain de la Défense à mettre en œuvre un programme pilote pour s'assurer qu'il a accès aux meilleures capacités logicielles d'IA et d'apprentissage automatique.
Dans le discours susmentionné, Chuck Schumer considérait l'innovation comme l'étoile polaire, et son cadre d'IA consiste à libérer le grand potentiel de l'intelligence artificielle et à soutenir l'innovation menée par les États-Unis dans la technologie de l'intelligence artificielle. Au début des "Lignes directrices pour la supervision des applications d'intelligence artificielle", il est clair que l'avancement de la technologie et l'innovation doivent continuer à être encouragés. L'objectif ultime de la loi 2020 sur l'initiative nationale sur l'intelligence artificielle est également de garantir que les États-Unis conservent une position de leader dans le domaine mondial de la technologie de l'IA en augmentant les investissements dans la recherche et en établissant un système de main-d'œuvre.
Peng Xiaoyan a déclaré que du point de vue de l'orientation de la conception des spécifications, le développement de l'intelligence artificielle aux États-Unis est toujours dans un état de faible supervision aux niveaux législatif et institutionnel, et la société encourage activement l'innovation et l'expansion de la technologie de l'intelligence artificielle avec une attitude ouverte.
Par rapport à l'Union européenne, qui dispose de pouvoirs d'enquête plus clairs et d'une couverture réglementaire complète, les États-Unis ont adopté une approche décentralisée de la réglementation de l'IA, certains États et institutions faisant progresser la gouvernance de l'IA dans une moindre mesure. Par conséquent, les initiatives nationales de réglementation de l'IA sont très vastes et fondées sur des principes.
Par exemple, le « Blueprint » est un événement marquant dans la politique de gouvernance de l'intelligence artificielle aux États-Unis. Il a formulé cinq principes de base, y compris des systèmes sûrs et efficaces, la prévention de la discrimination algorithmique, la protection de la confidentialité des données, la notification et l'explication, et la participation humaine à la décision. Il n'y a pas de dispositions plus détaillées.
Peng Xiaoyan estime que le "Blueprint" ne formule pas de mesures de mise en œuvre spécifiques, mais construit un cadre de base pour le développement de l'intelligence artificielle de manière fondée sur des principes, visant à guider la conception, l'utilisation et le déploiement de systèmes d'intelligence artificielle.
"Des normes comme celle-ci ne sont pas obligatoires. C'est parce que les États-Unis envisagent de soutenir le développement de l'industrie de l'intelligence artificielle. À l'heure actuelle, l'intelligence artificielle est encore à un stade émergent de développement, et une supervision à haute intensité est vouée à limiter le développement industriel et l'innovation dans une certaine mesure. Par conséquent, les États-Unis maintiennent une attitude relativement modeste en matière de législation », a déclaré Peng Xiaoyan.
"Sans lois donnant de nouveaux pouvoirs aux agences, elles ne peuvent réglementer l'utilisation de l'intelligence artificielle qu'en fonction des pouvoirs dont elles disposent déjà. En revanche, les principes éthiques liés à l'intelligence artificielle restent moins réglementés, et les agences peuvent décider comment réglementer elles-mêmes. Selon l'analyste de Carnegie Hadrien Pouget, cela rend les agences fédérales dirigées par la Maison Blanche à la fois restreintes et libres.
Le concept de gouvernance de l'IA dominée par l'utilisation et l'innovation est destinée à ne pas être trop dure pour le "poing" des États-Unis. Alex Engler, chercheur à la Brookings Institution, un groupe de réflexion américain bien connu, a souligné que l'Union européenne et les États-Unis adoptent des approches réglementaires différentes de l'intelligence artificielle qui ont des impacts sociaux tels que l'éducation, la finance et l'emploi.
En termes d'applications spécifiques d'IA, la "loi sur l'intelligence artificielle" de l'Union européenne impose des exigences de transparence pour les robots de chat, alors qu'il n'existe aucune réglementation fédérale aux États-Unis. La reconnaissance faciale est considérée comme un "risque inacceptable" par l'Union européenne, et les États-Unis fournissent des informations publiques par le biais du programme de test des fournisseurs de reconnaissance faciale du National Institute of Standards and Technology (NIST), mais n'imposent pas de règles.
"La portée réglementaire de l'UE couvre non seulement un plus large éventail d'applications, mais établit davantage de règles pour ces applications d'IA. Alors que l'approche américaine se limite plus étroitement à adapter les régulateurs institutionnels actuels pour essayer de gouverner l'IA, la portée de l'IA C'est aussi beaucoup plus limité. » Alex Engler dit qu'il y a beaucoup plus de divergences que de convergences dans la gestion des risques liés à l'IA, malgré des principes globalement identiques.
Zhao Jingwu a résumé les modèles de réglementation de l'IA de la Chine, de l'Union européenne et des États-Unis, et a constaté que la Chine se limite aux scénarios d'application de la technologie de l'intelligence artificielle et a formulé des règles réglementaires spéciales pour les scénarios d'application tels que la technologie de reconnaissance faciale. , synthèse approfondie et recommandation automatisée. L'UE est guidée par le niveau de risque, selon que le niveau de risque des applications d'intelligence artificielle est un niveau acceptable. Les États-Unis jugent la légalité de l'application de la technologie de l'intelligence artificielle dans le cadre du système juridique traditionnel existant.
En outre, les États-Unis ont également accordé plus d'attention à la recherche sur l'intelligence artificielle et y ont investi davantage de fonds. Début mai, la Maison Blanche a annoncé un investissement d'environ 140 millions de dollars américains pour créer sept nouveaux instituts nationaux de recherche sur l'intelligence artificielle. Certains chercheurs pensent que cette décision des États-Unis espère mieux comprendre l'IA, atténuant ainsi les inquiétudes suscitées par le processus réglementaire.
Peng Xiaoyan a déclaré que mon pays avait adopté des mesures pour encourager le développement de la technologie de l'intelligence artificielle tout en réglementant la gestion des domaines connexes de manière limitée, et guider le développement de la technologie de l'intelligence artificielle avec des politiques coordonnées et des exigences de gestion.
la législation de mon pays rencontre de nombreux problèmes pratiques
L'Union européenne accélère la mise en œuvre du premier projet de loi réglementaire sur l'IA au monde. Zhao Jingwu a déclaré à China News Weekly que les mesures de réglementation de l'intelligence artificielle du « système de niveau de risque » de l'Union européenne, le concept de réglementation de « modèle général » proposé dans la « Loi sur l'intelligence artificielle » , et les règles spécifiques pour ChatGPT Les obligations de divulgation et les obligations de conformité au droit d'auteur des données des applications d'intelligence artificielle générative sont une valeur de référence pour la législation sur l'intelligence artificielle de mon pays.
En fait, la législation de mon pays sur l'intelligence artificielle a déjà commencé. En 2017, le Conseil d'État a publié le "Plan de développement de l'intelligence artificielle de nouvelle génération", qui proposait que d'ici 2025, les lois et réglementations, les normes éthiques et les systèmes politiques en matière d'intelligence artificielle soient initialement établies, et des évaluations et des politiques de sécurité de l'intelligence artificielle devraient être formées.
Localement, en 2022, la ville de Shenzhen a promulgué le « Règlement sur la promotion de l'industrie de l'intelligence artificielle dans la zone économique spéciale de Shenzhen », qui est considéré comme la première législation spéciale de mon pays pour l'industrie de l'intelligence artificielle. Le "Règlement" mentionnait que le mécanisme de surveillance dans le domaine de l'intelligence artificielle devrait être amélioré afin de prévenir les éventuels risques de sécurité éthique et les risques de conformité pouvant survenir dans les produits et services d'intelligence artificielle.
À l'heure actuelle, la réglementation de l'intelligence artificielle de mon pays est principalement promue conjointement par plusieurs grands ministères et commissions, qui promeuvent la réglementation et le développement de l'intelligence artificielle dans différents domaines. Des documents normatifs tels que le "Règlement sur l'administration des recommandations d'algorithmes pour les services d'information sur Internet", le "Règlement sur l'administration de la synthèse approfondie des services d'information sur Internet" et les "Mesures administratives pour les services d'intelligence artificielle générative (projet pour commentaire)" ont également été émis.
"Du point de vue des normes de gestion historiques, la réglementation de mon pays dans le domaine de l'intelligence artificielle adopte des mesures pour distinguer les domaines d'activité et les directions techniques, et les normes de gestion ont tendance à être décentralisées. Lorsque les normes sont introduites, elles ont souvent la caractéristique d'être opportunes. "Après l'émergence de technologies spécifiques, faites des règlements de gestion spéciaux. Les règlements sont promulgués par le département administratif, axés sur la supervision, et n'ont pas été transformés en lois au niveau de la réglementation", a déclaré Peng Xiaoyan.
Il convient de noter que le 20 juin, le premier lot de listes nationales de classement des algorithmes du service de synthèse approfondie a été publié. 26 sociétés, dont Baidu, Alibaba, Tencent, ByteDance et Meituan, et un total de 41 algorithmes figuraient sur la liste.
Alors que la chaleur de la législation sur l'IA se réchauffe, les experts nationaux ont commencé à appeler au développement rapide des réglementations juridiques sur l'intelligence artificielle. Cependant, selon Zhao Jingwu, la législation spéciale de mon pays sur l'intelligence artificielle est réalisable, mais elle est également confrontée à de nombreux problèmes pratiques.
"Le premier est le problème de la connexion du système entre les documents législatifs. La relation applicable entre la législation spécifique à l'intelligence artificielle et d'autres documents normatifs n'a pas encore été résolue, en particulier le contenu qui se chevauche de la législation spéciale et de la législation actuelle qui doit être résolu de toute urgence. Le deuxième est la technologie de l'intelligence artificielle. La vitesse de mise à jour et d'itération s'accélère et il est difficile d'assurer le développement simultané du droit et de la technologie ; troisièmement, les règles de réglementation de l'intelligence artificielle manquent d'intégrité et les règles de réglementation des trois éléments fondamentaux des données, des algorithmes et de la puissance de calcul en sont encore au stade exploratoire ; quatrièmement, la législation sur l'intelligence artificielle La question de savoir si l'accent doit être mis sur la gestion des risques de sécurité ou sur le développement industriel est plus controversée », a déclaré Zhao Jingwu.
Qu'il s'agisse de la «loi sur l'intelligence artificielle» de l'Union européenne ou des réglementations, initiatives et plans de la Chine, des États-Unis et d'autres pays en matière d'IA, ils tentent de créer un cadre réglementaire complet qui peut non seulement assurer la sécurité, mais aussi créer de meilleures conditions pour l'IA.
Sur la base de ce principe d'universalité, Peng Xiaoyan a déclaré à China News Weekly que l'établissement de lois sur l'intelligence artificielle dans mon pays devrait d'abord reposer sur l'encouragement actif du développement et de l'innovation, afin que l'intelligence artificielle puisse être réglementée et développée dans un espace relativement ouvert. ligne rouge.
"En outre, les problèmes juridiques dans le domaine de l'intelligence artificielle qui préoccupent tout le monde doivent maintenant être résolus, y compris, mais sans s'y limiter, l'interdiction des contenus illégaux dans l'intelligence artificielle, la protection de la sécurité des données de l'intelligence artificielle, la protection de l'intelligence artificielle l'éthique et la sécurité, la prévention de la violation de la propriété intellectuelle, etc. ", a déclaré Peng Xiaoyan.
Zhao Jingwu pense que mon pays devrait établir une loi sur l'intelligence artificielle orientée vers la protection du développement industriel.
"Dans une certaine mesure, la législation actuelle peut essentiellement répondre aux besoins de supervision des applications de la technologie de l'intelligence artificielle. La prévention des risques technologiques et la garantie de la sécurité technologique ne sont que le processus de gouvernance, et son objectif ultime doit encore revenir au niveau de développement de l'intelligence artificielle. Après tout, les lois sur l'intelligence artificielle ne limitent pas le développement des industries, mais guident et garantissent le bon développement des industries connexes", a déclaré Zhao Jingwu.