Auteur : Cao Jianfeng, chercheur principal, Institut de recherche Tencent
Source de l'image : générée par l'IA illimitée
Le XXIe siècle est une ère de développement en profondeur de la numérisation, de la mise en réseau et de l'intelligence. L'intelligence artificielle (IA), en tant que technologie clé, a attiré l'attention de tous les horizons. Les dix dernières années sont considérées comme la "décennie dorée" de l'IA représentée par l'apprentissage en profondeur. ** [1] Grâce à l'apprentissage en profondeur, la technologie des réseaux de neurones (réseaux de neurones) dans le domaine de l'IA a inauguré une reprise, inaugurant le "troisième printemps" du développement rapide dans le domaine de l'IA. Avant cela, depuis que le concept d'"intelligence artificielle" a été proposé à la conférence de Dartmouth en 1956, le domaine de l'IA a connu deux hauts et des bas. Plus précisément, la convergence et le développement de nombreux éléments techniques tels que les algorithmes d'apprentissage automatique, les mégadonnées, le cloud computing, les puces spécifiques à l'IA et les cadres logiciels open source ont favorisé d'énormes progrès dans le domaine de l'IA. une nouvelle technologie polyvalente et la base intelligente de l'économie et de la société, et est largement utilisée dans divers domaines de l'économie et de la société, apportant de nouveaux produits et services. De la recommandation d'algorithmes, du contenu généré par l'IA (AIGC) et des chatbots dans le domaine de l'Internet grand public, aux véhicules sans pilote dans le domaine industriel, aux logiciels médicaux d'IA, à l'inspection de la qualité de l'IA et à diverses applications pratiques dans les services publics sociaux, l'IA a un grand impact L'énorme valeur d'un développement social de qualité continue d'être démontrée. [2] En bref, en tant que technologie stratégique menant un nouveau cycle de révolution technologique et de transformation industrielle (la quatrième révolution industrielle), l'IA devrait remodeler l'économie humaine et la société, et aura un impact énorme sur la productivité, l'emploi, la répartition des revenus, mondialisation, etc.
** Dans ce contexte, l'IA est devenue un nouveau centre de la concurrence internationale, et les pays du monde entier ont introduit des stratégies de développement de l'IA et des politiques spécifiques pour saisir les sommets stratégiques et les opportunités de développement. ** En juillet 2017, la Chine a publié le "Plan de développement de l'intelligence artificielle de nouvelle génération", et l'IA a été élevée au rang de stratégie nationale ; en avril 2018, l'UE a publié une stratégie d'IA, visant à faire de l'UE un centre d'IA de classe mondiale et veiller à ce que l'IA soit axée sur les personnes, crédible ; en février 2019, le "Plan IA américain" a été publié, lançant la stratégie de l'IA, visant à renforcer le leadership des États-Unis dans le domaine de l'IA ; en septembre 2021, le Le Royaume-Uni a publié une stratégie d'IA, dans l'espoir de construire les superpuissances du Royaume-Uni pour l'IA. En analysant les stratégies d'IA de divers pays, il n'est pas difficile de voir que la concurrence internationale dans le domaine de l'IA n'est pas seulement liée à l'innovation technologique et à l'économie industrielle, mais implique également des dimensions telles que la gouvernance de l'IA. Avec l'application généralisée de l'IA, de nombreux problèmes éthiques scientifiques et technologiques soulevés par l'IA continuent d'attirer une grande attention de tous les horizons, tels que la discrimination des algorithmes, le cocon d'informations, la prise de décision injuste en matière d'IA, l'abus d'informations personnelles et la violation de la vie privée, l'IA la sécurité, la boîte noire des algorithmes, la responsabilité, l'abus de la technologie (comme la destruction de mégadonnées, la fraude par IA et les fausses informations synthétiques), l'impact sur le travail et l'emploi, l'impact éthique et moral et d'autres risques. [3] Par conséquent, parallèlement au développement et à l'application rapides de la technologie de l'IA au cours des dix dernières années, tous les horizons de la vie au pays et à l'étranger ont simultanément promu la gouvernance de l'IA, exploré de multiples mesures de gouvernance et mécanismes de garantie tels que la législation, les cadres éthiques, les normes et la certification, et les meilleures pratiques de l'industrie pour soutenir un développement d'IA responsable, fiable et centré sur l'humain.
Basé sur une perspective internationale, cet article trie les progrès importants de la Chine dans le domaine de la gouvernance de l'IA au cours des dix dernières années, analyse et résume les lois et les tendances, et envisage les développements futurs. Dans un avenir prévisible, à mesure que l'IA deviendra plus performante, son application et son impact s'approfondiront de jour en jour. Par conséquent, l'IA responsable (IA responsable) deviendra de plus en plus importante. L'avancement et la mise en œuvre d'une IA responsable sont indissociables d'une gouvernance raisonnable et efficace de l'IA. En d'autres termes, établir une bonne gouvernance de l'IA est le seul moyen d'évoluer vers une IA responsable et d'assurer le développement futur de l'IA. Nous espérons que cet article sera utile au développement et à la mise en œuvre continus de la gouvernance de l'IA à l'avenir.
Huit tendances de la gouvernance de l'IA
La stratégie macro et la politique de mise en œuvre sont développées simultanément pour cultiver la compétitivité nationale de l'IA
Depuis que les « Avis directeurs sur la promotion du développement ordonné et sain de l'Internet des objets » publiés en février 2013 mettent en avant le « développement économique et social intelligent », l'IA est entrée dans le champ de vision de la macrostratégie nationale et est devenue un sujet important de documents politiques nationaux de haut niveau. Par exemple, en 2015, les "Avis d'orientation sur la promotion active de l'action "Internet Plus"" proposaient pour la première fois "de cultiver et de développer les industries émergentes de l'intelligence artificielle". Depuis lors, le pays a accordé de plus en plus d'attention à l'IA et a continué à faire des déploiements pour le développement de l'IA au niveau stratégique afin de s'assurer que les technologies de base sont autocontrôlables et de promouvoir une autonomie et une autonomie technologiques de haut niveau. dépendance (tableau 1).
Les politiques de débarquement sont tout aussi importantes. L'IA est un complexe de technologies émergentes et d'industries émergentes. Ce n'est que lorsque l'innovation technologique de l'IA se transforme en une écologie industrielle durable et profondément intégrée à l'économie réelle qu'elle peut jouer pleinement son rôle puissant de nouveau moteur de croissance. À cet égard, le modèle premier-premier-essai tel que la zone test et la zone pilote joue un rôle important. Le ministère de la Science et de la Technologie a réalisé des réalisations remarquables dans la construction de zones pilotes d'innovation et de développement de l'intelligence artificielle. Le pays a approuvé la construction de 18 zones pilotes nationales d'innovation et de développement de l'intelligence artificielle de nouvelle génération, qui ont joué un bon rôle dans la politique outils, modèles d'application, expérience et pratiques. Depuis 2019, le ministère de l'Industrie et des Technologies de l'information a approuvé la construction de 11 zones pilotes nationales d'innovation et d'application de l'intelligence artificielle afin de promouvoir l'intégration profonde de l'IA et de l'économie réelle ; "Avis d'orientation sur le développement de la qualité", axés sur la résolution des problèmes de Application et industrialisation de l'IA, et utiliser la troïka "base de données + plate-forme de puissance de calcul + ouverture de scène" pour conduire l'intégration profonde de l'IA et du développement économique et social, et mieux soutenir un développement de haute qualité.
Avec le soutien continu de la macro-stratégie nationale et des politiques de mise en œuvre, l'innovation et l'entrepreneuriat dans le domaine de l'IA en Chine ont continué d'être actifs. Des laboratoires nationaux dans le domaine de l'IA ont été créés les uns après les autres et d'importantes réalisations ont été réalisées. dans l'innovation technologique, l'application industrielle et l'échelle des talents dans le domaine de l'IA. . Le « Rapport mondial sur l'indice d'innovation de l'intelligence artificielle 2021 » publié par l'Institut de l'information scientifique et technologique de Chine montre que le développement mondial actuel de l'IA présente un schéma général mené par la Chine et les États-Unis et une concurrence féroce entre les principaux pays. [4] Le développement de l'IA en Chine a obtenu des résultats remarquables. Le niveau d'innovation de l'IA est entré au premier échelon mondial et l'écart avec les États-Unis s'est encore réduit. Les centres de calcul intensif de la Chine, l'échelle de l'entreprise d'IA, le nombre d'enregistrements de brevets, la constitution d'équipes de talents et la force de la recherche scientifique dominent tous le monde. À l'avenir, la contribution de l'IA à la croissance économique et au développement social de la Chine continuera d'augmenter. Un rapport de recherche de PricewaterhouseCoopers prédit qu'à l'échelle mondiale, d'ici 2030, la contribution de l'IA à l'économie mondiale atteindra 15,7 billions de dollars américains, et la Chine tirera les plus grands avantages économiques de l'IA, atteignant 7 billions de dollars américains, ce qui signifie que l'IA favorisera La croissance du PIB de la Chine d'environ 26,1 %, suivie par les États-Unis et l'Amérique du Nord, atteindra 3,7 billions de dollars américains. [5]
Le système d'éthique scientifique et technologique a été continuellement amélioré et est devenu une garantie importante pour l'innovation en IA
À l'ère numérique, les technologies numériques émergentes telles que l'IA ont un caractère unique et une complexité qui diffèrent des applications technologiques de l'ère industrielle. Principalement reflété dans : (1) Une connectivité plus large, une connexion réseau et une collecte et un traitement des données sont omniprésents ; (2) Une plus grande autonomie, le système d'IA permet à divers produits et services de fonctionner indépendamment sans intervention humaine ; (3) Une opacité plus profonde, le "noir algorithmique box" du système d'IA est difficile à comprendre et à expliquer ; [6] (4) Plus fidèles, les contenus, les données et le monde virtuel générés et synthétisés par l'IA se rapprochent de la réalité. Pour cette raison, les problèmes sociaux et éthiques qui peuvent être causés par l'application de nouvelles technologies telles que l'IA sont de plus en plus caractérisés par la soudaineté, la dissimulation, l'échelle et l'imprévisibilité, qui posent de nouveaux défis à la gouvernance éthique de la science et de la technologie. Dans le processus de développement et d'application de l'IA, il devient de plus en plus nécessaire et important de considérer simultanément ou même de considérer à l'avance les questions d'éthique scientifique et technologique. [7] L'ajustement et l'amélioration du système d'éthique scientifique et technologique sont ainsi devenus un enjeu important à l'ère de l'IA. ordre social numérique amical. [8] En outre, avec la concurrence mondiale de plus en plus intense dans le domaine des sciences et des technologies, l'éthique des sciences et des technologies n'est pas seulement liée à la prévention des risques et des défis technologiques en matière de sécurité, mais aussi au renforcement de la compétitivité technologique nationale.
**Depuis le 18e Congrès national du Parti communiste chinois, l'État accorde de plus en plus d'attention à l'éthique des sciences et des technologies. Il a clairement affirmé que l'éthique des sciences et des technologies est un critère de valeur qui doit être suivi dans les activités scientifiques et technologiques. , et a intégré l'éthique scientifique et technologique dans la conception des politiques de haut niveau en tant que soutien et garantie importants pour l'innovation scientifique et technologique. ** "Décision du Comité central du Parti communiste chinois sur l'adhésion et l'amélioration du système socialiste à la chinoise et la promotion de la modernisation du système national de gouvernance et des capacités de gouvernance" et "Le quatorzième plan quinquennal et les grandes lignes d'un long -term Goals for 2035" ont fait des déploiements de haut niveau pour l'éthique des sciences et des technologies, Il est nécessaire d'améliorer le système de gouvernance de l'éthique scientifique et technologique et d'améliorer le système d'éthique scientifique et technologique. À l'heure actuelle, le pays continue d'établir et d'améliorer le système d'éthique scientifique et technologique et de façonner le concept culturel et le mécanisme de garantie de la science et de la technologie pour le bien. Elle se traduit principalement par les trois aspects suivants :
**D'abord, mettre en place le Comité national d'éthique des sciences et des technologies, qui est chargé d'orienter, de coordonner et de promouvoir la construction du système national de gouvernance de l'éthique des sciences et des technologies. **En juillet 2019, la neuvième réunion du Comité central de réforme pour l'approfondissement global a examiné et approuvé le « Plan de formation du Comité national d'éthique des sciences et de la technologie », établissant officiellement l'organisation nationale chinoise de gestion de l'éthique des sciences et de la technologie. Les "Avis sur le renforcement de la gouvernance de l'éthique des sciences et des technologies" publiés en mars 2022 ont précisé les responsabilités de gestion du Comité national d'éthique des sciences et des technologies.
**Deuxièmement, promulguer des politiques et des règlements liés à l'éthique des sciences et des technologies pour soutenir la mise en œuvre de la gouvernance de l'éthique des sciences et des technologies. ** L'un des points forts de la "Loi sur le progrès scientifique et technologique" révisée en décembre 2021 est l'ajout de dispositions connexes sur l'éthique scientifique et technologique. Les sujets tels que les établissements d'enseignement supérieur, les entreprises et les établissements publics assument la responsabilité principale de la et la gestion de l'éthique technologique, procéder à un examen éthique des activités scientifiques et technologiques et, en même temps, clarifier les fondements juridiques et éthiques des activités de recherche, de développement et d'application scientifiques et technologiques. Les « Opinions sur le renforcement de la gouvernance éthique des sciences et des technologies » proposent des exigences plus complètes pour la gouvernance éthique des sciences et des technologies, impliquant six aspects majeurs : exigences générales, principes, systèmes, garanties institutionnelles, contrôle et supervision, éducation et publicité, et jette les bases de la mise en œuvre d'une gouvernance éthique de la science et de la technologie. Le suivi formulera également des règlements d'appui tels que les modalités d'examen de l'éthique scientifique et technologique, la liste des activités scientifiques et technologiques à risque en éthique scientifique et technologique et les normes d'éthique scientifique et technologique dans les domaines subdivisés.
**Troisièmement, mettre l'accent sur la gouvernance éthique de la science et de la technologie dans le domaine de l'IA. **Le Comité professionnel national de gouvernance de l'intelligence artificielle de nouvelle génération a publié successivement les "Principes de gouvernance de l'intelligence artificielle de nouvelle génération - Développer une intelligence artificielle responsable" et "Éthique de l'intelligence artificielle de nouvelle génération", fournissant des lignes directrices éthiques pour le développement d'une IA responsable. La "Loi sur la sécurité des données", le "Règlement sur la gestion des recommandations relatives aux algorithmes des services d'information sur Internet", les "Avis d'orientation sur le renforcement de la gouvernance globale des algorithmes des services d'information sur Internet" et d'autres lois et réglementations énoncent des exigences éthiques scientifiques et technologiques et des mesures de gestion des données et des algorithmes activités. Les "Avis sur le renforcement de la gouvernance de l'éthique des sciences et des technologies" considèrent l'IA, les sciences de la vie et la médecine comme les trois domaines clés de la période du "14e plan quinquennal", exigent la formulation de normes et de lignes directrices spéciales en matière d'éthique des sciences et des technologies, renforce la législation sur l'éthique des sciences et des technologies et exige des cadres de l'industrie concernés Le ministère a lancé une mesure de surveillance de l'éthique scientifique et technologique. Il est prévisible que la réglementation de l'éthique technologique dans le domaine de l'IA sera renforcée à l'avenir. En outre, la législation au niveau local telle que le "Règlement de promotion de l'industrie de l'intelligence artificielle de Shenzhen" et le "Règlement de Shanghai sur la promotion du développement de l'industrie de l'intelligence artificielle" considèrent tous deux la gouvernance éthique de l'IA comme une garantie importante pour soutenir le développement sain de l'IA. industrie.
**D'après l'analyse ci-dessus, on peut voir qu'en termes de gouvernance de l'éthique des sciences et des technologies de l'IA, une tendance significative est de prendre la responsabilité du sujet de la gestion de l'éthique des sciences et des technologies comme point de départ principal, ce qui est similaire à l'accent mis sur la responsabilité du sujet plate-forme dans la supervision des plates-formes Internet.Une certaine similitude. ** La supervision de la plate-forme par le gouvernement est en grande partie réalisée grâce à la mise en œuvre et au compactage de la responsabilité principale de la plate-forme. La législation pertinente dans le domaine de l'Internet a établi un système complet d'obligations de plate-forme avant, pendant et après l'événement. L'administration d'État du marché Supervision émise Les "Lignes directrices pour la mise en œuvre des responsabilités des sujets sur les plates-formes Internet (projet pour commentaires)" ont tenté d'affiner les responsabilités des sujets des différents types de plates-formes. La réglementation gouvernementale sur l'IA montre une idée similaire. Les politiques et réglementations pertinentes actuelles tentent d'affiner les responsabilités des sujets de gestion de l'éthique scientifique et technologique, obligeant les sujets d'innovation à établir des comités d'éthique, à adhérer à la ligne de fond de l'éthique scientifique et technologique, à mener un examen de l'éthique scientifique et technologique, à effectuer des la surveillance, l'alerte précoce et l'évaluation des risques éthiques, et la formation à l'éthique scientifique et technologique.
L'application des algorithmes dans le domaine Internet est devenue l'objet clé de la supervision de l'IA
La recommandation d'algorithmes, la prise de décision automatisée par algorithmes, la synthèse approfondie de l'IA et d'autres applications d'algorithmes dans le domaine de l'Internet sont devenues le centre de la supervision gouvernementale dans le domaine de l'IA en raison de facteurs tels qu'une large application, une grande attention du public et une mise en évidence continue des problèmes négatifs. . Ces dernières années, l'État a promulgué une série de lois et de règlements pour réglementer activement l'application des algorithmes dans le domaine Internet. [9] Les << Avis d'orientation sur le renforcement de la gouvernance globale des algorithmes des services d'information sur Internet >> publiés par le Bureau national d'information sur Internet et neuf autres départements proposent des exigences de gestion relativement complètes. On espère que dans environ trois ans, un mécanisme de gouvernance solide, une supervision solide et une norme écologique algorithmique sera progressivement établie Modèle de gouvernance globale de la sécurité algorithmique. L'avis met également l'accent sur le renforcement des responsabilités des entreprises, y compris les responsabilités en matière de sécurité des algorithmes et d'examen éthique scientifique et technologique.
En termes de recommandation d'algorithmes, le "Règlement sur la gouvernance écologique des contenus d'information en réseau" propose d'améliorer le mécanisme d'intervention humaine et d'autosélection des utilisateurs pour la technologie de recommandation d'algorithmes. Le "Règlement sur l'administration des recommandations d'algorithmes pour les services d'information sur Internet", qui est entré en vigueur le 1er mars 2022, est la première législation chinoise axée sur la gouvernance des algorithmes. Une série de mesures réglementaires telles que la surveillance des risques de sécurité, l'évaluation de la sécurité des algorithmes et La gestion des fichiers d'algorithmes a encore renforcé la responsabilité de la sécurité des algorithmes des sociétés de plateforme. Les initiés de l'industrie ont pris cela comme un signe et ont qualifié 2022 de première année de réglementation des algorithmes.
En termes de prise de décision automatisée algorithmique, la "Loi sur la protection des informations personnelles de la République populaire de Chine", la "Loi sur le commerce électronique de la République populaire de Chine", les "Dispositions provisoires sur les services de gestion du tourisme en ligne" et d'autres dispositions ont des dispositions relatives à la discrimination des algorithmes, à la familiarisation avec les mégadonnées, etc. Afin de réglementer les comportements légitimes de prise de décision concernant les algorithmes, des méthodes de régulation telles que l'octroi de droits de choix aux individus, la réalisation d'études d'impact et la possibilité pour les individus de demander des explications et de bénéficier de droits de rejet sont proposées pour mieux équilibrer la protection des droits personnels et les activités d'application commerciale des algorithmes.
En termes de synthèse profonde de l'IA (se référant principalement à l'utilisation de la technologie de l'IA pour générer et synthétiser le contenu de l'information), la législation pertinente délimite activement la ligne rouge pour l'application de la technologie de synthèse profonde de l'IA et promeut l'application positive de la technologie, comme le " Règlement sur la gestion des services d'information audio et vidéo en réseau », « Réseau Le règlement sur la gouvernance écologique du contenu de l'information, le Règlement sur l'administration des recommandations sur les algorithmes des services d'information sur Internet, etc. interdisent tous l'utilisation d'algorithmes de synthèse profonde pour les fausses informations et autres activités illégales. . Le "Règlement sur l'administration de la synthèse profonde des services d'information sur Internet" adopté en novembre 2022 résume l'expérience réglementaire passée et réglemente de manière exhaustive l'application de la technologie de synthèse profonde en termes de responsabilité principale des fournisseurs de services de synthèse profonde et de gestion du contenu des informations de synthèse profonde. Les mesures de sécurité nécessaires telles que l'identification, la détection et l'identification, ainsi que la traçabilité du contenu garantissent que l'application de la technologie de synthèse profonde est sûre et fiable, et favorisent mieux l'innovation et le développement technologiques et les applications positives.
Dans l'ensemble, la supervision des algorithmes dans le domaine de l'Internet met l'accent sur des objectifs multiples tels que la sécurité et la contrôlabilité, la protection des droits et des intérêts, l'équité et la justice, l'ouverture et la transparence et la prévention des abus. Sur la base de la classification et de la classification des applications algorithmiques, elle se concentre sur la réglementation applications d'algorithmes à haut risque. La réglementation sur le classement et la classification des algorithmes est similaire à la réglementation des systèmes d'IA dans la loi sur l'intelligence artificielle de l'Union européenne. différentes exigences réglementaires. Dans ce contexte, la communauté universitaire s'intéresse vivement à la recherche sur la gouvernance algorithmique et a proposé de nombreuses idées telles que l'interprétation des algorithmes, l'évaluation de l'impact des algorithmes et l'audit des algorithmes. À l'avenir, tous les horizons de la vie doivent explorer et améliorer davantage les méthodes et les mesures de gouvernance de la supervision des algorithmes, afin de mieux garantir que l'application des algorithmes est ascendante et bonne.
Utiliser l'innovation réglementaire pour promouvoir l'application de l'IA dans des domaines réglementaires forts traditionnels
Pour les domaines réglementaires forts traditionnels tels que les transports et les soins médicaux, le principal problème auquel sont confrontées les nouvelles choses telles que les voitures autonomes, les drones habités (voitures volantes sans pilote), les logiciels médicaux d'IA, etc. est que leurs applications commerciales sont toujours confrontées à de plus grands défis juridiques. et les obstacles réglementaires. Ces obstacles affectent non seulement la confiance des consommateurs et du public dans la technologie, mais découragent également les innovateurs et les investisseurs. Par conséquent, une innovation réglementaire efficace est la clé du développement et de l'application de ces nouveautés. Prenant l'exemple des voitures autonomes, l'application commerciale des voitures autonomes ne peut être accélérée qu'en accélérant la réforme du cadre législatif et réglementaire visant à réglementer les voitures traditionnelles et les conducteurs humains, puis en établissant un nouveau cadre réglementaire efficace.
Les décideurs politiques chinois innovent activement en matière de méthodes et de moyens réglementaires, et soutiennent et promeuvent l'application de nouvelles choses en matière d'IA par le biais du "Regulatory Sandbox" (Regulatory Sandbox, voir l'introduction ci-dessous), des projets pilotes et des applications de démonstration. Dans le domaine des voitures autonomes, l'État a publié une série de lois et de documents normatifs pour encourager, soutenir et réglementer les essais routiers et les activités d'application de démonstration des voitures autonomes, explorer le "bac à sable réglementaire" des normes de sécurité pour l'auto -conduite de voitures, et améliorer la standardisation des voitures autonomes.Règles de passage pour entrer et entrer sur la route pour assurer la sécurité du transport en voiture autonome. En raison de politiques réglementaires favorables, des endroits tels que Pékin, Shanghai, Guangzhou et Shenzhen se sont emparés les uns après les autres des hautes terres en développement.Certaines villes ont délivré des licences d'exploitation d'essai pour les voitures autonomes qui n'autorisent aucun conducteur dans la voiture et peuvent être exploitées moyennant des frais. ; Shenzhen est la première du pays à émettre le " Le Règlement sur l'administration des véhicules connectés intelligents de Shenzhen établit un cadre législatif et réglementaire pour les applications commerciales. Dans le domaine des soins médicaux IA, parce que les logiciels médicaux IA ont de nombreuses nouvelles fonctionnalités différentes des dispositifs médicaux traditionnels, y compris l'autonomie, les capacités d'apprentissage et d'évolution, l'itération continue, la boîte noire d'algorithme, l'imprévisibilité, etc., il est difficile pour les procédures d'approbation traditionnelles de s'adapter efficacement aux soins médicaux de l'IA Besoins de développement de logiciels. À cette fin, les autorités réglementaires améliorent activement les procédures de déclaration et d'approbation d'enregistrement et utilisent les spécifications de gestion des dispositifs médicaux d'IA, et soutiennent l'application clinique accélérée des logiciels médicaux d'IA pour le diagnostic et le traitement auxiliaires tels que l'imagerie médicale intelligente ; actuellement, l'IA médicale logiciel a été approuvé en Chine, comme le logiciel de diagnostic du glaucome assisté par l'IA de Tencent Miying et le système de diagnostic assisté par l'IA de la pneumonie ont tous deux été approuvés pour le certificat d'enregistrement de dispositif médical de troisième classe ("trois types de certificats"). À l'avenir, les autorités de réglementation doivent continuer à améliorer et à optimiser les procédures d'enregistrement, de demande et d'approbation des logiciels médicaux d'IA, afin que les applications médicales d'IA puissent mieux améliorer les moyens de subsistance et le bien-être des personnes.
Accélérer l'exploration des règles de protection de la propriété intellectuelle de l'IA
Le contenu généré par l'IA (AI-Generated Contents, AIGC en abrégé) est devenu une nouvelle frontière de l'IA, représentant l'orientation future du développement de l'IA [10] . Dans le domaine de l'Internet, l'AIGC est la forme de production de contenu après PGC (production de contenu professionnel) et UGC (contenu de production utilisateur), entraînant un énorme changement dans la production automatisée de contenu. À l'heure actuelle, la technologie AIGC est capable de produire indépendamment diverses formes de contenu, notamment du texte, des images, de l'audio, de la vidéo, du contenu 3D (objets 3D, scènes virtuelles 3D), etc. Les règles de protection des droits de propriété intellectuelle pour la technologie AIGC et ses applications sont donc devenues une question importante qui ne peut être évitée. contenu » sont des questions urgentes à résoudre. [11] Certains universitaires étrangers ont suggéré qu'il était nécessaire d'établir des règles spéciales de protection de la propriété intellectuelle de l'IA et des traités internationaux, car la technologie de l'IA rompt le modèle existant selon lequel les créateurs et les inventeurs ne peuvent être que des êtres humains. [12]
Au pays et à l'étranger, les règles de protection de la propriété intellectuelle pour le contenu généré par l'IA ont été activement explorées. A l'étranger, le Royaume-Uni, l'Union Européenne, le Japon, l'Afrique du Sud, etc. envisagent ou ont formulé des règles particulières de protection de la propriété intellectuelle de l'IA, telles que les clauses de protection des œuvres générées par ordinateur dans le "Copyright, Design and Patent Act" britannique et la "Directive sur le droit d'auteur du marché numérique unique" de l'Union européenne "Exceptions au droit d'auteur sur l'exploration de textes et de données basées sur la technologie de l'IA, etc. En matière de brevets, la politique du Royaume-Uni souligne que l'IA n'étant pas encore suffisamment avancée pour inventer et créer de manière indépendante, il n'est pas nécessaire de modifier la loi sur les brevets à l'heure actuelle, mais il est nécessaire de porter une attention particulière aux progrès technologiques et d'évaluer l'IA questions de brevets en temps opportun.
En Chine, dans l'affaire Beijing Film Law Firm contre l'affaire de violation du droit d'auteur "Baijiahao" de Baidu, le tribunal a jugé que seules les œuvres originales créées par des personnes physiques peuvent obtenir la protection du droit d'auteur, refusant ainsi le droit d'auteur des œuvres générées directement et indépendamment par AI Cependant, il souligne que les droits et intérêts pertinents (tels que les droits et intérêts concurrentiels) du contenu généré par l'IA peuvent être protégés par les lois sur la concurrence et d'autres moyens. Dans l'affaire Shenzhen Tencent Computer System Co., Ltd. c. Shanghai Yingxun Technology Co., Ltd. pour violation du droit d'auteur et concurrence déloyale, le tribunal, s'appuyant sur la réalité de la collaboration homme-ordinateur dans le domaine de l'IA, a souligné que les œuvres techniquement "générées" du logiciel d'écriture d'IA Dreamwriter ne sont que des créations. En tant que maillon du processus, l'activité intellectuelle globale formée par la division du travail multi-équipes et multi-personnes hébergée par le demandeur est le lien principal de la création, et il est ainsi déterminé que l'article impliqué dans l'affaire est une œuvre de personne morale hébergée par le demandeur. La détermination de l'affaire Dreamwriter est plus conforme au développement actuel de la technologie AIGC et de ses applications, et a une grande importance de référence pour clarifier davantage les règles de protection de la propriété intellectuelle pour le contenu généré par l'IA par le biais de la législation à l'avenir. En termes de législation, la « loi sur le droit d'auteur de la République populaire de Chine » récemment révisée en 2020 adopte une méthode d'identification ouverte des œuvres. Tout en clarifiant la composition des œuvres et en énumérant les principaux types d'œuvres, elle stipule également des allers-retours ouverts. clauses, fournissant l'AIGC et d'autres nouvelles technologies La protection des nouveaux objets apportés par les applications réserve l'espace institutionnel.
La construction de la normalisation est un élément clé de la gouvernance de l'IA
**Le "Schéma national de développement de la normalisation" a souligné que la normalisation joue un rôle fondamental et de premier plan dans la promotion de la modernisation du système de gouvernance national et des capacités de gouvernance. Pour le domaine de l'IA, les normes d'IA ne sont pas seulement un moyen important de soutenir et de promouvoir le développement, le progrès et l'application à grande échelle de l'IA (comme les normes techniques), mais aussi un moyen efficace de promouvoir la mise en œuvre de la gouvernance de l'IA (comme la gouvernance normes, normes éthiques), car normes de gouvernance de l'IA Il peut jouer un rôle important dans "l'élaboration de la législation et de la supervision, et l'ancrage de la pratique technique". De plus, les normes dans le domaine de la gouvernance de l'IA sont plus agiles, flexibles et adaptables que la législation et la réglementation. Par conséquent, les normes de gouvernance de l'IA sont devenues une hauteur dominante dans le développement de la technologie et de l'industrie de l'IA, et la communauté internationale a proposé des mesures de mise en œuvre. ** Les représentants typiques incluent les normes d'IA de confiance de l'Union européenne, la gestion des risques de l'IA dirigée par le National Institute of Standards and Technology (NIST) des États-Unis, l'identification de la discrimination de l'IA et d'autres normes de gouvernance, le plan de développement de l'écosystème de certification de l'IA du Royaume-Uni, les normes d'éthique de l'IA de l'IEEE, etc.. En termes de mise en œuvre, l'IEEE a lancé un projet de certification éthique de l'IA pour l'industrie ; le Royaume-Uni espère cultiver une industrie de certification de l'IA de premier plan d'une valeur de plusieurs milliards de livres en 5 ans et passer les services de certification de l'IA d'un tiers neutre (y compris l'audit, l'évaluation de l'influence, la certification) pour évaluer et communiquer la crédibilité et la conformité des systèmes d'IA.
**La Chine attache une grande importance à la construction de la normalisation dans le domaine de l'IA. Le "Plan national de développement de la normalisation" exige des recherches sur la normalisation dans les domaines de l'IA, de l'information quantique et de la biotechnologie. ** Ces dernières années, tous les horizons ont continué à promouvoir la normalisation des normes nationales, des normes de l'industrie, des normes locales et des normes de groupe dans le domaine de la gouvernance de l'IA. Par exemple, le Comité national de gestion de la normalisation a créé le Groupe général national de normalisation de l'intelligence artificielle et le Comité technique national de normalisation des technologies de l'information a créé le Sous-comité technique de l'intelligence artificielle, qui visent tous deux à promouvoir la formulation de normes nationales dans le domaine de l'IA. . Les "Lignes directrices pour la construction du système standard national d'intelligence artificielle de nouvelle génération" publiées en juillet 2020 clarifient la conception de haut niveau dans le domaine des normes d'IA. AI établit un système de conformité pour promouvoir le développement sain et durable de l'IA. À l'avenir, les normes liées à la gouvernance de l'IA doivent être formulées et mises en œuvre plus rapidement, afin de fournir plus de garanties pour l'innovation technologique et le développement industriel dans le domaine de l'IA.
** L'industrie explore activement les mesures d'autodiscipline pour la gouvernance de l'IA et pratique le concept d'innovation responsable et de technologie pour le bien **
** Une gouvernance efficace de l'IA nécessite la participation conjointe de plusieurs sujets tels que le gouvernement, les entreprises, les organisations industrielles, les groupes universitaires, les utilisateurs ou les consommateurs et le public. Parmi eux, l'auto-gouvernance et la gestion auto-disciplinée des entreprises technologiques est un partie importante de la mise en œuvre du concept de "l'éthique d'abord". **La raison d'appeler à "l'éthique d'abord" est en grande partie due au fait que face au développement rapide de l'IA, le phénomène de "décalage juridique" est devenu de plus en plus important. Dans le domaine de l'IA, "l'éthique d'abord" se manifeste d'abord dans la gestion autodisciplinée de l'éthique technologique des entreprises technologiques, et les meilleures pratiques des entreprises leaders peuvent souvent jouer un très bon rôle de premier plan, favorisant la pratique d'une innovation et d'une technologie responsables. pour de bon dans toute l'idée de l'industrie.
Au niveau de l'industrie, ces dernières années, les instituts de recherche et les organisations industrielles concernées ont proposé des directives éthiques sur l'IA et des conventions d'autodiscipline, etc., pour fournir des conseils éthiques aux activités d'IA des entreprises. Les représentants typiques à cet égard incluent la "Convention d'autodiscipline de l'industrie de l'intelligence artificielle" et les "Directives d'exploitation de l'IA de confiance" de l'Alliance chinoise pour le développement de l'industrie de l'intelligence artificielle (AIIA), le "Consensus de Pékin sur l'intelligence artificielle" et le "Consensus sur l'intelligence artificielle" de Pékin. Institut de recherche sur l'intelligence artificielle de Zhiyuan. Déclaration de responsabilité de l'industrie", "Directives de pratique standard de sécurité des réseaux - Directives pour la prévention des risques de sécurité éthique de l'intelligence artificielle" du Comité national de normalisation de la sécurité de l'information, etc.
Au niveau de l'entreprise, les entreprises technologiques, en tant que corps principal de l'innovation technologique et de l'application industrielle de l'IA, assument l'importante responsabilité de la recherche et du développement responsables et de l'application de l'IA. Dans les pays étrangers, les entreprises technologiques ont exploré une expérience relativement mature et accumulé beaucoup de ressources en proposant des principes éthiques de l'IA, en établissant des organisations internes de gouvernance éthique de l'IA et en développant des outils de gestion et techniques et même des solutions d'IA commerciales responsables. [13] . Ces dernières années, les entreprises technologiques nationales ont activement mis en œuvre des exigences réglementaires et exploré des mesures d'autorégulation pertinentes, notamment : la publication de principes éthiques de l'IA, la création d'organisations internes de gouvernance de l'IA (telles que des comités d'éthique), la réalisation d'examens éthiques ou d'évaluations des risques de sécurité pour les activités d'IA , et la divulgation des algorithmes au monde extérieur. Des informations pertinentes, promouvoir l'ouverture et la transparence des algorithmes et explorer des solutions techniques aux problèmes éthiques de l'IA (tels que des outils de détection et d'identification pour le contenu d'informations synthétiques, des outils d'évaluation de la gouvernance de l'IA et des solutions informatiques de confidentialité telles que comme apprentissage fédéré), etc.
La coopération et la concurrence mondiales en matière de gouvernance de l'IA coexistent
**La concurrence mondiale en matière d'IA n'est pas seulement une compétition entre la technologie et l'industrie, mais aussi une compétition entre les règles et les normes de gouvernance. **Le développement de l'économie numérique mondiale forme de nouvelles règles internationales pour l'IA et les données, telles que le flux de données, le cadre de gouvernance de l'IA, etc. Ces dernières années, la coopération mondiale en matière de gouvernance de l'IA a continué de progresser. Les Principes 2019 de l'OCDE/G20 sur l'IA sont le premier cadre politique mondial en matière d'IA. En novembre 2021, l'Organisation des Nations Unies, l'UNESCO, a adopté le premier accord éthique au monde sur l'IA « Recommandation sur l'éthique de l'intelligence artificielle » (Recommandation sur l'éthique de l'intelligence artificielle), qui est actuellement le cadre politique mondial sur l'IA le plus complet et le plus largement consensuel. , l'évaluation de l'impact éthique et d'autres mécanismes pour renforcer la gouvernance éthique de l'IA.
Dans le même temps, les États-Unis et l'Europe accélèrent les politiques d'IA afin de renforcer leur leadership dans le domaine des politiques d'IA et d'influencer les règles et normes mondiales de gouvernance de l'IA. Par exemple, l'Union européenne travaille sur un projet de loi harmonisé sur l'IA qui, lorsqu'il devrait être adopté en 2023, établira une voie réglementaire complète et basée sur les risques pour l'IA. De nombreux experts prédisent que, tout comme l'impact de la précédente législation sur la confidentialité des données GPDR sur l'industrie technologique mondiale, la loi européenne sur l'IA étendra "l'effet Bruxelles" au domaine de l'IA, ce qui est exactement ce que l'UE espère établir la gouvernance de l'IA pour le monde grâce à la norme de réglementation. [14] En plus de la législation sur l'IA, le Conseil de l'Europe prépare toujours la première « Convention internationale sur l'IA ». Tout comme les précédentes « Convention sur la cybercriminalité » et « Convention sur la vie privée », les États membres et les États non membres peuvent adhérer et ratifier la future IA. convention. [15] Les États-Unis ont toujours été un leader mondial dans le domaine de l'IA en termes de technologie et d'industrie, et ces dernières années ont commencé à remodeler activement leur leadership dans le domaine de la politique d'IA. L'une des principales tâches du Conseil du commerce et de la technologie entre les États-Unis et l'UE créé en 2020 est de promouvoir la coopération entre les États-Unis et l'UE en matière de gouvernance de l'IA. [16] En conclusion, la concurrence mondiale en matière d'IA met de plus en plus l'accent sur la concurrence du soft power dans le domaine de la politique et de la gouvernance de l'IA, ce qui peut être considéré comme un changement majeur dans la concurrence technologique au 21e siècle.
Ces dernières années, la Chine a attaché une grande importance à sa participation à la gouvernance mondiale de la science et de la technologie, a activement avancé ses propres propositions et s'est efforcée d'obtenir plus de reconnaissance et de consensus. Par exemple, la Chine a mis en avant la "Global Data Security Initiative", qui continue d'injecter une énergie positive dans la gouvernance numérique mondiale. En novembre 2022, lors de la Conférence des États parties à la Convention des Nations Unies sur certaines armes classiques, la Chine a soumis un document sur le renforcement de la gouvernance éthique de l'intelligence artificielle et a avancé des propositions telles que l'adhésion à l'éthique d'abord, le renforcement de l'autodiscipline, l'utilisation responsable de l'intelligence artificielle et l'encouragement de la coopération internationale.
PERSPECTIVES EN TROIS POINTS
De nombreux documents politiques et normatifs tels que « Le 14e plan quinquennal et l'esquisse des objectifs à long terme en 2035 », « Construction de l'État de droit en Chine (2020-2025) », « Opinions sur le renforcement de la gouvernance éthique de Science et technologie » et d'autres politiques et documents normatifs montrent que la gouvernance de l'IA continue de devenir un enjeu majeur dans la gouvernance de la science et de la technologie. Domaines clés de l'éthique technologique. Pour améliorer encore la compétitivité mondiale de la Chine dans le domaine de l'IA, la Chine doit non seulement accorder plus d'attention à la culture de la technologie et de la puissance industrielle, mais doit également se concentrer sur la formation du soft power, en particulier le droit de parler et de diriger dans la politique et la gouvernance de l'IA. . Parce que la gouvernance de l'IA est devenue un élément important de la compétitivité mondiale de l'IA.
En se penchant sur le passé, la Chine a clarifié l'idée d'une supervision et d'une gouvernance de l'IA qui accorde une attention égale au développement et à la sécurité, et met en parallèle l'innovation et l'éthique. Tout en soutenant et en promouvant l'innovation et le développement, elle assure également la sécurité, la fiabilité et la contrôlabilité. d'applications technologiques. Face à l'avenir, nous devons mieux utiliser les efforts conjoints du gouvernement, des industries/entreprises, des instituts de recherche, des organisations sociales, des utilisateurs/consommateurs, du public, des médias et d'autres parties prenantes pour continuer à promouvoir le bon développement de l'IA pratiques de gouvernance et faire en sorte que l'IA profite mieux au développement économique et social, améliore les moyens de subsistance et le bien-être des populations et pousse la science et la technologie à un niveau supérieur.
De plus, la dernière "décennie dorée" de l'IA a apporté aux gens des modèles d'IA de plus en plus puissants, et dans un avenir prévisible, l'IA ne fera que devenir plus puissante. Cela signifie que lorsque l'IA interagit avec l'écosystème social, ses éventuels impacts humains, sociaux et environnementaux dépasseront de loin toute technologie antérieure. Par conséquent, la tâche principale de la gouvernance de l'IA est de continuer à défendre et à mettre en pratique le concept d'"IA responsable" ; de créer de la valeur pour les parties prenantes et d'améliorer leur bien-être, et de prévenir les abus, les abus et les mauvaises utilisations. En bref, une gouvernance efficace de l'IA doit promouvoir le développement de pratiques d'IA responsables et créer une IA digne de confiance (Trustworthy AI).
Continuer à améliorer le cadre légal des données et de l'IA, et promouvoir une supervision précise et agile
Le développement sain et durable de l'IA est indissociable d'une part d'un encadrement raisonné et efficace et d'autre part d'une amélioration continue du niveau d'approvisionnement, de circulation et d'utilisation des données dans le domaine de l'IA. En fait, l'un des principaux problèmes auxquels sont confrontés le développement et l'application de l'IA dans de nombreux domaines tels que les soins médicaux, la fabrication et la finance est le problème de l'acquisition et de l'utilisation des données, y compris l'acquisition difficile des données, la mauvaise qualité des données et les normes de données incohérentes. Par conséquent, la poursuite du développement de l'IA à l'avenir dépend dans une large mesure de l'amélioration continue du cadre juridique des données et de l'IA. Le "Digital Regulation Plan" du Royaume-Uni propose qu'une réglementation bien conçue puisse avoir un effet puissant sur la promotion du développement et la formation d'une économie et d'une société numériques dynamiques, mais qu'une réglementation mal conçue ou restrictive peut entraver l'innovation. Les bonnes règles peuvent aider les gens à faire confiance aux produits et services qu'ils utilisent, ce qui à son tour stimulera la popularité des produits et services et favorisera la consommation, l'investissement et l'innovation. [17] Il en est de même pour l'IA.
** D'une part, pour la gouvernance de l'IA, il faut mieux favoriser une supervision précise et agile. Cela inclut : Tout d'abord, adoptez des règles différentes pour différents produits, services et applications d'IA. ** Étant donné que les applications d'IA sont désormais presque omniprésentes, il est difficile pour une règle unique de s'adapter raisonnablement aux caractéristiques uniques des applications d'IA dans différents secteurs et domaines et à leur impact sur les individus et la société. Cela nous oblige à adopter un cadre stratégique de gouvernance de l'IA fondé sur les risques. Par exemple, la même technologie d'IA peut être utilisée non seulement pour analyser et prédire les attributs personnels et les préférences personnelles de l'utilisateur, et pour pousser un contenu personnalisé, mais aussi pour aider au diagnostic et au traitement des maladies ; la classification et l'organisation peuvent également être utilisées pour identifier les tumeurs cancéreuses. Ces applications présentent d'énormes différences en termes de niveau de risque, d'importance des résultats, d'impact personnel et social… Il n'est évidemment ni scientifique ni réaliste de proposer des exigences réglementaires de manière générale et unique. ** Deuxièmement, il met l'accent sur l'adoption d'une supervision décentralisée et différenciée sur la base de la notation et de la classification des applications d'IA. ** Tout comme Internet, l'IA est une technologie très large et polyvalente, qui n'est pas adaptée et difficile à mener une supervision unifiée. D'un point de vue étranger, seule l'Union européenne tente actuellement d'établir un cadre réglementaire unifié et général pour toutes les applications de l'IA (le modèle de l'UE), tandis que le Royaume-Uni et les États-Unis mettent l'accent sur la supervision décentralisée des industries en fonction des scénarios d'application et des risques ( le modèle anglo-américain). Le Royaume-Uni propose d'être guidé par des principes et d'adopter une supervision favorisant l'innovation sur les applications d'IA.Ses concepts de base incluent : se concentrer sur des scénarios d'application spécifiques et assurer la proportionnalité et l'adaptabilité de la supervision en fonction du degré de risque ; [18] Les États-Unis ont toujours mis l'accent sur une voie de gouvernance qui combine la réglementation de l'industrie et l'autodiscipline de l'industrie.Par exemple, le "AI Bill of Rights Blueprint" propose non seulement cinq principes, mais clarifie également l'idée d'une réglementation décentralisée dirigée par les autorités de l'industrie. et orienté scénario d'application. [19] En ce qui concerne la Chine, la législation et la supervision de l'IA dans le passé sont plus proches du modèle anglo-américain, c'est-à-dire que des règles réglementaires distinctes sont formulées pour différentes applications d'IA telles que les services de recommandation d'algorithmes, la synthèse profonde et la conduite autonome. Ce modèle réglementaire décentralisé et différencié est conforme aux principes de gouvernance agile et peut mieux s'adapter aux caractéristiques complexes du développement rapide et de l'itération de la technologie de l'IA et de ses applications. **Troisièmement, appelle à une innovation continue de la boîte à outils réglementaire et à l'adoption d'initiatives réglementaires diversifiées. L'un est le "bac à sable réglementaire" de l'IA. ** L'une des principales initiatives de l'Union européenne en matière de réglementation de l'IA est la proposition de "bac à sable réglementaire" de l'IA. [20] En tant que moyen efficace de soutenir et de promouvoir la communication et la collaboration entre les régulateurs et les sujets d'innovation, le "bac à sable réglementaire" peut fournir un environnement contrôlé pour développer, tester et vérifier la conformité des applications d'IA innovantes. Les meilleures pratiques et les directives de mise en œuvre générées par le « bac à sable réglementaire » aideront les entreprises, en particulier les petites, moyennes et micro-entreprises et les start-up, à mettre en œuvre les règles réglementaires. ** Le second concerne les services sociaux de gouvernance de l'IA, y compris les normes de gouvernance de l'IA, la certification, les tests, l'évaluation, l'audit, etc. **Dans le domaine de la sécurité des réseaux, les services sociaux de sécurité des réseaux tels que la certification, les tests et l'évaluation des risques en matière de sécurité des réseaux sont un moyen important de mettre en œuvre les exigences réglementaires. La gouvernance de l'IA peut apprendre de cette approche. Actuellement, l'Union européenne, le Royaume-Uni, les États-Unis et l'IEEE font tous la promotion des services sociaux de gouvernance de l'IA. Par exemple, l'IEEE a lancé la certification éthique de l'IA pour l'industrie ; [21] La "Feuille de route pour l'établissement d'un écosystème de certification d'IA efficace" publiée par le Royaume-Uni espère cultiver une industrie de certification d'IA de premier plan au monde, grâce à des services de certification d'IA tiers neutres (y compris l'évaluation d'impact, l'audit des biais et l'audit de conformité, la certification, l'évaluation de la conformité) , tests de performance, etc.) pour évaluer et communiquer la crédibilité et la conformité des systèmes d'IA. Le Royaume-Uni pense que ce sera une nouvelle industrie valant des milliards de livres. [22] La Chine doit accélérer la mise en place d'un système solide de services sociaux de gouvernance de l'IA, et mieux entreprendre et mettre en œuvre la législation et les exigences réglementaires en amont par le biais de services de gouvernance de l'IA en aval. En outre, les méthodes réglementaires telles que les directives politiques, les sphères de responsabilité, les projets pilotes, les applications de démonstration et la responsabilité post-événement peuvent toutes jouer un rôle important dans différents scénarios d'application.
**En revanche, il faut accélérer l'amélioration du cadre légal de circulation et d'utilisation des données, et continuer à améliorer le niveau d'approvisionnement en données dans le domaine de l'IA. **Le premier consiste à construire un cadre juridique pour les données publiques ouvertes et partagées au niveau national, unifier les normes de qualité et de gouvernance des données, et utiliser les téléchargements de données, les interfaces API, l'informatique privée (apprentissage fédéré, informatique multipartite sécurisée, et environnements informatiques de confiance, etc.), données Une gestion diversifiée et des méthodes techniques telles que Data Space pour favoriser le partage ouvert maximal des données publiques. La seconde consiste à supprimer activement divers obstacles au développement et à l'application de la technologie informatique privée et de la technologie des données synthétiques. À l'heure actuelle, dans la circulation et l'utilisation de diverses données, les technologies informatiques de confidentialité telles que l'apprentissage fédéré jouent un rôle de plus en plus important et peuvent produire des effets tels que "les données sont disponibles/comptables et invisibles", "les données ne changent pas d'algorithme/de valeur se déplace". Poussé par le développement de l'IA et des applications de big data, l'apprentissage fédéré, en tant que principale méthode de promotion et d'application dans le domaine de l'informatique privée, est actuellement la voie technique la plus mature. À l'étape suivante, nous pourrons mieux soutenir l'application et le développement de technologies informatiques de confidentialité telles que l'apprentissage fédéré en créant des espaces de données dans des domaines stratégiques, en formulant des normes industrielles pour l'informatique de confidentialité et en publiant des directives juridiques pour la mise en œuvre des technologies informatiques de confidentialité.
La gouvernance éthique de l'IA doit passer du principe à la pratique
Avec le développement de l'institutionnalisation et de la légalisation de la gouvernance éthique scientifique et technologique, le renforcement de la gouvernance éthique scientifique et technologique est devenu l'une des « questions incontournables » et des « questions obligatoires » pour les entreprises scientifiques et technologiques. Sous le concept d'"éthique d'abord", les exigences de gouvernance éthique de la science et de la technologie signifient que les entreprises technologiques ne peuvent pas espérer traiter les questions éthiques de l'IA par des mesures correctives après coup, mais doivent être impliquées dans l'ensemble de Cycle de vie de l'IA, de la conception au développement en passant par le déploiement Parmi eux, assumer activement la responsabilité de l'organe principal de gestion de l'éthique scientifique et technologique et promouvoir de manière innovante l'autodiscipline de l'éthique scientifique et technologique de diverses manières. Globalement, dans une société hautement technologique et numérique, les entreprises technologiques doivent envisager d'intégrer la gouvernance de l'IA dans leur paysage de gouvernance d'entreprise en tant que module aussi important que les modules existants tels que les affaires juridiques, la finance et le contrôle des risques. Les aspects suivants méritent d'être approfondis :
** Premièrement, en termes de gestion, il est nécessaire de mettre en place un mécanisme de gestion des risques éthiques de l'IA. ** La gestion des risques éthiques liés à l'IA doit couvrir tout le cycle de vie de l'IA, y compris l'étape de pré-conception, l'étape de conception et de développement, l'étape de déploiement et les activités de test et d'évaluation tout au long de ces étapes, afin d'identifier, d'analyser et d'évaluer de manière exhaustive , gérer et gouverner les risques éthiques liés à l'IA . Cela dépend de l'entreprise pour établir une structure organisationnelle et des normes de gestion correspondantes, telles qu'un comité d'éthique, un processus d'examen éthique et d'autres outils de gestion. Les décideurs politiques peuvent envisager de publier des lignes directrices politiques à cet égard.
Deuxièmement, en termes de design, il est nécessaire de suivre le concept de design orienté vers les personnes et de pratiquer le concept de "Ethics by Design"** (Ethicsby Design). **La conception intégrée éthique signifie l'intégration de valeurs, de principes, d'exigences et de procédures éthiques dans la conception, le développement et le déploiement de systèmes d'IA, de robotique et de mégadonnées. Les entreprises doivent réfléchir au processus de R&D et d'application en IA dirigé par des techniciens, et mettre davantage l'accent sur la diversité des antécédents et de la participation des activités de R&D et d'application en IA. L'introduction de la politique, du droit, de l'éthique, de la société, de la philosophie et d'autres personnels multidisciplinaires et interdisciplinaires dans l'équipe de développement technologique est le moyen le plus direct et le plus efficace d'intégrer les exigences éthiques dans la conception et le développement de la technologie. À l'avenir, les décideurs politiques pourront s'associer à l'industrie pour résumer l'expérience et les leçons, et publier des directives techniques, des meilleures pratiques et d'autres documents pour une conception intégrée éthique.
**Enfin, en termes de technologie, il est nécessaire de continuer à explorer des approches techniques et orientées vers le marché pour traiter les questions éthiques de l'IA et créer des applications d'IA crédibles. ** L'un est l'outil éthique de l'IA. De nombreux problèmes dans les applications d'IA, tels que l'explicabilité, l'équité, la sécurité, la protection de la vie privée, etc., peuvent être résolus grâce à l'innovation technologique. En se concentrant sur ces questions, l'industrie a exploré certains outils d'éthique de l'IA et des outils d'audit de l'IA, et les travaux futurs dans ce domaine doivent être développés davantage. Le second est le service d'éthique de l'IA (AIEthicsasa Service). [23] Il s'agit d'une voie orientée vers le marché.Les principales sociétés d'éthique de l'IA et les startups d'éthique de l'IA développent des solutions d'IA responsables centrées sur les outils et services d'éthique de l'IA, et les fournissent sous forme de services commerciaux. [24] La société de recherche et de conseil Forrester prédit que de plus en plus d'entreprises de technologie d'IA et d'entreprises dans d'autres domaines qui appliquent l'IA achèteront des solutions d'IA responsables pour les aider à mettre en œuvre des principes éthiques d'IA justes et transparents, et la taille du marché des services d'éthique d'IA doublera. Le troisième concerne les méthodes de crowdsourcing technologique telles que AI Ethics Bounty. Semblable à la prime de vulnérabilité de la sécurité du réseau (Bug bounty), à la prime de discrimination des algorithmes (Algorithmic Bias Bounty) et à d'autres méthodes techniques de crowdsourcing largement utilisées par les sociétés Internet, elle peut découvrir, identifier et résoudre les problèmes éthiques de l'IA, développer des outils d'audit de l'IA et créer les applications d'IA fiables joueront un rôle important. Certaines entreprises étrangères et institutions de recherche universitaires, telles que Twitter et l'Université de Stanford, ont lancé le Algorithmic Discrimination Bounty Challenge et le AI Audit Challenge, appelant les participants à développer des outils pour identifier et atténuer la discrimination algorithmique dans les modèles d'IA. Cultiver et renforcer la communauté éthique de l'IA grâce à ces méthodes de crowdsourcing technologique jouera un rôle important dans la gouvernance de l'IA.
La coopération mondiale en matière de gouvernance de l'IA doit continuer à s'approfondir
Comme mentionné précédemment, la gouvernance mondiale de l'IA présente une situation concurrentielle, qui n'est pas conforme aux concepts de technologie axée sur les personnes, ouverte et partagée, et de développement inclusif. Les pays doivent continuer à approfondir la coopération dans la gouvernance internationale de l'IA, promouvoir la formulation d'accords internationaux sur l'éthique et la gouvernance de l'IA, former un cadre international de gouvernance de l'IA, des normes et des normes avec un large consensus, renforcer les échanges et la collaboration dans la technologie, les talents, les industries, etc. ., et s'opposer à l'exclusionnisme, promouvoir l'inclusivité technologique et la technologie pour le bien, et réaliser le développement inclusif de tous les pays. La participation profonde de la Chine à la gouvernance mondiale des technologies doit saisir la nouvelle série d'opportunités internationales d'élaboration de règles dans les domaines de l'IA et des données, proposer en permanence des solutions de gouvernance de l'IA conformes au consensus mondial et continuer à injecter la sagesse chinoise dans la gouvernance numérique mondiale et Gouvernance de l'IA. Dans le même temps, nous devons renforcer notre voix internationale, intégrer nos idées, nos propositions et nos pratiques dans la communauté internationale, lutter pour plus de reconnaissance et de consensus, et accroître notre voix et notre influence.
Face au futur, avec le développement continu de la technologie de l'IA, l'IA deviendra de plus en plus puissante, et l'IA générale (Intelligence Générale Artificielle, AGI en abrégé) pourrait apparaître à l'avenir. Une IA générale aurait un niveau d'intelligence équivalent à celui d'un humain et serait capable d'accomplir n'importe quelle tâche intellectuelle dont un être humain est capable. En théorie, l'IA générale peut concevoir un niveau d'intelligence plus élevé, provoquant une grande explosion d'intelligence, la soi-disant "singularité", résultant en une superintelligence. De l'application actuelle de l'IA à la future AGI, il peut s'agir d'un saut entre le changement quantitatif et le changement qualitatif. Cela a soulevé des inquiétudes quant au fait que l'AGI déplace des emplois humains, devient incontrôlable et menace même l'existence humaine. Par conséquent, pour le développement de l'IA à usage général et ses problèmes potentiels de sécurité et d'éthique, le monde doit planifier à l'avance et travailler ensemble pour garantir que la technologie de l'IA est plus inclusive, sûre, fiable et contrôlable au profit de toute l'humanité.
Cet article est paru pour la première fois dans le numéro 4, 2023 du "Journal of Shanghai Normal University (Philosophy and Social Sciences Edition)"
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Vers une IA responsable : tendances et perspectives de la gouvernance de l'IA en Chine
Auteur : Cao Jianfeng, chercheur principal, Institut de recherche Tencent
Le XXIe siècle est une ère de développement en profondeur de la numérisation, de la mise en réseau et de l'intelligence. L'intelligence artificielle (IA), en tant que technologie clé, a attiré l'attention de tous les horizons. Les dix dernières années sont considérées comme la "décennie dorée" de l'IA représentée par l'apprentissage en profondeur. ** [1] Grâce à l'apprentissage en profondeur, la technologie des réseaux de neurones (réseaux de neurones) dans le domaine de l'IA a inauguré une reprise, inaugurant le "troisième printemps" du développement rapide dans le domaine de l'IA. Avant cela, depuis que le concept d'"intelligence artificielle" a été proposé à la conférence de Dartmouth en 1956, le domaine de l'IA a connu deux hauts et des bas. Plus précisément, la convergence et le développement de nombreux éléments techniques tels que les algorithmes d'apprentissage automatique, les mégadonnées, le cloud computing, les puces spécifiques à l'IA et les cadres logiciels open source ont favorisé d'énormes progrès dans le domaine de l'IA. une nouvelle technologie polyvalente et la base intelligente de l'économie et de la société, et est largement utilisée dans divers domaines de l'économie et de la société, apportant de nouveaux produits et services. De la recommandation d'algorithmes, du contenu généré par l'IA (AIGC) et des chatbots dans le domaine de l'Internet grand public, aux véhicules sans pilote dans le domaine industriel, aux logiciels médicaux d'IA, à l'inspection de la qualité de l'IA et à diverses applications pratiques dans les services publics sociaux, l'IA a un grand impact L'énorme valeur d'un développement social de qualité continue d'être démontrée. [2] En bref, en tant que technologie stratégique menant un nouveau cycle de révolution technologique et de transformation industrielle (la quatrième révolution industrielle), l'IA devrait remodeler l'économie humaine et la société, et aura un impact énorme sur la productivité, l'emploi, la répartition des revenus, mondialisation, etc.
** Dans ce contexte, l'IA est devenue un nouveau centre de la concurrence internationale, et les pays du monde entier ont introduit des stratégies de développement de l'IA et des politiques spécifiques pour saisir les sommets stratégiques et les opportunités de développement. ** En juillet 2017, la Chine a publié le "Plan de développement de l'intelligence artificielle de nouvelle génération", et l'IA a été élevée au rang de stratégie nationale ; en avril 2018, l'UE a publié une stratégie d'IA, visant à faire de l'UE un centre d'IA de classe mondiale et veiller à ce que l'IA soit axée sur les personnes, crédible ; en février 2019, le "Plan IA américain" a été publié, lançant la stratégie de l'IA, visant à renforcer le leadership des États-Unis dans le domaine de l'IA ; en septembre 2021, le Le Royaume-Uni a publié une stratégie d'IA, dans l'espoir de construire les superpuissances du Royaume-Uni pour l'IA. En analysant les stratégies d'IA de divers pays, il n'est pas difficile de voir que la concurrence internationale dans le domaine de l'IA n'est pas seulement liée à l'innovation technologique et à l'économie industrielle, mais implique également des dimensions telles que la gouvernance de l'IA. Avec l'application généralisée de l'IA, de nombreux problèmes éthiques scientifiques et technologiques soulevés par l'IA continuent d'attirer une grande attention de tous les horizons, tels que la discrimination des algorithmes, le cocon d'informations, la prise de décision injuste en matière d'IA, l'abus d'informations personnelles et la violation de la vie privée, l'IA la sécurité, la boîte noire des algorithmes, la responsabilité, l'abus de la technologie (comme la destruction de mégadonnées, la fraude par IA et les fausses informations synthétiques), l'impact sur le travail et l'emploi, l'impact éthique et moral et d'autres risques. [3] Par conséquent, parallèlement au développement et à l'application rapides de la technologie de l'IA au cours des dix dernières années, tous les horizons de la vie au pays et à l'étranger ont simultanément promu la gouvernance de l'IA, exploré de multiples mesures de gouvernance et mécanismes de garantie tels que la législation, les cadres éthiques, les normes et la certification, et les meilleures pratiques de l'industrie pour soutenir un développement d'IA responsable, fiable et centré sur l'humain.
Basé sur une perspective internationale, cet article trie les progrès importants de la Chine dans le domaine de la gouvernance de l'IA au cours des dix dernières années, analyse et résume les lois et les tendances, et envisage les développements futurs. Dans un avenir prévisible, à mesure que l'IA deviendra plus performante, son application et son impact s'approfondiront de jour en jour. Par conséquent, l'IA responsable (IA responsable) deviendra de plus en plus importante. L'avancement et la mise en œuvre d'une IA responsable sont indissociables d'une gouvernance raisonnable et efficace de l'IA. En d'autres termes, établir une bonne gouvernance de l'IA est le seul moyen d'évoluer vers une IA responsable et d'assurer le développement futur de l'IA. Nous espérons que cet article sera utile au développement et à la mise en œuvre continus de la gouvernance de l'IA à l'avenir.
Huit tendances de la gouvernance de l'IA
La stratégie macro et la politique de mise en œuvre sont développées simultanément pour cultiver la compétitivité nationale de l'IA
Depuis que les « Avis directeurs sur la promotion du développement ordonné et sain de l'Internet des objets » publiés en février 2013 mettent en avant le « développement économique et social intelligent », l'IA est entrée dans le champ de vision de la macrostratégie nationale et est devenue un sujet important de documents politiques nationaux de haut niveau. Par exemple, en 2015, les "Avis d'orientation sur la promotion active de l'action "Internet Plus"" proposaient pour la première fois "de cultiver et de développer les industries émergentes de l'intelligence artificielle". Depuis lors, le pays a accordé de plus en plus d'attention à l'IA et a continué à faire des déploiements pour le développement de l'IA au niveau stratégique afin de s'assurer que les technologies de base sont autocontrôlables et de promouvoir une autonomie et une autonomie technologiques de haut niveau. dépendance (tableau 1).
Avec le soutien continu de la macro-stratégie nationale et des politiques de mise en œuvre, l'innovation et l'entrepreneuriat dans le domaine de l'IA en Chine ont continué d'être actifs. Des laboratoires nationaux dans le domaine de l'IA ont été créés les uns après les autres et d'importantes réalisations ont été réalisées. dans l'innovation technologique, l'application industrielle et l'échelle des talents dans le domaine de l'IA. . Le « Rapport mondial sur l'indice d'innovation de l'intelligence artificielle 2021 » publié par l'Institut de l'information scientifique et technologique de Chine montre que le développement mondial actuel de l'IA présente un schéma général mené par la Chine et les États-Unis et une concurrence féroce entre les principaux pays. [4] Le développement de l'IA en Chine a obtenu des résultats remarquables. Le niveau d'innovation de l'IA est entré au premier échelon mondial et l'écart avec les États-Unis s'est encore réduit. Les centres de calcul intensif de la Chine, l'échelle de l'entreprise d'IA, le nombre d'enregistrements de brevets, la constitution d'équipes de talents et la force de la recherche scientifique dominent tous le monde. À l'avenir, la contribution de l'IA à la croissance économique et au développement social de la Chine continuera d'augmenter. Un rapport de recherche de PricewaterhouseCoopers prédit qu'à l'échelle mondiale, d'ici 2030, la contribution de l'IA à l'économie mondiale atteindra 15,7 billions de dollars américains, et la Chine tirera les plus grands avantages économiques de l'IA, atteignant 7 billions de dollars américains, ce qui signifie que l'IA favorisera La croissance du PIB de la Chine d'environ 26,1 %, suivie par les États-Unis et l'Amérique du Nord, atteindra 3,7 billions de dollars américains. [5]
Le système d'éthique scientifique et technologique a été continuellement amélioré et est devenu une garantie importante pour l'innovation en IA
À l'ère numérique, les technologies numériques émergentes telles que l'IA ont un caractère unique et une complexité qui diffèrent des applications technologiques de l'ère industrielle. Principalement reflété dans : (1) Une connectivité plus large, une connexion réseau et une collecte et un traitement des données sont omniprésents ; (2) Une plus grande autonomie, le système d'IA permet à divers produits et services de fonctionner indépendamment sans intervention humaine ; (3) Une opacité plus profonde, le "noir algorithmique box" du système d'IA est difficile à comprendre et à expliquer ; [6] (4) Plus fidèles, les contenus, les données et le monde virtuel générés et synthétisés par l'IA se rapprochent de la réalité. Pour cette raison, les problèmes sociaux et éthiques qui peuvent être causés par l'application de nouvelles technologies telles que l'IA sont de plus en plus caractérisés par la soudaineté, la dissimulation, l'échelle et l'imprévisibilité, qui posent de nouveaux défis à la gouvernance éthique de la science et de la technologie. Dans le processus de développement et d'application de l'IA, il devient de plus en plus nécessaire et important de considérer simultanément ou même de considérer à l'avance les questions d'éthique scientifique et technologique. [7] L'ajustement et l'amélioration du système d'éthique scientifique et technologique sont ainsi devenus un enjeu important à l'ère de l'IA. ordre social numérique amical. [8] En outre, avec la concurrence mondiale de plus en plus intense dans le domaine des sciences et des technologies, l'éthique des sciences et des technologies n'est pas seulement liée à la prévention des risques et des défis technologiques en matière de sécurité, mais aussi au renforcement de la compétitivité technologique nationale.
**Depuis le 18e Congrès national du Parti communiste chinois, l'État accorde de plus en plus d'attention à l'éthique des sciences et des technologies. Il a clairement affirmé que l'éthique des sciences et des technologies est un critère de valeur qui doit être suivi dans les activités scientifiques et technologiques. , et a intégré l'éthique scientifique et technologique dans la conception des politiques de haut niveau en tant que soutien et garantie importants pour l'innovation scientifique et technologique. ** "Décision du Comité central du Parti communiste chinois sur l'adhésion et l'amélioration du système socialiste à la chinoise et la promotion de la modernisation du système national de gouvernance et des capacités de gouvernance" et "Le quatorzième plan quinquennal et les grandes lignes d'un long -term Goals for 2035" ont fait des déploiements de haut niveau pour l'éthique des sciences et des technologies, Il est nécessaire d'améliorer le système de gouvernance de l'éthique scientifique et technologique et d'améliorer le système d'éthique scientifique et technologique. À l'heure actuelle, le pays continue d'établir et d'améliorer le système d'éthique scientifique et technologique et de façonner le concept culturel et le mécanisme de garantie de la science et de la technologie pour le bien. Elle se traduit principalement par les trois aspects suivants :
**D'abord, mettre en place le Comité national d'éthique des sciences et des technologies, qui est chargé d'orienter, de coordonner et de promouvoir la construction du système national de gouvernance de l'éthique des sciences et des technologies. **En juillet 2019, la neuvième réunion du Comité central de réforme pour l'approfondissement global a examiné et approuvé le « Plan de formation du Comité national d'éthique des sciences et de la technologie », établissant officiellement l'organisation nationale chinoise de gestion de l'éthique des sciences et de la technologie. Les "Avis sur le renforcement de la gouvernance de l'éthique des sciences et des technologies" publiés en mars 2022 ont précisé les responsabilités de gestion du Comité national d'éthique des sciences et des technologies.
**Deuxièmement, promulguer des politiques et des règlements liés à l'éthique des sciences et des technologies pour soutenir la mise en œuvre de la gouvernance de l'éthique des sciences et des technologies. ** L'un des points forts de la "Loi sur le progrès scientifique et technologique" révisée en décembre 2021 est l'ajout de dispositions connexes sur l'éthique scientifique et technologique. Les sujets tels que les établissements d'enseignement supérieur, les entreprises et les établissements publics assument la responsabilité principale de la et la gestion de l'éthique technologique, procéder à un examen éthique des activités scientifiques et technologiques et, en même temps, clarifier les fondements juridiques et éthiques des activités de recherche, de développement et d'application scientifiques et technologiques. Les « Opinions sur le renforcement de la gouvernance éthique des sciences et des technologies » proposent des exigences plus complètes pour la gouvernance éthique des sciences et des technologies, impliquant six aspects majeurs : exigences générales, principes, systèmes, garanties institutionnelles, contrôle et supervision, éducation et publicité, et jette les bases de la mise en œuvre d'une gouvernance éthique de la science et de la technologie. Le suivi formulera également des règlements d'appui tels que les modalités d'examen de l'éthique scientifique et technologique, la liste des activités scientifiques et technologiques à risque en éthique scientifique et technologique et les normes d'éthique scientifique et technologique dans les domaines subdivisés.
**Troisièmement, mettre l'accent sur la gouvernance éthique de la science et de la technologie dans le domaine de l'IA. **Le Comité professionnel national de gouvernance de l'intelligence artificielle de nouvelle génération a publié successivement les "Principes de gouvernance de l'intelligence artificielle de nouvelle génération - Développer une intelligence artificielle responsable" et "Éthique de l'intelligence artificielle de nouvelle génération", fournissant des lignes directrices éthiques pour le développement d'une IA responsable. La "Loi sur la sécurité des données", le "Règlement sur la gestion des recommandations relatives aux algorithmes des services d'information sur Internet", les "Avis d'orientation sur le renforcement de la gouvernance globale des algorithmes des services d'information sur Internet" et d'autres lois et réglementations énoncent des exigences éthiques scientifiques et technologiques et des mesures de gestion des données et des algorithmes activités. Les "Avis sur le renforcement de la gouvernance de l'éthique des sciences et des technologies" considèrent l'IA, les sciences de la vie et la médecine comme les trois domaines clés de la période du "14e plan quinquennal", exigent la formulation de normes et de lignes directrices spéciales en matière d'éthique des sciences et des technologies, renforce la législation sur l'éthique des sciences et des technologies et exige des cadres de l'industrie concernés Le ministère a lancé une mesure de surveillance de l'éthique scientifique et technologique. Il est prévisible que la réglementation de l'éthique technologique dans le domaine de l'IA sera renforcée à l'avenir. En outre, la législation au niveau local telle que le "Règlement de promotion de l'industrie de l'intelligence artificielle de Shenzhen" et le "Règlement de Shanghai sur la promotion du développement de l'industrie de l'intelligence artificielle" considèrent tous deux la gouvernance éthique de l'IA comme une garantie importante pour soutenir le développement sain de l'IA. industrie.
**D'après l'analyse ci-dessus, on peut voir qu'en termes de gouvernance de l'éthique des sciences et des technologies de l'IA, une tendance significative est de prendre la responsabilité du sujet de la gestion de l'éthique des sciences et des technologies comme point de départ principal, ce qui est similaire à l'accent mis sur la responsabilité du sujet plate-forme dans la supervision des plates-formes Internet.Une certaine similitude. ** La supervision de la plate-forme par le gouvernement est en grande partie réalisée grâce à la mise en œuvre et au compactage de la responsabilité principale de la plate-forme. La législation pertinente dans le domaine de l'Internet a établi un système complet d'obligations de plate-forme avant, pendant et après l'événement. L'administration d'État du marché Supervision émise Les "Lignes directrices pour la mise en œuvre des responsabilités des sujets sur les plates-formes Internet (projet pour commentaires)" ont tenté d'affiner les responsabilités des sujets des différents types de plates-formes. La réglementation gouvernementale sur l'IA montre une idée similaire. Les politiques et réglementations pertinentes actuelles tentent d'affiner les responsabilités des sujets de gestion de l'éthique scientifique et technologique, obligeant les sujets d'innovation à établir des comités d'éthique, à adhérer à la ligne de fond de l'éthique scientifique et technologique, à mener un examen de l'éthique scientifique et technologique, à effectuer des la surveillance, l'alerte précoce et l'évaluation des risques éthiques, et la formation à l'éthique scientifique et technologique.
L'application des algorithmes dans le domaine Internet est devenue l'objet clé de la supervision de l'IA
La recommandation d'algorithmes, la prise de décision automatisée par algorithmes, la synthèse approfondie de l'IA et d'autres applications d'algorithmes dans le domaine de l'Internet sont devenues le centre de la supervision gouvernementale dans le domaine de l'IA en raison de facteurs tels qu'une large application, une grande attention du public et une mise en évidence continue des problèmes négatifs. . Ces dernières années, l'État a promulgué une série de lois et de règlements pour réglementer activement l'application des algorithmes dans le domaine Internet. [9] Les << Avis d'orientation sur le renforcement de la gouvernance globale des algorithmes des services d'information sur Internet >> publiés par le Bureau national d'information sur Internet et neuf autres départements proposent des exigences de gestion relativement complètes. On espère que dans environ trois ans, un mécanisme de gouvernance solide, une supervision solide et une norme écologique algorithmique sera progressivement établie Modèle de gouvernance globale de la sécurité algorithmique. L'avis met également l'accent sur le renforcement des responsabilités des entreprises, y compris les responsabilités en matière de sécurité des algorithmes et d'examen éthique scientifique et technologique.
En termes de recommandation d'algorithmes, le "Règlement sur la gouvernance écologique des contenus d'information en réseau" propose d'améliorer le mécanisme d'intervention humaine et d'autosélection des utilisateurs pour la technologie de recommandation d'algorithmes. Le "Règlement sur l'administration des recommandations d'algorithmes pour les services d'information sur Internet", qui est entré en vigueur le 1er mars 2022, est la première législation chinoise axée sur la gouvernance des algorithmes. Une série de mesures réglementaires telles que la surveillance des risques de sécurité, l'évaluation de la sécurité des algorithmes et La gestion des fichiers d'algorithmes a encore renforcé la responsabilité de la sécurité des algorithmes des sociétés de plateforme. Les initiés de l'industrie ont pris cela comme un signe et ont qualifié 2022 de première année de réglementation des algorithmes.
En termes de prise de décision automatisée algorithmique, la "Loi sur la protection des informations personnelles de la République populaire de Chine", la "Loi sur le commerce électronique de la République populaire de Chine", les "Dispositions provisoires sur les services de gestion du tourisme en ligne" et d'autres dispositions ont des dispositions relatives à la discrimination des algorithmes, à la familiarisation avec les mégadonnées, etc. Afin de réglementer les comportements légitimes de prise de décision concernant les algorithmes, des méthodes de régulation telles que l'octroi de droits de choix aux individus, la réalisation d'études d'impact et la possibilité pour les individus de demander des explications et de bénéficier de droits de rejet sont proposées pour mieux équilibrer la protection des droits personnels et les activités d'application commerciale des algorithmes.
En termes de synthèse profonde de l'IA (se référant principalement à l'utilisation de la technologie de l'IA pour générer et synthétiser le contenu de l'information), la législation pertinente délimite activement la ligne rouge pour l'application de la technologie de synthèse profonde de l'IA et promeut l'application positive de la technologie, comme le " Règlement sur la gestion des services d'information audio et vidéo en réseau », « Réseau Le règlement sur la gouvernance écologique du contenu de l'information, le Règlement sur l'administration des recommandations sur les algorithmes des services d'information sur Internet, etc. interdisent tous l'utilisation d'algorithmes de synthèse profonde pour les fausses informations et autres activités illégales. . Le "Règlement sur l'administration de la synthèse profonde des services d'information sur Internet" adopté en novembre 2022 résume l'expérience réglementaire passée et réglemente de manière exhaustive l'application de la technologie de synthèse profonde en termes de responsabilité principale des fournisseurs de services de synthèse profonde et de gestion du contenu des informations de synthèse profonde. Les mesures de sécurité nécessaires telles que l'identification, la détection et l'identification, ainsi que la traçabilité du contenu garantissent que l'application de la technologie de synthèse profonde est sûre et fiable, et favorisent mieux l'innovation et le développement technologiques et les applications positives.
Dans l'ensemble, la supervision des algorithmes dans le domaine de l'Internet met l'accent sur des objectifs multiples tels que la sécurité et la contrôlabilité, la protection des droits et des intérêts, l'équité et la justice, l'ouverture et la transparence et la prévention des abus. Sur la base de la classification et de la classification des applications algorithmiques, elle se concentre sur la réglementation applications d'algorithmes à haut risque. La réglementation sur le classement et la classification des algorithmes est similaire à la réglementation des systèmes d'IA dans la loi sur l'intelligence artificielle de l'Union européenne. différentes exigences réglementaires. Dans ce contexte, la communauté universitaire s'intéresse vivement à la recherche sur la gouvernance algorithmique et a proposé de nombreuses idées telles que l'interprétation des algorithmes, l'évaluation de l'impact des algorithmes et l'audit des algorithmes. À l'avenir, tous les horizons de la vie doivent explorer et améliorer davantage les méthodes et les mesures de gouvernance de la supervision des algorithmes, afin de mieux garantir que l'application des algorithmes est ascendante et bonne.
Utiliser l'innovation réglementaire pour promouvoir l'application de l'IA dans des domaines réglementaires forts traditionnels
Pour les domaines réglementaires forts traditionnels tels que les transports et les soins médicaux, le principal problème auquel sont confrontées les nouvelles choses telles que les voitures autonomes, les drones habités (voitures volantes sans pilote), les logiciels médicaux d'IA, etc. est que leurs applications commerciales sont toujours confrontées à de plus grands défis juridiques. et les obstacles réglementaires. Ces obstacles affectent non seulement la confiance des consommateurs et du public dans la technologie, mais découragent également les innovateurs et les investisseurs. Par conséquent, une innovation réglementaire efficace est la clé du développement et de l'application de ces nouveautés. Prenant l'exemple des voitures autonomes, l'application commerciale des voitures autonomes ne peut être accélérée qu'en accélérant la réforme du cadre législatif et réglementaire visant à réglementer les voitures traditionnelles et les conducteurs humains, puis en établissant un nouveau cadre réglementaire efficace.
Les décideurs politiques chinois innovent activement en matière de méthodes et de moyens réglementaires, et soutiennent et promeuvent l'application de nouvelles choses en matière d'IA par le biais du "Regulatory Sandbox" (Regulatory Sandbox, voir l'introduction ci-dessous), des projets pilotes et des applications de démonstration. Dans le domaine des voitures autonomes, l'État a publié une série de lois et de documents normatifs pour encourager, soutenir et réglementer les essais routiers et les activités d'application de démonstration des voitures autonomes, explorer le "bac à sable réglementaire" des normes de sécurité pour l'auto -conduite de voitures, et améliorer la standardisation des voitures autonomes.Règles de passage pour entrer et entrer sur la route pour assurer la sécurité du transport en voiture autonome. En raison de politiques réglementaires favorables, des endroits tels que Pékin, Shanghai, Guangzhou et Shenzhen se sont emparés les uns après les autres des hautes terres en développement.Certaines villes ont délivré des licences d'exploitation d'essai pour les voitures autonomes qui n'autorisent aucun conducteur dans la voiture et peuvent être exploitées moyennant des frais. ; Shenzhen est la première du pays à émettre le " Le Règlement sur l'administration des véhicules connectés intelligents de Shenzhen établit un cadre législatif et réglementaire pour les applications commerciales. Dans le domaine des soins médicaux IA, parce que les logiciels médicaux IA ont de nombreuses nouvelles fonctionnalités différentes des dispositifs médicaux traditionnels, y compris l'autonomie, les capacités d'apprentissage et d'évolution, l'itération continue, la boîte noire d'algorithme, l'imprévisibilité, etc., il est difficile pour les procédures d'approbation traditionnelles de s'adapter efficacement aux soins médicaux de l'IA Besoins de développement de logiciels. À cette fin, les autorités réglementaires améliorent activement les procédures de déclaration et d'approbation d'enregistrement et utilisent les spécifications de gestion des dispositifs médicaux d'IA, et soutiennent l'application clinique accélérée des logiciels médicaux d'IA pour le diagnostic et le traitement auxiliaires tels que l'imagerie médicale intelligente ; actuellement, l'IA médicale logiciel a été approuvé en Chine, comme le logiciel de diagnostic du glaucome assisté par l'IA de Tencent Miying et le système de diagnostic assisté par l'IA de la pneumonie ont tous deux été approuvés pour le certificat d'enregistrement de dispositif médical de troisième classe ("trois types de certificats"). À l'avenir, les autorités de réglementation doivent continuer à améliorer et à optimiser les procédures d'enregistrement, de demande et d'approbation des logiciels médicaux d'IA, afin que les applications médicales d'IA puissent mieux améliorer les moyens de subsistance et le bien-être des personnes.
Accélérer l'exploration des règles de protection de la propriété intellectuelle de l'IA
Le contenu généré par l'IA (AI-Generated Contents, AIGC en abrégé) est devenu une nouvelle frontière de l'IA, représentant l'orientation future du développement de l'IA [10] . Dans le domaine de l'Internet, l'AIGC est la forme de production de contenu après PGC (production de contenu professionnel) et UGC (contenu de production utilisateur), entraînant un énorme changement dans la production automatisée de contenu. À l'heure actuelle, la technologie AIGC est capable de produire indépendamment diverses formes de contenu, notamment du texte, des images, de l'audio, de la vidéo, du contenu 3D (objets 3D, scènes virtuelles 3D), etc. Les règles de protection des droits de propriété intellectuelle pour la technologie AIGC et ses applications sont donc devenues une question importante qui ne peut être évitée. contenu » sont des questions urgentes à résoudre. [11] Certains universitaires étrangers ont suggéré qu'il était nécessaire d'établir des règles spéciales de protection de la propriété intellectuelle de l'IA et des traités internationaux, car la technologie de l'IA rompt le modèle existant selon lequel les créateurs et les inventeurs ne peuvent être que des êtres humains. [12]
Au pays et à l'étranger, les règles de protection de la propriété intellectuelle pour le contenu généré par l'IA ont été activement explorées. A l'étranger, le Royaume-Uni, l'Union Européenne, le Japon, l'Afrique du Sud, etc. envisagent ou ont formulé des règles particulières de protection de la propriété intellectuelle de l'IA, telles que les clauses de protection des œuvres générées par ordinateur dans le "Copyright, Design and Patent Act" britannique et la "Directive sur le droit d'auteur du marché numérique unique" de l'Union européenne "Exceptions au droit d'auteur sur l'exploration de textes et de données basées sur la technologie de l'IA, etc. En matière de brevets, la politique du Royaume-Uni souligne que l'IA n'étant pas encore suffisamment avancée pour inventer et créer de manière indépendante, il n'est pas nécessaire de modifier la loi sur les brevets à l'heure actuelle, mais il est nécessaire de porter une attention particulière aux progrès technologiques et d'évaluer l'IA questions de brevets en temps opportun.
En Chine, dans l'affaire Beijing Film Law Firm contre l'affaire de violation du droit d'auteur "Baijiahao" de Baidu, le tribunal a jugé que seules les œuvres originales créées par des personnes physiques peuvent obtenir la protection du droit d'auteur, refusant ainsi le droit d'auteur des œuvres générées directement et indépendamment par AI Cependant, il souligne que les droits et intérêts pertinents (tels que les droits et intérêts concurrentiels) du contenu généré par l'IA peuvent être protégés par les lois sur la concurrence et d'autres moyens. Dans l'affaire Shenzhen Tencent Computer System Co., Ltd. c. Shanghai Yingxun Technology Co., Ltd. pour violation du droit d'auteur et concurrence déloyale, le tribunal, s'appuyant sur la réalité de la collaboration homme-ordinateur dans le domaine de l'IA, a souligné que les œuvres techniquement "générées" du logiciel d'écriture d'IA Dreamwriter ne sont que des créations. En tant que maillon du processus, l'activité intellectuelle globale formée par la division du travail multi-équipes et multi-personnes hébergée par le demandeur est le lien principal de la création, et il est ainsi déterminé que l'article impliqué dans l'affaire est une œuvre de personne morale hébergée par le demandeur. La détermination de l'affaire Dreamwriter est plus conforme au développement actuel de la technologie AIGC et de ses applications, et a une grande importance de référence pour clarifier davantage les règles de protection de la propriété intellectuelle pour le contenu généré par l'IA par le biais de la législation à l'avenir. En termes de législation, la « loi sur le droit d'auteur de la République populaire de Chine » récemment révisée en 2020 adopte une méthode d'identification ouverte des œuvres. Tout en clarifiant la composition des œuvres et en énumérant les principaux types d'œuvres, elle stipule également des allers-retours ouverts. clauses, fournissant l'AIGC et d'autres nouvelles technologies La protection des nouveaux objets apportés par les applications réserve l'espace institutionnel.
La construction de la normalisation est un élément clé de la gouvernance de l'IA
**Le "Schéma national de développement de la normalisation" a souligné que la normalisation joue un rôle fondamental et de premier plan dans la promotion de la modernisation du système de gouvernance national et des capacités de gouvernance. Pour le domaine de l'IA, les normes d'IA ne sont pas seulement un moyen important de soutenir et de promouvoir le développement, le progrès et l'application à grande échelle de l'IA (comme les normes techniques), mais aussi un moyen efficace de promouvoir la mise en œuvre de la gouvernance de l'IA (comme la gouvernance normes, normes éthiques), car normes de gouvernance de l'IA Il peut jouer un rôle important dans "l'élaboration de la législation et de la supervision, et l'ancrage de la pratique technique". De plus, les normes dans le domaine de la gouvernance de l'IA sont plus agiles, flexibles et adaptables que la législation et la réglementation. Par conséquent, les normes de gouvernance de l'IA sont devenues une hauteur dominante dans le développement de la technologie et de l'industrie de l'IA, et la communauté internationale a proposé des mesures de mise en œuvre. ** Les représentants typiques incluent les normes d'IA de confiance de l'Union européenne, la gestion des risques de l'IA dirigée par le National Institute of Standards and Technology (NIST) des États-Unis, l'identification de la discrimination de l'IA et d'autres normes de gouvernance, le plan de développement de l'écosystème de certification de l'IA du Royaume-Uni, les normes d'éthique de l'IA de l'IEEE, etc.. En termes de mise en œuvre, l'IEEE a lancé un projet de certification éthique de l'IA pour l'industrie ; le Royaume-Uni espère cultiver une industrie de certification de l'IA de premier plan d'une valeur de plusieurs milliards de livres en 5 ans et passer les services de certification de l'IA d'un tiers neutre (y compris l'audit, l'évaluation de l'influence, la certification) pour évaluer et communiquer la crédibilité et la conformité des systèmes d'IA.
**La Chine attache une grande importance à la construction de la normalisation dans le domaine de l'IA. Le "Plan national de développement de la normalisation" exige des recherches sur la normalisation dans les domaines de l'IA, de l'information quantique et de la biotechnologie. ** Ces dernières années, tous les horizons ont continué à promouvoir la normalisation des normes nationales, des normes de l'industrie, des normes locales et des normes de groupe dans le domaine de la gouvernance de l'IA. Par exemple, le Comité national de gestion de la normalisation a créé le Groupe général national de normalisation de l'intelligence artificielle et le Comité technique national de normalisation des technologies de l'information a créé le Sous-comité technique de l'intelligence artificielle, qui visent tous deux à promouvoir la formulation de normes nationales dans le domaine de l'IA. . Les "Lignes directrices pour la construction du système standard national d'intelligence artificielle de nouvelle génération" publiées en juillet 2020 clarifient la conception de haut niveau dans le domaine des normes d'IA. AI établit un système de conformité pour promouvoir le développement sain et durable de l'IA. À l'avenir, les normes liées à la gouvernance de l'IA doivent être formulées et mises en œuvre plus rapidement, afin de fournir plus de garanties pour l'innovation technologique et le développement industriel dans le domaine de l'IA.
** L'industrie explore activement les mesures d'autodiscipline pour la gouvernance de l'IA et pratique le concept d'innovation responsable et de technologie pour le bien **
** Une gouvernance efficace de l'IA nécessite la participation conjointe de plusieurs sujets tels que le gouvernement, les entreprises, les organisations industrielles, les groupes universitaires, les utilisateurs ou les consommateurs et le public. Parmi eux, l'auto-gouvernance et la gestion auto-disciplinée des entreprises technologiques est un partie importante de la mise en œuvre du concept de "l'éthique d'abord". **La raison d'appeler à "l'éthique d'abord" est en grande partie due au fait que face au développement rapide de l'IA, le phénomène de "décalage juridique" est devenu de plus en plus important. Dans le domaine de l'IA, "l'éthique d'abord" se manifeste d'abord dans la gestion autodisciplinée de l'éthique technologique des entreprises technologiques, et les meilleures pratiques des entreprises leaders peuvent souvent jouer un très bon rôle de premier plan, favorisant la pratique d'une innovation et d'une technologie responsables. pour de bon dans toute l'idée de l'industrie.
Au niveau de l'industrie, ces dernières années, les instituts de recherche et les organisations industrielles concernées ont proposé des directives éthiques sur l'IA et des conventions d'autodiscipline, etc., pour fournir des conseils éthiques aux activités d'IA des entreprises. Les représentants typiques à cet égard incluent la "Convention d'autodiscipline de l'industrie de l'intelligence artificielle" et les "Directives d'exploitation de l'IA de confiance" de l'Alliance chinoise pour le développement de l'industrie de l'intelligence artificielle (AIIA), le "Consensus de Pékin sur l'intelligence artificielle" et le "Consensus sur l'intelligence artificielle" de Pékin. Institut de recherche sur l'intelligence artificielle de Zhiyuan. Déclaration de responsabilité de l'industrie", "Directives de pratique standard de sécurité des réseaux - Directives pour la prévention des risques de sécurité éthique de l'intelligence artificielle" du Comité national de normalisation de la sécurité de l'information, etc.
Au niveau de l'entreprise, les entreprises technologiques, en tant que corps principal de l'innovation technologique et de l'application industrielle de l'IA, assument l'importante responsabilité de la recherche et du développement responsables et de l'application de l'IA. Dans les pays étrangers, les entreprises technologiques ont exploré une expérience relativement mature et accumulé beaucoup de ressources en proposant des principes éthiques de l'IA, en établissant des organisations internes de gouvernance éthique de l'IA et en développant des outils de gestion et techniques et même des solutions d'IA commerciales responsables. [13] . Ces dernières années, les entreprises technologiques nationales ont activement mis en œuvre des exigences réglementaires et exploré des mesures d'autorégulation pertinentes, notamment : la publication de principes éthiques de l'IA, la création d'organisations internes de gouvernance de l'IA (telles que des comités d'éthique), la réalisation d'examens éthiques ou d'évaluations des risques de sécurité pour les activités d'IA , et la divulgation des algorithmes au monde extérieur. Des informations pertinentes, promouvoir l'ouverture et la transparence des algorithmes et explorer des solutions techniques aux problèmes éthiques de l'IA (tels que des outils de détection et d'identification pour le contenu d'informations synthétiques, des outils d'évaluation de la gouvernance de l'IA et des solutions informatiques de confidentialité telles que comme apprentissage fédéré), etc.
**La concurrence mondiale en matière d'IA n'est pas seulement une compétition entre la technologie et l'industrie, mais aussi une compétition entre les règles et les normes de gouvernance. **Le développement de l'économie numérique mondiale forme de nouvelles règles internationales pour l'IA et les données, telles que le flux de données, le cadre de gouvernance de l'IA, etc. Ces dernières années, la coopération mondiale en matière de gouvernance de l'IA a continué de progresser. Les Principes 2019 de l'OCDE/G20 sur l'IA sont le premier cadre politique mondial en matière d'IA. En novembre 2021, l'Organisation des Nations Unies, l'UNESCO, a adopté le premier accord éthique au monde sur l'IA « Recommandation sur l'éthique de l'intelligence artificielle » (Recommandation sur l'éthique de l'intelligence artificielle), qui est actuellement le cadre politique mondial sur l'IA le plus complet et le plus largement consensuel. , l'évaluation de l'impact éthique et d'autres mécanismes pour renforcer la gouvernance éthique de l'IA.
Dans le même temps, les États-Unis et l'Europe accélèrent les politiques d'IA afin de renforcer leur leadership dans le domaine des politiques d'IA et d'influencer les règles et normes mondiales de gouvernance de l'IA. Par exemple, l'Union européenne travaille sur un projet de loi harmonisé sur l'IA qui, lorsqu'il devrait être adopté en 2023, établira une voie réglementaire complète et basée sur les risques pour l'IA. De nombreux experts prédisent que, tout comme l'impact de la précédente législation sur la confidentialité des données GPDR sur l'industrie technologique mondiale, la loi européenne sur l'IA étendra "l'effet Bruxelles" au domaine de l'IA, ce qui est exactement ce que l'UE espère établir la gouvernance de l'IA pour le monde grâce à la norme de réglementation. [14] En plus de la législation sur l'IA, le Conseil de l'Europe prépare toujours la première « Convention internationale sur l'IA ». Tout comme les précédentes « Convention sur la cybercriminalité » et « Convention sur la vie privée », les États membres et les États non membres peuvent adhérer et ratifier la future IA. convention. [15] Les États-Unis ont toujours été un leader mondial dans le domaine de l'IA en termes de technologie et d'industrie, et ces dernières années ont commencé à remodeler activement leur leadership dans le domaine de la politique d'IA. L'une des principales tâches du Conseil du commerce et de la technologie entre les États-Unis et l'UE créé en 2020 est de promouvoir la coopération entre les États-Unis et l'UE en matière de gouvernance de l'IA. [16] En conclusion, la concurrence mondiale en matière d'IA met de plus en plus l'accent sur la concurrence du soft power dans le domaine de la politique et de la gouvernance de l'IA, ce qui peut être considéré comme un changement majeur dans la concurrence technologique au 21e siècle.
Ces dernières années, la Chine a attaché une grande importance à sa participation à la gouvernance mondiale de la science et de la technologie, a activement avancé ses propres propositions et s'est efforcée d'obtenir plus de reconnaissance et de consensus. Par exemple, la Chine a mis en avant la "Global Data Security Initiative", qui continue d'injecter une énergie positive dans la gouvernance numérique mondiale. En novembre 2022, lors de la Conférence des États parties à la Convention des Nations Unies sur certaines armes classiques, la Chine a soumis un document sur le renforcement de la gouvernance éthique de l'intelligence artificielle et a avancé des propositions telles que l'adhésion à l'éthique d'abord, le renforcement de l'autodiscipline, l'utilisation responsable de l'intelligence artificielle et l'encouragement de la coopération internationale.
PERSPECTIVES EN TROIS POINTS
De nombreux documents politiques et normatifs tels que « Le 14e plan quinquennal et l'esquisse des objectifs à long terme en 2035 », « Construction de l'État de droit en Chine (2020-2025) », « Opinions sur le renforcement de la gouvernance éthique de Science et technologie » et d'autres politiques et documents normatifs montrent que la gouvernance de l'IA continue de devenir un enjeu majeur dans la gouvernance de la science et de la technologie. Domaines clés de l'éthique technologique. Pour améliorer encore la compétitivité mondiale de la Chine dans le domaine de l'IA, la Chine doit non seulement accorder plus d'attention à la culture de la technologie et de la puissance industrielle, mais doit également se concentrer sur la formation du soft power, en particulier le droit de parler et de diriger dans la politique et la gouvernance de l'IA. . Parce que la gouvernance de l'IA est devenue un élément important de la compétitivité mondiale de l'IA.
En se penchant sur le passé, la Chine a clarifié l'idée d'une supervision et d'une gouvernance de l'IA qui accorde une attention égale au développement et à la sécurité, et met en parallèle l'innovation et l'éthique. Tout en soutenant et en promouvant l'innovation et le développement, elle assure également la sécurité, la fiabilité et la contrôlabilité. d'applications technologiques. Face à l'avenir, nous devons mieux utiliser les efforts conjoints du gouvernement, des industries/entreprises, des instituts de recherche, des organisations sociales, des utilisateurs/consommateurs, du public, des médias et d'autres parties prenantes pour continuer à promouvoir le bon développement de l'IA pratiques de gouvernance et faire en sorte que l'IA profite mieux au développement économique et social, améliore les moyens de subsistance et le bien-être des populations et pousse la science et la technologie à un niveau supérieur.
De plus, la dernière "décennie dorée" de l'IA a apporté aux gens des modèles d'IA de plus en plus puissants, et dans un avenir prévisible, l'IA ne fera que devenir plus puissante. Cela signifie que lorsque l'IA interagit avec l'écosystème social, ses éventuels impacts humains, sociaux et environnementaux dépasseront de loin toute technologie antérieure. Par conséquent, la tâche principale de la gouvernance de l'IA est de continuer à défendre et à mettre en pratique le concept d'"IA responsable" ; de créer de la valeur pour les parties prenantes et d'améliorer leur bien-être, et de prévenir les abus, les abus et les mauvaises utilisations. En bref, une gouvernance efficace de l'IA doit promouvoir le développement de pratiques d'IA responsables et créer une IA digne de confiance (Trustworthy AI).
Continuer à améliorer le cadre légal des données et de l'IA, et promouvoir une supervision précise et agile
Le développement sain et durable de l'IA est indissociable d'une part d'un encadrement raisonné et efficace et d'autre part d'une amélioration continue du niveau d'approvisionnement, de circulation et d'utilisation des données dans le domaine de l'IA. En fait, l'un des principaux problèmes auxquels sont confrontés le développement et l'application de l'IA dans de nombreux domaines tels que les soins médicaux, la fabrication et la finance est le problème de l'acquisition et de l'utilisation des données, y compris l'acquisition difficile des données, la mauvaise qualité des données et les normes de données incohérentes. Par conséquent, la poursuite du développement de l'IA à l'avenir dépend dans une large mesure de l'amélioration continue du cadre juridique des données et de l'IA. Le "Digital Regulation Plan" du Royaume-Uni propose qu'une réglementation bien conçue puisse avoir un effet puissant sur la promotion du développement et la formation d'une économie et d'une société numériques dynamiques, mais qu'une réglementation mal conçue ou restrictive peut entraver l'innovation. Les bonnes règles peuvent aider les gens à faire confiance aux produits et services qu'ils utilisent, ce qui à son tour stimulera la popularité des produits et services et favorisera la consommation, l'investissement et l'innovation. [17] Il en est de même pour l'IA.
** D'une part, pour la gouvernance de l'IA, il faut mieux favoriser une supervision précise et agile. Cela inclut : Tout d'abord, adoptez des règles différentes pour différents produits, services et applications d'IA. ** Étant donné que les applications d'IA sont désormais presque omniprésentes, il est difficile pour une règle unique de s'adapter raisonnablement aux caractéristiques uniques des applications d'IA dans différents secteurs et domaines et à leur impact sur les individus et la société. Cela nous oblige à adopter un cadre stratégique de gouvernance de l'IA fondé sur les risques. Par exemple, la même technologie d'IA peut être utilisée non seulement pour analyser et prédire les attributs personnels et les préférences personnelles de l'utilisateur, et pour pousser un contenu personnalisé, mais aussi pour aider au diagnostic et au traitement des maladies ; la classification et l'organisation peuvent également être utilisées pour identifier les tumeurs cancéreuses. Ces applications présentent d'énormes différences en termes de niveau de risque, d'importance des résultats, d'impact personnel et social… Il n'est évidemment ni scientifique ni réaliste de proposer des exigences réglementaires de manière générale et unique. ** Deuxièmement, il met l'accent sur l'adoption d'une supervision décentralisée et différenciée sur la base de la notation et de la classification des applications d'IA. ** Tout comme Internet, l'IA est une technologie très large et polyvalente, qui n'est pas adaptée et difficile à mener une supervision unifiée. D'un point de vue étranger, seule l'Union européenne tente actuellement d'établir un cadre réglementaire unifié et général pour toutes les applications de l'IA (le modèle de l'UE), tandis que le Royaume-Uni et les États-Unis mettent l'accent sur la supervision décentralisée des industries en fonction des scénarios d'application et des risques ( le modèle anglo-américain). Le Royaume-Uni propose d'être guidé par des principes et d'adopter une supervision favorisant l'innovation sur les applications d'IA.Ses concepts de base incluent : se concentrer sur des scénarios d'application spécifiques et assurer la proportionnalité et l'adaptabilité de la supervision en fonction du degré de risque ; [18] Les États-Unis ont toujours mis l'accent sur une voie de gouvernance qui combine la réglementation de l'industrie et l'autodiscipline de l'industrie.Par exemple, le "AI Bill of Rights Blueprint" propose non seulement cinq principes, mais clarifie également l'idée d'une réglementation décentralisée dirigée par les autorités de l'industrie. et orienté scénario d'application. [19] En ce qui concerne la Chine, la législation et la supervision de l'IA dans le passé sont plus proches du modèle anglo-américain, c'est-à-dire que des règles réglementaires distinctes sont formulées pour différentes applications d'IA telles que les services de recommandation d'algorithmes, la synthèse profonde et la conduite autonome. Ce modèle réglementaire décentralisé et différencié est conforme aux principes de gouvernance agile et peut mieux s'adapter aux caractéristiques complexes du développement rapide et de l'itération de la technologie de l'IA et de ses applications. **Troisièmement, appelle à une innovation continue de la boîte à outils réglementaire et à l'adoption d'initiatives réglementaires diversifiées. L'un est le "bac à sable réglementaire" de l'IA. ** L'une des principales initiatives de l'Union européenne en matière de réglementation de l'IA est la proposition de "bac à sable réglementaire" de l'IA. [20] En tant que moyen efficace de soutenir et de promouvoir la communication et la collaboration entre les régulateurs et les sujets d'innovation, le "bac à sable réglementaire" peut fournir un environnement contrôlé pour développer, tester et vérifier la conformité des applications d'IA innovantes. Les meilleures pratiques et les directives de mise en œuvre générées par le « bac à sable réglementaire » aideront les entreprises, en particulier les petites, moyennes et micro-entreprises et les start-up, à mettre en œuvre les règles réglementaires. ** Le second concerne les services sociaux de gouvernance de l'IA, y compris les normes de gouvernance de l'IA, la certification, les tests, l'évaluation, l'audit, etc. **Dans le domaine de la sécurité des réseaux, les services sociaux de sécurité des réseaux tels que la certification, les tests et l'évaluation des risques en matière de sécurité des réseaux sont un moyen important de mettre en œuvre les exigences réglementaires. La gouvernance de l'IA peut apprendre de cette approche. Actuellement, l'Union européenne, le Royaume-Uni, les États-Unis et l'IEEE font tous la promotion des services sociaux de gouvernance de l'IA. Par exemple, l'IEEE a lancé la certification éthique de l'IA pour l'industrie ; [21] La "Feuille de route pour l'établissement d'un écosystème de certification d'IA efficace" publiée par le Royaume-Uni espère cultiver une industrie de certification d'IA de premier plan au monde, grâce à des services de certification d'IA tiers neutres (y compris l'évaluation d'impact, l'audit des biais et l'audit de conformité, la certification, l'évaluation de la conformité) , tests de performance, etc.) pour évaluer et communiquer la crédibilité et la conformité des systèmes d'IA. Le Royaume-Uni pense que ce sera une nouvelle industrie valant des milliards de livres. [22] La Chine doit accélérer la mise en place d'un système solide de services sociaux de gouvernance de l'IA, et mieux entreprendre et mettre en œuvre la législation et les exigences réglementaires en amont par le biais de services de gouvernance de l'IA en aval. En outre, les méthodes réglementaires telles que les directives politiques, les sphères de responsabilité, les projets pilotes, les applications de démonstration et la responsabilité post-événement peuvent toutes jouer un rôle important dans différents scénarios d'application.
**En revanche, il faut accélérer l'amélioration du cadre légal de circulation et d'utilisation des données, et continuer à améliorer le niveau d'approvisionnement en données dans le domaine de l'IA. **Le premier consiste à construire un cadre juridique pour les données publiques ouvertes et partagées au niveau national, unifier les normes de qualité et de gouvernance des données, et utiliser les téléchargements de données, les interfaces API, l'informatique privée (apprentissage fédéré, informatique multipartite sécurisée, et environnements informatiques de confiance, etc.), données Une gestion diversifiée et des méthodes techniques telles que Data Space pour favoriser le partage ouvert maximal des données publiques. La seconde consiste à supprimer activement divers obstacles au développement et à l'application de la technologie informatique privée et de la technologie des données synthétiques. À l'heure actuelle, dans la circulation et l'utilisation de diverses données, les technologies informatiques de confidentialité telles que l'apprentissage fédéré jouent un rôle de plus en plus important et peuvent produire des effets tels que "les données sont disponibles/comptables et invisibles", "les données ne changent pas d'algorithme/de valeur se déplace". Poussé par le développement de l'IA et des applications de big data, l'apprentissage fédéré, en tant que principale méthode de promotion et d'application dans le domaine de l'informatique privée, est actuellement la voie technique la plus mature. À l'étape suivante, nous pourrons mieux soutenir l'application et le développement de technologies informatiques de confidentialité telles que l'apprentissage fédéré en créant des espaces de données dans des domaines stratégiques, en formulant des normes industrielles pour l'informatique de confidentialité et en publiant des directives juridiques pour la mise en œuvre des technologies informatiques de confidentialité.
La gouvernance éthique de l'IA doit passer du principe à la pratique
Avec le développement de l'institutionnalisation et de la légalisation de la gouvernance éthique scientifique et technologique, le renforcement de la gouvernance éthique scientifique et technologique est devenu l'une des « questions incontournables » et des « questions obligatoires » pour les entreprises scientifiques et technologiques. Sous le concept d'"éthique d'abord", les exigences de gouvernance éthique de la science et de la technologie signifient que les entreprises technologiques ne peuvent pas espérer traiter les questions éthiques de l'IA par des mesures correctives après coup, mais doivent être impliquées dans l'ensemble de Cycle de vie de l'IA, de la conception au développement en passant par le déploiement Parmi eux, assumer activement la responsabilité de l'organe principal de gestion de l'éthique scientifique et technologique et promouvoir de manière innovante l'autodiscipline de l'éthique scientifique et technologique de diverses manières. Globalement, dans une société hautement technologique et numérique, les entreprises technologiques doivent envisager d'intégrer la gouvernance de l'IA dans leur paysage de gouvernance d'entreprise en tant que module aussi important que les modules existants tels que les affaires juridiques, la finance et le contrôle des risques. Les aspects suivants méritent d'être approfondis :
** Premièrement, en termes de gestion, il est nécessaire de mettre en place un mécanisme de gestion des risques éthiques de l'IA. ** La gestion des risques éthiques liés à l'IA doit couvrir tout le cycle de vie de l'IA, y compris l'étape de pré-conception, l'étape de conception et de développement, l'étape de déploiement et les activités de test et d'évaluation tout au long de ces étapes, afin d'identifier, d'analyser et d'évaluer de manière exhaustive , gérer et gouverner les risques éthiques liés à l'IA . Cela dépend de l'entreprise pour établir une structure organisationnelle et des normes de gestion correspondantes, telles qu'un comité d'éthique, un processus d'examen éthique et d'autres outils de gestion. Les décideurs politiques peuvent envisager de publier des lignes directrices politiques à cet égard.
Deuxièmement, en termes de design, il est nécessaire de suivre le concept de design orienté vers les personnes et de pratiquer le concept de "Ethics by Design"** (Ethicsby Design). **La conception intégrée éthique signifie l'intégration de valeurs, de principes, d'exigences et de procédures éthiques dans la conception, le développement et le déploiement de systèmes d'IA, de robotique et de mégadonnées. Les entreprises doivent réfléchir au processus de R&D et d'application en IA dirigé par des techniciens, et mettre davantage l'accent sur la diversité des antécédents et de la participation des activités de R&D et d'application en IA. L'introduction de la politique, du droit, de l'éthique, de la société, de la philosophie et d'autres personnels multidisciplinaires et interdisciplinaires dans l'équipe de développement technologique est le moyen le plus direct et le plus efficace d'intégrer les exigences éthiques dans la conception et le développement de la technologie. À l'avenir, les décideurs politiques pourront s'associer à l'industrie pour résumer l'expérience et les leçons, et publier des directives techniques, des meilleures pratiques et d'autres documents pour une conception intégrée éthique.
**Enfin, en termes de technologie, il est nécessaire de continuer à explorer des approches techniques et orientées vers le marché pour traiter les questions éthiques de l'IA et créer des applications d'IA crédibles. ** L'un est l'outil éthique de l'IA. De nombreux problèmes dans les applications d'IA, tels que l'explicabilité, l'équité, la sécurité, la protection de la vie privée, etc., peuvent être résolus grâce à l'innovation technologique. En se concentrant sur ces questions, l'industrie a exploré certains outils d'éthique de l'IA et des outils d'audit de l'IA, et les travaux futurs dans ce domaine doivent être développés davantage. Le second est le service d'éthique de l'IA (AIEthicsasa Service). [23] Il s'agit d'une voie orientée vers le marché.Les principales sociétés d'éthique de l'IA et les startups d'éthique de l'IA développent des solutions d'IA responsables centrées sur les outils et services d'éthique de l'IA, et les fournissent sous forme de services commerciaux. [24] La société de recherche et de conseil Forrester prédit que de plus en plus d'entreprises de technologie d'IA et d'entreprises dans d'autres domaines qui appliquent l'IA achèteront des solutions d'IA responsables pour les aider à mettre en œuvre des principes éthiques d'IA justes et transparents, et la taille du marché des services d'éthique d'IA doublera. Le troisième concerne les méthodes de crowdsourcing technologique telles que AI Ethics Bounty. Semblable à la prime de vulnérabilité de la sécurité du réseau (Bug bounty), à la prime de discrimination des algorithmes (Algorithmic Bias Bounty) et à d'autres méthodes techniques de crowdsourcing largement utilisées par les sociétés Internet, elle peut découvrir, identifier et résoudre les problèmes éthiques de l'IA, développer des outils d'audit de l'IA et créer les applications d'IA fiables joueront un rôle important. Certaines entreprises étrangères et institutions de recherche universitaires, telles que Twitter et l'Université de Stanford, ont lancé le Algorithmic Discrimination Bounty Challenge et le AI Audit Challenge, appelant les participants à développer des outils pour identifier et atténuer la discrimination algorithmique dans les modèles d'IA. Cultiver et renforcer la communauté éthique de l'IA grâce à ces méthodes de crowdsourcing technologique jouera un rôle important dans la gouvernance de l'IA.
La coopération mondiale en matière de gouvernance de l'IA doit continuer à s'approfondir
Comme mentionné précédemment, la gouvernance mondiale de l'IA présente une situation concurrentielle, qui n'est pas conforme aux concepts de technologie axée sur les personnes, ouverte et partagée, et de développement inclusif. Les pays doivent continuer à approfondir la coopération dans la gouvernance internationale de l'IA, promouvoir la formulation d'accords internationaux sur l'éthique et la gouvernance de l'IA, former un cadre international de gouvernance de l'IA, des normes et des normes avec un large consensus, renforcer les échanges et la collaboration dans la technologie, les talents, les industries, etc. ., et s'opposer à l'exclusionnisme, promouvoir l'inclusivité technologique et la technologie pour le bien, et réaliser le développement inclusif de tous les pays. La participation profonde de la Chine à la gouvernance mondiale des technologies doit saisir la nouvelle série d'opportunités internationales d'élaboration de règles dans les domaines de l'IA et des données, proposer en permanence des solutions de gouvernance de l'IA conformes au consensus mondial et continuer à injecter la sagesse chinoise dans la gouvernance numérique mondiale et Gouvernance de l'IA. Dans le même temps, nous devons renforcer notre voix internationale, intégrer nos idées, nos propositions et nos pratiques dans la communauté internationale, lutter pour plus de reconnaissance et de consensus, et accroître notre voix et notre influence.
Face au futur, avec le développement continu de la technologie de l'IA, l'IA deviendra de plus en plus puissante, et l'IA générale (Intelligence Générale Artificielle, AGI en abrégé) pourrait apparaître à l'avenir. Une IA générale aurait un niveau d'intelligence équivalent à celui d'un humain et serait capable d'accomplir n'importe quelle tâche intellectuelle dont un être humain est capable. En théorie, l'IA générale peut concevoir un niveau d'intelligence plus élevé, provoquant une grande explosion d'intelligence, la soi-disant "singularité", résultant en une superintelligence. De l'application actuelle de l'IA à la future AGI, il peut s'agir d'un saut entre le changement quantitatif et le changement qualitatif. Cela a soulevé des inquiétudes quant au fait que l'AGI déplace des emplois humains, devient incontrôlable et menace même l'existence humaine. Par conséquent, pour le développement de l'IA à usage général et ses problèmes potentiels de sécurité et d'éthique, le monde doit planifier à l'avance et travailler ensemble pour garantir que la technologie de l'IA est plus inclusive, sûre, fiable et contrôlable au profit de toute l'humanité.
Cet article est paru pour la première fois dans le numéro 4, 2023 du "Journal of Shanghai Normal University (Philosophy and Social Sciences Edition)"