Auteur : JOSH LEE KOK THONG Traduction : Li Yang Relecture : Xiang Xinyi
Source: Le papier
Source de l'image : générée par l'IA illimitée
L'intérêt mondial pour la gouvernance et la réglementation de l'IA a explosé ces derniers mois. Beaucoup pensent que de nouvelles structures de gouvernance et de réglementation sont nécessaires pour gérer les systèmes d'IA génératifs - dont les capacités sont étonnantes, telles que ChatGPT et DALL-E d'OpenAI, Google's Bard, Stable Diffusion, et d'autres. La loi sur l'intelligence artificielle de l'UE a fait l'objet d'une large attention. En fait, de nombreuses autres initiatives importantes émergent dans le monde, y compris divers modèles et cadres de gouvernance de l'IA.
Cet article porte sur le cadre et la boîte à outils de test de gouvernance de l'intelligence artificielle de Singapour - "AI Verify" publié en mai 2022. Il extrait principalement trois points clés. ① Résumez la stratégie globale de Singapour sur la gouvernance de l'IA et les principales initiatives lancées par le gouvernement avant de lancer la vérification de l'IA. ② Expliquer la clé de la "vérification de l'intelligence artificielle". ③ "AI Verification" a été lancé pendant un an, discutant de l'avenir de la vérification de l'IA et de l'approche de Singapour en matière de gouvernance et de réglementation de l'IA. En bref, les points principaux sont les suivants :
Singapour a adopté une approche d'intervention modérée en matière de gouvernance et de réglementation de l'IA, avec le modèle de cadre de gouvernance de l'IA établissant des lignes directrices pour la gouvernance de l'IA dans le secteur privé.
"AI Verify" est un cadre et une boîte à outils de test de gouvernance de l'IA, lancé en mai 2022. Bien qu'en phase d'essai, il représente les efforts de Singapour pour développer davantage le discours mondial sur la gouvernance et la réglementation de l'IA, en essayant de répondre à la demande croissante de systèmes d'IA fiables et en promouvant l'interconnectivité du cadre réglementaire mondial de l'IA.
"AI Verification" est un cadre de test basé sur des principes de gouvernance de l'IA internationalement reconnus que les entreprises peuvent utiliser pour tester leurs propres systèmes d'IA. La « vérification de l'IA » n'a pas pour but de définir des normes éthiques, mais de fournir une vérifiabilité en permettant aux développeurs de systèmes d'IA et à leurs propriétaires d'émettre des déclarations attestant de la performance de leurs systèmes d'IA.
Pour réussir, "AI-vérifié" peut avoir besoin de plus de reconnaissance et d'adoption. Cela dépend de facteurs tels que le coût, la persuasion des parties prenantes de sa valeur, sa pertinence et ses synergies avec le cadre réglementaire international.
Approche globale de la gouvernance de l'IA à Singapour
Dans sa stratégie nationale d'intelligence artificielle, Singapour a annoncé que le pays vise à être "à la pointe du développement et du déploiement de solutions d'IA évolutives et percutantes" et espère consolider le rôle du pays en tant que "leader dans le développement, les tests, le déploiement et la mise à l'échelle l'intelligence artificielle." hub mondial de solutions. L'un des cinq « catalyseurs de l'écosystème » identifiés dans une stratégie visant à accroître l'adoption de l'IA est de favoriser un « environnement progressif et digne de confiance » pour le développement de l'IA – un compromis entre l'innovation et la minimisation des risques sociétaux dans un environnement équilibré.
Pour créer cet "environnement progressif et digne de confiance", Singapour a jusqu'à présent adopté une approche bénigne et volontaire de la réglementation de l'IA. C'est parce que le pays reconnaît deux réalités de ses ambitions en matière d'IA.
Premièrement, le gouvernement de Singapour** considère l'IA comme un catalyseur stratégique clé** pour faire croître l'économie et améliorer la qualité de vie de ses citoyens. En conséquence, Singapour n'a pas pris de mesures drastiques dans la réglementation de l'intelligence artificielle, afin de ne pas étouffer l'innovation et l'investissement. Deuxièmement, compte tenu de sa taille, Singapour reconnaît que le gouvernement lui-même peut être un preneur de prix plutôt qu'un décideur de prix à mesure que le discours, les cadres et les réglementations sur la gouvernance de l'IA se développent à l'échelle mondiale. Par conséquent, la stratégie actuelle n'est pas de rafraîchir les principes de l'intelligence artificielle, mais de "suivre la tendance du monde, et n'avoir aucune intention de changer la tendance du monde."("Prenez le monde où il est, plutôt que là où il espère que le monde soit.")
L'approche réglementaire de Singapour en matière d'IA - supervisée par la Commission de protection des données personnelles (PDPC) de Singapour - repose sur trois piliers avant le lancement d'AI Verify en 2022 :
1 Modèle de cadre de gouvernance de l'IA (modèle de cadre).
Comité consultatif sur l'utilisation éthique de l'intelligence artificielle et des données (Comité consultatif).
Plan de recherche sur la gouvernance de l'IA et l'utilisation des données (projet de recherche).
Ce qui suit se concentre sur le "modèle de cadre".
mode cadre
Le modèle de cadre, lancé pour la première fois lors de la réunion annuelle du Forum économique mondial en 2019, est un cadre volontaire et non contraignant qui guide les organisations dans le déploiement responsable de solutions d'intelligence artificielle à grande échelle, notant que le cadre est indépendant du stade de développement du technologie. À titre indicatif, le modèle de cadre ne fournit que des recommandations pratiques pour le déploiement de l'IA par des entités du secteur privé, tandis que l'utilisation de l'IA par le secteur public est régie par des directives internes et des boîtes à outils sur l'IA et la gouvernance des données. **Le Framework Patterns est connu comme un "document vivant" et les futures versions évolueront à mesure que la technologie et la société évoluent. Sa base réside dans l'imprévisibilité de la technologie, de l'industrie, de l'échelle et du modèle commercial. **
Essentiellement, le modèle de cadre est guidé par deux principes fondamentaux qui favorisent la confiance et la compréhension de l'IA. **Premièrement, les organisations utilisant l'IA dans la prise de décision doivent s'assurer que leurs processus de prise de décision sont explicables, transparents et équitables. Deuxièmement, les systèmes d'IA doivent être centrés sur l'humain : la protection du bien-être et de la sécurité des personnes doit être une considération primordiale dans la conception, le développement et l'utilisation de l'IA. **
Le cadre traduit ces principes directeurs en actions concrètes dans quatre domaines clés des processus de prise de décision organisationnelle et de développement technologique :
(a) structures et pratiques de gouvernance interne;
(b) déterminer le niveau d'implication humaine dans la prise de décision assistée par l'IA ;
(c) gestion des opérations;
d) Interaction et communication avec les parties prenantes.
Le tableau ci-dessous résume certaines considérations, approches et mesures suggérées dans ces domaines clés.
Autres initiatives accompagnant le modèle de cadre
Lorsque Singapour a lancé la deuxième édition du Framework Model au Forum économique mondial 2020, elle était accompagnée de deux autres documents : Implementation and Self-Assessment Guide for Organizations (ISAGO) et Compendium of Use Cases (Compilation - Volume 1 and 2 volumes) . ISAGO est une liste de contrôle pour aider les organisations à évaluer l'alignement de leurs processus de gouvernance de l'IA avec le cadre du modèle. Le Compendium fournit des exemples concrets d'adoption des recommandations du Cadre dans tous les secteurs, cas d'utilisation et juridictions.
En général, le « modèle de cadre » et ses documents à l'appui ancrent et décrivent la réflexion de fond sur la réglementation de l'intelligence artificielle à Singapour. Ces initiatives ont permis à Singapour de remporter le prix du Sommet mondial des Nations Unies sur la société de l'information en 2019, reconnaissant son leadership en matière de gouvernance de l'IA.
Janvier 2020 a marqué un tournant dans le débat mondial sur la réglementation de l'IA. Le 17 janvier 2020, un livre blanc publié par la Commission européenne a amené la communauté internationale à accorder plus d'attention à la possibilité d'une réglementation gouvernementale de la technologie de l'intelligence artificielle. En février 2020, la Commission européenne a officiellement publié le "Livre blanc sur l'intelligence artificielle", exposant des plans pour créer un cadre réglementaire pour l'intelligence artificielle. Quelques mois plus tard, la Commission européenne a présenté un projet de son futur projet de loi sur l'intelligence artificielle. Il s'agit de la première tentative sérieuse d'une agence gouvernementale d'introduire des règles de fond pour réglementer horizontalement le développement et l'utilisation des systèmes d'IA. On peut s'attendre à ce que la loi sur l'IA ait également des effets extrajuridictionnels, et les entreprises développant des systèmes d'IA en dehors de l'Europe pourraient être soumises à la nouvelle loi.
Celles-ci ont influencé la réflexion sur l'avenir du paysage réglementaire et de gouvernance de l'IA à Singapour. Bien que la Commission de protection des données personnelles (PDPC) de Singapour maintienne son approche volontaire et laxiste de la réglementation de l'IA, elle reconnaît que l'IA sera confrontée à une surveillance plus stricte à l'avenir. Le PDPC semble également être conscient de la demande croissante des consommateurs pour la fiabilité des systèmes et des développeurs d'IA, et de la nécessité de normes internationales d'IA pour comparer et évaluer l'IA par rapport aux exigences réglementaires. De plus, les exigences d'interopérabilité des cadres réglementaires de l'IA augmentent également. ** Compte tenu de cela, Singapour a commencé à se développer et les résultats finaux ont été fusionnés dans le cadre de "AI Verify".
** Qu'est-ce que "AI Verify" **
"AI Verify" est publié conjointement par Infocomm Media Development Authority (IMDA), un comité statutaire relevant du ministère des Communications et de l'Information de Singapour, et le Comité de protection des données personnelles (PDPC). Il s'agit d'un cadre et d'une boîte à outils de test de gouvernance de l'intelligence artificielle. **Avec AI Verify, les organisations peuvent effectuer une évaluation volontaire de leurs systèmes d'IA en utilisant une combinaison de tests techniques et d'inspections basées sur les processus. À son tour, le système aide les entreprises à fournir aux parties prenantes des preuves objectives et vérifiables que leurs systèmes d'IA sont mis en œuvre de manière responsable et digne de confiance. **
Compte tenu du développement continu des méthodes, des normes, des indicateurs et des outils de test d'intelligence artificielle, la "vérification de l'intelligence artificielle" (AI Verify) est actuellement au stade du "produit minimum viable" (MVP). Cela a deux implications. Premièrement, la version MVP a des limitations techniques et est limitée par le type et la taille des modèles d'IA ou des ensembles de données qui peuvent être testés ou analysés. Deuxièmement, la vérification de l'IA devrait évoluer à mesure que les capacités de test de l'IA mûrissent.
Les quatre objectifs du développement de la version MVP "AI Verified" sont :
(a) Premièrement, IMDA espère que les organisations pourront utiliser la "validation de l'IA" pour déterminer les critères de performance de leurs systèmes d'IA et démontrer ces critères validés aux parties prenantes telles que les consommateurs et les employés, aidant ainsi les organisations à renforcer la confiance.
(b) Deuxièmement, compte tenu de son développement en tenant compte de divers cadres réglementaires et de gouvernance de l'IA, ainsi que de principes communs fiables en matière d'IA, AI Validation vise à aider les organisations à trouver en commun divers cadres et réglementations mondiaux de gouvernance de l'IA. L'IMDA continuera à travailler avec les régulateurs et les organismes de normalisation pour mapper le cadre de test pour la "validation de l'IA" au cadre établi. Les efforts visent à permettre aux entreprises d'exploiter ou d'offrir des produits et services d'IA sur plusieurs marchés, tout en faisant de Singapour un centre pour la gouvernance de l'IA et les tests réglementaires.
(c) Troisièmement, **IMDA sera en mesure de rassembler les pratiques, les références et les mesures de l'industrie à mesure que de plus en plus d'organisations expérimentent la « validation de l'IA » et utilisent son cadre de test. ** Considérant que Singapour participe à des plateformes mondiales de gouvernance de l'IA telles que le Partenariat mondial sur l'IA et ISO/IEC JTC1/SC 42, offrant des perspectives précieuses sur l'établissement de normes internationales pour la gouvernance de l'IA, celles-ci peuvent faciliter l'élaboration de normes pour la gouvernance de l'IA mises en place. .
(d) Quatrièmement, IMDA veut que "AI Verification" aide à créer une communauté locale de test d'IA à Singapour composée de développeurs d'IA et de propriétaires de systèmes (cherchant à tester des systèmes d'IA), de fournisseurs de technologie (qui développent la mise en œuvre de la gouvernance de l'IA et solutions de test), des prestataires de services de conseil (spécialisés dans l'assistance aux tests et à la certification) et des chercheurs (qui développent des techniques, des référentiels et des pratiques de test).
Il est également important de clarifier plusieurs idées fausses potentielles sur la "validation de l'IA". Premièrement, ** "AI Validation" ne tente pas de définir des normes éthiques. ** Il ne tente pas de signaler la classification des systèmes d'IA, mais fournit plutôt une vérifiabilité, permettant aux développeurs et aux propriétaires de systèmes d'IA de prouver leurs affirmations concernant les performances de leur système d'IA. Deuxièmement, les organisations gouvernementales utilisant la "vérification de l'IA" ne peuvent garantir que les systèmes d'IA testés sont exempts de risque ou de biais, ou qu'ils sont complètement "sûrs" et "éthiques". Troisièmement, "AI Validation" vise à empêcher les organisations de révéler par inadvertance des informations sensibles sur leurs systèmes d'IA (telles que leur code sous-jacent ou leurs données de formation). Il a adopté une mesure de sauvegarde clé - " AI Verification" qui sera auto-testée par les développeurs et les propriétaires de systèmes d'IA. Cela permet aux données et aux modèles de l'organisation de rester dans l'environnement d'exploitation de l'organisation. **
Comment fonctionne "AI Verification"
"AI Validation" se compose de deux parties. Le premier est le cadre de test, qui cite 11 principes d'éthique et de gouvernance de l'IA internationalement reconnus, organisés en cinq piliers. Le second est la boîte à outils que les organisations utilisent pour effectuer des tests techniques et documenter les vérifications de processus dans le cadre de test.
Cadre de test pour la "vérification de l'intelligence artificielle"
Les cinq piliers et onze principes du cadre de test "AI Validation" et leurs évaluations prévues sont énumérés ci-dessous :
Le cadre de test réel, y compris les éléments clés suivants :
***(a) Définitions : *** Le cadre de test fournit des définitions faciles à comprendre pour chaque principe d'IA. Par exemple, l'interprétabilité est définie comme "la capacité d'évaluer les facteurs qui conduisent à la décision d'un système d'IA, son comportement global, son résultat et son impact".
***(b) Critères testables : ***Pour chaque principe, un ensemble de critères testables est fourni. Ces normes tiennent compte des facteurs techniques et/ou non techniques (tels que les processus, les procédures ou les structures organisationnelles) qui contribuent à atteindre les résultats escomptés de ce principe de gouvernance.
En prenant l'interprétabilité comme exemple, deux critères testables sont donnés. Les développeurs peuvent exécuter des méthodes d'explicabilité pour aider les utilisateurs à comprendre ce qui motive les modèles d'IA. Les développeurs peuvent également manifester une préférence pour le développement de modèles d'IA qui expliquent leurs décisions, ou le font par défaut.
***(c) Processus de test : *** Pour chaque critère testable, "AI Validation" fournit un processus ou des étapes actionnables à effectuer, qui peuvent être quantitatifs (tels que des tests statistiques ou techniques), peuvent également être qualitatifs (par ex. pièces justificatives produites lors des inspections de processus).
En ce qui concerne l'interprétabilité, les tests techniques peuvent impliquer une analyse empirique et déterminer la contribution des caractéristiques à la sortie du modèle. Les tests basés sur les processus documenteront la justification, l'évaluation des risques et les compromis du modèle d'IA.
***(d) Paramètres : ***Il s'agit des paramètres quantitatifs ou qualitatifs utilisés pour mesurer ou fournir des preuves pour chaque critère testable.
En utilisant l'exemple d'interprétabilité ci-dessus, les métriques utilisées pour déterminer les contributions des fonctionnalités examinent les fonctionnalités contributives des sorties de modèle obtenues à partir d'outils techniques tels que SHAP et LIME. Lors de la sélection du modèle final, des métriques basées sur les processus peuvent être utilisées pour documenter l'évaluation, telles que l'évaluation des risques et les exercices de compromis.
***(e) Seuils (le cas échéant) : ***Le cas échéant, le cadre de test fournira des valeurs ou des références acceptées pour les mesures sélectionnées. Ces valeurs, ou références, peuvent être définies par des organismes de réglementation, des associations industrielles ou d'autres organismes de normalisation reconnus. Aucun seuil n'est prévu pour le modèle MVP de "AI Validation", compte tenu du développement rapide des technologies d'IA, de leurs cas d'utilisation et des méthodes de test des systèmes d'IA. Cependant, à mesure que l'espace de gouvernance de l'IA mûrit et que l'utilisation de "AI Verify" augmente, IMDA a l'intention de rassembler et de développer des métriques et des seuils spécifiques au contexte à ajouter au cadre de test.
Boîte à outils de vérification de l'intelligence artificielle « Vérification de l'intelligence artificielle »
Alors que la boîte à outils d'AI Verify pour la "vérification de l'intelligence artificielle" n'est actuellement disponible que pour les organisations qui s'inscrivent avec succès au programme AI Verify MVP, IMDA décrit la boîte à outils comme un outil "à guichet unique" permettant aux organisations d'effectuer des tests techniques. Plus précisément, la boîte à outils utilise largement les bibliothèques de test open source. Ces outils incluent SHAP (Shapley Additive ExPlanations) pour l'explicabilité, Adversarial Robustness Toolkit pour la robustesse, et AIF360 et Fair Learning pour l'équité.
Les utilisateurs de "AI Verification" peuvent installer la boîte à outils dans leur environnement interne. L'utilisateur effectuera le processus de test sous la direction de l'interface utilisateur. Par exemple, l'outil comprend un "arbre d'équité guidé" permettant aux utilisateurs d'identifier les mesures d'équité pertinentes pour leur cas d'utilisation. Enfin, AI Verify générera un rapport récapitulatif pour aider les développeurs et les propriétaires de systèmes à interpréter les résultats des tests. Pour les inspections de processus, le rapport fournit une liste de contrôle de la présence ou de l'absence de preuves documentaires comme spécifié dans le cadre de test. Les résultats des tests sont ensuite conditionnés dans des conteneurs Docker® pour le déploiement.
en conclusion
Lorsque IMDA a publié AI Verify, la vague d'intérêt pour l'IA générative ne s'était pas encore concrétisée. Suivant la tendance actuelle, l'intérêt pour la gouvernance, la testabilité et la fiabilité des systèmes d'IA a considérablement augmenté. Comme indiqué dans cet article, les différentes initiatives de "vérification de l'intelligence artificielle" AI Verify se préparent tout juste à répondre à la situation actuelle.
Singapour a déjà démontré sa capacité à contribuer au discours mondial et au leadership éclairé sur la gouvernance et la réglementation de l'IA. Les Framework Patterns publiés en sont la preuve. Les enjeux d'AI Verify sont certes élevés, mais la demande mondiale pour l'initiative l'est tout autant. Pour réussir, il peut être nécessaire de le reconnaître et de l'utiliser davantage. Ça dépend de plusieurs facteurs. Premièrement, l'accessibilité de l'outil est essentielle : les organisations qui souhaitent utiliser AI Verify doivent pouvoir l'utiliser à faible coût ou gratuitement. **Deuxièmement, convaincre l'organisation de sa valeur est essentiel. ** Cela nécessite que l'IMDA prouve que la "vérification de l'intelligence artificielle" AI Verify est techniquement et procéduralement solide, elle peut être utilisée efficacement pour des types et des échelles plus nombreux et plus récents de modèles d'intelligence artificielle et d'ensembles de données, et n'affectera pas la sensibilité commerciale de le modèle d'IA ou l'ensemble de données. ** Troisièmement, et peut-être le plus important, il doit maintenir l'interopérabilité avec les cadres réglementaires internationaux. **IMDA doit s'assurer qu'AI Verify continue d'aider les organisations à aborder et à interagir dans les principaux cadres réglementaires mondiaux émergents en matière d'IA tels que la loi européenne sur l'IA, la loi canadienne sur l'IA et les données et le cadre réglementaire américain NIST AI Risks, ainsi que le cadre réglementaire de Singapour. propre cadre de modèle national.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Rendre la gouvernance de l'IA vérifiable : boîte à outils de vérification de l'IA de Singapour
Auteur : JOSH LEE KOK THONG Traduction : Li Yang Relecture : Xiang Xinyi
Source: Le papier
L'intérêt mondial pour la gouvernance et la réglementation de l'IA a explosé ces derniers mois. Beaucoup pensent que de nouvelles structures de gouvernance et de réglementation sont nécessaires pour gérer les systèmes d'IA génératifs - dont les capacités sont étonnantes, telles que ChatGPT et DALL-E d'OpenAI, Google's Bard, Stable Diffusion, et d'autres. La loi sur l'intelligence artificielle de l'UE a fait l'objet d'une large attention. En fait, de nombreuses autres initiatives importantes émergent dans le monde, y compris divers modèles et cadres de gouvernance de l'IA.
Cet article porte sur le cadre et la boîte à outils de test de gouvernance de l'intelligence artificielle de Singapour - "AI Verify" publié en mai 2022. Il extrait principalement trois points clés. ① Résumez la stratégie globale de Singapour sur la gouvernance de l'IA et les principales initiatives lancées par le gouvernement avant de lancer la vérification de l'IA. ② Expliquer la clé de la "vérification de l'intelligence artificielle". ③ "AI Verification" a été lancé pendant un an, discutant de l'avenir de la vérification de l'IA et de l'approche de Singapour en matière de gouvernance et de réglementation de l'IA. En bref, les points principaux sont les suivants :
Singapour a adopté une approche d'intervention modérée en matière de gouvernance et de réglementation de l'IA, avec le modèle de cadre de gouvernance de l'IA établissant des lignes directrices pour la gouvernance de l'IA dans le secteur privé.
"AI Verify" est un cadre et une boîte à outils de test de gouvernance de l'IA, lancé en mai 2022. Bien qu'en phase d'essai, il représente les efforts de Singapour pour développer davantage le discours mondial sur la gouvernance et la réglementation de l'IA, en essayant de répondre à la demande croissante de systèmes d'IA fiables et en promouvant l'interconnectivité du cadre réglementaire mondial de l'IA.
"AI Verification" est un cadre de test basé sur des principes de gouvernance de l'IA internationalement reconnus que les entreprises peuvent utiliser pour tester leurs propres systèmes d'IA. La « vérification de l'IA » n'a pas pour but de définir des normes éthiques, mais de fournir une vérifiabilité en permettant aux développeurs de systèmes d'IA et à leurs propriétaires d'émettre des déclarations attestant de la performance de leurs systèmes d'IA.
Pour réussir, "AI-vérifié" peut avoir besoin de plus de reconnaissance et d'adoption. Cela dépend de facteurs tels que le coût, la persuasion des parties prenantes de sa valeur, sa pertinence et ses synergies avec le cadre réglementaire international.
Approche globale de la gouvernance de l'IA à Singapour
Dans sa stratégie nationale d'intelligence artificielle, Singapour a annoncé que le pays vise à être "à la pointe du développement et du déploiement de solutions d'IA évolutives et percutantes" et espère consolider le rôle du pays en tant que "leader dans le développement, les tests, le déploiement et la mise à l'échelle l'intelligence artificielle." hub mondial de solutions. L'un des cinq « catalyseurs de l'écosystème » identifiés dans une stratégie visant à accroître l'adoption de l'IA est de favoriser un « environnement progressif et digne de confiance » pour le développement de l'IA – un compromis entre l'innovation et la minimisation des risques sociétaux dans un environnement équilibré.
Pour créer cet "environnement progressif et digne de confiance", Singapour a jusqu'à présent adopté une approche bénigne et volontaire de la réglementation de l'IA. C'est parce que le pays reconnaît deux réalités de ses ambitions en matière d'IA.
Premièrement, le gouvernement de Singapour** considère l'IA comme un catalyseur stratégique clé** pour faire croître l'économie et améliorer la qualité de vie de ses citoyens. En conséquence, Singapour n'a pas pris de mesures drastiques dans la réglementation de l'intelligence artificielle, afin de ne pas étouffer l'innovation et l'investissement. Deuxièmement, compte tenu de sa taille, Singapour reconnaît que le gouvernement lui-même peut être un preneur de prix plutôt qu'un décideur de prix à mesure que le discours, les cadres et les réglementations sur la gouvernance de l'IA se développent à l'échelle mondiale. Par conséquent, la stratégie actuelle n'est pas de rafraîchir les principes de l'intelligence artificielle, mais de "suivre la tendance du monde, et n'avoir aucune intention de changer la tendance du monde."("Prenez le monde où il est, plutôt que là où il espère que le monde soit.")
L'approche réglementaire de Singapour en matière d'IA - supervisée par la Commission de protection des données personnelles (PDPC) de Singapour - repose sur trois piliers avant le lancement d'AI Verify en 2022 :
1 Modèle de cadre de gouvernance de l'IA (modèle de cadre).
Comité consultatif sur l'utilisation éthique de l'intelligence artificielle et des données (Comité consultatif).
Plan de recherche sur la gouvernance de l'IA et l'utilisation des données (projet de recherche).
Ce qui suit se concentre sur le "modèle de cadre".
mode cadre
Le modèle de cadre, lancé pour la première fois lors de la réunion annuelle du Forum économique mondial en 2019, est un cadre volontaire et non contraignant qui guide les organisations dans le déploiement responsable de solutions d'intelligence artificielle à grande échelle, notant que le cadre est indépendant du stade de développement du technologie. À titre indicatif, le modèle de cadre ne fournit que des recommandations pratiques pour le déploiement de l'IA par des entités du secteur privé, tandis que l'utilisation de l'IA par le secteur public est régie par des directives internes et des boîtes à outils sur l'IA et la gouvernance des données. **Le Framework Patterns est connu comme un "document vivant" et les futures versions évolueront à mesure que la technologie et la société évoluent. Sa base réside dans l'imprévisibilité de la technologie, de l'industrie, de l'échelle et du modèle commercial. **
Essentiellement, le modèle de cadre est guidé par deux principes fondamentaux qui favorisent la confiance et la compréhension de l'IA. **Premièrement, les organisations utilisant l'IA dans la prise de décision doivent s'assurer que leurs processus de prise de décision sont explicables, transparents et équitables. Deuxièmement, les systèmes d'IA doivent être centrés sur l'humain : la protection du bien-être et de la sécurité des personnes doit être une considération primordiale dans la conception, le développement et l'utilisation de l'IA. **
Le cadre traduit ces principes directeurs en actions concrètes dans quatre domaines clés des processus de prise de décision organisationnelle et de développement technologique :
(a) structures et pratiques de gouvernance interne;
(b) déterminer le niveau d'implication humaine dans la prise de décision assistée par l'IA ;
(c) gestion des opérations;
d) Interaction et communication avec les parties prenantes.
Le tableau ci-dessous résume certaines considérations, approches et mesures suggérées dans ces domaines clés.
Lorsque Singapour a lancé la deuxième édition du Framework Model au Forum économique mondial 2020, elle était accompagnée de deux autres documents : Implementation and Self-Assessment Guide for Organizations (ISAGO) et Compendium of Use Cases (Compilation - Volume 1 and 2 volumes) . ISAGO est une liste de contrôle pour aider les organisations à évaluer l'alignement de leurs processus de gouvernance de l'IA avec le cadre du modèle. Le Compendium fournit des exemples concrets d'adoption des recommandations du Cadre dans tous les secteurs, cas d'utilisation et juridictions.
En général, le « modèle de cadre » et ses documents à l'appui ancrent et décrivent la réflexion de fond sur la réglementation de l'intelligence artificielle à Singapour. Ces initiatives ont permis à Singapour de remporter le prix du Sommet mondial des Nations Unies sur la société de l'information en 2019, reconnaissant son leadership en matière de gouvernance de l'IA.
Janvier 2020 a marqué un tournant dans le débat mondial sur la réglementation de l'IA. Le 17 janvier 2020, un livre blanc publié par la Commission européenne a amené la communauté internationale à accorder plus d'attention à la possibilité d'une réglementation gouvernementale de la technologie de l'intelligence artificielle. En février 2020, la Commission européenne a officiellement publié le "Livre blanc sur l'intelligence artificielle", exposant des plans pour créer un cadre réglementaire pour l'intelligence artificielle. Quelques mois plus tard, la Commission européenne a présenté un projet de son futur projet de loi sur l'intelligence artificielle. Il s'agit de la première tentative sérieuse d'une agence gouvernementale d'introduire des règles de fond pour réglementer horizontalement le développement et l'utilisation des systèmes d'IA. On peut s'attendre à ce que la loi sur l'IA ait également des effets extrajuridictionnels, et les entreprises développant des systèmes d'IA en dehors de l'Europe pourraient être soumises à la nouvelle loi.
Celles-ci ont influencé la réflexion sur l'avenir du paysage réglementaire et de gouvernance de l'IA à Singapour. Bien que la Commission de protection des données personnelles (PDPC) de Singapour maintienne son approche volontaire et laxiste de la réglementation de l'IA, elle reconnaît que l'IA sera confrontée à une surveillance plus stricte à l'avenir. Le PDPC semble également être conscient de la demande croissante des consommateurs pour la fiabilité des systèmes et des développeurs d'IA, et de la nécessité de normes internationales d'IA pour comparer et évaluer l'IA par rapport aux exigences réglementaires. De plus, les exigences d'interopérabilité des cadres réglementaires de l'IA augmentent également. ** Compte tenu de cela, Singapour a commencé à se développer et les résultats finaux ont été fusionnés dans le cadre de "AI Verify".
** Qu'est-ce que "AI Verify" **
"AI Verify" est publié conjointement par Infocomm Media Development Authority (IMDA), un comité statutaire relevant du ministère des Communications et de l'Information de Singapour, et le Comité de protection des données personnelles (PDPC). Il s'agit d'un cadre et d'une boîte à outils de test de gouvernance de l'intelligence artificielle. **Avec AI Verify, les organisations peuvent effectuer une évaluation volontaire de leurs systèmes d'IA en utilisant une combinaison de tests techniques et d'inspections basées sur les processus. À son tour, le système aide les entreprises à fournir aux parties prenantes des preuves objectives et vérifiables que leurs systèmes d'IA sont mis en œuvre de manière responsable et digne de confiance. **
Compte tenu du développement continu des méthodes, des normes, des indicateurs et des outils de test d'intelligence artificielle, la "vérification de l'intelligence artificielle" (AI Verify) est actuellement au stade du "produit minimum viable" (MVP). Cela a deux implications. Premièrement, la version MVP a des limitations techniques et est limitée par le type et la taille des modèles d'IA ou des ensembles de données qui peuvent être testés ou analysés. Deuxièmement, la vérification de l'IA devrait évoluer à mesure que les capacités de test de l'IA mûrissent.
Les quatre objectifs du développement de la version MVP "AI Verified" sont :
(a) Premièrement, IMDA espère que les organisations pourront utiliser la "validation de l'IA" pour déterminer les critères de performance de leurs systèmes d'IA et démontrer ces critères validés aux parties prenantes telles que les consommateurs et les employés, aidant ainsi les organisations à renforcer la confiance.
(b) Deuxièmement, compte tenu de son développement en tenant compte de divers cadres réglementaires et de gouvernance de l'IA, ainsi que de principes communs fiables en matière d'IA, AI Validation vise à aider les organisations à trouver en commun divers cadres et réglementations mondiaux de gouvernance de l'IA. L'IMDA continuera à travailler avec les régulateurs et les organismes de normalisation pour mapper le cadre de test pour la "validation de l'IA" au cadre établi. Les efforts visent à permettre aux entreprises d'exploiter ou d'offrir des produits et services d'IA sur plusieurs marchés, tout en faisant de Singapour un centre pour la gouvernance de l'IA et les tests réglementaires.
(c) Troisièmement, **IMDA sera en mesure de rassembler les pratiques, les références et les mesures de l'industrie à mesure que de plus en plus d'organisations expérimentent la « validation de l'IA » et utilisent son cadre de test. ** Considérant que Singapour participe à des plateformes mondiales de gouvernance de l'IA telles que le Partenariat mondial sur l'IA et ISO/IEC JTC1/SC 42, offrant des perspectives précieuses sur l'établissement de normes internationales pour la gouvernance de l'IA, celles-ci peuvent faciliter l'élaboration de normes pour la gouvernance de l'IA mises en place. .
(d) Quatrièmement, IMDA veut que "AI Verification" aide à créer une communauté locale de test d'IA à Singapour composée de développeurs d'IA et de propriétaires de systèmes (cherchant à tester des systèmes d'IA), de fournisseurs de technologie (qui développent la mise en œuvre de la gouvernance de l'IA et solutions de test), des prestataires de services de conseil (spécialisés dans l'assistance aux tests et à la certification) et des chercheurs (qui développent des techniques, des référentiels et des pratiques de test).
Il est également important de clarifier plusieurs idées fausses potentielles sur la "validation de l'IA". Premièrement, ** "AI Validation" ne tente pas de définir des normes éthiques. ** Il ne tente pas de signaler la classification des systèmes d'IA, mais fournit plutôt une vérifiabilité, permettant aux développeurs et aux propriétaires de systèmes d'IA de prouver leurs affirmations concernant les performances de leur système d'IA. Deuxièmement, les organisations gouvernementales utilisant la "vérification de l'IA" ne peuvent garantir que les systèmes d'IA testés sont exempts de risque ou de biais, ou qu'ils sont complètement "sûrs" et "éthiques". Troisièmement, "AI Validation" vise à empêcher les organisations de révéler par inadvertance des informations sensibles sur leurs systèmes d'IA (telles que leur code sous-jacent ou leurs données de formation). Il a adopté une mesure de sauvegarde clé - " AI Verification" qui sera auto-testée par les développeurs et les propriétaires de systèmes d'IA. Cela permet aux données et aux modèles de l'organisation de rester dans l'environnement d'exploitation de l'organisation. **
Comment fonctionne "AI Verification"
"AI Validation" se compose de deux parties. Le premier est le cadre de test, qui cite 11 principes d'éthique et de gouvernance de l'IA internationalement reconnus, organisés en cinq piliers. Le second est la boîte à outils que les organisations utilisent pour effectuer des tests techniques et documenter les vérifications de processus dans le cadre de test.
Cadre de test pour la "vérification de l'intelligence artificielle"
Les cinq piliers et onze principes du cadre de test "AI Validation" et leurs évaluations prévues sont énumérés ci-dessous :
***(a) Définitions : *** Le cadre de test fournit des définitions faciles à comprendre pour chaque principe d'IA. Par exemple, l'interprétabilité est définie comme "la capacité d'évaluer les facteurs qui conduisent à la décision d'un système d'IA, son comportement global, son résultat et son impact".
***(b) Critères testables : ***Pour chaque principe, un ensemble de critères testables est fourni. Ces normes tiennent compte des facteurs techniques et/ou non techniques (tels que les processus, les procédures ou les structures organisationnelles) qui contribuent à atteindre les résultats escomptés de ce principe de gouvernance.
En prenant l'interprétabilité comme exemple, deux critères testables sont donnés. Les développeurs peuvent exécuter des méthodes d'explicabilité pour aider les utilisateurs à comprendre ce qui motive les modèles d'IA. Les développeurs peuvent également manifester une préférence pour le développement de modèles d'IA qui expliquent leurs décisions, ou le font par défaut.
***(c) Processus de test : *** Pour chaque critère testable, "AI Validation" fournit un processus ou des étapes actionnables à effectuer, qui peuvent être quantitatifs (tels que des tests statistiques ou techniques), peuvent également être qualitatifs (par ex. pièces justificatives produites lors des inspections de processus).
En ce qui concerne l'interprétabilité, les tests techniques peuvent impliquer une analyse empirique et déterminer la contribution des caractéristiques à la sortie du modèle. Les tests basés sur les processus documenteront la justification, l'évaluation des risques et les compromis du modèle d'IA.
***(d) Paramètres : ***Il s'agit des paramètres quantitatifs ou qualitatifs utilisés pour mesurer ou fournir des preuves pour chaque critère testable.
En utilisant l'exemple d'interprétabilité ci-dessus, les métriques utilisées pour déterminer les contributions des fonctionnalités examinent les fonctionnalités contributives des sorties de modèle obtenues à partir d'outils techniques tels que SHAP et LIME. Lors de la sélection du modèle final, des métriques basées sur les processus peuvent être utilisées pour documenter l'évaluation, telles que l'évaluation des risques et les exercices de compromis.
***(e) Seuils (le cas échéant) : ***Le cas échéant, le cadre de test fournira des valeurs ou des références acceptées pour les mesures sélectionnées. Ces valeurs, ou références, peuvent être définies par des organismes de réglementation, des associations industrielles ou d'autres organismes de normalisation reconnus. Aucun seuil n'est prévu pour le modèle MVP de "AI Validation", compte tenu du développement rapide des technologies d'IA, de leurs cas d'utilisation et des méthodes de test des systèmes d'IA. Cependant, à mesure que l'espace de gouvernance de l'IA mûrit et que l'utilisation de "AI Verify" augmente, IMDA a l'intention de rassembler et de développer des métriques et des seuils spécifiques au contexte à ajouter au cadre de test.
Boîte à outils de vérification de l'intelligence artificielle « Vérification de l'intelligence artificielle »
Alors que la boîte à outils d'AI Verify pour la "vérification de l'intelligence artificielle" n'est actuellement disponible que pour les organisations qui s'inscrivent avec succès au programme AI Verify MVP, IMDA décrit la boîte à outils comme un outil "à guichet unique" permettant aux organisations d'effectuer des tests techniques. Plus précisément, la boîte à outils utilise largement les bibliothèques de test open source. Ces outils incluent SHAP (Shapley Additive ExPlanations) pour l'explicabilité, Adversarial Robustness Toolkit pour la robustesse, et AIF360 et Fair Learning pour l'équité.
Les utilisateurs de "AI Verification" peuvent installer la boîte à outils dans leur environnement interne. L'utilisateur effectuera le processus de test sous la direction de l'interface utilisateur. Par exemple, l'outil comprend un "arbre d'équité guidé" permettant aux utilisateurs d'identifier les mesures d'équité pertinentes pour leur cas d'utilisation. Enfin, AI Verify générera un rapport récapitulatif pour aider les développeurs et les propriétaires de systèmes à interpréter les résultats des tests. Pour les inspections de processus, le rapport fournit une liste de contrôle de la présence ou de l'absence de preuves documentaires comme spécifié dans le cadre de test. Les résultats des tests sont ensuite conditionnés dans des conteneurs Docker® pour le déploiement.
en conclusion
Lorsque IMDA a publié AI Verify, la vague d'intérêt pour l'IA générative ne s'était pas encore concrétisée. Suivant la tendance actuelle, l'intérêt pour la gouvernance, la testabilité et la fiabilité des systèmes d'IA a considérablement augmenté. Comme indiqué dans cet article, les différentes initiatives de "vérification de l'intelligence artificielle" AI Verify se préparent tout juste à répondre à la situation actuelle.
Singapour a déjà démontré sa capacité à contribuer au discours mondial et au leadership éclairé sur la gouvernance et la réglementation de l'IA. Les Framework Patterns publiés en sont la preuve. Les enjeux d'AI Verify sont certes élevés, mais la demande mondiale pour l'initiative l'est tout autant. Pour réussir, il peut être nécessaire de le reconnaître et de l'utiliser davantage. Ça dépend de plusieurs facteurs. Premièrement, l'accessibilité de l'outil est essentielle : les organisations qui souhaitent utiliser AI Verify doivent pouvoir l'utiliser à faible coût ou gratuitement. **Deuxièmement, convaincre l'organisation de sa valeur est essentiel. ** Cela nécessite que l'IMDA prouve que la "vérification de l'intelligence artificielle" AI Verify est techniquement et procéduralement solide, elle peut être utilisée efficacement pour des types et des échelles plus nombreux et plus récents de modèles d'intelligence artificielle et d'ensembles de données, et n'affectera pas la sensibilité commerciale de le modèle d'IA ou l'ensemble de données. ** Troisièmement, et peut-être le plus important, il doit maintenir l'interopérabilité avec les cadres réglementaires internationaux. **IMDA doit s'assurer qu'AI Verify continue d'aider les organisations à aborder et à interagir dans les principaux cadres réglementaires mondiaux émergents en matière d'IA tels que la loi européenne sur l'IA, la loi canadienne sur l'IA et les données et le cadre réglementaire américain NIST AI Risks, ainsi que le cadre réglementaire de Singapour. propre cadre de modèle national.