Trois jours seulement après que Meta a annoncé la nouvelle génération de grand modèle de langage open source Llama 2, les principaux dirigeants de l'entreprise, Microsoft, OpenAI, Amazon, Anthropic et sept autres géants de l'industrie de l'IA et les dirigeants de start-up en vogue se sont à nouveau réunis à la Maison Blanche aux États-Unis.
Lors de cet événement, sept entreprises ont signé des "engagements volontaires" (Voluntary Commitments), prenant "8 engagements majeurs" sur la sécurité, la transparence et les risques de la technologie et de la R&D de l'IA.
Source de l'image : générée par l'IA illimitée
** Le drame "recherche de supervision" de la société AI a atteint un petit point culminant ici **.
Le chroniqueur du NYT, Kevin Roose, a écrit un article, expliquant en détail ce que les "8 grandes promesses" ont dit et les changements qu'elles ont apportés.
Le résultat de la recherche est que ces 8 engagements, tels que les tests de sécurité, le partage d'informations sur la sécurité de l'IA, le signalement des vulnérabilités et la "priorisation de l'IA pour résoudre les défis sociaux", semblent être de gros problèmes, et les engagements correspondants manquent de détails. De nombreux problèmes eux-mêmes ont été "publiés" au public par les entreprises d'IA.
Cette "lettre d'engagement de ressources" ressemble plus à un "affichage indirect des résultats" de plusieurs demandes des régulateurs américains aux entreprises d'IA au cours des six derniers mois, et elle n'a probablement pas beaucoup d'importance pour la mise en œuvre. Cependant, les régulateurs ont exprimé à plusieurs reprises leur inquiétude au sujet de l'IA, indiquant que la position du gouvernement sur l'application de la technologie de l'IA est la plus grande importance de cette émission.
Voici l'interprétation de Kevin Roose des 8 engagements de la "lettre d'engagement volontaire":
** Engagement 1 : L'entreprise s'engage à tester la sécurité interne et externe des systèmes d'IA avant de les publier. **
Ces sociétés d'intelligence artificielle ont toutes effectué des tests de sécurité sur leurs modèles - souvent appelés "tests de l'équipe rouge" - avant leur sortie. D'une certaine manière, ce n'est pas vraiment une nouvelle promesse, c'est vague. Aucun détail n'a été fourni sur le type de test qui serait requis ou par qui.
Dans une déclaration ultérieure, la Maison Blanche a seulement déclaré que les tests des modèles d'IA "seront menés en partie par des experts indépendants" et se concentreront sur "les risques liés à l'IA tels que ** la biosécurité et la cybersécurité, et leurs implications sociétales plus larges **".
C'est une bonne idée que les entreprises d'IA s'engagent publiquement à poursuivre ces tests et à encourager une plus grande transparence dans le processus de test. Il existe également des types de risques liés à l'IA, tels que le danger que des modèles d'IA puissent être utilisés pour développer des armes biologiques, que les responsables gouvernementaux et militaires sont peut-être mieux placés pour évaluer que les entreprises.
Je suis heureux de voir l'industrie de l'IA s'accorder sur un ensemble de tests de sécurité standard, tels que les tests "d'auto-réplication" de l'Alignement Research Center pour les modèles de pré-version d'OpenAI et d'Anthropic. J'aimerais aussi que le gouvernement fédéral finance de tels tests, qui peuvent être coûteux et nécessiter des ingénieurs possédant une expertise technique importante. Actuellement, de nombreux tests de sécurité sont financés et supervisés par des entreprises, ce qui soulève des problèmes évidents de conflits d'intérêts.
** Engagement 2 : L'entreprise s'engage à partager des informations sur la gestion des risques liés à l'IA dans l'industrie et avec le gouvernement, la société civile et le milieu universitaire. **
Cette promesse est aussi un peu vague. Certaines de ces entreprises ont publié des informations sur leurs modèles d'IA, souvent dans des articles universitaires ou des articles de blog d'entreprise. Certaines de ces entreprises, dont OpenAI et Anthropic, ont également publié des documents appelés "Cartes" décrivant les mesures qu'elles prennent pour rendre ces modèles plus sûrs.
Mais ils retiennent aussi parfois des informations, invoquant des problèmes de sécurité. Lorsque OpenAI a publié cette année son dernier modèle d'IA, GPT-4, il a enfreint les conventions de l'industrie en choisissant de ne pas révéler la quantité de données d'entraînement ni la taille de son modèle (une métrique appelée "paramètres"). La société a déclaré qu'elle avait refusé de divulguer les informations en raison de problèmes de concurrence et de sécurité. Il se trouve également que c'est le type de données que les entreprises technologiques aiment garder à l'écart de leurs concurrents.
En vertu de ces nouveaux engagements, les entreprises d'IA seront-elles obligées de divulguer ces informations ? Et si cela risquait d'accélérer une course aux armements contre l'IA ?
Je soupçonne que l'objectif de la Maison Blanche n'est pas d'obliger les entreprises à divulguer leurs numéros de paramètres, mais plutôt de les encourager à échanger des informations entre elles sur les risques que leurs modèles présentent (ou non).
Mais même ce partage d'informations peut être risqué. Si l'équipe d'intelligence artificielle de Google, lors des tests de pré-lancement, empêche l'utilisation de nouveaux modèles pour concevoir des armes biologiques mortelles, devrait-elle partager ces informations en dehors de Google ? Cela donne-t-il aux mauvais acteurs des idées sur la façon d'obtenir un modèle moins protégé pour effectuer la même tâche ?
** Engagement 3 : la société s'engage à investir dans la cybersécurité et les mesures de protection contre les menaces internes afin de protéger les pondérations de modèles propriétaires et non publiées. **
Cette question est très simple et ne prête pas à controverse parmi les initiés de l'IA à qui j'ai parlé. "Model Weights" est un terme technique faisant référence aux instructions mathématiques qui permettent aux modèles d'IA de fonctionner. Si vous êtes un agent d'un gouvernement étranger (ou d'une société rivale) cherchant à créer votre propre version de ChatGPT ou d'un autre produit d'IA, les poids sont ce que vous voulez voler. Les entreprises d'IA ont tout intérêt à contrôler étroitement cela.
Le problème des fuites de poids du modèle est bien connu.
Par exemple, les poids du modèle de langage LLaMA original de Meta ont été divulgués sur 4chan et d'autres sites quelques jours seulement après la publication du modèle. Compte tenu du risque de nouvelles fuites et de la possibilité que d'autres pays soient intéressés à voler la technologie aux entreprises américaines, obliger les entreprises d'IA à investir davantage dans leur propre sécurité semble être une évidence.
** Engagement 4 : Les deux sociétés s'engagent à faciliter la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d'IA. **
Je ne suis pas sûr de ce que cela signifie. Une fois que chaque entreprise d'IA a publié un modèle, elle découvre des failles dans son modèle, généralement parce que les utilisateurs essaient de faire de mauvaises choses avec le modèle ou de contourner le "jailbreaking" d'une manière que l'entreprise n'avait pas prévue.
La Maison Blanche s'est engagée à obliger les entreprises à créer des "mécanismes de signalement robustes" pour les vulnérabilités, mais on ne sait pas ce que cela pourrait signifier.
Un bouton de commentaires intégré à l'application, similaire à ceux qui permettent aux utilisateurs de Facebook et Twitter de signaler les publications offensantes ? Un programme de primes aux bogues, comme celui qu'OpenAI a lancé cette année pour récompenser les utilisateurs qui trouvent des bogues dans ses systèmes ? Y a-t-il autre chose? Nous devrons attendre plus de détails.
** Engagement 5 : L'entreprise s'engage à développer des mécanismes techniques solides pour s'assurer que les utilisateurs savent quand le contenu est généré par l'intelligence artificielle, comme les systèmes de filigrane. **
C'est une idée intéressante, mais qui laisse beaucoup de place à l'interprétation.
Jusqu'à présent, les entreprises d'IA ont eu du mal à concevoir des outils permettant aux utilisateurs de savoir s'ils regardent du contenu généré par l'IA. Il y a de bonnes raisons techniques à cela, mais c'est un vrai problème quand les gens peuvent faire passer pour les leurs des emplois générés par l'IA (demandez à n'importe quel professeur de lycée).
De nombreux outils actuels annoncés comme étant capables de détecter la sortie de l'IA ne peuvent en réalité pas le faire avec un quelconque degré de précision.
Je ne suis pas optimiste quant à la résolution complète de ce problème, mais je suis heureux que les entreprises s'engagent à y travailler.
**Engagement 6 : les entreprises s'engagent à rendre compte publiquement des capacités, des limites et des domaines d'utilisation appropriée et inappropriée de leurs systèmes d'IA. **
Un autre engagement sensé avec beaucoup de marge de manœuvre.
À quelle fréquence les entreprises doivent-elles rendre compte des capacités et des limites de leurs systèmes ? Dans quelle mesure ces informations doivent-elles être détaillées ? Étant donné que de nombreuses entreprises qui créent des systèmes d'IA sont surprises par les capacités de leurs systèmes après coup, jusqu'à quel point peuvent-elles vraiment décrire ces systèmes à l'avance ?
** Engagement 7 : Les entreprises s'engagent à donner la priorité à la recherche sur les risques pour la société que les systèmes d'IA peuvent poser, notamment en évitant les préjugés et la discrimination préjudiciables et en protégeant la vie privée. **
L'engagement à « prioriser la recherche » est un vague engagement. Pourtant, je pense que cet engagement sera bien accueilli par de nombreux membres de la communauté de l'éthique de l'IA, qui souhaitent que les entreprises d'IA accordent la priorité à la prévention des dommages à court terme tels que les préjugés et la discrimination, plutôt que de s'inquiéter des scénarios apocalyptiques, comme le font les responsables de la sécurité de l'IA.
Si vous ne comprenez pas la différence entre "l'éthique de l'IA" et "la sécurité de l'IA", sachez qu'il existe deux factions rivales au sein de la communauté de recherche sur l'IA, chacune d'elles croyant que l'autre se concentre sur la prévention des dommages causés par les erreurs.
** Engagement 8 : Les deux sociétés s'engagent à développer et à déployer des systèmes avancés d'intelligence artificielle pour aider à résoudre les plus grands défis de la société. **
Je ne pense pas que beaucoup de gens diraient que l'IA avancée ne devrait pas être utilisée pour aider à résoudre les plus grands défis de la société. Je ne serais pas en désaccord avec le fait que la Maison Blanche cite la prévention du cancer et l'atténuation du changement climatique comme deux domaines sur lesquels elle souhaite que les entreprises d'IA se concentrent.
Cependant, ce qui complique quelque peu cet objectif, c'est que dans la recherche sur l'intelligence artificielle, les choses qui semblent ennuyeuses au début ont tendance à avoir des conséquences plus graves.
Certaines techniques employées par AlphaGo de DeepMind, un système d'intelligence artificielle formé pour jouer au jeu de société Go, ont été extrêmement utiles pour prédire la structure tridimensionnelle des protéines, une découverte majeure qui fait avancer la recherche scientifique fondamentale.
Dans l'ensemble, les accords de la Maison Blanche avec les entreprises d'IA semblent être plus symboliques que substantiels. Il n'existe aucun mécanisme d'application pour garantir que les entreprises respectent ces engagements, dont beaucoup reflètent les précautions déjà prises par les entreprises d'IA.
Pourtant, c'est une première étape raisonnable.
Accepter de respecter ces règles montre que les entreprises d'IA ont appris des échecs des premières entreprises technologiques qui ont attendu d'avoir des ennuis avant de s'engager avec les gouvernements. À Washington, du moins en ce qui concerne la réglementation technologique, il vaut la peine de se présenter tôt.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Les sept géants de l'IA ont fait 8 promesses majeures à la Maison Blanche, qu'ont-ils promis ?
Trois jours seulement après que Meta a annoncé la nouvelle génération de grand modèle de langage open source Llama 2, les principaux dirigeants de l'entreprise, Microsoft, OpenAI, Amazon, Anthropic et sept autres géants de l'industrie de l'IA et les dirigeants de start-up en vogue se sont à nouveau réunis à la Maison Blanche aux États-Unis.
Lors de cet événement, sept entreprises ont signé des "engagements volontaires" (Voluntary Commitments), prenant "8 engagements majeurs" sur la sécurité, la transparence et les risques de la technologie et de la R&D de l'IA.
** Le drame "recherche de supervision" de la société AI a atteint un petit point culminant ici **.
Le chroniqueur du NYT, Kevin Roose, a écrit un article, expliquant en détail ce que les "8 grandes promesses" ont dit et les changements qu'elles ont apportés.
Le résultat de la recherche est que ces 8 engagements, tels que les tests de sécurité, le partage d'informations sur la sécurité de l'IA, le signalement des vulnérabilités et la "priorisation de l'IA pour résoudre les défis sociaux", semblent être de gros problèmes, et les engagements correspondants manquent de détails. De nombreux problèmes eux-mêmes ont été "publiés" au public par les entreprises d'IA.
Cette "lettre d'engagement de ressources" ressemble plus à un "affichage indirect des résultats" de plusieurs demandes des régulateurs américains aux entreprises d'IA au cours des six derniers mois, et elle n'a probablement pas beaucoup d'importance pour la mise en œuvre. Cependant, les régulateurs ont exprimé à plusieurs reprises leur inquiétude au sujet de l'IA, indiquant que la position du gouvernement sur l'application de la technologie de l'IA est la plus grande importance de cette émission.
Voici l'interprétation de Kevin Roose des 8 engagements de la "lettre d'engagement volontaire":
** Engagement 1 : L'entreprise s'engage à tester la sécurité interne et externe des systèmes d'IA avant de les publier. **
Ces sociétés d'intelligence artificielle ont toutes effectué des tests de sécurité sur leurs modèles - souvent appelés "tests de l'équipe rouge" - avant leur sortie. D'une certaine manière, ce n'est pas vraiment une nouvelle promesse, c'est vague. Aucun détail n'a été fourni sur le type de test qui serait requis ou par qui.
Dans une déclaration ultérieure, la Maison Blanche a seulement déclaré que les tests des modèles d'IA "seront menés en partie par des experts indépendants" et se concentreront sur "les risques liés à l'IA tels que ** la biosécurité et la cybersécurité, et leurs implications sociétales plus larges **".
C'est une bonne idée que les entreprises d'IA s'engagent publiquement à poursuivre ces tests et à encourager une plus grande transparence dans le processus de test. Il existe également des types de risques liés à l'IA, tels que le danger que des modèles d'IA puissent être utilisés pour développer des armes biologiques, que les responsables gouvernementaux et militaires sont peut-être mieux placés pour évaluer que les entreprises.
Je suis heureux de voir l'industrie de l'IA s'accorder sur un ensemble de tests de sécurité standard, tels que les tests "d'auto-réplication" de l'Alignement Research Center pour les modèles de pré-version d'OpenAI et d'Anthropic. J'aimerais aussi que le gouvernement fédéral finance de tels tests, qui peuvent être coûteux et nécessiter des ingénieurs possédant une expertise technique importante. Actuellement, de nombreux tests de sécurité sont financés et supervisés par des entreprises, ce qui soulève des problèmes évidents de conflits d'intérêts.
** Engagement 2 : L'entreprise s'engage à partager des informations sur la gestion des risques liés à l'IA dans l'industrie et avec le gouvernement, la société civile et le milieu universitaire. **
Cette promesse est aussi un peu vague. Certaines de ces entreprises ont publié des informations sur leurs modèles d'IA, souvent dans des articles universitaires ou des articles de blog d'entreprise. Certaines de ces entreprises, dont OpenAI et Anthropic, ont également publié des documents appelés "Cartes" décrivant les mesures qu'elles prennent pour rendre ces modèles plus sûrs.
Mais ils retiennent aussi parfois des informations, invoquant des problèmes de sécurité. Lorsque OpenAI a publié cette année son dernier modèle d'IA, GPT-4, il a enfreint les conventions de l'industrie en choisissant de ne pas révéler la quantité de données d'entraînement ni la taille de son modèle (une métrique appelée "paramètres"). La société a déclaré qu'elle avait refusé de divulguer les informations en raison de problèmes de concurrence et de sécurité. Il se trouve également que c'est le type de données que les entreprises technologiques aiment garder à l'écart de leurs concurrents.
En vertu de ces nouveaux engagements, les entreprises d'IA seront-elles obligées de divulguer ces informations ? Et si cela risquait d'accélérer une course aux armements contre l'IA ?
Je soupçonne que l'objectif de la Maison Blanche n'est pas d'obliger les entreprises à divulguer leurs numéros de paramètres, mais plutôt de les encourager à échanger des informations entre elles sur les risques que leurs modèles présentent (ou non).
Mais même ce partage d'informations peut être risqué. Si l'équipe d'intelligence artificielle de Google, lors des tests de pré-lancement, empêche l'utilisation de nouveaux modèles pour concevoir des armes biologiques mortelles, devrait-elle partager ces informations en dehors de Google ? Cela donne-t-il aux mauvais acteurs des idées sur la façon d'obtenir un modèle moins protégé pour effectuer la même tâche ?
** Engagement 3 : la société s'engage à investir dans la cybersécurité et les mesures de protection contre les menaces internes afin de protéger les pondérations de modèles propriétaires et non publiées. **
Cette question est très simple et ne prête pas à controverse parmi les initiés de l'IA à qui j'ai parlé. "Model Weights" est un terme technique faisant référence aux instructions mathématiques qui permettent aux modèles d'IA de fonctionner. Si vous êtes un agent d'un gouvernement étranger (ou d'une société rivale) cherchant à créer votre propre version de ChatGPT ou d'un autre produit d'IA, les poids sont ce que vous voulez voler. Les entreprises d'IA ont tout intérêt à contrôler étroitement cela.
Le problème des fuites de poids du modèle est bien connu.
Par exemple, les poids du modèle de langage LLaMA original de Meta ont été divulgués sur 4chan et d'autres sites quelques jours seulement après la publication du modèle. Compte tenu du risque de nouvelles fuites et de la possibilité que d'autres pays soient intéressés à voler la technologie aux entreprises américaines, obliger les entreprises d'IA à investir davantage dans leur propre sécurité semble être une évidence.
** Engagement 4 : Les deux sociétés s'engagent à faciliter la découverte et le signalement par des tiers des vulnérabilités de leurs systèmes d'IA. **
Je ne suis pas sûr de ce que cela signifie. Une fois que chaque entreprise d'IA a publié un modèle, elle découvre des failles dans son modèle, généralement parce que les utilisateurs essaient de faire de mauvaises choses avec le modèle ou de contourner le "jailbreaking" d'une manière que l'entreprise n'avait pas prévue.
La Maison Blanche s'est engagée à obliger les entreprises à créer des "mécanismes de signalement robustes" pour les vulnérabilités, mais on ne sait pas ce que cela pourrait signifier.
Un bouton de commentaires intégré à l'application, similaire à ceux qui permettent aux utilisateurs de Facebook et Twitter de signaler les publications offensantes ? Un programme de primes aux bogues, comme celui qu'OpenAI a lancé cette année pour récompenser les utilisateurs qui trouvent des bogues dans ses systèmes ? Y a-t-il autre chose? Nous devrons attendre plus de détails.
** Engagement 5 : L'entreprise s'engage à développer des mécanismes techniques solides pour s'assurer que les utilisateurs savent quand le contenu est généré par l'intelligence artificielle, comme les systèmes de filigrane. **
C'est une idée intéressante, mais qui laisse beaucoup de place à l'interprétation.
Jusqu'à présent, les entreprises d'IA ont eu du mal à concevoir des outils permettant aux utilisateurs de savoir s'ils regardent du contenu généré par l'IA. Il y a de bonnes raisons techniques à cela, mais c'est un vrai problème quand les gens peuvent faire passer pour les leurs des emplois générés par l'IA (demandez à n'importe quel professeur de lycée).
De nombreux outils actuels annoncés comme étant capables de détecter la sortie de l'IA ne peuvent en réalité pas le faire avec un quelconque degré de précision.
Je ne suis pas optimiste quant à la résolution complète de ce problème, mais je suis heureux que les entreprises s'engagent à y travailler.
**Engagement 6 : les entreprises s'engagent à rendre compte publiquement des capacités, des limites et des domaines d'utilisation appropriée et inappropriée de leurs systèmes d'IA. **
Un autre engagement sensé avec beaucoup de marge de manœuvre.
À quelle fréquence les entreprises doivent-elles rendre compte des capacités et des limites de leurs systèmes ? Dans quelle mesure ces informations doivent-elles être détaillées ? Étant donné que de nombreuses entreprises qui créent des systèmes d'IA sont surprises par les capacités de leurs systèmes après coup, jusqu'à quel point peuvent-elles vraiment décrire ces systèmes à l'avance ?
** Engagement 7 : Les entreprises s'engagent à donner la priorité à la recherche sur les risques pour la société que les systèmes d'IA peuvent poser, notamment en évitant les préjugés et la discrimination préjudiciables et en protégeant la vie privée. **
L'engagement à « prioriser la recherche » est un vague engagement. Pourtant, je pense que cet engagement sera bien accueilli par de nombreux membres de la communauté de l'éthique de l'IA, qui souhaitent que les entreprises d'IA accordent la priorité à la prévention des dommages à court terme tels que les préjugés et la discrimination, plutôt que de s'inquiéter des scénarios apocalyptiques, comme le font les responsables de la sécurité de l'IA.
Si vous ne comprenez pas la différence entre "l'éthique de l'IA" et "la sécurité de l'IA", sachez qu'il existe deux factions rivales au sein de la communauté de recherche sur l'IA, chacune d'elles croyant que l'autre se concentre sur la prévention des dommages causés par les erreurs.
** Engagement 8 : Les deux sociétés s'engagent à développer et à déployer des systèmes avancés d'intelligence artificielle pour aider à résoudre les plus grands défis de la société. **
Je ne pense pas que beaucoup de gens diraient que l'IA avancée ne devrait pas être utilisée pour aider à résoudre les plus grands défis de la société. Je ne serais pas en désaccord avec le fait que la Maison Blanche cite la prévention du cancer et l'atténuation du changement climatique comme deux domaines sur lesquels elle souhaite que les entreprises d'IA se concentrent.
Cependant, ce qui complique quelque peu cet objectif, c'est que dans la recherche sur l'intelligence artificielle, les choses qui semblent ennuyeuses au début ont tendance à avoir des conséquences plus graves.
Certaines techniques employées par AlphaGo de DeepMind, un système d'intelligence artificielle formé pour jouer au jeu de société Go, ont été extrêmement utiles pour prédire la structure tridimensionnelle des protéines, une découverte majeure qui fait avancer la recherche scientifique fondamentale.
Dans l'ensemble, les accords de la Maison Blanche avec les entreprises d'IA semblent être plus symboliques que substantiels. Il n'existe aucun mécanisme d'application pour garantir que les entreprises respectent ces engagements, dont beaucoup reflètent les précautions déjà prises par les entreprises d'IA.
Pourtant, c'est une première étape raisonnable.
Accepter de respecter ces règles montre que les entreprises d'IA ont appris des échecs des premières entreprises technologiques qui ont attendu d'avoir des ennuis avant de s'engager avec les gouvernements. À Washington, du moins en ce qui concerne la réglementation technologique, il vaut la peine de se présenter tôt.