La législation n'a pas atteint le "contrôle de soi" en premier : les géants de l'IA promettront la sécurité des produits, OpenAI soutient l'octroi de licences et l'approbation du développement du système d'IA
Source de l'image : générée par l'outil d'IA illimitée
Bien que les États-Unis n'aient pas encore introduit de législation spécifique, sous la pression de l'administration Biden, certains géants et étoiles montantes dans le domaine de l'intelligence artificielle (IA) OpenAI ont pris l'initiative de proposer "l'autocontrôle".
Le jeudi 20 juillet, heure de l'Est, les médias ont cité des initiés disant qu'à la demande de la Maison Blanche, certaines entreprises, dont Microsoft, Alphabet, la société mère de Google, et OpenAI, prendront des engagements publics ce vendredi pour garantir leur utilisation sûre de la technologie de l'IA et développer et déployer l'IA de manière responsable.
Le projet de document de la Maison Blanche montre que les engagements des entreprises resteront en vigueur jusqu'à ce que le Congrès américain adopte une législation pour résoudre les problèmes liés à l'IA. Ces promesses se concentrent sur l'IA générative et les modèles d'IA existants les plus puissants, voire d'éventuels futurs modèles. Dans le projet, la Maison Blanche a proposé huit points d'engagement :
Permettez à des experts indépendants d'agir comme des ennemis imaginaires, essayez de faire en sorte que les modèles d'IA produisent un mauvais comportement, effectuez ce que l'on appelle une équipe rouge contre bleu et bleu et améliorez les capacités de défense.
Partagez des informations de confiance et de sécurité avec les gouvernements et d'autres entreprises.
Utilisez des filigranes sur le contenu audio et vidéo pour aider à identifier le contenu généré par l'IA.
Investissez dans des mesures de cybersécurité.
Encouragez les tiers à découvrir les failles de sécurité.
Signaler les risques sociaux tels que les abus et les préjugés.
Donner la priorité à la recherche sur les risques sociaux de l'IA.
Utilisez le système d'IA le plus avancé, le modèle dit de pointe, pour résoudre les problèmes sociaux les plus graves.
Les médias ont déclaré qu'avant ce vendredi, le contenu spécifique de l'engagement pourrait encore subir des modifications. Mais les promesses devraient être conformes à celles faites lors d'une réunion de certaines des principales sociétés d'IA en mai.
Jeudi également, un autre rapport a déclaré qu'une note interne montrait qu'OpenAI prend en charge la mise en œuvre d'un système de licence, c'est-à-dire que pour développer des systèmes d'IA avancés, les développeurs doivent d'abord obtenir une licence délivrée par le gouvernement. OpenAI a également fait allusion à une volonté d'être plus ouvert sur les données utilisées pour former des imageurs d'IA tels que DALL-E, affirmant qu'il s'est engagé à intégrer une approche basée sur l'origine d'ici la fin de cette année.
Cependant, Makanju, vice-président des affaires mondiales d'OpenAI, a récemment déclaré que le régime de licences pris en charge par OpenAI est limité aux modèles d'IA plus puissants que GPT-4, car OpenAI veut s'assurer que les petites startups ne subissent pas trop de pression réglementaire.
Le commentaire a déclaré que l'engagement volontaire lui-même a montré que l'administration Biden a des limites dans l'orientation des modèles d'IA pour éviter les abus. Le Congrès américain ne sera pas en mesure d'adopter des projets de loi et des lois à court terme, et la réglementation dans le domaine de l'IA ne peut être retardée.
Wall Street a mentionné qu'en mai, la Maison Blanche avait convoqué une réunion avec les PDG d'Alphabet, Microsoft et OpenAI pour discuter des problèmes de sécurité de l'IA. Biden a réitéré dans la lettre d'invitation à l'époque qu'il espérait que ces entreprises doivent garantir la sécurité des produits avant de les commercialiser. Il a également déclaré que l'on craignait que la technologie de l'IA, qui progresse rapidement, puisse envahir la vie privée et être biaisée, propageant des rumeurs et de la désinformation.
Le mois dernier, Biden a une fois de plus réitéré la nécessité d'assurer la sécurité avant la sortie des produits d'IA, affirmant que la sécurité nationale et les risques économiques induits par l'IA doivent être pris en compte. Le chef de cabinet de la Maison Blanche, Jeff Zients, a déclaré ce mois-là que certaines entreprises leaders dans le domaine de l'IA s'efforçaient de coopérer avec l'administration Biden et annonceraient bientôt une série d'engagements en matière de confidentialité et de sécurité. Il a également dit que le processus réglementaire était peut-être relativement lent, mais nous ne pouvons pas nous permettre d'attendre un an ou deux.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
La législation n'a pas atteint le "contrôle de soi" en premier : les géants de l'IA promettront la sécurité des produits, OpenAI soutient l'octroi de licences et l'approbation du développement du système d'IA
Auteur : Li Dan
Bien que les États-Unis n'aient pas encore introduit de législation spécifique, sous la pression de l'administration Biden, certains géants et étoiles montantes dans le domaine de l'intelligence artificielle (IA) OpenAI ont pris l'initiative de proposer "l'autocontrôle".
Le jeudi 20 juillet, heure de l'Est, les médias ont cité des initiés disant qu'à la demande de la Maison Blanche, certaines entreprises, dont Microsoft, Alphabet, la société mère de Google, et OpenAI, prendront des engagements publics ce vendredi pour garantir leur utilisation sûre de la technologie de l'IA et développer et déployer l'IA de manière responsable.
Le projet de document de la Maison Blanche montre que les engagements des entreprises resteront en vigueur jusqu'à ce que le Congrès américain adopte une législation pour résoudre les problèmes liés à l'IA. Ces promesses se concentrent sur l'IA générative et les modèles d'IA existants les plus puissants, voire d'éventuels futurs modèles. Dans le projet, la Maison Blanche a proposé huit points d'engagement :
Les médias ont déclaré qu'avant ce vendredi, le contenu spécifique de l'engagement pourrait encore subir des modifications. Mais les promesses devraient être conformes à celles faites lors d'une réunion de certaines des principales sociétés d'IA en mai.
Jeudi également, un autre rapport a déclaré qu'une note interne montrait qu'OpenAI prend en charge la mise en œuvre d'un système de licence, c'est-à-dire que pour développer des systèmes d'IA avancés, les développeurs doivent d'abord obtenir une licence délivrée par le gouvernement. OpenAI a également fait allusion à une volonté d'être plus ouvert sur les données utilisées pour former des imageurs d'IA tels que DALL-E, affirmant qu'il s'est engagé à intégrer une approche basée sur l'origine d'ici la fin de cette année.
Cependant, Makanju, vice-président des affaires mondiales d'OpenAI, a récemment déclaré que le régime de licences pris en charge par OpenAI est limité aux modèles d'IA plus puissants que GPT-4, car OpenAI veut s'assurer que les petites startups ne subissent pas trop de pression réglementaire.
Le commentaire a déclaré que l'engagement volontaire lui-même a montré que l'administration Biden a des limites dans l'orientation des modèles d'IA pour éviter les abus. Le Congrès américain ne sera pas en mesure d'adopter des projets de loi et des lois à court terme, et la réglementation dans le domaine de l'IA ne peut être retardée.
Wall Street a mentionné qu'en mai, la Maison Blanche avait convoqué une réunion avec les PDG d'Alphabet, Microsoft et OpenAI pour discuter des problèmes de sécurité de l'IA. Biden a réitéré dans la lettre d'invitation à l'époque qu'il espérait que ces entreprises doivent garantir la sécurité des produits avant de les commercialiser. Il a également déclaré que l'on craignait que la technologie de l'IA, qui progresse rapidement, puisse envahir la vie privée et être biaisée, propageant des rumeurs et de la désinformation.
Le mois dernier, Biden a une fois de plus réitéré la nécessité d'assurer la sécurité avant la sortie des produits d'IA, affirmant que la sécurité nationale et les risques économiques induits par l'IA doivent être pris en compte. Le chef de cabinet de la Maison Blanche, Jeff Zients, a déclaré ce mois-là que certaines entreprises leaders dans le domaine de l'IA s'efforçaient de coopérer avec l'administration Biden et annonceraient bientôt une série d'engagements en matière de confidentialité et de sécurité. Il a également dit que le processus réglementaire était peut-être relativement lent, mais nous ne pouvons pas nous permettre d'attendre un an ou deux.