Les entreprises espèrent que la réglementation de l'UE assurera le développement continu de l'IA dans la région.
Un certain nombre de sociétés de technologie et d'intelligence artificielle, dont GitHub et HuggingFace, ont écrit aux décideurs politiques européens pour leur demander de fournir davantage de soutien au développement open source de modèles d'intelligence artificielle (IA), a rapporté The Verge le 26 juillet.
Dans le document, qui contient une liste de propositions au Parlement européen, les entreprises demandent, entre autres, des définitions plus claires.
Les entreprises cosignataires du document incluent Creative Commons, EleutherAI, LAION et Open Future.
Ces entreprises agissent pour s'assurer que le projet de loi sur l'IA actuellement élaboré par les décideurs politiques de l'UE réponde aux meilleures normes pour assurer le développement de l'IA.
L'Union européenne est l'une des régions qui prennent au sérieux la réglementation sur l'IA, avec un projet de loi sur l'IA déjà en place, mais le projet a suscité des critiques de nombreux milieux.
La plupart des critiques se sont concentrées sur l'accent excessif mis sur la couche d'application et le manque de définitions concises des technologies d'IA. Sans surprise, ces entreprises ont proposé des définitions plus claires.
D'autres recommandations incluent la séparation des amateurs et des chercheurs travaillant sur des modèles d'IA open source de ceux à but lucratif, la définition d'exigences pour différents modèles et la réglementation des tests dans le monde réel pour les projets d'IA.
Le projet de loi interdit toutes les formes de tests d'IA dans le monde réel. Mais les entreprises soutiennent qu'une telle interdiction pure et simple n'affecterait que la recherche et le développement. Ils souhaitent également partager des outils d'IA sur des bibliothèques open source, libres de toute réglementation.
S'il est adopté, le projet de loi pourrait créer un précédent pour les lois régissant l'intelligence artificielle dans d'autres juridictions. C'est pourquoi les entreprises d'IA ont fait un lobbying agressif pour s'assurer que les règles ne sont pas si strictes qu'elles entravent la croissance de l'industrie.
Alors que les décideurs politiques de l'UE travaillent déjà sur des lois pour réglementer l'IA, la réglementation américaine en est encore à ses débuts. Les législateurs veulent éviter l'ambiguïté réglementaire actuelle qui continue d'affliger les crypto-monnaies dans leur gestion de l'intelligence artificielle.
Les principales sociétés d'IA, dont Google, Meta et OpenAI, ont récemment accepté de mettre en œuvre des filigranes sur le contenu créé par l'IA dans le cadre d'un effort volontaire pour améliorer la sécurité.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Les entreprises d'IA font pression pour soutenir l'open source dans les réglementations européennes à venir
Les entreprises espèrent que la réglementation de l'UE assurera le développement continu de l'IA dans la région.
Un certain nombre de sociétés de technologie et d'intelligence artificielle, dont GitHub et HuggingFace, ont écrit aux décideurs politiques européens pour leur demander de fournir davantage de soutien au développement open source de modèles d'intelligence artificielle (IA), a rapporté The Verge le 26 juillet.
Dans le document, qui contient une liste de propositions au Parlement européen, les entreprises demandent, entre autres, des définitions plus claires.
Les entreprises cosignataires du document incluent Creative Commons, EleutherAI, LAION et Open Future.
Ces entreprises agissent pour s'assurer que le projet de loi sur l'IA actuellement élaboré par les décideurs politiques de l'UE réponde aux meilleures normes pour assurer le développement de l'IA.
L'Union européenne est l'une des régions qui prennent au sérieux la réglementation sur l'IA, avec un projet de loi sur l'IA déjà en place, mais le projet a suscité des critiques de nombreux milieux.
La plupart des critiques se sont concentrées sur l'accent excessif mis sur la couche d'application et le manque de définitions concises des technologies d'IA. Sans surprise, ces entreprises ont proposé des définitions plus claires.
D'autres recommandations incluent la séparation des amateurs et des chercheurs travaillant sur des modèles d'IA open source de ceux à but lucratif, la définition d'exigences pour différents modèles et la réglementation des tests dans le monde réel pour les projets d'IA.
Le projet de loi interdit toutes les formes de tests d'IA dans le monde réel. Mais les entreprises soutiennent qu'une telle interdiction pure et simple n'affecterait que la recherche et le développement. Ils souhaitent également partager des outils d'IA sur des bibliothèques open source, libres de toute réglementation.
S'il est adopté, le projet de loi pourrait créer un précédent pour les lois régissant l'intelligence artificielle dans d'autres juridictions. C'est pourquoi les entreprises d'IA ont fait un lobbying agressif pour s'assurer que les règles ne sont pas si strictes qu'elles entravent la croissance de l'industrie.
Alors que les décideurs politiques de l'UE travaillent déjà sur des lois pour réglementer l'IA, la réglementation américaine en est encore à ses débuts. Les législateurs veulent éviter l'ambiguïté réglementaire actuelle qui continue d'affliger les crypto-monnaies dans leur gestion de l'intelligence artificielle.
Les principales sociétés d'IA, dont Google, Meta et OpenAI, ont récemment accepté de mettre en œuvre des filigranes sur le contenu créé par l'IA dans le cadre d'un effort volontaire pour améliorer la sécurité.