Las empresas esperan que las regulaciones de la UE garanticen el desarrollo continuo de la IA en la región.
Varias empresas de tecnología e inteligencia artificial, incluidas GitHub y HuggingFace, han escrito a los legisladores europeos para pedirles que brinden más apoyo para el desarrollo de código abierto de modelos de inteligencia artificial (IA), informó The Verge el 26 de julio.
En el documento, que contiene una lista de propuestas al Parlamento Europeo, las empresas pidieron definiciones más claras, entre otras cosas.
Las empresas que firman conjuntamente el documento incluyen Creative Commons, EleutherAI, LAION y Open Future.
Estas empresas están actuando para garantizar que el proyecto de ley de IA que están desarrollando actualmente los legisladores de la UE cumpla con los mejores estándares para garantizar el desarrollo de la IA.
La Unión Europea es una de las regiones que se toma en serio la regulación de la IA, con un proyecto de ley de IA ya en vigor, pero el proyecto ha generado críticas de muchos sectores.
La mayor parte de las críticas se ha centrado en el enfoque excesivo en la capa de aplicación y la falta de definiciones concisas de las tecnologías de IA. No es sorprendente que estas empresas propongan definiciones más claras.
Otras recomendaciones incluyen separar a los aficionados e investigadores que trabajan en modelos de IA de código abierto de aquellos con fines comerciales, establecer requisitos para diferentes modelos y regular las pruebas del mundo real para proyectos de IA.
El proyecto de ley prohíbe todas las formas de pruebas de IA en el mundo real. Pero las empresas argumentan que una prohibición tan absoluta solo afectaría la investigación y el desarrollo. También quieren compartir herramientas de IA en bibliotecas de código abierto, libres de regulación.
Si se aprueba, el proyecto de ley podría sentar un precedente para las leyes que regulan la inteligencia artificial en otras jurisdicciones. Es por eso que las empresas de IA han estado presionando agresivamente para garantizar que las reglas no sean tan estrictas que obstaculicen el crecimiento de la industria.
Si bien los legisladores de la UE ya están trabajando en leyes para regular la IA, la regulación de EE. UU. aún se encuentra en sus primeras etapas. Los legisladores quieren evitar la ambigüedad regulatoria actual que continúa afectando a las criptomonedas en su manejo de la inteligencia artificial.
Las principales empresas de IA, incluidas Google, Meta y OpenAI, acordaron recientemente implementar marcas de agua en el contenido creado por IA como parte de un esfuerzo voluntario para mejorar la seguridad.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Las empresas de IA presionan para apoyar el código abierto en las próximas regulaciones de la UE
Las empresas esperan que las regulaciones de la UE garanticen el desarrollo continuo de la IA en la región.
Varias empresas de tecnología e inteligencia artificial, incluidas GitHub y HuggingFace, han escrito a los legisladores europeos para pedirles que brinden más apoyo para el desarrollo de código abierto de modelos de inteligencia artificial (IA), informó The Verge el 26 de julio.
En el documento, que contiene una lista de propuestas al Parlamento Europeo, las empresas pidieron definiciones más claras, entre otras cosas.
Las empresas que firman conjuntamente el documento incluyen Creative Commons, EleutherAI, LAION y Open Future.
Estas empresas están actuando para garantizar que el proyecto de ley de IA que están desarrollando actualmente los legisladores de la UE cumpla con los mejores estándares para garantizar el desarrollo de la IA.
La Unión Europea es una de las regiones que se toma en serio la regulación de la IA, con un proyecto de ley de IA ya en vigor, pero el proyecto ha generado críticas de muchos sectores.
La mayor parte de las críticas se ha centrado en el enfoque excesivo en la capa de aplicación y la falta de definiciones concisas de las tecnologías de IA. No es sorprendente que estas empresas propongan definiciones más claras.
Otras recomendaciones incluyen separar a los aficionados e investigadores que trabajan en modelos de IA de código abierto de aquellos con fines comerciales, establecer requisitos para diferentes modelos y regular las pruebas del mundo real para proyectos de IA.
El proyecto de ley prohíbe todas las formas de pruebas de IA en el mundo real. Pero las empresas argumentan que una prohibición tan absoluta solo afectaría la investigación y el desarrollo. También quieren compartir herramientas de IA en bibliotecas de código abierto, libres de regulación.
Si se aprueba, el proyecto de ley podría sentar un precedente para las leyes que regulan la inteligencia artificial en otras jurisdicciones. Es por eso que las empresas de IA han estado presionando agresivamente para garantizar que las reglas no sean tan estrictas que obstaculicen el crecimiento de la industria.
Si bien los legisladores de la UE ya están trabajando en leyes para regular la IA, la regulación de EE. UU. aún se encuentra en sus primeras etapas. Los legisladores quieren evitar la ambigüedad regulatoria actual que continúa afectando a las criptomonedas en su manejo de la inteligencia artificial.
Las principales empresas de IA, incluidas Google, Meta y OpenAI, acordaron recientemente implementar marcas de agua en el contenido creado por IA como parte de un esfuerzo voluntario para mejorar la seguridad.