El proceso de legislación global sobre IA se ha acelerado significativamente y las regulaciones en todo el mundo se están poniendo al día con la evolución de la IA.
El 14 de junio, hora local, el Parlamento Europeo votó 499 a favor, 28 en contra y 93 abstenciones, y aprobó el proyecto de mandato de negociación de la Ley de Inteligencia Artificial (AI Act). Según el proceso legislativo de la UE, el Parlamento Europeo, los estados miembros de la UE y la Comisión Europea iniciarán "negociaciones tripartitas" para determinar los términos finales del proyecto de ley.
El Parlamento Europeo dijo que estaba "listo para las negociaciones" para promulgar el primer proyecto de ley de inteligencia artificial. El presidente de los EE. UU., Biden, emitió una señal para controlar la IA, y algunos miembros del Congreso de los EE. UU. presentaron propuestas de legislación reguladora de la IA. El líder demócrata del Senado de EE. UU., Chuck Schumer, dio a conocer su "Marco para la innovación en seguridad de la IA" y planea promulgar un proyecto de ley federal de IA en solo "unos pocos meses".
la legislación pertinente de mi país también se ha incluido en la agenda, y el proyecto de ley de inteligencia artificial se presentará al Comité Permanente de la Asamblea Popular Nacional para su deliberación dentro de este año. El 20 de junio, también se publicó el primer lote de listas de presentación de algoritmos de servicios de síntesis en profundidad nacionales, con 26 empresas, incluidas Baidu, Alibaba y Tencent, y un total de 41 algoritmos en la lista.
Aunque China, Estados Unidos y la Unión Europea abogan por conceptos normativos de IA basados en principios, como la precisión, la seguridad y la transparencia, existen muchas diferencias en ideas y métodos específicos. La promulgación de leyes integrales de IA está detrás del resultado de sus propias reglas y quiere aprovechar las ventajas de las reglas.
Algunos expertos nacionales han pedido el rápido desarrollo de regulaciones legales sobre inteligencia artificial, pero los problemas prácticos actuales no pueden ignorarse. Además, hay otra consideración importante: regular o desarrollar. Esta no es una opción binaria, pero en el ámbito digital, equilibrar los dos no es fácil.
Sprint de la UE, China y Estados Unidos aceleran
Si todo va bien, se espera que el Proyecto de Ley de Inteligencia Artificial aprobado por el Parlamento Europeo sea aprobado a finales de este año. Es probable que la primera ley reguladora integral de inteligencia artificial del mundo llegue a la UE.
“Este borrador afectará a otros países que están al margen para acelerar la legislación. Durante mucho tiempo, siempre ha sido controvertido si la tecnología de inteligencia artificial debe incluirse en el ámbito de la supervisión legal. Mirándolo ahora, después de la “Ley de Inteligencia Artificial "Si se implementa, las plataformas de red relevantes, como el contenido comercial y las plataformas de usuarios que se enfocan en la generación de información, están obligadas a asumir mayores obligaciones de auditoría", dijo Zhao Jingwu, profesor asociado de la Facultad de Derecho de la Universidad de Beihang, a China News Weekly.
Como parte de la estrategia digital, la Unión Europea espera regular de manera integral la inteligencia artificial a través de la “Ley de Inteligencia Artificial”, y también se ha puesto sobre la mesa el esquema estratégico que hay detrás.
Peng Xiaoyan, director ejecutivo del bufete de abogados Beijing Wanshang Tianqin (Hangzhou), dijo a China News Weekly que la "Ley de inteligencia artificial" no solo se aplica a la UE, sino que también regula a los proveedores de sistemas ubicados fuera de la UE pero cuyos datos de salida del sistema se utilizan en la UE. o usuario. El ámbito de jurisdicción y aplicación de la Ley se ha ampliado considerablemente, y también se pueden vislumbrar las pistas para adelantarse a la jurisdicción de los elementos de datos.
Jin Ling, subdirector e investigador del Instituto Europeo del Instituto de Estudios Internacionales de China, también escribió en el artículo "La primera legislación de inteligencia artificial del mundo: un equilibrio difícil entre la innovación y la regulación" que la "Ley de inteligencia artificial" destaca la moral ventajas de la gobernanza de la IA de la UE, es otro intento de la UE de aprovechar al máximo su poder normativo y compensar las deficiencias técnicas mediante las ventajas de las normas. Refleja la intención estratégica de la UE de aprovechar la superioridad moral en el ámbito de la inteligencia artificial.
La Ley de Inteligencia Artificial lleva dos años en proceso. En abril de 2021, la Comisión Europea presentó una propuesta de legislación sobre inteligencia artificial basada en el marco de "clasificación de riesgo", que ha sido discutida y revisada después de varias rondas. Después de la popularidad de la IA generativa como ChatGPT, los legisladores de la UE agregaron "parches" con urgencia.
Un nuevo cambio es que el último borrador de la "Ley de Inteligencia Artificial" ha reforzado los requisitos de transparencia para la IA de propósito general. Por ejemplo, la IA generativa basada en el modelo básico debe etiquetar el contenido generado, ayudar a los usuarios a distinguir las falsificaciones profundas de la información real y garantizar que se evite la generación de contenido ilegal. Los proveedores de modelos básicos como OpenAI y Google también deben divulgar los detalles de los datos de entrenamiento si utilizan datos protegidos por derechos de autor durante el entrenamiento del modelo.
Además, la tecnología biométrica remota en tiempo real en lugares públicos se ha ajustado del nivel de "alto riesgo" al nivel "prohibido", es decir, la tecnología de IA no debe utilizarse para el reconocimiento facial en lugares públicos en los países de la UE.
El último borrador también aumenta aún más la cuantía de las sanciones por infracciones, cambiando el máximo de 30 millones de euros o el 6 % de la facturación global de la empresa infractora en el ejercicio fiscal anterior a un máximo de 40 millones de euros o el 7 % de la facturación global anual. facturación de la empresa infractora en el año anterior. Eso es significativamente más alto que el Reglamento General de Protección de Datos, la ley de seguridad de datos de firma de Europa, que puede conllevar multas de hasta el 4 por ciento de los ingresos globales, o 20 millones de euros.
Peng Xiaoyan dijo a China News Weekly que el aumento en la cantidad de castigo refleja la determinación y la fuerza de las autoridades de la UE para supervisar la inteligencia artificial. Para gigantes tecnológicos como Google, Microsoft y Apple con cientos de miles de millones de dólares en ingresos, si violan las disposiciones de la "Ley de Inteligencia Artificial", las multas pueden llegar a decenas de miles de millones de dólares.
En los Estados Unidos, al otro lado del océano, mientras Washington estaba ocupado respondiendo al llamado de Musk y otros para un control más fuerte de la IA, el 20 de junio, el presidente de los Estados Unidos, Biden, se reunió con un grupo de expertos e investigadores en inteligencia artificial en San Francisco para discutir cómo gestionar los riesgos de esta nueva tecnología riesgo. Biden dijo en ese momento que si bien se aprovecha el enorme potencial de la IA, es necesario gestionar los riesgos que plantea para la sociedad, la economía y la seguridad nacional.
El trasfondo de que la gestión y el control de riesgos se conviertan en un tema candente en la IA es que Estados Unidos no ha adoptado medidas antimonopolio estrictas contra la tecnología de IA y aún no ha introducido leyes reguladoras integrales de IA a nivel federal.
La primera incursión formal del gobierno federal de EE. UU. en el campo de la regulación de la inteligencia artificial fue en enero de 2020, cuando publicó las "Pautas regulatorias para la aplicación de la inteligencia artificial" para brindar orientación sobre medidas regulatorias y no regulatorias para problemas emergentes de inteligencia artificial. La "Ley de Iniciativa Nacional de Inteligencia Artificial 2020" introducida en 2021 es más un diseño de política en el campo de la IA, y todavía hay cierta distancia de la gobernanza de la inteligencia artificial y la supervisión estricta. Un año después, el Blueprint for a AI Bill of Rights ("Blueprint") publicado por la Casa Blanca en octubre de 2022 proporciona un marco de apoyo para la gobernanza de la IA, pero no es una política oficial de EE. UU. y no es vinculante.
Se ha avanzado poco en la legislación de IA en los Estados Unidos, lo que ha causado mucha insatisfacción. Mucha gente ha criticado que Estados Unidos se ha quedado atrás de la Unión Europea y China en la formulación de reglas para la economía digital. Sin embargo, tal vez al ver que la "Ley de Inteligencia Artificial" de la Unión Europea está a punto de superar el "obstáculo" final, el Congreso de los EE. UU. ha mostrado recientemente signos de una legislación acelerada.
El día de la conferencia de IA de Biden, los representantes demócratas Ted W. Lieu y Anna Eshoo, junto con el representante republicano Ken Buck, presentaron la propuesta de la Ley del Consejo Nacional sobre Inteligencia Artificial. Mientras tanto, el senador demócrata Brian Schatz presentará una legislación complementaria en el Senado que se centrará en la regulación de la IA.
De acuerdo con el contenido del proyecto de ley, la Comisión de Inteligencia Artificial estará compuesta por 20 expertos del gobierno, la industria, la sociedad civil y la informática, quienes revisarán los métodos regulatorios actuales de inteligencia artificial en los Estados Unidos y desarrollarán conjuntamente un marco regulatorio integral. .
"La IA está haciendo cosas asombrosas en la sociedad. Si no se controla y regula, puede causar un daño significativo. El Congreso no debe quedarse de brazos cruzados", dijo Ted Liu en un comunicado.
Un día después, el 21 de junio, el líder demócrata del Senado, Chuck Schumer, pronunció un discurso en el Centro de Estudios Estratégicos e Internacionales (CSIS), revelando su "Marco para la innovación en seguridad de inteligencia artificial" ("Marco de IA"): Fomentar la innovación mientras se avanza seguridad, responsabilidad, fundamento e interpretabilidad, haciéndose eco del gran plan, incluido el Blueprint. Propuso el marco en abril, pero dio pocos detalles en ese momento.
Detrás del marco de la IA hay una estrategia legislativa de Chuck Schumer. En ese discurso, dijo que se promulgaría un proyecto de ley federal de inteligencia artificial en apenas "unos meses". Sin embargo, el proceso legislativo de EE. UU. es engorroso, no solo debe ser votado por el Senado y la Cámara de Representantes, sino que también debe pasar por múltiples rondas de audiencias, lo que lleva mucho tiempo.
Para acelerar el progreso, como parte del marco de IA, Chuck Schumer planea realizar una serie de foros de información sobre inteligencia artificial a partir de septiembre de este año, cubriendo 10 temas que incluyen innovación, propiedad intelectual, seguridad nacional y privacidad. Le dijo al mundo exterior que el Insight Forum no reemplazará las audiencias del Congreso sobre inteligencia artificial, sino que se llevará a cabo en paralelo para que la legislatura pueda presentar una política sobre la tecnología en meses en lugar de años. Predijo que puede tomar hasta el otoño "empezar a ver algunas cosas concretas" en la legislación de IA de EE. UU.
Aunque el progreso no ha alcanzado a la Unión Europea, la legislación pertinente en mi país también se ha incluido en la agenda. A principios de junio, la Oficina General del Consejo de Estado emitió el “Plan de Trabajo Legislativo del Consejo de Estado 2023”, en el que se mencionó que se preparó el proyecto de ley de inteligencia artificial para ser presentado al Comité Permanente de la Asamblea Popular Nacional para su deliberación. .
De acuerdo con las disposiciones de la "Ley Legislativa" de mi país, después de que el Consejo de Estado propone un proyecto de ley al Comité Permanente de la Asamblea Popular Nacional, la reunión del presidente decide incluirlo en la agenda de la reunión del Comité Permanente, o primero lo presenta al comité especial correspondiente para su deliberación y presenta un informe, y luego decide incluirlo en el Comité Permanente. La agenda de la reunión generalmente necesita pasar por tres deliberaciones antes de ser votada.
Desde principios de este año, muchos países han acelerado la legislación sobre IA, Peng Xiaoyan cree que esto es el resultado tanto de la competencia como del desarrollo tecnológico.
"Los elementos de datos se están convirtiendo cada vez más en elementos estratégicos nacionales, y los países también esperan establecer jurisdicción a través de la legislación y aprovechar el derecho a hablar en inteligencia artificial. Al mismo tiempo, la actualización iterativa de tecnologías de inteligencia artificial como ChatGPT ha permitido a la sociedad ver nuevas esperanzas para el desarrollo de una inteligencia artificial fuerte. Nuevo El desarrollo de la tecnología inevitablemente traerá nuevos problemas sociales y contradicciones sociales, que requieren intervención y ajuste regulatorio, y el desarrollo de la tecnología ha promovido la actualización de la legislación hasta cierto punto". Peng Dijo Xiaoyan.
La divergencia supera con creces a la convergencia
China, Estados Unidos y la Unión Europea son las principales fuerzas impulsoras del desarrollo global de IA, pero también existen algunas diferencias en la legislación de IA entre los tres.
La "Ley de inteligencia artificial" de la Unión Europea divide los riesgos de las aplicaciones de inteligencia artificial en cuatro niveles desde la perspectiva del uso y la función. No importa cuántas rondas de revisiones haya sufrido el borrador, la "clasificación de riesgo" sigue siendo el concepto central de la UE. Gobernanza de la IA.
La cúspide de la pirámide debería representar un riesgo "inaceptable" para la seguridad humana. Por ejemplo, los sistemas de puntuación que clasifican a las personas en función de su comportamiento social o características personales, etc., estarían completamente prohibidos.
En el último borrador, el Parlamento Europeo amplió la lista de "riesgos inaceptables" para prevenir sistemas de IA intrusivos y discriminatorios. Seis tipos de sistemas de inteligencia artificial, como la identificación biométrica en espacios públicos, el reconocimiento emocional, la vigilancia predictiva (basada en perfiles, ubicación o comportamiento delictivo pasado) y la toma aleatoria de imágenes faciales de Internet, están completamente prohibidos.
La segunda categoría son los sistemas de IA que tienen un impacto negativo en la seguridad humana o los derechos fundamentales y se consideran de "alto riesgo". Por ejemplo, los sistemas de IA que se utilizan en productos como la aviación, los automóviles y los equipos médicos, así como ocho campos específicos que deben registrarse en la base de datos de la UE, que cubren infraestructura crítica, educación, capacitación, aplicación de la ley y más. Sujeto a las regulaciones de IA y una evaluación de conformidad previa, varios sistemas de IA de "alto riesgo" estarán autorizados para ingresar al mercado de la UE sujeto a un conjunto de requisitos y obligaciones.
Además, los sistemas de inteligencia artificial que influyen en los votantes y los resultados electorales, así como los sistemas de recomendación utilizados por las plataformas de redes sociales con más de 45 millones de usuarios, como Facebook, Twitter e Instagram, también se incluirán en la lista de alto riesgo bajo el Ley de Servicios Digitales de la UE.
En la base de la pirámide se encuentran los sistemas de IA con riesgo limitado, escaso o nulo. El primero tiene obligaciones específicas de transparencia y necesita informar a los usuarios que están interactuando con sistemas de IA, mientras que el segundo no tiene regulaciones obligatorias y básicamente no está regulado, como aplicaciones como filtros de spam.
Debido a sus estrictas disposiciones reglamentarias, muchos expertos de la industria consideran que la "Ley de inteligencia artificial" tiene muchos "dientes" afilados. Sin embargo, el proyecto de ley también intenta lograr un equilibrio entre una regulación estricta y la innovación.
Por ejemplo, el último borrador requiere que los estados miembros establezcan al menos un "sandbox regulatorio" que pueda ser utilizado de forma gratuita por pequeñas y medianas empresas y nuevas empresas, en un escenario supervisado, seguro y controlable, para probar dispositivos artificiales innovadores. sistemas de inteligencia antes de que se pongan en uso, hasta que se cumplan los requisitos de cumplimiento. En general, la UE cree que la propuesta no solo permitirá a las autoridades prestar atención a los cambios tecnológicos en tiempo real, sino que también ayudará a las empresas de IA a continuar innovando mientras reduce la presión regulatoria.
Jin Ling dijo en el artículo antes mencionado que, por un lado, el método de gobernanza ascendente de la UE requiere que las empresas asuman más costos iniciales y, por otro lado, la incertidumbre de la evaluación del riesgo también afecta el entusiasmo inversor de las empresas. Por lo tanto, si bien la Comisión ha enfatizado repetidamente que la legislación de IA apoyará la innovación y el crecimiento en la economía digital europea, un análisis económico realista no parece respaldar esta conclusión. El proyecto de ley refleja el conflicto inherente de la UE entre promover la innovación y proteger los derechos, que es difícil de equilibrar de manera efectiva.
Al igual que la Unión Europea y China, Estados Unidos apoya un enfoque regulatorio de IA basado en el riesgo, que aboga por la precisión, la seguridad y la transparencia. Sin embargo, en opinión de Zhao Jingwu, el pensamiento regulatorio de EE. UU. se centra más en el uso de la IA para promover la innovación y el desarrollo de la industria de la IA y, en última instancia, para mantener el liderazgo y la competitividad de los Estados Unidos.
"A diferencia del concepto regulatorio de 'prevención de riesgos y seguridad tecnológica' que tienen China y la UE, Estados Unidos se enfoca en el desarrollo comercial. Tanto China como la UE se enfocan en la seguridad de las aplicaciones de tecnología de inteligencia artificial para prevenir el abuso de la tecnología de inteligencia artificial. de infringir los derechos individuales, mientras que Estados Unidos se centra en el desarrollo industrial es el foco de la supervisión", dijo Zhao Jingwu.
Los estudios han encontrado que la legislación del Congreso de los EE. UU. se enfoca principalmente en alentar y guiar al gobierno para que use inteligencia artificial. Por ejemplo, el Senado de los EE. UU. presentó una Ley de innovación de IA en 2021, que requiere que el Departamento de Defensa de los EE. UU. implemente un programa piloto para garantizar que tenga acceso a las mejores capacidades de software de inteligencia artificial y aprendizaje automático.
En el discurso antes mencionado, Chuck Schumer consideró la innovación como la estrella del norte, y su marco de IA es liberar el gran potencial de la inteligencia artificial y apoyar la innovación liderada por los EE. UU. en tecnología de inteligencia artificial. Al inicio de los “Lineamientos para la Supervisión de Aplicaciones de Inteligencia Artificial”, queda claro que se debe seguir impulsando el avance de la tecnología y la innovación. El objetivo final de la Ley de la Iniciativa Nacional de Inteligencia Artificial de 2020 también es garantizar que Estados Unidos mantenga una posición de liderazgo en el campo de la tecnología de IA global aumentando la inversión en investigación y estableciendo un sistema de fuerza laboral.
Peng Xiaoyan dijo que desde la perspectiva de guiar el diseño de especificaciones, el desarrollo de la inteligencia artificial en los Estados Unidos aún se encuentra en un estado de supervisión débil a nivel legislativo e institucional, y la sociedad fomenta activamente la innovación y expansión de la tecnología de inteligencia artificial con una actitud abierta.
En comparación con la Unión Europea, que tiene poderes de investigación más claros y una cobertura regulatoria integral, Estados Unidos ha adoptado un enfoque descentralizado para la regulación de la IA, y algunos estados e instituciones avanzan en menor medida en la gobernanza de la IA. Como resultado, las iniciativas regulatorias nacionales de IA son muy amplias y basadas en principios.
Por ejemplo, el "Blueprint" es un hito en la política de gobierno de inteligencia artificial de EE. UU. Ha formulado cinco principios básicos que incluyen sistemas seguros y efectivos, prevención de discriminación algorítmica, protección de la privacidad de datos, notificación y explicación, y participación humana en la toma de decisiones. -realización No hay disposiciones más detalladas.
Peng Xiaoyan cree que el "Blueprint" no formula medidas de implementación específicas, sino que construye un marco básico para el desarrollo de la inteligencia artificial de manera basada en principios, con el objetivo de guiar el diseño, uso e implementación de sistemas de inteligencia artificial.
"Estándares como este no son obligatorios. Esto se debe a que Estados Unidos considera apoyar el desarrollo de la industria de la inteligencia artificial. En la actualidad, la inteligencia artificial todavía se encuentra en una etapa emergente de desarrollo, y la supervisión de alta intensidad está destinada a limitar el desarrollo industrial y innovación hasta cierto punto. Por lo tanto, Estados Unidos mantiene una actitud relativamente modesta en la legislación", dijo Peng Xiaoyan.
"Sin leyes que otorguen a las agencias nuevos poderes, solo pueden regular el uso de la inteligencia artificial de acuerdo con los poderes que ya tienen. Por otro lado, los principios éticos relacionados con la inteligencia artificial siguen estando menos regulados, y las agencias pueden decidir cómo regular por sí mismas". Qué derechos usar.” Según el analista de Carnegie Hadrien Pouget, esto hace que las agencias federales dirigidas por la Casa Blanca estén tanto restringidas como libres.
El concepto de gobernanza de IA dominado por la utilización y la innovación está destinado a no ser demasiado duro con el "puño" de los Estados Unidos. Alex Engler, investigador de Brookings Institution, un reconocido think tank estadounidense, señaló que la Unión Europea y Estados Unidos están adoptando diferentes enfoques regulatorios para la inteligencia artificial que tiene impactos sociales como la educación, las finanzas y el empleo.
En términos de aplicaciones específicas de IA, la "Ley de Inteligencia Artificial" de la Unión Europea tiene requisitos de transparencia para los robots de chat, mientras que no existen regulaciones federales en los Estados Unidos. El reconocimiento facial es considerado un "riesgo inaceptable" por la Unión Europea, y Estados Unidos proporciona información pública a través del programa de prueba de proveedores de reconocimiento facial del Instituto Nacional de Estándares y Tecnología (NIST), pero no exige reglas.
"El alcance regulatorio de la UE no solo cubre una gama más amplia de aplicaciones, sino que establece más reglas para estas aplicaciones de IA. Mientras que el enfoque de los EE. más limitado.” Alex Engler dice que hay muchas más divergencias que convergencias en la gestión de riesgos de la IA, a pesar de principios básicamente idénticos.
Zhao Jingwu resumió los modelos regulatorios de IA de China, la Unión Europea y los Estados Unidos, y descubrió que China se limita a los escenarios de aplicación de la tecnología de inteligencia artificial y ha formulado reglas regulatorias especiales para escenarios de aplicación como la tecnología de reconocimiento facial. , síntesis profunda y recomendación automatizada. La UE se guía por el nivel de riesgo, dependiendo de si el nivel de riesgo de las aplicaciones de inteligencia artificial es un nivel aceptable. Estados Unidos juzga la legalidad de la aplicación de tecnología de inteligencia artificial en el marco del sistema legal tradicional existente.
Además, Estados Unidos también ha centrado más su atención en la investigación de inteligencia artificial e invirtió más fondos en ella. Apenas a principios de mayo, la Casa Blanca anunció una inversión de alrededor de 140 millones de dólares estadounidenses para establecer siete nuevos institutos nacionales de investigación de inteligencia artificial. Algunos investigadores creen que este movimiento de los Estados Unidos espera comprender mejor la IA, aliviando así las preocupaciones que surgen del proceso regulatorio.
Peng Xiaoyan dijo que mi país ha adoptado medidas para fomentar el desarrollo de tecnología de inteligencia artificial al mismo tiempo que regula la gestión de campos relacionados de manera limitada y guía el desarrollo de tecnología de inteligencia artificial con políticas coordinadas y requisitos de gestión.
La legislación de mi país enfrenta muchos problemas prácticos
La Unión Europea está acelerando la implementación del primer proyecto de ley regulatorio de IA del mundo. Zhao Jingwu dijo a China News Weekly que las medidas regulatorias de inteligencia artificial del "sistema de nivel de riesgo" de la Unión Europea, el concepto regulatorio de "modelo general" propuesto en la "Ley de Inteligencia Artificial" , y las regulaciones específicas para ChatGPT Las obligaciones de divulgación y las obligaciones de cumplimiento de derechos de autor de datos de las aplicaciones de inteligencia artificial generativa son de valor de referencia para la legislación de inteligencia artificial de mi país.
De hecho, la legislación de mi país sobre inteligencia artificial ya comenzó. En 2017, el Consejo de Estado emitió el "Plan de Desarrollo de Inteligencia Artificial de Nueva Generación", que proponía que para 2025, las leyes y reglamentos de inteligencia artificial, las normas éticas y los sistemas de políticas deberían ser establecido inicialmente, y se deben formar evaluaciones y políticas de seguridad de inteligencia artificial Capacidad de control.
A nivel local, en 2022, la ciudad de Shenzhen promulgó el "Reglamento de promoción de la industria de inteligencia artificial de la zona económica especial de Shenzhen", que se considera la primera legislación especial de mi país para la industria de inteligencia artificial. El “Reglamento” mencionaba que se debe mejorar el mecanismo de supervisión en materia de inteligencia artificial para prevenir posibles riesgos de seguridad ética y riesgos de cumplimiento que puedan surgir en los productos y servicios de inteligencia artificial.
En la actualidad, la regulación de la inteligencia artificial de mi país es promovida principalmente de manera conjunta por varios ministerios y comisiones importantes, que promueven la regulación y el desarrollo de la inteligencia artificial en diferentes campos. Documentos normativos como el "Reglamento sobre la administración de recomendaciones de algoritmos para servicios de información de Internet", "Reglamento sobre la administración de síntesis profunda de servicios de información de Internet" y "Medidas administrativas para servicios de inteligencia artificial generativa (borrador para comentarios)" también han ha emitido.
“Desde la perspectiva de las normas históricas de gestión, las regulaciones de mi país en el campo de la inteligencia artificial adoptan medidas para distinguir campos comerciales y direcciones técnicas, y las normas de gestión tienden a ser descentralizadas. Cuando las normas se introducen, muchas veces tienen la característica de ser oportunas. "Después de la aparición de tecnologías específicas, haga reglamentos de gestión especiales. Los reglamentos son promulgados por el departamento administrativo, centrándose en la supervisión, y no se han actualizado a leyes a nivel de regulación", dijo Peng Xiaoyan.
Vale la pena señalar que el 20 de junio, se publicó el primer lote de listas de presentación de algoritmos de servicios de síntesis en profundidad nacionales.26 empresas, incluidas Baidu, Alibaba, Tencent, ByteDance y Meituan, y un total de 41 algoritmos estaban en la lista.
A medida que aumenta el calor de la legislación de IA, los expertos nacionales han comenzado a pedir el rápido desarrollo de regulaciones legales de inteligencia artificial. Sin embargo, en opinión de Zhao Jingwu, la legislación especial de mi país sobre inteligencia artificial es factible, pero también enfrenta muchos problemas prácticos.
“El primero es el problema de la conexión del sistema entre los documentos legislativos. La relación aplicable entre la legislación específica de inteligencia artificial y otros documentos normativos aún no se ha resuelto, especialmente la superposición de contenido de la legislación especial y la legislación vigente que debe resolverse con urgencia. El segundo es la tecnología de inteligencia artificial. La velocidad de actualización e iteración se está acelerando, y es difícil asegurar el desarrollo simultáneo de la ley y la tecnología; tercero, las reglas regulatorias para la inteligencia artificial carecen de integridad, y las reglas regulatorias para los tres elementos centrales de datos, algoritmos y poder de cómputo todavía están en la etapa exploratoria; cuarto, la legislación de inteligencia artificial Si el enfoque debe estar en la gestión de riesgos de seguridad o en el desarrollo industrial es más controvertido", dijo Zhao Jingwu.
Ya sea la "Ley de Inteligencia Artificial" de la Unión Europea, o las regulaciones, iniciativas y planes de China, Estados Unidos y otros países para la IA, están tratando de construir un marco regulatorio integral que no solo pueda garantizar la seguridad, sino también crear mejores condiciones para la IA.
Sobre la base de este principio de universalidad, Peng Xiaoyan dijo a China News Weekly que el establecimiento de leyes de inteligencia artificial en mi país debe basarse primero en fomentar activamente el desarrollo y la innovación, de modo que la inteligencia artificial pueda regularse y desarrollarse en un espacio relativamente abierto. línea roja.
“Además, deben resolverse los problemas legales en el campo de la inteligencia artificial que preocupan a todos ahora, incluidos, entre otros, la prohibición de contenido ilegal en inteligencia artificial, la protección de la seguridad de los datos de inteligencia artificial, la protección de la inteligencia artificial ética y seguridad, prevención de infracciones de propiedad intelectual, etc. ", dijo Peng Xiaoyan.
Zhao Jingwu cree que mi país debería establecer una ley de inteligencia artificial orientada a la protección del desarrollo industrial.
"Hasta cierto punto, la legislación actual básicamente puede satisfacer las necesidades de supervisión de aplicaciones de tecnología de inteligencia artificial. Prevenir riesgos tecnológicos y garantizar la seguridad tecnológica son solo el proceso de gobernanza, y su objetivo final aún debe volver al nivel de desarrollo de la inteligencia artificial. Después de todo, las leyes de inteligencia artificial no restringen el desarrollo de las industrias, sino que guían y garantizan el desarrollo sólido de las industrias relacionadas ", dijo Zhao Jingwu.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
El enigma regulatorio de la IA: Cómo 'vencer a la magia con magia'
Fuente original: China News Weekly
Autor: Halik
El proceso de legislación global sobre IA se ha acelerado significativamente y las regulaciones en todo el mundo se están poniendo al día con la evolución de la IA.
El 14 de junio, hora local, el Parlamento Europeo votó 499 a favor, 28 en contra y 93 abstenciones, y aprobó el proyecto de mandato de negociación de la Ley de Inteligencia Artificial (AI Act). Según el proceso legislativo de la UE, el Parlamento Europeo, los estados miembros de la UE y la Comisión Europea iniciarán "negociaciones tripartitas" para determinar los términos finales del proyecto de ley.
El Parlamento Europeo dijo que estaba "listo para las negociaciones" para promulgar el primer proyecto de ley de inteligencia artificial. El presidente de los EE. UU., Biden, emitió una señal para controlar la IA, y algunos miembros del Congreso de los EE. UU. presentaron propuestas de legislación reguladora de la IA. El líder demócrata del Senado de EE. UU., Chuck Schumer, dio a conocer su "Marco para la innovación en seguridad de la IA" y planea promulgar un proyecto de ley federal de IA en solo "unos pocos meses".
la legislación pertinente de mi país también se ha incluido en la agenda, y el proyecto de ley de inteligencia artificial se presentará al Comité Permanente de la Asamblea Popular Nacional para su deliberación dentro de este año. El 20 de junio, también se publicó el primer lote de listas de presentación de algoritmos de servicios de síntesis en profundidad nacionales, con 26 empresas, incluidas Baidu, Alibaba y Tencent, y un total de 41 algoritmos en la lista.
Aunque China, Estados Unidos y la Unión Europea abogan por conceptos normativos de IA basados en principios, como la precisión, la seguridad y la transparencia, existen muchas diferencias en ideas y métodos específicos. La promulgación de leyes integrales de IA está detrás del resultado de sus propias reglas y quiere aprovechar las ventajas de las reglas.
Algunos expertos nacionales han pedido el rápido desarrollo de regulaciones legales sobre inteligencia artificial, pero los problemas prácticos actuales no pueden ignorarse. Además, hay otra consideración importante: regular o desarrollar. Esta no es una opción binaria, pero en el ámbito digital, equilibrar los dos no es fácil.
Sprint de la UE, China y Estados Unidos aceleran
Si todo va bien, se espera que el Proyecto de Ley de Inteligencia Artificial aprobado por el Parlamento Europeo sea aprobado a finales de este año. Es probable que la primera ley reguladora integral de inteligencia artificial del mundo llegue a la UE.
“Este borrador afectará a otros países que están al margen para acelerar la legislación. Durante mucho tiempo, siempre ha sido controvertido si la tecnología de inteligencia artificial debe incluirse en el ámbito de la supervisión legal. Mirándolo ahora, después de la “Ley de Inteligencia Artificial "Si se implementa, las plataformas de red relevantes, como el contenido comercial y las plataformas de usuarios que se enfocan en la generación de información, están obligadas a asumir mayores obligaciones de auditoría", dijo Zhao Jingwu, profesor asociado de la Facultad de Derecho de la Universidad de Beihang, a China News Weekly.
Como parte de la estrategia digital, la Unión Europea espera regular de manera integral la inteligencia artificial a través de la “Ley de Inteligencia Artificial”, y también se ha puesto sobre la mesa el esquema estratégico que hay detrás.
Peng Xiaoyan, director ejecutivo del bufete de abogados Beijing Wanshang Tianqin (Hangzhou), dijo a China News Weekly que la "Ley de inteligencia artificial" no solo se aplica a la UE, sino que también regula a los proveedores de sistemas ubicados fuera de la UE pero cuyos datos de salida del sistema se utilizan en la UE. o usuario. El ámbito de jurisdicción y aplicación de la Ley se ha ampliado considerablemente, y también se pueden vislumbrar las pistas para adelantarse a la jurisdicción de los elementos de datos.
Jin Ling, subdirector e investigador del Instituto Europeo del Instituto de Estudios Internacionales de China, también escribió en el artículo "La primera legislación de inteligencia artificial del mundo: un equilibrio difícil entre la innovación y la regulación" que la "Ley de inteligencia artificial" destaca la moral ventajas de la gobernanza de la IA de la UE, es otro intento de la UE de aprovechar al máximo su poder normativo y compensar las deficiencias técnicas mediante las ventajas de las normas. Refleja la intención estratégica de la UE de aprovechar la superioridad moral en el ámbito de la inteligencia artificial.
La Ley de Inteligencia Artificial lleva dos años en proceso. En abril de 2021, la Comisión Europea presentó una propuesta de legislación sobre inteligencia artificial basada en el marco de "clasificación de riesgo", que ha sido discutida y revisada después de varias rondas. Después de la popularidad de la IA generativa como ChatGPT, los legisladores de la UE agregaron "parches" con urgencia.
Un nuevo cambio es que el último borrador de la "Ley de Inteligencia Artificial" ha reforzado los requisitos de transparencia para la IA de propósito general. Por ejemplo, la IA generativa basada en el modelo básico debe etiquetar el contenido generado, ayudar a los usuarios a distinguir las falsificaciones profundas de la información real y garantizar que se evite la generación de contenido ilegal. Los proveedores de modelos básicos como OpenAI y Google también deben divulgar los detalles de los datos de entrenamiento si utilizan datos protegidos por derechos de autor durante el entrenamiento del modelo.
Además, la tecnología biométrica remota en tiempo real en lugares públicos se ha ajustado del nivel de "alto riesgo" al nivel "prohibido", es decir, la tecnología de IA no debe utilizarse para el reconocimiento facial en lugares públicos en los países de la UE.
El último borrador también aumenta aún más la cuantía de las sanciones por infracciones, cambiando el máximo de 30 millones de euros o el 6 % de la facturación global de la empresa infractora en el ejercicio fiscal anterior a un máximo de 40 millones de euros o el 7 % de la facturación global anual. facturación de la empresa infractora en el año anterior. Eso es significativamente más alto que el Reglamento General de Protección de Datos, la ley de seguridad de datos de firma de Europa, que puede conllevar multas de hasta el 4 por ciento de los ingresos globales, o 20 millones de euros.
Peng Xiaoyan dijo a China News Weekly que el aumento en la cantidad de castigo refleja la determinación y la fuerza de las autoridades de la UE para supervisar la inteligencia artificial. Para gigantes tecnológicos como Google, Microsoft y Apple con cientos de miles de millones de dólares en ingresos, si violan las disposiciones de la "Ley de Inteligencia Artificial", las multas pueden llegar a decenas de miles de millones de dólares.
En los Estados Unidos, al otro lado del océano, mientras Washington estaba ocupado respondiendo al llamado de Musk y otros para un control más fuerte de la IA, el 20 de junio, el presidente de los Estados Unidos, Biden, se reunió con un grupo de expertos e investigadores en inteligencia artificial en San Francisco para discutir cómo gestionar los riesgos de esta nueva tecnología riesgo. Biden dijo en ese momento que si bien se aprovecha el enorme potencial de la IA, es necesario gestionar los riesgos que plantea para la sociedad, la economía y la seguridad nacional.
El trasfondo de que la gestión y el control de riesgos se conviertan en un tema candente en la IA es que Estados Unidos no ha adoptado medidas antimonopolio estrictas contra la tecnología de IA y aún no ha introducido leyes reguladoras integrales de IA a nivel federal.
La primera incursión formal del gobierno federal de EE. UU. en el campo de la regulación de la inteligencia artificial fue en enero de 2020, cuando publicó las "Pautas regulatorias para la aplicación de la inteligencia artificial" para brindar orientación sobre medidas regulatorias y no regulatorias para problemas emergentes de inteligencia artificial. La "Ley de Iniciativa Nacional de Inteligencia Artificial 2020" introducida en 2021 es más un diseño de política en el campo de la IA, y todavía hay cierta distancia de la gobernanza de la inteligencia artificial y la supervisión estricta. Un año después, el Blueprint for a AI Bill of Rights ("Blueprint") publicado por la Casa Blanca en octubre de 2022 proporciona un marco de apoyo para la gobernanza de la IA, pero no es una política oficial de EE. UU. y no es vinculante.
Se ha avanzado poco en la legislación de IA en los Estados Unidos, lo que ha causado mucha insatisfacción. Mucha gente ha criticado que Estados Unidos se ha quedado atrás de la Unión Europea y China en la formulación de reglas para la economía digital. Sin embargo, tal vez al ver que la "Ley de Inteligencia Artificial" de la Unión Europea está a punto de superar el "obstáculo" final, el Congreso de los EE. UU. ha mostrado recientemente signos de una legislación acelerada.
El día de la conferencia de IA de Biden, los representantes demócratas Ted W. Lieu y Anna Eshoo, junto con el representante republicano Ken Buck, presentaron la propuesta de la Ley del Consejo Nacional sobre Inteligencia Artificial. Mientras tanto, el senador demócrata Brian Schatz presentará una legislación complementaria en el Senado que se centrará en la regulación de la IA.
De acuerdo con el contenido del proyecto de ley, la Comisión de Inteligencia Artificial estará compuesta por 20 expertos del gobierno, la industria, la sociedad civil y la informática, quienes revisarán los métodos regulatorios actuales de inteligencia artificial en los Estados Unidos y desarrollarán conjuntamente un marco regulatorio integral. .
"La IA está haciendo cosas asombrosas en la sociedad. Si no se controla y regula, puede causar un daño significativo. El Congreso no debe quedarse de brazos cruzados", dijo Ted Liu en un comunicado.
Un día después, el 21 de junio, el líder demócrata del Senado, Chuck Schumer, pronunció un discurso en el Centro de Estudios Estratégicos e Internacionales (CSIS), revelando su "Marco para la innovación en seguridad de inteligencia artificial" ("Marco de IA"): Fomentar la innovación mientras se avanza seguridad, responsabilidad, fundamento e interpretabilidad, haciéndose eco del gran plan, incluido el Blueprint. Propuso el marco en abril, pero dio pocos detalles en ese momento.
Detrás del marco de la IA hay una estrategia legislativa de Chuck Schumer. En ese discurso, dijo que se promulgaría un proyecto de ley federal de inteligencia artificial en apenas "unos meses". Sin embargo, el proceso legislativo de EE. UU. es engorroso, no solo debe ser votado por el Senado y la Cámara de Representantes, sino que también debe pasar por múltiples rondas de audiencias, lo que lleva mucho tiempo.
Para acelerar el progreso, como parte del marco de IA, Chuck Schumer planea realizar una serie de foros de información sobre inteligencia artificial a partir de septiembre de este año, cubriendo 10 temas que incluyen innovación, propiedad intelectual, seguridad nacional y privacidad. Le dijo al mundo exterior que el Insight Forum no reemplazará las audiencias del Congreso sobre inteligencia artificial, sino que se llevará a cabo en paralelo para que la legislatura pueda presentar una política sobre la tecnología en meses en lugar de años. Predijo que puede tomar hasta el otoño "empezar a ver algunas cosas concretas" en la legislación de IA de EE. UU.
Aunque el progreso no ha alcanzado a la Unión Europea, la legislación pertinente en mi país también se ha incluido en la agenda. A principios de junio, la Oficina General del Consejo de Estado emitió el “Plan de Trabajo Legislativo del Consejo de Estado 2023”, en el que se mencionó que se preparó el proyecto de ley de inteligencia artificial para ser presentado al Comité Permanente de la Asamblea Popular Nacional para su deliberación. .
De acuerdo con las disposiciones de la "Ley Legislativa" de mi país, después de que el Consejo de Estado propone un proyecto de ley al Comité Permanente de la Asamblea Popular Nacional, la reunión del presidente decide incluirlo en la agenda de la reunión del Comité Permanente, o primero lo presenta al comité especial correspondiente para su deliberación y presenta un informe, y luego decide incluirlo en el Comité Permanente. La agenda de la reunión generalmente necesita pasar por tres deliberaciones antes de ser votada.
Desde principios de este año, muchos países han acelerado la legislación sobre IA, Peng Xiaoyan cree que esto es el resultado tanto de la competencia como del desarrollo tecnológico.
"Los elementos de datos se están convirtiendo cada vez más en elementos estratégicos nacionales, y los países también esperan establecer jurisdicción a través de la legislación y aprovechar el derecho a hablar en inteligencia artificial. Al mismo tiempo, la actualización iterativa de tecnologías de inteligencia artificial como ChatGPT ha permitido a la sociedad ver nuevas esperanzas para el desarrollo de una inteligencia artificial fuerte. Nuevo El desarrollo de la tecnología inevitablemente traerá nuevos problemas sociales y contradicciones sociales, que requieren intervención y ajuste regulatorio, y el desarrollo de la tecnología ha promovido la actualización de la legislación hasta cierto punto". Peng Dijo Xiaoyan.
La divergencia supera con creces a la convergencia
China, Estados Unidos y la Unión Europea son las principales fuerzas impulsoras del desarrollo global de IA, pero también existen algunas diferencias en la legislación de IA entre los tres.
La "Ley de inteligencia artificial" de la Unión Europea divide los riesgos de las aplicaciones de inteligencia artificial en cuatro niveles desde la perspectiva del uso y la función. No importa cuántas rondas de revisiones haya sufrido el borrador, la "clasificación de riesgo" sigue siendo el concepto central de la UE. Gobernanza de la IA.
En el último borrador, el Parlamento Europeo amplió la lista de "riesgos inaceptables" para prevenir sistemas de IA intrusivos y discriminatorios. Seis tipos de sistemas de inteligencia artificial, como la identificación biométrica en espacios públicos, el reconocimiento emocional, la vigilancia predictiva (basada en perfiles, ubicación o comportamiento delictivo pasado) y la toma aleatoria de imágenes faciales de Internet, están completamente prohibidos.
La segunda categoría son los sistemas de IA que tienen un impacto negativo en la seguridad humana o los derechos fundamentales y se consideran de "alto riesgo". Por ejemplo, los sistemas de IA que se utilizan en productos como la aviación, los automóviles y los equipos médicos, así como ocho campos específicos que deben registrarse en la base de datos de la UE, que cubren infraestructura crítica, educación, capacitación, aplicación de la ley y más. Sujeto a las regulaciones de IA y una evaluación de conformidad previa, varios sistemas de IA de "alto riesgo" estarán autorizados para ingresar al mercado de la UE sujeto a un conjunto de requisitos y obligaciones.
Además, los sistemas de inteligencia artificial que influyen en los votantes y los resultados electorales, así como los sistemas de recomendación utilizados por las plataformas de redes sociales con más de 45 millones de usuarios, como Facebook, Twitter e Instagram, también se incluirán en la lista de alto riesgo bajo el Ley de Servicios Digitales de la UE.
En la base de la pirámide se encuentran los sistemas de IA con riesgo limitado, escaso o nulo. El primero tiene obligaciones específicas de transparencia y necesita informar a los usuarios que están interactuando con sistemas de IA, mientras que el segundo no tiene regulaciones obligatorias y básicamente no está regulado, como aplicaciones como filtros de spam.
Debido a sus estrictas disposiciones reglamentarias, muchos expertos de la industria consideran que la "Ley de inteligencia artificial" tiene muchos "dientes" afilados. Sin embargo, el proyecto de ley también intenta lograr un equilibrio entre una regulación estricta y la innovación.
Por ejemplo, el último borrador requiere que los estados miembros establezcan al menos un "sandbox regulatorio" que pueda ser utilizado de forma gratuita por pequeñas y medianas empresas y nuevas empresas, en un escenario supervisado, seguro y controlable, para probar dispositivos artificiales innovadores. sistemas de inteligencia antes de que se pongan en uso, hasta que se cumplan los requisitos de cumplimiento. En general, la UE cree que la propuesta no solo permitirá a las autoridades prestar atención a los cambios tecnológicos en tiempo real, sino que también ayudará a las empresas de IA a continuar innovando mientras reduce la presión regulatoria.
Jin Ling dijo en el artículo antes mencionado que, por un lado, el método de gobernanza ascendente de la UE requiere que las empresas asuman más costos iniciales y, por otro lado, la incertidumbre de la evaluación del riesgo también afecta el entusiasmo inversor de las empresas. Por lo tanto, si bien la Comisión ha enfatizado repetidamente que la legislación de IA apoyará la innovación y el crecimiento en la economía digital europea, un análisis económico realista no parece respaldar esta conclusión. El proyecto de ley refleja el conflicto inherente de la UE entre promover la innovación y proteger los derechos, que es difícil de equilibrar de manera efectiva.
Al igual que la Unión Europea y China, Estados Unidos apoya un enfoque regulatorio de IA basado en el riesgo, que aboga por la precisión, la seguridad y la transparencia. Sin embargo, en opinión de Zhao Jingwu, el pensamiento regulatorio de EE. UU. se centra más en el uso de la IA para promover la innovación y el desarrollo de la industria de la IA y, en última instancia, para mantener el liderazgo y la competitividad de los Estados Unidos.
"A diferencia del concepto regulatorio de 'prevención de riesgos y seguridad tecnológica' que tienen China y la UE, Estados Unidos se enfoca en el desarrollo comercial. Tanto China como la UE se enfocan en la seguridad de las aplicaciones de tecnología de inteligencia artificial para prevenir el abuso de la tecnología de inteligencia artificial. de infringir los derechos individuales, mientras que Estados Unidos se centra en el desarrollo industrial es el foco de la supervisión", dijo Zhao Jingwu.
Los estudios han encontrado que la legislación del Congreso de los EE. UU. se enfoca principalmente en alentar y guiar al gobierno para que use inteligencia artificial. Por ejemplo, el Senado de los EE. UU. presentó una Ley de innovación de IA en 2021, que requiere que el Departamento de Defensa de los EE. UU. implemente un programa piloto para garantizar que tenga acceso a las mejores capacidades de software de inteligencia artificial y aprendizaje automático.
En el discurso antes mencionado, Chuck Schumer consideró la innovación como la estrella del norte, y su marco de IA es liberar el gran potencial de la inteligencia artificial y apoyar la innovación liderada por los EE. UU. en tecnología de inteligencia artificial. Al inicio de los “Lineamientos para la Supervisión de Aplicaciones de Inteligencia Artificial”, queda claro que se debe seguir impulsando el avance de la tecnología y la innovación. El objetivo final de la Ley de la Iniciativa Nacional de Inteligencia Artificial de 2020 también es garantizar que Estados Unidos mantenga una posición de liderazgo en el campo de la tecnología de IA global aumentando la inversión en investigación y estableciendo un sistema de fuerza laboral.
Peng Xiaoyan dijo que desde la perspectiva de guiar el diseño de especificaciones, el desarrollo de la inteligencia artificial en los Estados Unidos aún se encuentra en un estado de supervisión débil a nivel legislativo e institucional, y la sociedad fomenta activamente la innovación y expansión de la tecnología de inteligencia artificial con una actitud abierta.
En comparación con la Unión Europea, que tiene poderes de investigación más claros y una cobertura regulatoria integral, Estados Unidos ha adoptado un enfoque descentralizado para la regulación de la IA, y algunos estados e instituciones avanzan en menor medida en la gobernanza de la IA. Como resultado, las iniciativas regulatorias nacionales de IA son muy amplias y basadas en principios.
Por ejemplo, el "Blueprint" es un hito en la política de gobierno de inteligencia artificial de EE. UU. Ha formulado cinco principios básicos que incluyen sistemas seguros y efectivos, prevención de discriminación algorítmica, protección de la privacidad de datos, notificación y explicación, y participación humana en la toma de decisiones. -realización No hay disposiciones más detalladas.
Peng Xiaoyan cree que el "Blueprint" no formula medidas de implementación específicas, sino que construye un marco básico para el desarrollo de la inteligencia artificial de manera basada en principios, con el objetivo de guiar el diseño, uso e implementación de sistemas de inteligencia artificial.
"Estándares como este no son obligatorios. Esto se debe a que Estados Unidos considera apoyar el desarrollo de la industria de la inteligencia artificial. En la actualidad, la inteligencia artificial todavía se encuentra en una etapa emergente de desarrollo, y la supervisión de alta intensidad está destinada a limitar el desarrollo industrial y innovación hasta cierto punto. Por lo tanto, Estados Unidos mantiene una actitud relativamente modesta en la legislación", dijo Peng Xiaoyan.
"Sin leyes que otorguen a las agencias nuevos poderes, solo pueden regular el uso de la inteligencia artificial de acuerdo con los poderes que ya tienen. Por otro lado, los principios éticos relacionados con la inteligencia artificial siguen estando menos regulados, y las agencias pueden decidir cómo regular por sí mismas". Qué derechos usar.” Según el analista de Carnegie Hadrien Pouget, esto hace que las agencias federales dirigidas por la Casa Blanca estén tanto restringidas como libres.
El concepto de gobernanza de IA dominado por la utilización y la innovación está destinado a no ser demasiado duro con el "puño" de los Estados Unidos. Alex Engler, investigador de Brookings Institution, un reconocido think tank estadounidense, señaló que la Unión Europea y Estados Unidos están adoptando diferentes enfoques regulatorios para la inteligencia artificial que tiene impactos sociales como la educación, las finanzas y el empleo.
En términos de aplicaciones específicas de IA, la "Ley de Inteligencia Artificial" de la Unión Europea tiene requisitos de transparencia para los robots de chat, mientras que no existen regulaciones federales en los Estados Unidos. El reconocimiento facial es considerado un "riesgo inaceptable" por la Unión Europea, y Estados Unidos proporciona información pública a través del programa de prueba de proveedores de reconocimiento facial del Instituto Nacional de Estándares y Tecnología (NIST), pero no exige reglas.
"El alcance regulatorio de la UE no solo cubre una gama más amplia de aplicaciones, sino que establece más reglas para estas aplicaciones de IA. Mientras que el enfoque de los EE. más limitado.” Alex Engler dice que hay muchas más divergencias que convergencias en la gestión de riesgos de la IA, a pesar de principios básicamente idénticos.
Zhao Jingwu resumió los modelos regulatorios de IA de China, la Unión Europea y los Estados Unidos, y descubrió que China se limita a los escenarios de aplicación de la tecnología de inteligencia artificial y ha formulado reglas regulatorias especiales para escenarios de aplicación como la tecnología de reconocimiento facial. , síntesis profunda y recomendación automatizada. La UE se guía por el nivel de riesgo, dependiendo de si el nivel de riesgo de las aplicaciones de inteligencia artificial es un nivel aceptable. Estados Unidos juzga la legalidad de la aplicación de tecnología de inteligencia artificial en el marco del sistema legal tradicional existente.
Además, Estados Unidos también ha centrado más su atención en la investigación de inteligencia artificial e invirtió más fondos en ella. Apenas a principios de mayo, la Casa Blanca anunció una inversión de alrededor de 140 millones de dólares estadounidenses para establecer siete nuevos institutos nacionales de investigación de inteligencia artificial. Algunos investigadores creen que este movimiento de los Estados Unidos espera comprender mejor la IA, aliviando así las preocupaciones que surgen del proceso regulatorio.
Peng Xiaoyan dijo que mi país ha adoptado medidas para fomentar el desarrollo de tecnología de inteligencia artificial al mismo tiempo que regula la gestión de campos relacionados de manera limitada y guía el desarrollo de tecnología de inteligencia artificial con políticas coordinadas y requisitos de gestión.
La legislación de mi país enfrenta muchos problemas prácticos
La Unión Europea está acelerando la implementación del primer proyecto de ley regulatorio de IA del mundo. Zhao Jingwu dijo a China News Weekly que las medidas regulatorias de inteligencia artificial del "sistema de nivel de riesgo" de la Unión Europea, el concepto regulatorio de "modelo general" propuesto en la "Ley de Inteligencia Artificial" , y las regulaciones específicas para ChatGPT Las obligaciones de divulgación y las obligaciones de cumplimiento de derechos de autor de datos de las aplicaciones de inteligencia artificial generativa son de valor de referencia para la legislación de inteligencia artificial de mi país.
De hecho, la legislación de mi país sobre inteligencia artificial ya comenzó. En 2017, el Consejo de Estado emitió el "Plan de Desarrollo de Inteligencia Artificial de Nueva Generación", que proponía que para 2025, las leyes y reglamentos de inteligencia artificial, las normas éticas y los sistemas de políticas deberían ser establecido inicialmente, y se deben formar evaluaciones y políticas de seguridad de inteligencia artificial Capacidad de control.
A nivel local, en 2022, la ciudad de Shenzhen promulgó el "Reglamento de promoción de la industria de inteligencia artificial de la zona económica especial de Shenzhen", que se considera la primera legislación especial de mi país para la industria de inteligencia artificial. El “Reglamento” mencionaba que se debe mejorar el mecanismo de supervisión en materia de inteligencia artificial para prevenir posibles riesgos de seguridad ética y riesgos de cumplimiento que puedan surgir en los productos y servicios de inteligencia artificial.
En la actualidad, la regulación de la inteligencia artificial de mi país es promovida principalmente de manera conjunta por varios ministerios y comisiones importantes, que promueven la regulación y el desarrollo de la inteligencia artificial en diferentes campos. Documentos normativos como el "Reglamento sobre la administración de recomendaciones de algoritmos para servicios de información de Internet", "Reglamento sobre la administración de síntesis profunda de servicios de información de Internet" y "Medidas administrativas para servicios de inteligencia artificial generativa (borrador para comentarios)" también han ha emitido.
“Desde la perspectiva de las normas históricas de gestión, las regulaciones de mi país en el campo de la inteligencia artificial adoptan medidas para distinguir campos comerciales y direcciones técnicas, y las normas de gestión tienden a ser descentralizadas. Cuando las normas se introducen, muchas veces tienen la característica de ser oportunas. "Después de la aparición de tecnologías específicas, haga reglamentos de gestión especiales. Los reglamentos son promulgados por el departamento administrativo, centrándose en la supervisión, y no se han actualizado a leyes a nivel de regulación", dijo Peng Xiaoyan.
Vale la pena señalar que el 20 de junio, se publicó el primer lote de listas de presentación de algoritmos de servicios de síntesis en profundidad nacionales.26 empresas, incluidas Baidu, Alibaba, Tencent, ByteDance y Meituan, y un total de 41 algoritmos estaban en la lista.
A medida que aumenta el calor de la legislación de IA, los expertos nacionales han comenzado a pedir el rápido desarrollo de regulaciones legales de inteligencia artificial. Sin embargo, en opinión de Zhao Jingwu, la legislación especial de mi país sobre inteligencia artificial es factible, pero también enfrenta muchos problemas prácticos.
“El primero es el problema de la conexión del sistema entre los documentos legislativos. La relación aplicable entre la legislación específica de inteligencia artificial y otros documentos normativos aún no se ha resuelto, especialmente la superposición de contenido de la legislación especial y la legislación vigente que debe resolverse con urgencia. El segundo es la tecnología de inteligencia artificial. La velocidad de actualización e iteración se está acelerando, y es difícil asegurar el desarrollo simultáneo de la ley y la tecnología; tercero, las reglas regulatorias para la inteligencia artificial carecen de integridad, y las reglas regulatorias para los tres elementos centrales de datos, algoritmos y poder de cómputo todavía están en la etapa exploratoria; cuarto, la legislación de inteligencia artificial Si el enfoque debe estar en la gestión de riesgos de seguridad o en el desarrollo industrial es más controvertido", dijo Zhao Jingwu.
Ya sea la "Ley de Inteligencia Artificial" de la Unión Europea, o las regulaciones, iniciativas y planes de China, Estados Unidos y otros países para la IA, están tratando de construir un marco regulatorio integral que no solo pueda garantizar la seguridad, sino también crear mejores condiciones para la IA.
Sobre la base de este principio de universalidad, Peng Xiaoyan dijo a China News Weekly que el establecimiento de leyes de inteligencia artificial en mi país debe basarse primero en fomentar activamente el desarrollo y la innovación, de modo que la inteligencia artificial pueda regularse y desarrollarse en un espacio relativamente abierto. línea roja.
“Además, deben resolverse los problemas legales en el campo de la inteligencia artificial que preocupan a todos ahora, incluidos, entre otros, la prohibición de contenido ilegal en inteligencia artificial, la protección de la seguridad de los datos de inteligencia artificial, la protección de la inteligencia artificial ética y seguridad, prevención de infracciones de propiedad intelectual, etc. ", dijo Peng Xiaoyan.
Zhao Jingwu cree que mi país debería establecer una ley de inteligencia artificial orientada a la protección del desarrollo industrial.
"Hasta cierto punto, la legislación actual básicamente puede satisfacer las necesidades de supervisión de aplicaciones de tecnología de inteligencia artificial. Prevenir riesgos tecnológicos y garantizar la seguridad tecnológica son solo el proceso de gobernanza, y su objetivo final aún debe volver al nivel de desarrollo de la inteligencia artificial. Después de todo, las leyes de inteligencia artificial no restringen el desarrollo de las industrias, sino que guían y garantizan el desarrollo sólido de las industrias relacionadas ", dijo Zhao Jingwu.