Autor: Cao Jianfeng, investigador sénior, Instituto de Investigación Tencent
Fuente de la imagen: Generada por Unbounded AI
El siglo XXI es una era de desarrollo profundo de la digitalización, las redes y la inteligencia. La inteligencia artificial (IA), como tecnología clave, ha atraído mucha atención de todos los ámbitos de la vida. Los últimos diez años se consideran la "década dorada" de la IA representada por el aprendizaje profundo. ** [1] A través del aprendizaje profundo, la tecnología de redes neuronales (Neural Networks) en el campo de la IA marcó el comienzo de una recuperación, marcando el comienzo de la "tercera primavera" de rápido desarrollo en el campo de la IA. Antes de esto, desde que se propuso el concepto de "inteligencia artificial" en la Conferencia de Dartmouth en 1956, el campo de la IA ha experimentado dos altibajos. Específicamente, la convergencia y el desarrollo de muchos elementos técnicos como algoritmos de aprendizaje automático, big data, computación en la nube, chips específicos de IA y marcos de software de código abierto han promovido un tremendo progreso en el campo de la IA. Como resultado, la IA se ha convertido rápidamente una nueva tecnología de propósito general y la base inteligente de la economía y la sociedad, y es ampliamente utilizada en varios campos de la economía y la sociedad, trayendo nuevos productos y servicios. Desde recomendaciones de algoritmos, contenido generado por IA (AIGC) y chatbots en el campo de Internet del consumidor, hasta vehículos no tripulados en el campo industrial, software médico de IA, inspección de calidad de IA y varias aplicaciones convenientes en los servicios públicos sociales, la IA tiene un gran impacto. en la economía, se sigue demostrando el enorme valor del desarrollo social de calidad. [2] En resumen, como tecnología estratégica que lidera una nueva ronda de revolución tecnológica y transformación industrial (la cuarta revolución industrial), se espera que la IA remodele la economía humana y la sociedad, y tendrá un gran impacto en la productividad, el empleo laboral, la distribución del ingreso, globalización, etc.
**En este contexto, la IA se ha convertido en un nuevo foco de competencia internacional, y los países de todo el mundo han introducido estrategias de desarrollo de IA y políticas específicas para aprovechar las alturas de mando estratégicas y las oportunidades de desarrollo. ** En julio de 2017, China lanzó el "Plan de desarrollo de inteligencia artificial de nueva generación", y la IA se elevó a una estrategia nacional; en abril de 2018, la UE emitió una estrategia de IA, con el objetivo de convertir a la UE en un centro de IA de clase mundial y garantizar que la IA esté orientada a las personas, creíble; en febrero de 2019, se lanzó el "Plan estadounidense de IA", lanzando la estrategia de IA, con el objetivo de mejorar el liderazgo de los Estados Unidos en el campo de la IA; en septiembre de 2021, el Reino Unido emitió una estrategia de IA, con la esperanza de construir el Reino Unido para las superpotencias de IA. Analizando las estrategias de IA de varios países, no es difícil ver que la competencia internacional en el campo de la IA no solo está relacionada con la innovación tecnológica y la economía industrial, sino que también involucra dimensiones como la gobernanza de la IA. Con la aplicación generalizada de la IA, muchos problemas éticos científicos y tecnológicos provocados por la IA continúan atrayendo gran atención de todos los ámbitos de la vida, como la discriminación de algoritmos, el capullo de información, la toma de decisiones injustas de la IA, el abuso de la información personal y la violación de la privacidad, la IA seguridad, caja negra de algoritmos, responsabilidad, abuso de tecnología (como eliminación de big data, fraude de IA e información falsa sintética), impacto laboral y laboral, impacto ético y moral y otros desafíos de riesgo. [3] Por lo tanto, junto con el rápido desarrollo y la aplicación de la tecnología de IA en los últimos diez años, todos los ámbitos de la vida en el país y en el extranjero han promovido simultáneamente la gobernanza de la IA, explorado múltiples medidas de gobernanza y mecanismos de garantía como legislación, marcos éticos, estándares y certificación. y las mejores prácticas de la industria para apoyar el desarrollo de IA responsable, confiable y centrado en el ser humano.
Basado en una perspectiva internacional, este artículo clasifica el importante progreso de China en el campo de la gobernanza de la IA en los últimos diez años, analiza y resume las leyes y tendencias, y espera el desarrollo futuro. En el futuro previsible, a medida que la IA sea más capaz, su aplicación e impacto se profundizarán día a día, por lo que la IA responsable (Responsible AI) será cada vez más importante. El avance y la implementación de una IA responsable son inseparables de una gobernanza razonable y eficaz de la IA. En otras palabras, establecer una gobernanza sólida de la IA es la única forma de avanzar hacia una IA responsable y garantizar el desarrollo futuro de la IA. Se espera que este artículo sea útil para el desarrollo continuo y la implementación de la gobernanza de la IA en el futuro.
Ocho tendencias de la gobernanza de la IA
La estrategia macro y la política de implementación se desarrollan simultáneamente para cultivar la competitividad nacional de la IA
Desde que las "Opiniones de orientación sobre la promoción del desarrollo ordenado y saludable de Internet de las cosas" emitidas en febrero de 2013 propusieron "desarrollo económico y social inteligente", la IA ha entrado en el campo de visión de la estrategia macro nacional y se ha convertido en un tema importante. de documentos de política nacional de alto nivel. Por ejemplo, en 2015, las "Opiniones de orientación sobre la promoción activa de la acción "Internet Plus" propusieron por primera vez "cultivar y desarrollar industrias emergentes de inteligencia artificial". Desde entonces, el país ha prestado cada vez más atención a la IA y ha seguido realizando implementaciones para el desarrollo de la IA a nivel estratégico para garantizar que las tecnologías centrales sean autocontrolables y promuevan la autosuficiencia tecnológica de alto nivel y la autosuficiencia. dependencia (Tabla 1).
Las políticas de aterrizaje son igualmente importantes. La IA es un complejo de tecnologías emergentes e industrias emergentes. Solo cuando la innovación tecnológica de la IA se transforme en una ecología industrial sostenible y se integre profundamente con la economía real, podrá desempeñar plenamente su poderoso papel como nuevo motor de crecimiento. En este sentido, el modelo de primera prueba, como el área de prueba y el área piloto, juega un papel importante. El Ministerio de Ciencia y Tecnología ha logrado logros notables en la construcción de zonas piloto de innovación y desarrollo de inteligencia artificial. El país ha aprobado la construcción de 18 zonas piloto nacionales de innovación y desarrollo de inteligencia artificial de nueva generación, que han jugado un buen papel en la política. herramientas, modelos de aplicación, experiencia y prácticas. Desde 2019, el Ministerio de Industria y Tecnologías de la Información ha aprobado la construcción de 11 zonas piloto nacionales de innovación y aplicación de inteligencia artificial para promover la integración profunda de la IA y la economía real; "Opiniones orientadoras sobre el desarrollo de la calidad", enfocadas en resolver los problemas de Aplicación e industrialización de IA, y use la troika de "base de datos + plataforma de potencia informática + apertura de escena" para impulsar la integración profunda de IA y desarrollo económico y social, y apoyar mejor el desarrollo de alta calidad.
Con el apoyo continuo de la macroestrategia nacional y las políticas de implementación, la innovación y el espíritu empresarial en el campo de la IA en China han seguido activos. Se han establecido laboratorios nacionales en el campo de la IA uno tras otro, y se han logrado importantes logros. en innovación tecnológica, aplicación industrial y escala de talento en el campo de la IA. El "Informe del Índice de Innovación de Inteligencia Artificial Global 2021" publicado por el Instituto de Información Científica y Tecnológica de China muestra que el desarrollo global actual de IA presenta un patrón general liderado por China y Estados Unidos y una competencia feroz entre los principales países. [4] El desarrollo de la IA de China ha logrado resultados notables. El nivel de innovación de la IA ha entrado en el primer escalón del mundo y la brecha con los Estados Unidos se ha reducido aún más. Los centros de supercomputación de China, la escala empresarial de IA, el número de registros de patentes, la formación de equipos de talentos y la fuerza de la investigación científica son líderes en el mundo. En el futuro, la contribución de la IA al crecimiento económico y al desarrollo social de China seguirá aumentando. Un informe de investigación de PricewaterhouseCoopers predice que a nivel mundial, para 2030, la contribución de la IA a la economía mundial alcanzará los 15,7 billones de dólares estadounidenses, y China obtendrá los mayores beneficios económicos de la IA, alcanzando los 7 billones de dólares estadounidenses, lo que significa que la IA promoverá El crecimiento del PIB de China de alrededor del 26,1%, seguido por Estados Unidos y América del Norte, alcanzará los 3,7 billones de dólares estadounidenses. [5]
El sistema de ética científica y tecnológica se ha mejorado continuamente y se ha convertido en una garantía importante para la innovación de la IA
En la era digital, las tecnologías digitales emergentes, como la IA, tienen una singularidad y una complejidad que las diferencia de las aplicaciones tecnológicas de la era industrial. Se refleja principalmente en: (1) una conectividad más amplia, la conexión de red y la recopilación y el procesamiento de datos son ubicuos; (2) una mayor autonomía, el sistema de inteligencia artificial impulsa varios productos y servicios para operar de forma independiente sin intervención humana; (3) una opacidad más profunda, el "negro algorítmico caja" del sistema de IA es difícil de entender y explicar; [6] (4) Mayor fidelidad, el contenido, los datos y el mundo virtual generado y sintetizado por AI se están acercando a la realidad. Debido a esto, los problemas sociales y éticos que puede causar la aplicación de nuevas tecnologías como la IA se caracterizan cada vez más por lo repentino, el ocultamiento, la escala y la imprevisibilidad, lo que plantea nuevos desafíos para la gobernanza ética de la ciencia y la tecnología. En el proceso de desarrollo y aplicación de la IA, cada vez es más necesario e importante considerar simultáneamente o incluso considerar de antemano las cuestiones de ética científica y tecnológica. [7] El ajuste y la mejora del sistema de ética científica y tecnológica se ha convertido así en un tema importante en la era de la IA. Es necesario pasar de centrarse en la ética humana a centrarse en la ética técnica, implementar restricciones morales en los agentes inteligentes y construir un orden social digital amigable. [8] Además, con la competencia global cada vez más intensa en ciencia y tecnología, la ética de la ciencia y la tecnología no solo está relacionada con la prevención de riesgos y desafíos de seguridad tecnológica, sino también con la construcción de competitividad tecnológica nacional.
**Desde el 18º Congreso Nacional del Partido Comunista de China, el estado ha prestado cada vez más atención a la ética de la ciencia y la tecnología. Ha declarado claramente que la ética de la ciencia y la tecnología es un criterio de valor que debe seguirse en las actividades científicas y tecnológicas. , y ha incorporado la ética de la ciencia y la tecnología en el diseño de políticas de alto nivel como un importante apoyo y garantía para la innovación científica y tecnológica. ** "Decisión del Comité Central del Partido Comunista de China sobre Adherirse y Mejorar el Sistema Socialista con Características Chinas y Promover la Modernización del Sistema Nacional de Gobierno y Capacidades de Gobierno" y "El Decimocuarto Plan Quinquenal y Esquema de Largo Los objetivos a largo plazo para 2035 "han realizado despliegues de alto nivel para la ética de la ciencia y la tecnología. Se requiere mejorar el sistema de gobernanza de la ética científica y tecnológica y mejorar el sistema de ética científica y tecnológica. En la actualidad, el país continúa estableciendo y mejorando el sistema de ética de la ciencia y la tecnología, y da forma al concepto cultural y al mecanismo de garantía de la ciencia y la tecnología para siempre. Se refleja principalmente en los siguientes tres aspectos:
**Primero, establecer el Comité Nacional de Ética en Ciencia y Tecnología, el cual es responsable de orientar, coordinar y promover la construcción del sistema nacional de gobernanza ética en ciencia y tecnología. **En julio de 2019, la Novena Reunión del Comité Central de Reforma de Profundización Integral revisó y aprobó el "Plan de Formación del Comité Nacional de Ética de Ciencia y Tecnología", estableciendo oficialmente la organización nacional de gestión de ética de ciencia y tecnología de China. Las "Opiniones sobre el fortalecimiento de la gobernanza de la ética de la ciencia y la tecnología" emitidas en marzo de 2022 aclararon aún más las responsabilidades de gestión del Comité Nacional de Ética de la Ciencia y la Tecnología.
**Segundo, promulgar políticas y reglamentos relacionados con la ética de la ciencia y la tecnología para apoyar la implementación de la gobernanza de la ética de la ciencia y la tecnología. ** Uno de los puntos destacados de la "Ley de Progreso Científico y Tecnológico" revisada en diciembre de 2021 es la adición de disposiciones relacionadas sobre ética científica y tecnológica. Sujetos tales como instituciones de educación superior, empresas e instituciones públicas desempeñarán la responsabilidad principal de la ciencia y la gestión de la ética tecnológica, llevar a cabo una revisión ética de las actividades científicas y tecnológicas y, al mismo tiempo, aclarar el resultado legal y ético de las actividades de investigación, desarrollo y aplicación científica y tecnológica. Las "Opiniones sobre el fortalecimiento de la gobernanza ética de la ciencia y la tecnología" plantean requisitos más completos para la gobernanza ética de la ciencia y la tecnología, que involucran seis aspectos principales: requisitos generales, principios, sistemas, garantías institucionales, revisión y supervisión, educación y publicidad, y sienta las bases para la implementación de la gobernanza ética de la ciencia y la tecnología La implementación sentó las bases. El seguimiento también formulará normas de apoyo tales como los métodos de revisión para la ética científica y tecnológica, la lista de actividades científicas y tecnológicas de alto riesgo en la ética científica y tecnológica, y las normas de ética científica y tecnológica en los campos subdivididos.
**Tercero, enfatizar la gobernanza ética de la ciencia y la tecnología en el campo de la IA. **El Comité Nacional Profesional de Gobernanza de Inteligencia Artificial de Nueva Generación ha emitido sucesivamente los "Principios de Gobernanza de Inteligencia Artificial de Nueva Generación - Desarrollo de Inteligencia Artificial Responsable" y "Ética de Inteligencia Artificial de Nueva Generación", proporcionando pautas éticas para el desarrollo de IA responsable. La "Ley de seguridad de datos", el "Reglamento de gestión de recomendaciones de algoritmos de servicios de información de Internet", las "Opiniones de orientación sobre el fortalecimiento de la gobernanza integral de los algoritmos de servicios de información de Internet" y otras leyes y reglamentos presentan requisitos éticos científicos y tecnológicos y medidas de gestión de datos y algoritmos. actividades. Las "Opiniones sobre el fortalecimiento de la gobernanza de la ética de la ciencia y la tecnología" consideran que la IA, las ciencias de la vida y la medicina son las tres áreas clave durante el período del "14.º Plan quinquenal", y requieren la formulación de normas y directrices especiales de ética de la ciencia y la tecnología, fortalece la legislación sobre ética de la ciencia y la tecnología y exige a los ejecutivos de la industria relevantes El departamento lanzó una medida de supervisión de la ética científica y tecnológica. Es previsible que la regulación de la ética tecnológica en el campo de la IA se refuerce en el futuro. Además, la legislación a nivel local, como el "Reglamento de promoción de la industria de inteligencia artificial de Shenzhen" y el "Reglamento de Shanghai sobre la promoción del desarrollo de la industria de inteligencia artificial", consideran que la gobernanza ética de la IA es una garantía importante para apoyar el desarrollo saludable de la IA. industria.
**Del análisis anterior, se puede ver que en términos de la gobernanza de la ética de la ciencia y la tecnología de IA, una tendencia significativa es asumir la responsabilidad del tema de la gestión de la ética de la ciencia y la tecnología como el principal punto de partida, que es similar al énfasis en la responsabilidad del sujeto de plataforma en la supervisión de plataformas de Internet, cierta similitud. **La supervisión de la plataforma por parte del gobierno se logra en gran medida a través de la implementación y consolidación de la responsabilidad principal de la plataforma. La legislación relevante en el campo de Internet ha establecido un sistema integral de obligación de la plataforma antes, durante y después del evento. La Administración Estatal de Mercado La supervisión emitió Las "Directrices para implementar las responsabilidades de los sujetos en las plataformas de Internet (borrador para comentarios)" trató de refinar las responsabilidades de los sujetos de los diferentes tipos de plataformas. La regulación gubernamental de la IA muestra una idea similar. Las políticas y regulaciones relevantes actuales intentan refinar las responsabilidades de los sujetos de gestión de la ética científica y tecnológica, exigiendo a los sujetos de innovación que establezcan comités de ética, se adhieran a la base de la ética científica y tecnológica, realicen una revisión de la ética científica y tecnológica, lleven a cabo un seguimiento, alertar y evaluar los riesgos de ética científica y tecnológica, y realizar capacitaciones en ética científica y tecnológica.
La aplicación de algoritmos en el campo de Internet se ha convertido en el objeto clave de la supervisión de la IA
La recomendación de algoritmos, la toma de decisiones automatizada de algoritmos, la síntesis profunda de IA y otras aplicaciones de algoritmos en el campo de Internet se han convertido en el foco de la supervisión gubernamental en el campo de la IA debido a factores como la amplia aplicación, la gran atención del público y el continuo resaltado de problemas negativos. . En los últimos años, el estado ha promulgado una serie de leyes y reglamentos para regular activamente la aplicación de algoritmos en el campo de Internet. [9] Las "Opiniones de orientación sobre el fortalecimiento de la gobernanza integral de los algoritmos del servicio de información de Internet" emitidas por la Oficina Estatal de Información de Internet y otros nueve departamentos presentan requisitos de gestión relativamente completos. Se espera que en unos tres años, un mecanismo de gobernanza sólido, una supervisión sólida sistema, y un estándar ecológico algorítmico se establecerá gradualmente Patrón de gobernanza integral de seguridad algorítmica. La opinión también enfatiza el fortalecimiento de las responsabilidades corporativas, incluidas las responsabilidades de seguridad de algoritmos y la revisión de la ética científica y tecnológica.
En materia de recomendación de algoritmos, el “Reglamento sobre la Gobernanza Ecológica de los Contenidos de Información en Red” propone mejorar el mecanismo de intervención humana y autoselección de usuarios para la tecnología de recomendación de algoritmos. El "Reglamento sobre la administración de recomendaciones de algoritmos para servicios de información de Internet”, que se implementará el 1 de marzo de 2022, es la primera legislación de China que se centra en la gobernanza de algoritmos. Una serie de medidas regulatorias como el monitoreo de riesgos de seguridad, la evaluación de seguridad de algoritmos y la gestión de archivos de algoritmos ha fortalecido aún más la responsabilidad de seguridad de los algoritmos de las empresas de plataformas. Los expertos de la industria tomaron esto como una señal y llamaron a 2022 el primer año de regulación de algoritmos.
En términos de toma de decisiones algorítmicamente automatizada, la "Ley de Protección de Información Personal de la República Popular China", la "Ley de Comercio Electrónico de la República Popular China", las "Disposiciones Provisionales sobre Servicios de Gestión de Turismo en Línea" y otras disposiciones tienen relevancia disposiciones sobre discriminación de algoritmos, familiarización con big data, etc. Con el fin de regular los comportamientos legítimos de toma de decisiones de algoritmos, se proponen métodos de regulación como otorgar a las personas derechos de elección, llevar a cabo evaluaciones de impacto, y las personas pueden solicitar explicaciones y disfrutar de derechos de rechazo. equilibrar la protección de los derechos personales y las actividades de aplicación comercial de los algoritmos.
En términos de síntesis profunda de IA (principalmente en referencia al uso de tecnología de IA para generar y sintetizar contenido de información), la legislación relevante delinea activamente la línea roja para la aplicación de la tecnología de síntesis profunda de IA y promueve la aplicación positiva de la tecnología, como la " Reglamento de Gestión del Servicio de Información de Audio y Video en Red", "Red El Reglamento de Gobernanza Ecológica de Contenido de Información, el Reglamento de Administración de Recomendaciones de Algoritmos de Servicios de Información de Internet, etc. prohíben el uso de algoritmos de síntesis profunda para información de noticias falsas y otras actividades ilegales . El "Reglamento sobre la administración de la síntesis profunda de los servicios de información de Internet" aprobado en noviembre de 2022 resume la experiencia regulatoria pasada y regula de manera integral la aplicación de la tecnología de síntesis profunda en términos de la responsabilidad principal de los proveedores de servicios de síntesis profunda y la gestión del contenido de información de síntesis profunda. identificación Las medidas de seguridad necesarias, como la identificación, detección e identificación, y la trazabilidad del contenido garantizan que la aplicación de la tecnología de síntesis profunda sea segura y confiable, y promuevan mejor la innovación y el desarrollo tecnológico y las aplicaciones positivas.
En general, la supervisión de algoritmos en el campo de Internet enfatiza múltiples propósitos, como seguridad y control, protección de derechos e intereses, equidad y justicia, apertura y transparencia, y prevención de abusos. Sobre la base de la clasificación y clasificación de aplicaciones de algoritmos, se enfoca en regular aplicaciones de algoritmos de alto riesgo. La regulación de la calificación y clasificación de algoritmos es similar a la regulación de los sistemas de IA en la Ley de Inteligencia Artificial de la Unión Europea. En este contexto, la comunidad académica tiene un gran interés en la investigación de la gobernanza algorítmica y ha propuesto muchas ideas, como la interpretación de algoritmos, la evaluación del impacto de algoritmos y la auditoría de algoritmos. En el futuro, todos los ámbitos de la vida deben explorar y mejorar más los métodos y las medidas de gobernanza de la supervisión de algoritmos, para garantizar mejor que la aplicación de algoritmos sea ascendente y buena.
Uso de la innovación regulatoria para promover la aplicación de IA en campos regulatorios sólidos tradicionales
Para los campos regulatorios fuertes tradicionales, como el transporte y la atención médica, el principal problema que enfrentan las cosas nuevas, como los automóviles autónomos, los drones tripulados (autos voladores no tripulados), el software médico de IA, etc., es que sus aplicaciones comerciales aún enfrentan mayores desafíos legales. y obstáculos normativos. Estas barreras no solo afectan la confianza de los consumidores y el público en la tecnología, sino que también desalientan a los innovadores e inversores. Por lo tanto, la innovación regulatoria efectiva es la clave para el desarrollo y la aplicación de estas cosas nuevas. Tomando como ejemplo los automóviles autónomos, la aplicación comercial de los automóviles autónomos solo puede acelerarse acelerando la reforma del marco legislativo y regulatorio destinado a regular los automóviles tradicionales y los conductores humanos, y luego estableciendo un marco regulatorio nuevo y efectivo.
Los formuladores de políticas de China están innovando activamente métodos y medios regulatorios, y apoyan y promueven la aplicación de nuevas cosas de IA a través del "Regulatory Sandbox" (Regulatory Sandbox, consulte la introducción a continuación), proyectos piloto y aplicaciones de demostración. En el campo de los autos sin conductor, el estado ha emitido una serie de leyes y documentos normativos para alentar, apoyar y regular las actividades de aplicación de prueba y demostración en carretera de los autos sin conductor, explorar el "cajón de arena regulatorio" de los estándares de seguridad para autos -coches de conducción, y mejorar la estandarización de los coches autónomos.Reglas de paso para entrar y entrar en la carretera para garantizar la seguridad del transporte de coches autónomos. Debido a las políticas regulatorias favorables, lugares como Beijing, Shanghái, Guangzhou y Shenzhen se han apoderado de las tierras altas de desarrollo una tras otra. Algunas ciudades han emitido licencias de operación de prueba para automóviles autónomos que no permiten a ningún conductor en el automóvil y pueden operarse por una tarifa ; Shenzhen es el primero en el país en emitir el "El Reglamento sobre la Administración de Vehículos Conectados Inteligentes de Shenzhen establece un marco legislativo y regulatorio para aplicaciones comerciales. En el campo de la atención médica de IA, debido a que el software médico de IA tiene muchas características nuevas diferentes de los dispositivos médicos tradicionales, que incluyen capacidades de autonomía, aprendizaje y evolución, iteración continua, caja negra de algoritmos, imprevisibilidad, etc., es difícil que los procedimientos de aprobación tradicionales Adaptarse efectivamente a la atención médica de IA Necesidades de desarrollo de software. Con este fin, las autoridades reguladoras están mejorando activamente la declaración de registro y los procedimientos de aprobación y las especificaciones de gestión de uso de los dispositivos médicos de IA, y respaldan la aplicación clínica acelerada del software médico de IA para el diagnóstico y tratamiento auxiliares, como imágenes médicas inteligentes; actualmente, la IA médica El software ha sido aprobado en China, como el software de diagnóstico de glaucoma asistido por IA de Tencent Miying y el sistema de diagnóstico asistido por IA de neumonía, ambos han sido aprobados para el certificado de registro de dispositivos médicos de tercera clase ("tres tipos de certificados"). En el futuro, las autoridades reguladoras deben continuar mejorando y optimizando los procedimientos de registro, solicitud y aprobación para el software médico de IA, de modo que las aplicaciones médicas de IA puedan mejorar el sustento y el bienestar de las personas.
Acelere la exploración de las reglas de protección de la propiedad intelectual de la IA
El contenido generado por IA (Contenidos generados por IA, AIGC para abreviar) se ha convertido en una nueva frontera de la IA y representa la dirección de desarrollo futuro de la IA. [10] . En el campo de Internet, AIGC es la forma de producción de contenido después de PGC (producción de contenido profesional) y UGC (contenido de producción de usuario), provocando un gran cambio en la producción de contenido automatizado. En la actualidad, la tecnología AIGC ha podido producir de forma independiente varias formas de contenido, incluidos texto, imágenes, audio, video, contenido 3D (objetos 3D, escenas virtuales 3D), etc. Las normas de protección de los derechos de propiedad intelectual para la tecnología AIGC y sus aplicaciones se han convertido, por lo tanto, en un tema importante que no se puede evitar. Cuestiones como "cómo establecer la protección de los derechos de autor y la propiedad del contenido AIGC" y "si la tecnología AIGC infringe los derechos de autor de otras personas". contenido" son cuestiones urgentes que deben resolverse. [11] Algunos académicos extranjeros han sugerido que es necesario establecer normas especiales de protección de la propiedad intelectual de la IA y tratados internacionales, porque la tecnología de la IA rompe el modelo existente de que los creadores e inventores solo pueden ser seres humanos. [12]
En el país y en el extranjero, se han explorado activamente las normas de protección de la propiedad intelectual para el contenido generado por IA. En el extranjero, el Reino Unido, la Unión Europea, Japón, Sudáfrica, etc. están considerando o han formulado reglas especiales de protección de la propiedad intelectual de IA, como las cláusulas de protección de obras generadas por computadora en la "Ley de derechos de autor, diseño y patentes" británica. y la "Directiva de derechos de autor del mercado digital único" de la Unión Europea "Excepciones de derechos de autor de minería de datos y texto basadas en tecnología de inteligencia artificial, etc. En términos de patentes, la política del Reino Unido señala que dado que la IA aún no está lo suficientemente avanzada como para inventar y crear de forma independiente, no es necesario modificar la ley de patentes en este momento, pero es necesario prestar mucha atención al progreso tecnológico y evaluar la IA. problemas de patentes de manera oportuna.
En China, en el caso de Beijing Film Law Firm contra el caso de infracción de derechos de autor "Baijiahao" de Baidu, el tribunal sostuvo que solo las obras originales creadas por personas físicas pueden obtener protección de derechos de autor, negando así los derechos de autor de las obras generadas directa e independientemente por AI. Sin embargo, señala señalar que los derechos e intereses relevantes (como los derechos e intereses competitivos) del contenido generado por IA pueden protegerse a través de las leyes de competencia y otros medios. En el caso de Shenzhen Tencent Computer System Co., Ltd. v. Shanghai Yingxun Technology Co., Ltd. por infracción de derechos de autor y disputas de competencia desleal, el tribunal, basándose en la realidad de la colaboración humano-computadora en el campo de la IA, señaló que las obras técnicamente "generadas" del software de escritura de IA Dreamwriter son solo creaciones. Como vínculo en el proceso, la actividad intelectual general formada por la división del trabajo de múltiples equipos y personas organizada por el demandante es el eslabón medular de la creación, y por lo tanto se determina que el objeto objeto de la causa es una persona jurídica obra alojada por la actora. La determinación del caso del escritor Dream está más en línea con el desarrollo actual de la tecnología AIGC y sus aplicaciones, y tiene una gran importancia de referencia para aclarar aún más las reglas de protección de la propiedad intelectual para el contenido generado por IA a través de la legislación en el futuro. En cuanto a la legislación, la "Ley de derechos de autor de la República Popular China" recientemente revisada en 2020 adopta un método abierto de identificación de obras. Si bien aclara la composición de las obras y enumera los principales tipos de obras, también estipula un intercambio abierto de ida y vuelta. cláusulas, proporcionando AIGC y otras nuevas tecnologías La protección de los nuevos objetos provocados por las aplicaciones reserva espacio institucional.
La construcción de estandarización es una parte clave de la gobernanza de la IA
**El "Esbozo de desarrollo de la normalización nacional" señaló que la normalización juega un papel fundamental y de liderazgo en la promoción de la modernización del sistema de gobernanza nacional y las capacidades de gobernanza. Para el campo de la IA, los estándares de la IA no solo son un medio importante para apoyar y promover el desarrollo, el progreso y la amplia aplicación de la IA (como los estándares técnicos), sino también una forma efectiva de promover la implementación de la gobernanza de la IA (como la gobernanza). estándares, estándares éticos), porque los estándares de gobierno de AI pueden desempeñar un papel importante en "aplicar legislación y supervisión, y acoplar la práctica técnica". Además, los estándares en el campo de la gobernanza de la IA son más ágiles, flexibles y adaptables que la legislación y la regulación. Por lo tanto, los estándares de gobernanza de la IA se han convertido en un punto de referencia en el desarrollo de la tecnología y la industria de la IA, y la comunidad internacional ha propuesto medidas de implementación. **Los representantes típicos incluyen los estándares confiables de IA de la Unión Europea, la gestión de riesgos de IA dirigida por el Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU., la identificación de discriminación de IA y otros estándares de gobernanza, el plan de desarrollo del ecosistema de certificación de IA del Reino Unido, los estándares de ética de IA de IEEE, etc.. En términos de implementación, IEEE ha lanzado un proyecto de certificación de ética de IA para la industria; el Reino Unido espera cultivar una industria de certificación de IA líder en el mundo con un valor de miles de millones de libras en 5 años y aprobar los servicios de certificación de IA de un tercero neutral (incluyendo auditoría, evaluación de influencia, certificación) para evaluar y comunicar la credibilidad y el cumplimiento de los sistemas de IA.
**China otorga gran importancia a la construcción de estandarización en el campo de la IA. El "Esquema de desarrollo de estandarización nacional" requiere investigación de estandarización en los campos de la IA, la información cuántica y la biotecnología. **En los últimos años, todos los ámbitos de la vida han seguido promoviendo la estandarización de estándares nacionales, estándares de la industria, estándares locales y estándares grupales en el campo de la gobernanza de la IA. Por ejemplo, el Comité Nacional de Gestión de Normalización estableció el Grupo General Nacional de Normalización de Inteligencia Artificial, y el Comité Técnico Nacional de Normalización de Tecnologías de la Información estableció el Comité Subtécnico de Inteligencia Artificial, los cuales tienen como objetivo promover la formulación de estándares nacionales en el campo de la IA. . Las "Directrices para la construcción del sistema estándar nacional de inteligencia artificial de nueva generación" emitidas en julio de 2020 aclaran el diseño de alto nivel en el campo de los estándares de IA. AI establece un sistema de cumplimiento para promover el desarrollo saludable y sostenible de la IA. En el futuro, los estándares relacionados con la gobernanza de la IA deben formularse e implementarse más rápidamente, a fin de brindar más garantías para la innovación tecnológica y el desarrollo industrial en el campo de la IA.
La industria explora activamente medidas de autodisciplina para el gobierno de la IA y practica el concepto de innovación y tecnología responsables para siempre
**La gobernanza eficaz de la IA requiere la participación conjunta de múltiples sujetos, como el gobierno, las empresas, las organizaciones industriales, los grupos académicos, los usuarios o consumidores y el público.Entre ellos, el autogobierno y la gestión de la autodisciplina de las empresas de tecnología es un parte importante de la implementación del concepto de "la ética primero". **La razón para llamar a "la ética primero" se debe en gran medida al hecho de que, frente al rápido desarrollo de la IA, el fenómeno del "retraso legal" se ha vuelto cada vez más prominente. En el campo de la IA, la "ética primero" se manifiesta primero en la gestión autodisciplinar de la ética tecnológica de las empresas de tecnología, y las mejores prácticas de las empresas líderes a menudo pueden desempeñar un papel de liderazgo muy bueno, promoviendo la práctica de la innovación y la tecnología responsables. para siempre en toda la idea de la industria.
A nivel de la industria, en los últimos años, instituciones de investigación relevantes y organizaciones de la industria han propuesto pautas éticas de IA y convenciones de autodisciplina para brindar orientación ética para las actividades de IA de las empresas. Los representantes típicos en este sentido incluyen la "Convención de autodisciplina de la industria de inteligencia artificial" y las "Directrices de operación de IA de confianza" de la Alianza para el desarrollo de la industria de inteligencia artificial de China (AIIA), el "Consenso de Beijing de inteligencia artificial" y el "Consenso de inteligencia artificial" de Beijing. Instituto de Investigación de Inteligencia Artificial de Zhiyuan. Declaración de responsabilidad de la industria", "Pautas de práctica estándar de seguridad de red: pautas para la prevención de riesgos de seguridad ética de inteligencia artificial" del Comité Nacional de Estandarización de Seguridad de la Información, etc.
A nivel empresarial, las empresas de tecnología, como cuerpo principal de la innovación tecnológica y la aplicación industrial de la IA, asumen la importante responsabilidad de la investigación y el desarrollo responsables y la aplicación de la IA. En países extranjeros, las empresas de tecnología han explorado una experiencia relativamente madura y han acumulado una gran cantidad de recursos a partir de la propuesta de principios éticos de IA, el establecimiento de organizaciones internas de gobierno ético de IA y el desarrollo de herramientas técnicas y de gestión e incluso soluciones comerciales de IA responsables. [13] . En los últimos años, las empresas de tecnología nacionales han implementado activamente requisitos reglamentarios y explorado medidas de autorregulación relevantes, que incluyen principalmente: publicar principios éticos de IA, establecer organizaciones internas de gobierno de IA (como comités de ética), realizar revisiones éticas o evaluaciones de riesgos de seguridad para actividades de IA. y divulgar algoritmos al mundo exterior Información relevante, promover la apertura y la transparencia de los algoritmos y explorar soluciones técnicas para problemas éticos de IA (como herramientas de detección e identificación para contenido de información sintética, herramientas de evaluación de gobernanza de IA y soluciones informáticas de privacidad como como aprendizaje federado), etc.
Coexisten la cooperación y la competencia en la gobernanza mundial de la IA
**La competencia global de IA no es solo una competencia entre tecnología e industria, sino también una competencia entre reglas y estándares de gobernanza. **El desarrollo de la economía digital global está formando nuevas reglas internacionales para la IA y los datos, como el flujo de datos, el marco de gobernanza de la IA, etc. En los últimos años, la cooperación global en materia de gobernanza de la IA ha seguido avanzando. Los Principios de IA de la OCDE/G20 de 2019 son el primer marco global de políticas de IA. En noviembre de 2021, la UNESCO de las Naciones Unidas aprobó el primer acuerdo de ética de IA del mundo "Recomendación sobre la ética de la inteligencia artificial" (Recomendación sobre la ética de la inteligencia artificial), que actualmente es el marco de políticas de IA global más completo y ampliamente consensuado. , evaluación del impacto ético y otros mecanismos para fortalecer la gobernanza ética de la IA.
Al mismo tiempo, Estados Unidos y Europa están acelerando las políticas de IA para fortalecer su liderazgo en el campo de las políticas de IA e influir en las normas y estándares de gobernanza global de IA. Por ejemplo, la Unión Europea está trabajando en un proyecto de ley de IA armonizado que, cuando se espera que se apruebe en 2023, establecerá una vía regulatoria integral y basada en el riesgo para la IA. Muchos expertos predicen que, al igual que el impacto de la anterior legislación de privacidad de datos RGPD en la industria tecnológica global, la Ley de IA de la UE extenderá el "Efecto Bruselas" al campo de la IA, que es exactamente lo que la UE espera establecer para la gobernanza de la IA. para el mundo a través de la regulación. [14] Además de la legislación de IA, el Consejo de Europa todavía está preparando la primera "Convención Internacional de IA" del mundo. Al igual que la "Convención de Ciberdelincuencia" y la "Convención de Privacidad" anteriores, tanto los estados miembros como los no miembros pueden unirse y ratificar la futura IA. convención. [15] Estados Unidos siempre ha sido un líder mundial en el campo de la IA en términos de tecnología e industria, y en los últimos años ha comenzado a remodelar activamente su liderazgo en el campo de la política de IA. Una de las tareas principales del Consejo de Comercio y Tecnología EE. UU.-UE establecido en 2020 es promover la cooperación EE. UU.-UE en la gobernanza de la IA. [16] En conclusión, la competencia global de IA enfatiza cada vez más la competencia de poder blando en el campo de la política y la gobernanza de la IA, lo que se puede decir que representa un cambio importante en la competencia tecnológica en el siglo XXI.
En los últimos años, China ha otorgado gran importancia a la participación en la gobernanza mundial de la ciencia y la tecnología, ha presentado activamente sus propias propuestas y se ha esforzado por lograr un mayor reconocimiento y consenso. Por ejemplo, China ha presentado la "Iniciativa de seguridad de datos globales", que continúa inyectando energía positiva en la gobernanza digital global. En noviembre de 2022, en la Conferencia de los Estados Partes de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, China presentó un documento sobre el fortalecimiento de la gobernanza ética de la inteligencia artificial y presentó propuestas como adherirse primero a la ética, fortalecer la autodisciplina, uso responsable de la inteligencia artificial, y fomento de la cooperación internacional.
PERSPECTIVA DE TRES PUNTOS
Muchas políticas y documentos normativos como "El 14.º plan quinquenal y el esquema de objetivos a largo plazo en 2035", "Construcción del estado de derecho en China (2020-2025)", "Opiniones sobre el fortalecimiento de la gobernanza ética de Ciencia y tecnología" y otras políticas y documentos normativos muestran que la gobernanza de la IA continúa convirtiéndose en un tema importante en la gobernanza de la ciencia y la tecnología. Áreas centrales de la ética tecnológica. Para mejorar aún más la competitividad global de China en el campo de la IA, China no solo debe prestar más atención al cultivo de la tecnología y el poder duro industrial, sino que también debe centrarse en dar forma al poder blando, especialmente el derecho a hablar y liderar la política y la gobernanza de la IA. . Porque la gobernanza de la IA se ha convertido en una parte importante de la competitividad global de la IA.
Mirando hacia atrás en el pasado, China ha aclarado la idea de la supervisión y la gobernanza de la IA que presta la misma atención al desarrollo y la seguridad, y es paralela a la innovación y la ética. Mientras apoya y promueve la innovación y el desarrollo, también garantiza la seguridad, la confiabilidad y la controlabilidad. de aplicaciones tecnológicas. De cara al futuro, debemos hacer un mejor uso de los esfuerzos conjuntos del gobierno, las industrias/empresas, las instituciones de investigación, las organizaciones sociales, los usuarios/consumidores, el público, los medios de comunicación y otras partes interesadas para continuar promoviendo el desarrollo sólido de la IA. prácticas de gobernanza y hacer que la IA mejor beneficie el desarrollo económico y social, mejore los medios de vida y el bienestar de las personas e impulse la ciencia y la tecnología a un nivel superior.
Además, la última "década dorada" de la IA ha traído a las personas modelos de IA cada vez más poderosos y, en el futuro previsible, la IA solo se volverá más poderosa. Esto significa que cuando la IA interactúe con el ecosistema social, sus posibles impactos humanos, sociales y ambientales superarán con creces cualquier tecnología anterior. Por lo tanto, la tarea principal de la gobernanza de la IA es continuar defendiendo y practicando el concepto de "IA responsable"; crear valor para las partes interesadas y mejorar su bienestar, y prevenir el abuso, el uso indebido y el mal uso. En resumen, la gobernanza eficaz de la IA debe promover el desarrollo de prácticas de IA responsables y crear una IA confiable (IA confiable).
Continuar mejorando el marco legal de datos e IA, y promover una supervisión precisa y ágil
El desarrollo saludable y sostenible de la IA es inseparable de una supervisión razonable y eficaz, por un lado, y por otro lado, necesita mejorar continuamente el nivel de suministro, circulación y utilización de datos en el campo de la IA. De hecho, uno de los principales problemas que enfrenta el desarrollo y la aplicación de la IA en muchos campos, como la atención médica, la fabricación y las finanzas, es el problema de la adquisición y utilización de datos, incluida la adquisición de datos difícil, la calidad deficiente de los datos y los estándares de datos inconsistentes. Por lo tanto, el mayor desarrollo de la IA en el futuro depende en gran medida de la mejora continua del marco legal de datos e IA. El "Plan de Regulación Digital" del Reino Unido propone que una regulación bien diseñada puede tener un efecto poderoso en la promoción del desarrollo y la configuración de una economía y una sociedad digitales vibrantes, pero una regulación mal diseñada o restrictiva puede obstaculizar la innovación. Las reglas correctas pueden ayudar a las personas a confiar en los productos y servicios que utilizan, lo que a su vez impulsará la popularidad de los productos y servicios y un mayor consumo, inversión e innovación. [17] Lo mismo es cierto para la IA.
** Por un lado, para la gobernanza de la IA, es necesario promover mejor una supervisión precisa y ágil. Esto incluye: Primero, adoptar diferentes reglas para diferentes productos, servicios y aplicaciones de IA. **Debido a que las aplicaciones de IA son casi omnipresentes ahora, es difícil que una regla única se adapte razonablemente a las características únicas de las aplicaciones de IA en diferentes industrias y campos y su impacto en las personas y la sociedad. Esto requiere que adoptemos un marco de política de gobernanza de IA basado en el riesgo. Por ejemplo, la misma tecnología de IA se puede usar no solo para analizar y predecir los atributos personales y las preferencias personales del usuario, y para impulsar contenido personalizado, sino también para ayudar en el diagnóstico y tratamiento de enfermedades; la clasificación y la organización también se pueden usar para identificar tumores cancerosos. Estas aplicaciones tienen grandes diferencias en términos de nivel de riesgo, importancia de los resultados e impacto personal y social. Obviamente, no es científico ni realista presentar requisitos regulatorios de una manera general y única. **En segundo lugar, enfatiza la adopción de una supervisión descentralizada y diferenciada sobre la base de la calificación y clasificación de las aplicaciones de IA. **Al igual que Internet, la IA es una tecnología muy amplia y de uso general, que no es adecuada y dificulta la supervisión unificada. Desde una perspectiva exterior, actualmente solo la Unión Europea está tratando de establecer un marco regulatorio unificado y general para todas las aplicaciones de IA (el modelo de la UE), mientras que el Reino Unido y los Estados Unidos enfatizan la supervisión descentralizada de las industrias en función de los escenarios de aplicación y los riesgos ( el modelo angloamericano). El Reino Unido propone guiarse por principios y adoptar una supervisión que promueva la innovación en las aplicaciones de IA. Sus conceptos centrales incluyen: centrarse en escenarios de aplicación específicos y garantizar la proporcionalidad y adaptabilidad de la supervisión en función del grado de riesgo; [18] Estados Unidos siempre ha enfatizado un camino de gobernanza que combina la regulación de la industria y la autodisciplina de la industria. Por ejemplo, el "Plan de la Declaración de Derechos de AI" no solo propone cinco principios, sino que también aclara la idea de una regulación descentralizada dirigida por las autoridades de la industria. y aplicación orientada a escenarios. [19] En lo que respecta a China, la legislación y la supervisión de la IA en el pasado están más cerca del modelo angloamericano, es decir, se formulan reglas regulatorias separadas para diferentes aplicaciones de IA, como servicios de recomendación de algoritmos, síntesis profunda y conducción autónoma. Este modelo regulatorio descentralizado y diferenciado se ajusta a los principios de la gobernanza ágil y puede adaptarse mejor a las complejas características del rápido desarrollo y la iteración de la tecnología de IA y sus aplicaciones. **Tercero, exige la innovación continua de la caja de herramientas regulatorias y la adopción de iniciativas regulatorias diversificadas. Uno es el "sandbox regulatorio" de la IA. ** Una de las principales iniciativas de la Unión Europea en materia de regulación de la IA es el "sandbox regulatorio" de la IA propuesto. [20] Como una forma efectiva de apoyar y promover la comunicación y la colaboración entre los reguladores y los sujetos de innovación, el "sandbox regulatorio" puede proporcionar un entorno controlado para desarrollar, probar y verificar el cumplimiento de las aplicaciones de IA innovadoras. Las mejores prácticas y las pautas de implementación generadas a partir del "sandbox regulatorio" ayudarán a las empresas, especialmente a las pequeñas, medianas y microempresas y empresas emergentes, a implementar las normas regulatorias. **El segundo son los servicios sociales de gobernanza de IA, incluidos los estándares de gobernanza de IA, la certificación, las pruebas, la evaluación, la auditoría, etc. **En el campo de la seguridad de la red, los servicios sociales de seguridad de la red, como la certificación, las pruebas y la evaluación de riesgos de la seguridad de la red, son una forma importante de implementar los requisitos reglamentarios. La gobernanza de la IA puede aprender de este enfoque. Actualmente, la Unión Europea, el Reino Unido, los Estados Unidos y el IEEE están promoviendo los servicios sociales de gobernanza de la IA. Por ejemplo, IEEE ha lanzado la certificación de ética de IA para la industria; [21] La "Hoja de ruta para establecer un ecosistema de certificación de IA efectivo" emitida por el Reino Unido espera cultivar una industria de certificación de IA líder en el mundo, a través de servicios de certificación de IA de terceros neutrales (incluida la evaluación de impacto, auditoría de sesgo y auditoría de cumplimiento, certificación, evaluación de cumplimiento) , pruebas de rendimiento, etc.) para evaluar y comunicar la credibilidad y el cumplimiento de los sistemas de IA. El Reino Unido cree que esta será una nueva industria con un valor de miles de millones de libras. [22] China necesita acelerar el establecimiento de un sólido sistema de servicios sociales de gobernanza de IA, y emprender e implementar mejor la legislación y los requisitos reglamentarios en sentido ascendente a través de los servicios de gobernanza de IA en sentido descendente. Además, los métodos regulatorios, como las pautas de políticas, los puertos seguros de responsabilidad, los proyectos piloto, las aplicaciones de demostración y la responsabilidad posterior al evento pueden desempeñar un papel importante en diferentes escenarios de aplicación.
**Por otro lado, es necesario acelerar la mejora del marco legal para la circulación y utilización de datos, y continuar mejorando el nivel de suministro de datos en el campo de la IA. **El primero es construir un marco legal para datos públicos abiertos y compartidos a nivel nacional, unificar la calidad de los datos y los estándares de gobierno de datos, y usar descargas de datos, interfaces API, computación privada (aprendizaje federado, computación multipartita segura, y entornos informáticos fiables, etc.), datos Gestión diversificada y métodos técnicos como Data Space para promover el máximo intercambio abierto de datos públicos. El segundo es eliminar activamente varios obstáculos para el desarrollo y la aplicación de la tecnología informática de privacidad y la tecnología de datos sintéticos. En la actualidad, en la circulación y utilización de diversos datos, las tecnologías informáticas de privacidad, como el aprendizaje federado, desempeñan un papel cada vez más importante y pueden lograr efectos como "los datos están disponibles/contables e invisibles", "los datos no cambian el algoritmo/valor se mueve". Impulsado por el desarrollo de aplicaciones de IA y big data, el aprendizaje federado, como principal método de promoción y aplicación en el campo de la informática privada, es actualmente el camino técnico más maduro. En el próximo paso, podemos respaldar mejor la aplicación y el desarrollo de tecnologías informáticas de privacidad, como el aprendizaje federado, mediante la creación de espacios de datos en áreas estratégicas, la formulación de estándares de la industria para la informática privada y la emisión de pautas legales para la implementación de tecnologías informáticas de privacidad.
La gobernanza ética de la IA debe pasar de los principios a la práctica
Con el desarrollo de la institucionalización y legalización de la gobernanza ética científica y tecnológica, el fortalecimiento de la gobernanza ética científica y tecnológica se ha convertido en una de las "preguntas obligatorias" y "debe elegir" para las empresas de ciencia y tecnología. Bajo el concepto de "la ética primero", los requisitos para la gobernanza ética de la ciencia y la tecnología significan que las empresas de tecnología no pueden esperar abordar los problemas éticos de la IA como medidas correctivas posteriores, sino que deben participar en todo el proceso. Ciclo de vida de la IA desde el diseño hasta el desarrollo y la implementación Entre ellos, cumplir activamente con la responsabilidad del cuerpo principal de gestión de la ética de la ciencia y la tecnología, y promover de manera innovadora la autodisciplina de la ética de la ciencia y la tecnología de varias maneras. En general, en una sociedad altamente tecnológica y digital, las empresas de tecnología deben considerar incorporar el gobierno de IA en su panorama de gobierno corporativo como un módulo que es tan importante como los módulos existentes, como asuntos legales, finanzas y control de riesgos. Los siguientes aspectos son dignos de una mayor exploración:
**En primer lugar, en términos de gestión, es necesario establecer un mecanismo de gestión de riesgos éticos de IA. **La gestión de riesgos éticos de la IA debe atravesar todo el ciclo de vida de la IA, incluida la etapa previa al diseño, la etapa de diseño y desarrollo, la etapa de implementación y las actividades de prueba y evaluación a lo largo de estas etapas, a fin de identificar, analizar y evaluar de manera integral. , gestionar y gobernar los riesgos éticos de la IA. Esto depende de que la empresa establezca la estructura organizativa y las normas de gestión correspondientes, como el comité de ética, el proceso de revisión de ética y otras herramientas de gestión. Los responsables de la formulación de políticas pueden considerar la posibilidad de emitir directrices de política a este respecto.
En segundo lugar, en términos de diseño, es necesario seguir el concepto de diseño orientado a las personas y practicar el concepto de "Ética por Diseño"** (Ethicsby Design). **El diseño integrado ético significa integrar valores, principios, requisitos y procedimientos éticos en el diseño, desarrollo e implementación de sistemas de IA, robótica y big data. Las empresas deben reflexionar sobre el proceso de aplicación e I+D de IA dirigido por técnicos, y poner más énfasis en los diversos antecedentes y la participación de las actividades de aplicación e I+D de IA. Introducir políticas, leyes, ética, sociedad, filosofía y otro personal multidisciplinario e interdisciplinario en el equipo de desarrollo de tecnología es la forma más directa y efectiva de incorporar requisitos éticos en el diseño y desarrollo de tecnología. En el futuro, los responsables de la formulación de políticas pueden unirse a la industria para resumir la experiencia y las lecciones, y emitir pautas técnicas, mejores prácticas y otros documentos para el diseño integrado ético.
**Finalmente, en términos de tecnología, es necesario continuar explorando enfoques técnicos y orientados al mercado para abordar los problemas éticos de la IA y crear aplicaciones de IA creíbles. **Uno es la herramienta ética de la IA. Muchos problemas en las aplicaciones de IA, como la explicabilidad, la equidad, la seguridad, la protección de la privacidad, etc., pueden resolverse mediante la innovación tecnológica. Centrándose en estos temas, la industria ha explorado algunas herramientas de ética de IA y herramientas de auditoría de IA, y el trabajo futuro en esta área debe desarrollarse más. El segundo es el servicio de ética de IA (Servicio AIEthicsasa). [23] Es un camino orientado al mercado. Las empresas líderes en ética de IA y las nuevas empresas de ética de IA desarrollan soluciones de IA responsables centradas en herramientas y servicios de ética de IA, y las brindan como servicios comerciales. [24] La firma de investigación y consultoría Forrester predice que cada vez más empresas de tecnología de IA y empresas en otros campos que aplican IA comprarán soluciones de IA responsables para ayudarles a implementar principios éticos de IA justos y transparentes, y el tamaño del mercado de servicios de ética de IA se duplicará. El tercero son los métodos de crowdsourcing de tecnología como AI Ethics Bounty. De manera similar a la recompensa por vulnerabilidad de seguridad de la red (recompensa por errores), la recompensa por discriminación de algoritmos (recompensa por sesgo algorítmico) y otros métodos técnicos de crowdsourcing ampliamente utilizados por las empresas de Internet, puede descubrir, identificar y resolver problemas éticos de IA, desarrollar herramientas de auditoría de IA y crear Las aplicaciones de IA confiables jugarán un papel importante. Algunas empresas extranjeras e instituciones universitarias de investigación, como Twitter y la Universidad de Stanford, lanzaron el Desafío de recompensas por discriminación algorítmica y el Desafío de auditoría de IA, convocando a los participantes a desarrollar herramientas para identificar y mitigar la discriminación algorítmica en los modelos de IA. Cultivar y fortalecer la comunidad ética de la IA a través de estos métodos de crowdsourcing tecnológico jugará un papel importante en la gobernanza de la IA.
La cooperación global en materia de gobernanza de la IA debe seguir profundizándose
Como se mencionó anteriormente, la gobernanza mundial de la IA presenta una situación competitiva que no se ajusta a los conceptos de tecnología abierta y compartida orientada a las personas y desarrollo inclusivo. Los países deben continuar profundizando la cooperación en la gobernanza internacional de la IA, promover la formulación de acuerdos internacionales sobre ética y gobernanza de la IA, formar un marco de gobernanza internacional de la IA, estándares y normas con amplio consenso, mejorar los intercambios y la colaboración en tecnología, talentos, industrias, etc. ., y oponerse al exclusionismo, promover la inclusión tecnológica y la tecnología para el bien, y lograr el desarrollo inclusivo de todos los países. La profunda participación de China en la gobernanza de la tecnología global debe aprovechar la nueva ronda de oportunidades de creación de normas internacionales en los campos de la IA y los datos, proponer continuamente soluciones de gobernanza de la IA que se ajusten al consenso global y continuar inyectando la sabiduría china en la gobernanza digital global y Gobernanza de la IA. Al mismo tiempo, necesitamos fortalecer nuestra voz internacional, integrar nuestras ideas, propuestas y prácticas en la comunidad internacional, luchar por un mayor reconocimiento y consenso, y aumentar nuestra voz e influencia.
De cara al futuro, con el desarrollo continuo de la tecnología de IA, la IA se volverá cada vez más poderosa, y la IA general (Inteligencia General Artificial, AGI para abreviar) puede aparecer en el futuro. Una IA general tendría un nivel de inteligencia equivalente al humano y sería capaz de realizar cualquier tarea intelectual de la que sea capaz un ser humano. En teoría, la IA general puede diseñar un mayor nivel de inteligencia, provocando una gran explosión de inteligencia, la llamada "singularidad", dando como resultado superinteligencia. De la aplicación de IA actual a la AGI futura, puede haber un salto del cambio cuantitativo al cambio cualitativo. Esto ha generado preocupaciones acerca de que AGI desplace los trabajos humanos, se salga de control e incluso amenace la existencia humana. Por lo tanto, para el desarrollo de la IA de propósito general y sus posibles problemas de seguridad y ética, el mundo debe planificar con anticipación y trabajar en conjunto para garantizar que la tecnología de IA sea más inclusiva, segura, confiable y controlable para el beneficio de toda la humanidad.
Este artículo apareció por primera vez en el número 4, 2023 de "Journal of Shanghai Normal University (Edición de Filosofía y Ciencias Sociales)"
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Hacia una IA responsable: tendencias y perspectivas de la gobernanza de la IA en China
Autor: Cao Jianfeng, investigador sénior, Instituto de Investigación Tencent
El siglo XXI es una era de desarrollo profundo de la digitalización, las redes y la inteligencia. La inteligencia artificial (IA), como tecnología clave, ha atraído mucha atención de todos los ámbitos de la vida. Los últimos diez años se consideran la "década dorada" de la IA representada por el aprendizaje profundo. ** [1] A través del aprendizaje profundo, la tecnología de redes neuronales (Neural Networks) en el campo de la IA marcó el comienzo de una recuperación, marcando el comienzo de la "tercera primavera" de rápido desarrollo en el campo de la IA. Antes de esto, desde que se propuso el concepto de "inteligencia artificial" en la Conferencia de Dartmouth en 1956, el campo de la IA ha experimentado dos altibajos. Específicamente, la convergencia y el desarrollo de muchos elementos técnicos como algoritmos de aprendizaje automático, big data, computación en la nube, chips específicos de IA y marcos de software de código abierto han promovido un tremendo progreso en el campo de la IA. Como resultado, la IA se ha convertido rápidamente una nueva tecnología de propósito general y la base inteligente de la economía y la sociedad, y es ampliamente utilizada en varios campos de la economía y la sociedad, trayendo nuevos productos y servicios. Desde recomendaciones de algoritmos, contenido generado por IA (AIGC) y chatbots en el campo de Internet del consumidor, hasta vehículos no tripulados en el campo industrial, software médico de IA, inspección de calidad de IA y varias aplicaciones convenientes en los servicios públicos sociales, la IA tiene un gran impacto. en la economía, se sigue demostrando el enorme valor del desarrollo social de calidad. [2] En resumen, como tecnología estratégica que lidera una nueva ronda de revolución tecnológica y transformación industrial (la cuarta revolución industrial), se espera que la IA remodele la economía humana y la sociedad, y tendrá un gran impacto en la productividad, el empleo laboral, la distribución del ingreso, globalización, etc.
**En este contexto, la IA se ha convertido en un nuevo foco de competencia internacional, y los países de todo el mundo han introducido estrategias de desarrollo de IA y políticas específicas para aprovechar las alturas de mando estratégicas y las oportunidades de desarrollo. ** En julio de 2017, China lanzó el "Plan de desarrollo de inteligencia artificial de nueva generación", y la IA se elevó a una estrategia nacional; en abril de 2018, la UE emitió una estrategia de IA, con el objetivo de convertir a la UE en un centro de IA de clase mundial y garantizar que la IA esté orientada a las personas, creíble; en febrero de 2019, se lanzó el "Plan estadounidense de IA", lanzando la estrategia de IA, con el objetivo de mejorar el liderazgo de los Estados Unidos en el campo de la IA; en septiembre de 2021, el Reino Unido emitió una estrategia de IA, con la esperanza de construir el Reino Unido para las superpotencias de IA. Analizando las estrategias de IA de varios países, no es difícil ver que la competencia internacional en el campo de la IA no solo está relacionada con la innovación tecnológica y la economía industrial, sino que también involucra dimensiones como la gobernanza de la IA. Con la aplicación generalizada de la IA, muchos problemas éticos científicos y tecnológicos provocados por la IA continúan atrayendo gran atención de todos los ámbitos de la vida, como la discriminación de algoritmos, el capullo de información, la toma de decisiones injustas de la IA, el abuso de la información personal y la violación de la privacidad, la IA seguridad, caja negra de algoritmos, responsabilidad, abuso de tecnología (como eliminación de big data, fraude de IA e información falsa sintética), impacto laboral y laboral, impacto ético y moral y otros desafíos de riesgo. [3] Por lo tanto, junto con el rápido desarrollo y la aplicación de la tecnología de IA en los últimos diez años, todos los ámbitos de la vida en el país y en el extranjero han promovido simultáneamente la gobernanza de la IA, explorado múltiples medidas de gobernanza y mecanismos de garantía como legislación, marcos éticos, estándares y certificación. y las mejores prácticas de la industria para apoyar el desarrollo de IA responsable, confiable y centrado en el ser humano.
Basado en una perspectiva internacional, este artículo clasifica el importante progreso de China en el campo de la gobernanza de la IA en los últimos diez años, analiza y resume las leyes y tendencias, y espera el desarrollo futuro. En el futuro previsible, a medida que la IA sea más capaz, su aplicación e impacto se profundizarán día a día, por lo que la IA responsable (Responsible AI) será cada vez más importante. El avance y la implementación de una IA responsable son inseparables de una gobernanza razonable y eficaz de la IA. En otras palabras, establecer una gobernanza sólida de la IA es la única forma de avanzar hacia una IA responsable y garantizar el desarrollo futuro de la IA. Se espera que este artículo sea útil para el desarrollo continuo y la implementación de la gobernanza de la IA en el futuro.
Ocho tendencias de la gobernanza de la IA
La estrategia macro y la política de implementación se desarrollan simultáneamente para cultivar la competitividad nacional de la IA
Desde que las "Opiniones de orientación sobre la promoción del desarrollo ordenado y saludable de Internet de las cosas" emitidas en febrero de 2013 propusieron "desarrollo económico y social inteligente", la IA ha entrado en el campo de visión de la estrategia macro nacional y se ha convertido en un tema importante. de documentos de política nacional de alto nivel. Por ejemplo, en 2015, las "Opiniones de orientación sobre la promoción activa de la acción "Internet Plus" propusieron por primera vez "cultivar y desarrollar industrias emergentes de inteligencia artificial". Desde entonces, el país ha prestado cada vez más atención a la IA y ha seguido realizando implementaciones para el desarrollo de la IA a nivel estratégico para garantizar que las tecnologías centrales sean autocontrolables y promuevan la autosuficiencia tecnológica de alto nivel y la autosuficiencia. dependencia (Tabla 1).
Con el apoyo continuo de la macroestrategia nacional y las políticas de implementación, la innovación y el espíritu empresarial en el campo de la IA en China han seguido activos. Se han establecido laboratorios nacionales en el campo de la IA uno tras otro, y se han logrado importantes logros. en innovación tecnológica, aplicación industrial y escala de talento en el campo de la IA. El "Informe del Índice de Innovación de Inteligencia Artificial Global 2021" publicado por el Instituto de Información Científica y Tecnológica de China muestra que el desarrollo global actual de IA presenta un patrón general liderado por China y Estados Unidos y una competencia feroz entre los principales países. [4] El desarrollo de la IA de China ha logrado resultados notables. El nivel de innovación de la IA ha entrado en el primer escalón del mundo y la brecha con los Estados Unidos se ha reducido aún más. Los centros de supercomputación de China, la escala empresarial de IA, el número de registros de patentes, la formación de equipos de talentos y la fuerza de la investigación científica son líderes en el mundo. En el futuro, la contribución de la IA al crecimiento económico y al desarrollo social de China seguirá aumentando. Un informe de investigación de PricewaterhouseCoopers predice que a nivel mundial, para 2030, la contribución de la IA a la economía mundial alcanzará los 15,7 billones de dólares estadounidenses, y China obtendrá los mayores beneficios económicos de la IA, alcanzando los 7 billones de dólares estadounidenses, lo que significa que la IA promoverá El crecimiento del PIB de China de alrededor del 26,1%, seguido por Estados Unidos y América del Norte, alcanzará los 3,7 billones de dólares estadounidenses. [5]
El sistema de ética científica y tecnológica se ha mejorado continuamente y se ha convertido en una garantía importante para la innovación de la IA
En la era digital, las tecnologías digitales emergentes, como la IA, tienen una singularidad y una complejidad que las diferencia de las aplicaciones tecnológicas de la era industrial. Se refleja principalmente en: (1) una conectividad más amplia, la conexión de red y la recopilación y el procesamiento de datos son ubicuos; (2) una mayor autonomía, el sistema de inteligencia artificial impulsa varios productos y servicios para operar de forma independiente sin intervención humana; (3) una opacidad más profunda, el "negro algorítmico caja" del sistema de IA es difícil de entender y explicar; [6] (4) Mayor fidelidad, el contenido, los datos y el mundo virtual generado y sintetizado por AI se están acercando a la realidad. Debido a esto, los problemas sociales y éticos que puede causar la aplicación de nuevas tecnologías como la IA se caracterizan cada vez más por lo repentino, el ocultamiento, la escala y la imprevisibilidad, lo que plantea nuevos desafíos para la gobernanza ética de la ciencia y la tecnología. En el proceso de desarrollo y aplicación de la IA, cada vez es más necesario e importante considerar simultáneamente o incluso considerar de antemano las cuestiones de ética científica y tecnológica. [7] El ajuste y la mejora del sistema de ética científica y tecnológica se ha convertido así en un tema importante en la era de la IA. Es necesario pasar de centrarse en la ética humana a centrarse en la ética técnica, implementar restricciones morales en los agentes inteligentes y construir un orden social digital amigable. [8] Además, con la competencia global cada vez más intensa en ciencia y tecnología, la ética de la ciencia y la tecnología no solo está relacionada con la prevención de riesgos y desafíos de seguridad tecnológica, sino también con la construcción de competitividad tecnológica nacional.
**Desde el 18º Congreso Nacional del Partido Comunista de China, el estado ha prestado cada vez más atención a la ética de la ciencia y la tecnología. Ha declarado claramente que la ética de la ciencia y la tecnología es un criterio de valor que debe seguirse en las actividades científicas y tecnológicas. , y ha incorporado la ética de la ciencia y la tecnología en el diseño de políticas de alto nivel como un importante apoyo y garantía para la innovación científica y tecnológica. ** "Decisión del Comité Central del Partido Comunista de China sobre Adherirse y Mejorar el Sistema Socialista con Características Chinas y Promover la Modernización del Sistema Nacional de Gobierno y Capacidades de Gobierno" y "El Decimocuarto Plan Quinquenal y Esquema de Largo Los objetivos a largo plazo para 2035 "han realizado despliegues de alto nivel para la ética de la ciencia y la tecnología. Se requiere mejorar el sistema de gobernanza de la ética científica y tecnológica y mejorar el sistema de ética científica y tecnológica. En la actualidad, el país continúa estableciendo y mejorando el sistema de ética de la ciencia y la tecnología, y da forma al concepto cultural y al mecanismo de garantía de la ciencia y la tecnología para siempre. Se refleja principalmente en los siguientes tres aspectos:
**Primero, establecer el Comité Nacional de Ética en Ciencia y Tecnología, el cual es responsable de orientar, coordinar y promover la construcción del sistema nacional de gobernanza ética en ciencia y tecnología. **En julio de 2019, la Novena Reunión del Comité Central de Reforma de Profundización Integral revisó y aprobó el "Plan de Formación del Comité Nacional de Ética de Ciencia y Tecnología", estableciendo oficialmente la organización nacional de gestión de ética de ciencia y tecnología de China. Las "Opiniones sobre el fortalecimiento de la gobernanza de la ética de la ciencia y la tecnología" emitidas en marzo de 2022 aclararon aún más las responsabilidades de gestión del Comité Nacional de Ética de la Ciencia y la Tecnología.
**Segundo, promulgar políticas y reglamentos relacionados con la ética de la ciencia y la tecnología para apoyar la implementación de la gobernanza de la ética de la ciencia y la tecnología. ** Uno de los puntos destacados de la "Ley de Progreso Científico y Tecnológico" revisada en diciembre de 2021 es la adición de disposiciones relacionadas sobre ética científica y tecnológica. Sujetos tales como instituciones de educación superior, empresas e instituciones públicas desempeñarán la responsabilidad principal de la ciencia y la gestión de la ética tecnológica, llevar a cabo una revisión ética de las actividades científicas y tecnológicas y, al mismo tiempo, aclarar el resultado legal y ético de las actividades de investigación, desarrollo y aplicación científica y tecnológica. Las "Opiniones sobre el fortalecimiento de la gobernanza ética de la ciencia y la tecnología" plantean requisitos más completos para la gobernanza ética de la ciencia y la tecnología, que involucran seis aspectos principales: requisitos generales, principios, sistemas, garantías institucionales, revisión y supervisión, educación y publicidad, y sienta las bases para la implementación de la gobernanza ética de la ciencia y la tecnología La implementación sentó las bases. El seguimiento también formulará normas de apoyo tales como los métodos de revisión para la ética científica y tecnológica, la lista de actividades científicas y tecnológicas de alto riesgo en la ética científica y tecnológica, y las normas de ética científica y tecnológica en los campos subdivididos.
**Tercero, enfatizar la gobernanza ética de la ciencia y la tecnología en el campo de la IA. **El Comité Nacional Profesional de Gobernanza de Inteligencia Artificial de Nueva Generación ha emitido sucesivamente los "Principios de Gobernanza de Inteligencia Artificial de Nueva Generación - Desarrollo de Inteligencia Artificial Responsable" y "Ética de Inteligencia Artificial de Nueva Generación", proporcionando pautas éticas para el desarrollo de IA responsable. La "Ley de seguridad de datos", el "Reglamento de gestión de recomendaciones de algoritmos de servicios de información de Internet", las "Opiniones de orientación sobre el fortalecimiento de la gobernanza integral de los algoritmos de servicios de información de Internet" y otras leyes y reglamentos presentan requisitos éticos científicos y tecnológicos y medidas de gestión de datos y algoritmos. actividades. Las "Opiniones sobre el fortalecimiento de la gobernanza de la ética de la ciencia y la tecnología" consideran que la IA, las ciencias de la vida y la medicina son las tres áreas clave durante el período del "14.º Plan quinquenal", y requieren la formulación de normas y directrices especiales de ética de la ciencia y la tecnología, fortalece la legislación sobre ética de la ciencia y la tecnología y exige a los ejecutivos de la industria relevantes El departamento lanzó una medida de supervisión de la ética científica y tecnológica. Es previsible que la regulación de la ética tecnológica en el campo de la IA se refuerce en el futuro. Además, la legislación a nivel local, como el "Reglamento de promoción de la industria de inteligencia artificial de Shenzhen" y el "Reglamento de Shanghai sobre la promoción del desarrollo de la industria de inteligencia artificial", consideran que la gobernanza ética de la IA es una garantía importante para apoyar el desarrollo saludable de la IA. industria.
**Del análisis anterior, se puede ver que en términos de la gobernanza de la ética de la ciencia y la tecnología de IA, una tendencia significativa es asumir la responsabilidad del tema de la gestión de la ética de la ciencia y la tecnología como el principal punto de partida, que es similar al énfasis en la responsabilidad del sujeto de plataforma en la supervisión de plataformas de Internet, cierta similitud. **La supervisión de la plataforma por parte del gobierno se logra en gran medida a través de la implementación y consolidación de la responsabilidad principal de la plataforma. La legislación relevante en el campo de Internet ha establecido un sistema integral de obligación de la plataforma antes, durante y después del evento. La Administración Estatal de Mercado La supervisión emitió Las "Directrices para implementar las responsabilidades de los sujetos en las plataformas de Internet (borrador para comentarios)" trató de refinar las responsabilidades de los sujetos de los diferentes tipos de plataformas. La regulación gubernamental de la IA muestra una idea similar. Las políticas y regulaciones relevantes actuales intentan refinar las responsabilidades de los sujetos de gestión de la ética científica y tecnológica, exigiendo a los sujetos de innovación que establezcan comités de ética, se adhieran a la base de la ética científica y tecnológica, realicen una revisión de la ética científica y tecnológica, lleven a cabo un seguimiento, alertar y evaluar los riesgos de ética científica y tecnológica, y realizar capacitaciones en ética científica y tecnológica.
La aplicación de algoritmos en el campo de Internet se ha convertido en el objeto clave de la supervisión de la IA
La recomendación de algoritmos, la toma de decisiones automatizada de algoritmos, la síntesis profunda de IA y otras aplicaciones de algoritmos en el campo de Internet se han convertido en el foco de la supervisión gubernamental en el campo de la IA debido a factores como la amplia aplicación, la gran atención del público y el continuo resaltado de problemas negativos. . En los últimos años, el estado ha promulgado una serie de leyes y reglamentos para regular activamente la aplicación de algoritmos en el campo de Internet. [9] Las "Opiniones de orientación sobre el fortalecimiento de la gobernanza integral de los algoritmos del servicio de información de Internet" emitidas por la Oficina Estatal de Información de Internet y otros nueve departamentos presentan requisitos de gestión relativamente completos. Se espera que en unos tres años, un mecanismo de gobernanza sólido, una supervisión sólida sistema, y un estándar ecológico algorítmico se establecerá gradualmente Patrón de gobernanza integral de seguridad algorítmica. La opinión también enfatiza el fortalecimiento de las responsabilidades corporativas, incluidas las responsabilidades de seguridad de algoritmos y la revisión de la ética científica y tecnológica.
En materia de recomendación de algoritmos, el “Reglamento sobre la Gobernanza Ecológica de los Contenidos de Información en Red” propone mejorar el mecanismo de intervención humana y autoselección de usuarios para la tecnología de recomendación de algoritmos. El "Reglamento sobre la administración de recomendaciones de algoritmos para servicios de información de Internet”, que se implementará el 1 de marzo de 2022, es la primera legislación de China que se centra en la gobernanza de algoritmos. Una serie de medidas regulatorias como el monitoreo de riesgos de seguridad, la evaluación de seguridad de algoritmos y la gestión de archivos de algoritmos ha fortalecido aún más la responsabilidad de seguridad de los algoritmos de las empresas de plataformas. Los expertos de la industria tomaron esto como una señal y llamaron a 2022 el primer año de regulación de algoritmos.
En términos de toma de decisiones algorítmicamente automatizada, la "Ley de Protección de Información Personal de la República Popular China", la "Ley de Comercio Electrónico de la República Popular China", las "Disposiciones Provisionales sobre Servicios de Gestión de Turismo en Línea" y otras disposiciones tienen relevancia disposiciones sobre discriminación de algoritmos, familiarización con big data, etc. Con el fin de regular los comportamientos legítimos de toma de decisiones de algoritmos, se proponen métodos de regulación como otorgar a las personas derechos de elección, llevar a cabo evaluaciones de impacto, y las personas pueden solicitar explicaciones y disfrutar de derechos de rechazo. equilibrar la protección de los derechos personales y las actividades de aplicación comercial de los algoritmos.
En términos de síntesis profunda de IA (principalmente en referencia al uso de tecnología de IA para generar y sintetizar contenido de información), la legislación relevante delinea activamente la línea roja para la aplicación de la tecnología de síntesis profunda de IA y promueve la aplicación positiva de la tecnología, como la " Reglamento de Gestión del Servicio de Información de Audio y Video en Red", "Red El Reglamento de Gobernanza Ecológica de Contenido de Información, el Reglamento de Administración de Recomendaciones de Algoritmos de Servicios de Información de Internet, etc. prohíben el uso de algoritmos de síntesis profunda para información de noticias falsas y otras actividades ilegales . El "Reglamento sobre la administración de la síntesis profunda de los servicios de información de Internet" aprobado en noviembre de 2022 resume la experiencia regulatoria pasada y regula de manera integral la aplicación de la tecnología de síntesis profunda en términos de la responsabilidad principal de los proveedores de servicios de síntesis profunda y la gestión del contenido de información de síntesis profunda. identificación Las medidas de seguridad necesarias, como la identificación, detección e identificación, y la trazabilidad del contenido garantizan que la aplicación de la tecnología de síntesis profunda sea segura y confiable, y promuevan mejor la innovación y el desarrollo tecnológico y las aplicaciones positivas.
En general, la supervisión de algoritmos en el campo de Internet enfatiza múltiples propósitos, como seguridad y control, protección de derechos e intereses, equidad y justicia, apertura y transparencia, y prevención de abusos. Sobre la base de la clasificación y clasificación de aplicaciones de algoritmos, se enfoca en regular aplicaciones de algoritmos de alto riesgo. La regulación de la calificación y clasificación de algoritmos es similar a la regulación de los sistemas de IA en la Ley de Inteligencia Artificial de la Unión Europea. En este contexto, la comunidad académica tiene un gran interés en la investigación de la gobernanza algorítmica y ha propuesto muchas ideas, como la interpretación de algoritmos, la evaluación del impacto de algoritmos y la auditoría de algoritmos. En el futuro, todos los ámbitos de la vida deben explorar y mejorar más los métodos y las medidas de gobernanza de la supervisión de algoritmos, para garantizar mejor que la aplicación de algoritmos sea ascendente y buena.
Uso de la innovación regulatoria para promover la aplicación de IA en campos regulatorios sólidos tradicionales
Para los campos regulatorios fuertes tradicionales, como el transporte y la atención médica, el principal problema que enfrentan las cosas nuevas, como los automóviles autónomos, los drones tripulados (autos voladores no tripulados), el software médico de IA, etc., es que sus aplicaciones comerciales aún enfrentan mayores desafíos legales. y obstáculos normativos. Estas barreras no solo afectan la confianza de los consumidores y el público en la tecnología, sino que también desalientan a los innovadores e inversores. Por lo tanto, la innovación regulatoria efectiva es la clave para el desarrollo y la aplicación de estas cosas nuevas. Tomando como ejemplo los automóviles autónomos, la aplicación comercial de los automóviles autónomos solo puede acelerarse acelerando la reforma del marco legislativo y regulatorio destinado a regular los automóviles tradicionales y los conductores humanos, y luego estableciendo un marco regulatorio nuevo y efectivo.
Los formuladores de políticas de China están innovando activamente métodos y medios regulatorios, y apoyan y promueven la aplicación de nuevas cosas de IA a través del "Regulatory Sandbox" (Regulatory Sandbox, consulte la introducción a continuación), proyectos piloto y aplicaciones de demostración. En el campo de los autos sin conductor, el estado ha emitido una serie de leyes y documentos normativos para alentar, apoyar y regular las actividades de aplicación de prueba y demostración en carretera de los autos sin conductor, explorar el "cajón de arena regulatorio" de los estándares de seguridad para autos -coches de conducción, y mejorar la estandarización de los coches autónomos.Reglas de paso para entrar y entrar en la carretera para garantizar la seguridad del transporte de coches autónomos. Debido a las políticas regulatorias favorables, lugares como Beijing, Shanghái, Guangzhou y Shenzhen se han apoderado de las tierras altas de desarrollo una tras otra. Algunas ciudades han emitido licencias de operación de prueba para automóviles autónomos que no permiten a ningún conductor en el automóvil y pueden operarse por una tarifa ; Shenzhen es el primero en el país en emitir el "El Reglamento sobre la Administración de Vehículos Conectados Inteligentes de Shenzhen establece un marco legislativo y regulatorio para aplicaciones comerciales. En el campo de la atención médica de IA, debido a que el software médico de IA tiene muchas características nuevas diferentes de los dispositivos médicos tradicionales, que incluyen capacidades de autonomía, aprendizaje y evolución, iteración continua, caja negra de algoritmos, imprevisibilidad, etc., es difícil que los procedimientos de aprobación tradicionales Adaptarse efectivamente a la atención médica de IA Necesidades de desarrollo de software. Con este fin, las autoridades reguladoras están mejorando activamente la declaración de registro y los procedimientos de aprobación y las especificaciones de gestión de uso de los dispositivos médicos de IA, y respaldan la aplicación clínica acelerada del software médico de IA para el diagnóstico y tratamiento auxiliares, como imágenes médicas inteligentes; actualmente, la IA médica El software ha sido aprobado en China, como el software de diagnóstico de glaucoma asistido por IA de Tencent Miying y el sistema de diagnóstico asistido por IA de neumonía, ambos han sido aprobados para el certificado de registro de dispositivos médicos de tercera clase ("tres tipos de certificados"). En el futuro, las autoridades reguladoras deben continuar mejorando y optimizando los procedimientos de registro, solicitud y aprobación para el software médico de IA, de modo que las aplicaciones médicas de IA puedan mejorar el sustento y el bienestar de las personas.
Acelere la exploración de las reglas de protección de la propiedad intelectual de la IA
El contenido generado por IA (Contenidos generados por IA, AIGC para abreviar) se ha convertido en una nueva frontera de la IA y representa la dirección de desarrollo futuro de la IA. [10] . En el campo de Internet, AIGC es la forma de producción de contenido después de PGC (producción de contenido profesional) y UGC (contenido de producción de usuario), provocando un gran cambio en la producción de contenido automatizado. En la actualidad, la tecnología AIGC ha podido producir de forma independiente varias formas de contenido, incluidos texto, imágenes, audio, video, contenido 3D (objetos 3D, escenas virtuales 3D), etc. Las normas de protección de los derechos de propiedad intelectual para la tecnología AIGC y sus aplicaciones se han convertido, por lo tanto, en un tema importante que no se puede evitar. Cuestiones como "cómo establecer la protección de los derechos de autor y la propiedad del contenido AIGC" y "si la tecnología AIGC infringe los derechos de autor de otras personas". contenido" son cuestiones urgentes que deben resolverse. [11] Algunos académicos extranjeros han sugerido que es necesario establecer normas especiales de protección de la propiedad intelectual de la IA y tratados internacionales, porque la tecnología de la IA rompe el modelo existente de que los creadores e inventores solo pueden ser seres humanos. [12]
En el país y en el extranjero, se han explorado activamente las normas de protección de la propiedad intelectual para el contenido generado por IA. En el extranjero, el Reino Unido, la Unión Europea, Japón, Sudáfrica, etc. están considerando o han formulado reglas especiales de protección de la propiedad intelectual de IA, como las cláusulas de protección de obras generadas por computadora en la "Ley de derechos de autor, diseño y patentes" británica. y la "Directiva de derechos de autor del mercado digital único" de la Unión Europea "Excepciones de derechos de autor de minería de datos y texto basadas en tecnología de inteligencia artificial, etc. En términos de patentes, la política del Reino Unido señala que dado que la IA aún no está lo suficientemente avanzada como para inventar y crear de forma independiente, no es necesario modificar la ley de patentes en este momento, pero es necesario prestar mucha atención al progreso tecnológico y evaluar la IA. problemas de patentes de manera oportuna.
En China, en el caso de Beijing Film Law Firm contra el caso de infracción de derechos de autor "Baijiahao" de Baidu, el tribunal sostuvo que solo las obras originales creadas por personas físicas pueden obtener protección de derechos de autor, negando así los derechos de autor de las obras generadas directa e independientemente por AI. Sin embargo, señala señalar que los derechos e intereses relevantes (como los derechos e intereses competitivos) del contenido generado por IA pueden protegerse a través de las leyes de competencia y otros medios. En el caso de Shenzhen Tencent Computer System Co., Ltd. v. Shanghai Yingxun Technology Co., Ltd. por infracción de derechos de autor y disputas de competencia desleal, el tribunal, basándose en la realidad de la colaboración humano-computadora en el campo de la IA, señaló que las obras técnicamente "generadas" del software de escritura de IA Dreamwriter son solo creaciones. Como vínculo en el proceso, la actividad intelectual general formada por la división del trabajo de múltiples equipos y personas organizada por el demandante es el eslabón medular de la creación, y por lo tanto se determina que el objeto objeto de la causa es una persona jurídica obra alojada por la actora. La determinación del caso del escritor Dream está más en línea con el desarrollo actual de la tecnología AIGC y sus aplicaciones, y tiene una gran importancia de referencia para aclarar aún más las reglas de protección de la propiedad intelectual para el contenido generado por IA a través de la legislación en el futuro. En cuanto a la legislación, la "Ley de derechos de autor de la República Popular China" recientemente revisada en 2020 adopta un método abierto de identificación de obras. Si bien aclara la composición de las obras y enumera los principales tipos de obras, también estipula un intercambio abierto de ida y vuelta. cláusulas, proporcionando AIGC y otras nuevas tecnologías La protección de los nuevos objetos provocados por las aplicaciones reserva espacio institucional.
La construcción de estandarización es una parte clave de la gobernanza de la IA
**El "Esbozo de desarrollo de la normalización nacional" señaló que la normalización juega un papel fundamental y de liderazgo en la promoción de la modernización del sistema de gobernanza nacional y las capacidades de gobernanza. Para el campo de la IA, los estándares de la IA no solo son un medio importante para apoyar y promover el desarrollo, el progreso y la amplia aplicación de la IA (como los estándares técnicos), sino también una forma efectiva de promover la implementación de la gobernanza de la IA (como la gobernanza). estándares, estándares éticos), porque los estándares de gobierno de AI pueden desempeñar un papel importante en "aplicar legislación y supervisión, y acoplar la práctica técnica". Además, los estándares en el campo de la gobernanza de la IA son más ágiles, flexibles y adaptables que la legislación y la regulación. Por lo tanto, los estándares de gobernanza de la IA se han convertido en un punto de referencia en el desarrollo de la tecnología y la industria de la IA, y la comunidad internacional ha propuesto medidas de implementación. **Los representantes típicos incluyen los estándares confiables de IA de la Unión Europea, la gestión de riesgos de IA dirigida por el Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU., la identificación de discriminación de IA y otros estándares de gobernanza, el plan de desarrollo del ecosistema de certificación de IA del Reino Unido, los estándares de ética de IA de IEEE, etc.. En términos de implementación, IEEE ha lanzado un proyecto de certificación de ética de IA para la industria; el Reino Unido espera cultivar una industria de certificación de IA líder en el mundo con un valor de miles de millones de libras en 5 años y aprobar los servicios de certificación de IA de un tercero neutral (incluyendo auditoría, evaluación de influencia, certificación) para evaluar y comunicar la credibilidad y el cumplimiento de los sistemas de IA.
**China otorga gran importancia a la construcción de estandarización en el campo de la IA. El "Esquema de desarrollo de estandarización nacional" requiere investigación de estandarización en los campos de la IA, la información cuántica y la biotecnología. **En los últimos años, todos los ámbitos de la vida han seguido promoviendo la estandarización de estándares nacionales, estándares de la industria, estándares locales y estándares grupales en el campo de la gobernanza de la IA. Por ejemplo, el Comité Nacional de Gestión de Normalización estableció el Grupo General Nacional de Normalización de Inteligencia Artificial, y el Comité Técnico Nacional de Normalización de Tecnologías de la Información estableció el Comité Subtécnico de Inteligencia Artificial, los cuales tienen como objetivo promover la formulación de estándares nacionales en el campo de la IA. . Las "Directrices para la construcción del sistema estándar nacional de inteligencia artificial de nueva generación" emitidas en julio de 2020 aclaran el diseño de alto nivel en el campo de los estándares de IA. AI establece un sistema de cumplimiento para promover el desarrollo saludable y sostenible de la IA. En el futuro, los estándares relacionados con la gobernanza de la IA deben formularse e implementarse más rápidamente, a fin de brindar más garantías para la innovación tecnológica y el desarrollo industrial en el campo de la IA.
La industria explora activamente medidas de autodisciplina para el gobierno de la IA y practica el concepto de innovación y tecnología responsables para siempre
**La gobernanza eficaz de la IA requiere la participación conjunta de múltiples sujetos, como el gobierno, las empresas, las organizaciones industriales, los grupos académicos, los usuarios o consumidores y el público.Entre ellos, el autogobierno y la gestión de la autodisciplina de las empresas de tecnología es un parte importante de la implementación del concepto de "la ética primero". **La razón para llamar a "la ética primero" se debe en gran medida al hecho de que, frente al rápido desarrollo de la IA, el fenómeno del "retraso legal" se ha vuelto cada vez más prominente. En el campo de la IA, la "ética primero" se manifiesta primero en la gestión autodisciplinar de la ética tecnológica de las empresas de tecnología, y las mejores prácticas de las empresas líderes a menudo pueden desempeñar un papel de liderazgo muy bueno, promoviendo la práctica de la innovación y la tecnología responsables. para siempre en toda la idea de la industria.
A nivel de la industria, en los últimos años, instituciones de investigación relevantes y organizaciones de la industria han propuesto pautas éticas de IA y convenciones de autodisciplina para brindar orientación ética para las actividades de IA de las empresas. Los representantes típicos en este sentido incluyen la "Convención de autodisciplina de la industria de inteligencia artificial" y las "Directrices de operación de IA de confianza" de la Alianza para el desarrollo de la industria de inteligencia artificial de China (AIIA), el "Consenso de Beijing de inteligencia artificial" y el "Consenso de inteligencia artificial" de Beijing. Instituto de Investigación de Inteligencia Artificial de Zhiyuan. Declaración de responsabilidad de la industria", "Pautas de práctica estándar de seguridad de red: pautas para la prevención de riesgos de seguridad ética de inteligencia artificial" del Comité Nacional de Estandarización de Seguridad de la Información, etc.
A nivel empresarial, las empresas de tecnología, como cuerpo principal de la innovación tecnológica y la aplicación industrial de la IA, asumen la importante responsabilidad de la investigación y el desarrollo responsables y la aplicación de la IA. En países extranjeros, las empresas de tecnología han explorado una experiencia relativamente madura y han acumulado una gran cantidad de recursos a partir de la propuesta de principios éticos de IA, el establecimiento de organizaciones internas de gobierno ético de IA y el desarrollo de herramientas técnicas y de gestión e incluso soluciones comerciales de IA responsables. [13] . En los últimos años, las empresas de tecnología nacionales han implementado activamente requisitos reglamentarios y explorado medidas de autorregulación relevantes, que incluyen principalmente: publicar principios éticos de IA, establecer organizaciones internas de gobierno de IA (como comités de ética), realizar revisiones éticas o evaluaciones de riesgos de seguridad para actividades de IA. y divulgar algoritmos al mundo exterior Información relevante, promover la apertura y la transparencia de los algoritmos y explorar soluciones técnicas para problemas éticos de IA (como herramientas de detección e identificación para contenido de información sintética, herramientas de evaluación de gobernanza de IA y soluciones informáticas de privacidad como como aprendizaje federado), etc.
**La competencia global de IA no es solo una competencia entre tecnología e industria, sino también una competencia entre reglas y estándares de gobernanza. **El desarrollo de la economía digital global está formando nuevas reglas internacionales para la IA y los datos, como el flujo de datos, el marco de gobernanza de la IA, etc. En los últimos años, la cooperación global en materia de gobernanza de la IA ha seguido avanzando. Los Principios de IA de la OCDE/G20 de 2019 son el primer marco global de políticas de IA. En noviembre de 2021, la UNESCO de las Naciones Unidas aprobó el primer acuerdo de ética de IA del mundo "Recomendación sobre la ética de la inteligencia artificial" (Recomendación sobre la ética de la inteligencia artificial), que actualmente es el marco de políticas de IA global más completo y ampliamente consensuado. , evaluación del impacto ético y otros mecanismos para fortalecer la gobernanza ética de la IA.
Al mismo tiempo, Estados Unidos y Europa están acelerando las políticas de IA para fortalecer su liderazgo en el campo de las políticas de IA e influir en las normas y estándares de gobernanza global de IA. Por ejemplo, la Unión Europea está trabajando en un proyecto de ley de IA armonizado que, cuando se espera que se apruebe en 2023, establecerá una vía regulatoria integral y basada en el riesgo para la IA. Muchos expertos predicen que, al igual que el impacto de la anterior legislación de privacidad de datos RGPD en la industria tecnológica global, la Ley de IA de la UE extenderá el "Efecto Bruselas" al campo de la IA, que es exactamente lo que la UE espera establecer para la gobernanza de la IA. para el mundo a través de la regulación. [14] Además de la legislación de IA, el Consejo de Europa todavía está preparando la primera "Convención Internacional de IA" del mundo. Al igual que la "Convención de Ciberdelincuencia" y la "Convención de Privacidad" anteriores, tanto los estados miembros como los no miembros pueden unirse y ratificar la futura IA. convención. [15] Estados Unidos siempre ha sido un líder mundial en el campo de la IA en términos de tecnología e industria, y en los últimos años ha comenzado a remodelar activamente su liderazgo en el campo de la política de IA. Una de las tareas principales del Consejo de Comercio y Tecnología EE. UU.-UE establecido en 2020 es promover la cooperación EE. UU.-UE en la gobernanza de la IA. [16] En conclusión, la competencia global de IA enfatiza cada vez más la competencia de poder blando en el campo de la política y la gobernanza de la IA, lo que se puede decir que representa un cambio importante en la competencia tecnológica en el siglo XXI.
En los últimos años, China ha otorgado gran importancia a la participación en la gobernanza mundial de la ciencia y la tecnología, ha presentado activamente sus propias propuestas y se ha esforzado por lograr un mayor reconocimiento y consenso. Por ejemplo, China ha presentado la "Iniciativa de seguridad de datos globales", que continúa inyectando energía positiva en la gobernanza digital global. En noviembre de 2022, en la Conferencia de los Estados Partes de la Convención de las Naciones Unidas sobre Ciertas Armas Convencionales, China presentó un documento sobre el fortalecimiento de la gobernanza ética de la inteligencia artificial y presentó propuestas como adherirse primero a la ética, fortalecer la autodisciplina, uso responsable de la inteligencia artificial, y fomento de la cooperación internacional.
PERSPECTIVA DE TRES PUNTOS
Muchas políticas y documentos normativos como "El 14.º plan quinquenal y el esquema de objetivos a largo plazo en 2035", "Construcción del estado de derecho en China (2020-2025)", "Opiniones sobre el fortalecimiento de la gobernanza ética de Ciencia y tecnología" y otras políticas y documentos normativos muestran que la gobernanza de la IA continúa convirtiéndose en un tema importante en la gobernanza de la ciencia y la tecnología. Áreas centrales de la ética tecnológica. Para mejorar aún más la competitividad global de China en el campo de la IA, China no solo debe prestar más atención al cultivo de la tecnología y el poder duro industrial, sino que también debe centrarse en dar forma al poder blando, especialmente el derecho a hablar y liderar la política y la gobernanza de la IA. . Porque la gobernanza de la IA se ha convertido en una parte importante de la competitividad global de la IA.
Mirando hacia atrás en el pasado, China ha aclarado la idea de la supervisión y la gobernanza de la IA que presta la misma atención al desarrollo y la seguridad, y es paralela a la innovación y la ética. Mientras apoya y promueve la innovación y el desarrollo, también garantiza la seguridad, la confiabilidad y la controlabilidad. de aplicaciones tecnológicas. De cara al futuro, debemos hacer un mejor uso de los esfuerzos conjuntos del gobierno, las industrias/empresas, las instituciones de investigación, las organizaciones sociales, los usuarios/consumidores, el público, los medios de comunicación y otras partes interesadas para continuar promoviendo el desarrollo sólido de la IA. prácticas de gobernanza y hacer que la IA mejor beneficie el desarrollo económico y social, mejore los medios de vida y el bienestar de las personas e impulse la ciencia y la tecnología a un nivel superior.
Además, la última "década dorada" de la IA ha traído a las personas modelos de IA cada vez más poderosos y, en el futuro previsible, la IA solo se volverá más poderosa. Esto significa que cuando la IA interactúe con el ecosistema social, sus posibles impactos humanos, sociales y ambientales superarán con creces cualquier tecnología anterior. Por lo tanto, la tarea principal de la gobernanza de la IA es continuar defendiendo y practicando el concepto de "IA responsable"; crear valor para las partes interesadas y mejorar su bienestar, y prevenir el abuso, el uso indebido y el mal uso. En resumen, la gobernanza eficaz de la IA debe promover el desarrollo de prácticas de IA responsables y crear una IA confiable (IA confiable).
Continuar mejorando el marco legal de datos e IA, y promover una supervisión precisa y ágil
El desarrollo saludable y sostenible de la IA es inseparable de una supervisión razonable y eficaz, por un lado, y por otro lado, necesita mejorar continuamente el nivel de suministro, circulación y utilización de datos en el campo de la IA. De hecho, uno de los principales problemas que enfrenta el desarrollo y la aplicación de la IA en muchos campos, como la atención médica, la fabricación y las finanzas, es el problema de la adquisición y utilización de datos, incluida la adquisición de datos difícil, la calidad deficiente de los datos y los estándares de datos inconsistentes. Por lo tanto, el mayor desarrollo de la IA en el futuro depende en gran medida de la mejora continua del marco legal de datos e IA. El "Plan de Regulación Digital" del Reino Unido propone que una regulación bien diseñada puede tener un efecto poderoso en la promoción del desarrollo y la configuración de una economía y una sociedad digitales vibrantes, pero una regulación mal diseñada o restrictiva puede obstaculizar la innovación. Las reglas correctas pueden ayudar a las personas a confiar en los productos y servicios que utilizan, lo que a su vez impulsará la popularidad de los productos y servicios y un mayor consumo, inversión e innovación. [17] Lo mismo es cierto para la IA.
** Por un lado, para la gobernanza de la IA, es necesario promover mejor una supervisión precisa y ágil. Esto incluye: Primero, adoptar diferentes reglas para diferentes productos, servicios y aplicaciones de IA. **Debido a que las aplicaciones de IA son casi omnipresentes ahora, es difícil que una regla única se adapte razonablemente a las características únicas de las aplicaciones de IA en diferentes industrias y campos y su impacto en las personas y la sociedad. Esto requiere que adoptemos un marco de política de gobernanza de IA basado en el riesgo. Por ejemplo, la misma tecnología de IA se puede usar no solo para analizar y predecir los atributos personales y las preferencias personales del usuario, y para impulsar contenido personalizado, sino también para ayudar en el diagnóstico y tratamiento de enfermedades; la clasificación y la organización también se pueden usar para identificar tumores cancerosos. Estas aplicaciones tienen grandes diferencias en términos de nivel de riesgo, importancia de los resultados e impacto personal y social. Obviamente, no es científico ni realista presentar requisitos regulatorios de una manera general y única. **En segundo lugar, enfatiza la adopción de una supervisión descentralizada y diferenciada sobre la base de la calificación y clasificación de las aplicaciones de IA. **Al igual que Internet, la IA es una tecnología muy amplia y de uso general, que no es adecuada y dificulta la supervisión unificada. Desde una perspectiva exterior, actualmente solo la Unión Europea está tratando de establecer un marco regulatorio unificado y general para todas las aplicaciones de IA (el modelo de la UE), mientras que el Reino Unido y los Estados Unidos enfatizan la supervisión descentralizada de las industrias en función de los escenarios de aplicación y los riesgos ( el modelo angloamericano). El Reino Unido propone guiarse por principios y adoptar una supervisión que promueva la innovación en las aplicaciones de IA. Sus conceptos centrales incluyen: centrarse en escenarios de aplicación específicos y garantizar la proporcionalidad y adaptabilidad de la supervisión en función del grado de riesgo; [18] Estados Unidos siempre ha enfatizado un camino de gobernanza que combina la regulación de la industria y la autodisciplina de la industria. Por ejemplo, el "Plan de la Declaración de Derechos de AI" no solo propone cinco principios, sino que también aclara la idea de una regulación descentralizada dirigida por las autoridades de la industria. y aplicación orientada a escenarios. [19] En lo que respecta a China, la legislación y la supervisión de la IA en el pasado están más cerca del modelo angloamericano, es decir, se formulan reglas regulatorias separadas para diferentes aplicaciones de IA, como servicios de recomendación de algoritmos, síntesis profunda y conducción autónoma. Este modelo regulatorio descentralizado y diferenciado se ajusta a los principios de la gobernanza ágil y puede adaptarse mejor a las complejas características del rápido desarrollo y la iteración de la tecnología de IA y sus aplicaciones. **Tercero, exige la innovación continua de la caja de herramientas regulatorias y la adopción de iniciativas regulatorias diversificadas. Uno es el "sandbox regulatorio" de la IA. ** Una de las principales iniciativas de la Unión Europea en materia de regulación de la IA es el "sandbox regulatorio" de la IA propuesto. [20] Como una forma efectiva de apoyar y promover la comunicación y la colaboración entre los reguladores y los sujetos de innovación, el "sandbox regulatorio" puede proporcionar un entorno controlado para desarrollar, probar y verificar el cumplimiento de las aplicaciones de IA innovadoras. Las mejores prácticas y las pautas de implementación generadas a partir del "sandbox regulatorio" ayudarán a las empresas, especialmente a las pequeñas, medianas y microempresas y empresas emergentes, a implementar las normas regulatorias. **El segundo son los servicios sociales de gobernanza de IA, incluidos los estándares de gobernanza de IA, la certificación, las pruebas, la evaluación, la auditoría, etc. **En el campo de la seguridad de la red, los servicios sociales de seguridad de la red, como la certificación, las pruebas y la evaluación de riesgos de la seguridad de la red, son una forma importante de implementar los requisitos reglamentarios. La gobernanza de la IA puede aprender de este enfoque. Actualmente, la Unión Europea, el Reino Unido, los Estados Unidos y el IEEE están promoviendo los servicios sociales de gobernanza de la IA. Por ejemplo, IEEE ha lanzado la certificación de ética de IA para la industria; [21] La "Hoja de ruta para establecer un ecosistema de certificación de IA efectivo" emitida por el Reino Unido espera cultivar una industria de certificación de IA líder en el mundo, a través de servicios de certificación de IA de terceros neutrales (incluida la evaluación de impacto, auditoría de sesgo y auditoría de cumplimiento, certificación, evaluación de cumplimiento) , pruebas de rendimiento, etc.) para evaluar y comunicar la credibilidad y el cumplimiento de los sistemas de IA. El Reino Unido cree que esta será una nueva industria con un valor de miles de millones de libras. [22] China necesita acelerar el establecimiento de un sólido sistema de servicios sociales de gobernanza de IA, y emprender e implementar mejor la legislación y los requisitos reglamentarios en sentido ascendente a través de los servicios de gobernanza de IA en sentido descendente. Además, los métodos regulatorios, como las pautas de políticas, los puertos seguros de responsabilidad, los proyectos piloto, las aplicaciones de demostración y la responsabilidad posterior al evento pueden desempeñar un papel importante en diferentes escenarios de aplicación.
**Por otro lado, es necesario acelerar la mejora del marco legal para la circulación y utilización de datos, y continuar mejorando el nivel de suministro de datos en el campo de la IA. **El primero es construir un marco legal para datos públicos abiertos y compartidos a nivel nacional, unificar la calidad de los datos y los estándares de gobierno de datos, y usar descargas de datos, interfaces API, computación privada (aprendizaje federado, computación multipartita segura, y entornos informáticos fiables, etc.), datos Gestión diversificada y métodos técnicos como Data Space para promover el máximo intercambio abierto de datos públicos. El segundo es eliminar activamente varios obstáculos para el desarrollo y la aplicación de la tecnología informática de privacidad y la tecnología de datos sintéticos. En la actualidad, en la circulación y utilización de diversos datos, las tecnologías informáticas de privacidad, como el aprendizaje federado, desempeñan un papel cada vez más importante y pueden lograr efectos como "los datos están disponibles/contables e invisibles", "los datos no cambian el algoritmo/valor se mueve". Impulsado por el desarrollo de aplicaciones de IA y big data, el aprendizaje federado, como principal método de promoción y aplicación en el campo de la informática privada, es actualmente el camino técnico más maduro. En el próximo paso, podemos respaldar mejor la aplicación y el desarrollo de tecnologías informáticas de privacidad, como el aprendizaje federado, mediante la creación de espacios de datos en áreas estratégicas, la formulación de estándares de la industria para la informática privada y la emisión de pautas legales para la implementación de tecnologías informáticas de privacidad.
La gobernanza ética de la IA debe pasar de los principios a la práctica
Con el desarrollo de la institucionalización y legalización de la gobernanza ética científica y tecnológica, el fortalecimiento de la gobernanza ética científica y tecnológica se ha convertido en una de las "preguntas obligatorias" y "debe elegir" para las empresas de ciencia y tecnología. Bajo el concepto de "la ética primero", los requisitos para la gobernanza ética de la ciencia y la tecnología significan que las empresas de tecnología no pueden esperar abordar los problemas éticos de la IA como medidas correctivas posteriores, sino que deben participar en todo el proceso. Ciclo de vida de la IA desde el diseño hasta el desarrollo y la implementación Entre ellos, cumplir activamente con la responsabilidad del cuerpo principal de gestión de la ética de la ciencia y la tecnología, y promover de manera innovadora la autodisciplina de la ética de la ciencia y la tecnología de varias maneras. En general, en una sociedad altamente tecnológica y digital, las empresas de tecnología deben considerar incorporar el gobierno de IA en su panorama de gobierno corporativo como un módulo que es tan importante como los módulos existentes, como asuntos legales, finanzas y control de riesgos. Los siguientes aspectos son dignos de una mayor exploración:
**En primer lugar, en términos de gestión, es necesario establecer un mecanismo de gestión de riesgos éticos de IA. **La gestión de riesgos éticos de la IA debe atravesar todo el ciclo de vida de la IA, incluida la etapa previa al diseño, la etapa de diseño y desarrollo, la etapa de implementación y las actividades de prueba y evaluación a lo largo de estas etapas, a fin de identificar, analizar y evaluar de manera integral. , gestionar y gobernar los riesgos éticos de la IA. Esto depende de que la empresa establezca la estructura organizativa y las normas de gestión correspondientes, como el comité de ética, el proceso de revisión de ética y otras herramientas de gestión. Los responsables de la formulación de políticas pueden considerar la posibilidad de emitir directrices de política a este respecto.
En segundo lugar, en términos de diseño, es necesario seguir el concepto de diseño orientado a las personas y practicar el concepto de "Ética por Diseño"** (Ethicsby Design). **El diseño integrado ético significa integrar valores, principios, requisitos y procedimientos éticos en el diseño, desarrollo e implementación de sistemas de IA, robótica y big data. Las empresas deben reflexionar sobre el proceso de aplicación e I+D de IA dirigido por técnicos, y poner más énfasis en los diversos antecedentes y la participación de las actividades de aplicación e I+D de IA. Introducir políticas, leyes, ética, sociedad, filosofía y otro personal multidisciplinario e interdisciplinario en el equipo de desarrollo de tecnología es la forma más directa y efectiva de incorporar requisitos éticos en el diseño y desarrollo de tecnología. En el futuro, los responsables de la formulación de políticas pueden unirse a la industria para resumir la experiencia y las lecciones, y emitir pautas técnicas, mejores prácticas y otros documentos para el diseño integrado ético.
**Finalmente, en términos de tecnología, es necesario continuar explorando enfoques técnicos y orientados al mercado para abordar los problemas éticos de la IA y crear aplicaciones de IA creíbles. **Uno es la herramienta ética de la IA. Muchos problemas en las aplicaciones de IA, como la explicabilidad, la equidad, la seguridad, la protección de la privacidad, etc., pueden resolverse mediante la innovación tecnológica. Centrándose en estos temas, la industria ha explorado algunas herramientas de ética de IA y herramientas de auditoría de IA, y el trabajo futuro en esta área debe desarrollarse más. El segundo es el servicio de ética de IA (Servicio AIEthicsasa). [23] Es un camino orientado al mercado. Las empresas líderes en ética de IA y las nuevas empresas de ética de IA desarrollan soluciones de IA responsables centradas en herramientas y servicios de ética de IA, y las brindan como servicios comerciales. [24] La firma de investigación y consultoría Forrester predice que cada vez más empresas de tecnología de IA y empresas en otros campos que aplican IA comprarán soluciones de IA responsables para ayudarles a implementar principios éticos de IA justos y transparentes, y el tamaño del mercado de servicios de ética de IA se duplicará. El tercero son los métodos de crowdsourcing de tecnología como AI Ethics Bounty. De manera similar a la recompensa por vulnerabilidad de seguridad de la red (recompensa por errores), la recompensa por discriminación de algoritmos (recompensa por sesgo algorítmico) y otros métodos técnicos de crowdsourcing ampliamente utilizados por las empresas de Internet, puede descubrir, identificar y resolver problemas éticos de IA, desarrollar herramientas de auditoría de IA y crear Las aplicaciones de IA confiables jugarán un papel importante. Algunas empresas extranjeras e instituciones universitarias de investigación, como Twitter y la Universidad de Stanford, lanzaron el Desafío de recompensas por discriminación algorítmica y el Desafío de auditoría de IA, convocando a los participantes a desarrollar herramientas para identificar y mitigar la discriminación algorítmica en los modelos de IA. Cultivar y fortalecer la comunidad ética de la IA a través de estos métodos de crowdsourcing tecnológico jugará un papel importante en la gobernanza de la IA.
La cooperación global en materia de gobernanza de la IA debe seguir profundizándose
Como se mencionó anteriormente, la gobernanza mundial de la IA presenta una situación competitiva que no se ajusta a los conceptos de tecnología abierta y compartida orientada a las personas y desarrollo inclusivo. Los países deben continuar profundizando la cooperación en la gobernanza internacional de la IA, promover la formulación de acuerdos internacionales sobre ética y gobernanza de la IA, formar un marco de gobernanza internacional de la IA, estándares y normas con amplio consenso, mejorar los intercambios y la colaboración en tecnología, talentos, industrias, etc. ., y oponerse al exclusionismo, promover la inclusión tecnológica y la tecnología para el bien, y lograr el desarrollo inclusivo de todos los países. La profunda participación de China en la gobernanza de la tecnología global debe aprovechar la nueva ronda de oportunidades de creación de normas internacionales en los campos de la IA y los datos, proponer continuamente soluciones de gobernanza de la IA que se ajusten al consenso global y continuar inyectando la sabiduría china en la gobernanza digital global y Gobernanza de la IA. Al mismo tiempo, necesitamos fortalecer nuestra voz internacional, integrar nuestras ideas, propuestas y prácticas en la comunidad internacional, luchar por un mayor reconocimiento y consenso, y aumentar nuestra voz e influencia.
De cara al futuro, con el desarrollo continuo de la tecnología de IA, la IA se volverá cada vez más poderosa, y la IA general (Inteligencia General Artificial, AGI para abreviar) puede aparecer en el futuro. Una IA general tendría un nivel de inteligencia equivalente al humano y sería capaz de realizar cualquier tarea intelectual de la que sea capaz un ser humano. En teoría, la IA general puede diseñar un mayor nivel de inteligencia, provocando una gran explosión de inteligencia, la llamada "singularidad", dando como resultado superinteligencia. De la aplicación de IA actual a la AGI futura, puede haber un salto del cambio cuantitativo al cambio cualitativo. Esto ha generado preocupaciones acerca de que AGI desplace los trabajos humanos, se salga de control e incluso amenace la existencia humana. Por lo tanto, para el desarrollo de la IA de propósito general y sus posibles problemas de seguridad y ética, el mundo debe planificar con anticipación y trabajar en conjunto para garantizar que la tecnología de IA sea más inclusiva, segura, confiable y controlable para el beneficio de toda la humanidad.
Este artículo apareció por primera vez en el número 4, 2023 de "Journal of Shanghai Normal University (Edición de Filosofía y Ciencias Sociales)"