Los productos de ChatGPT están emergiendo en un flujo interminable, y la regulación global está cruzando el río al sentir las piedras.

Fuente: Power Plant, Autor: Zhang Yongyi, Editor: Gao Yulei

Fuente de la imagen: generada por la herramienta de IA ilimitada

El 31 de julio, los productos de chatgpt en la tienda de aplicaciones de Apple en China se retiraron colectivamente de los estantes. Según Apple, los productos relacionados deben obtener una licencia de funcionamiento.

No solo China, sino también Estados Unidos y Europa, que están decididos a competir en este campo, están haciendo cumplir activamente la legislación y la regulación al tiempo que fomentan la innovación.

En abril de 2021, la Comisión Europea publicó por primera vez una propuesta de estructura regulatoria para el funcionamiento y la gobernanza de las aplicaciones de aprendizaje automático, proponiendo la regulación de la IA. En ese momento, la opinión más popular en la industria de la IA seguía siendo la famosa ocurrencia de Wu Enda de que "preocuparse por la inteligencia artificial hoy es como preocuparse por la sobrepoblación en Marte".

Pero para 2023, esa visión ya no puede convertirse en la corriente principal: la IA generativa tardó menos de 6 meses en mostrarle al mundo el gran potencial para reemplazar a los humanos y cambiar por completo el mundo existente, tal como se desarrolló en la Segunda Guerra Mundial. como un arma nuclear.

El físico J-Robert Oppenheimer lideró el desarrollo de la primera bomba atómica del mundo. En ese momento, la Segunda Guerra Mundial había terminado, pero la bomba nuclear, como el arma más aterradora de la historia humana, todavía dominaba la tendencia histórica en gran medida: la El gobierno de Estados Unidos no hizo suyos las críticas y sugerencias de expertos como Oppenheimer de que "la proliferación nuclear conducirá a una carrera armamentista sin precedentes", lo que finalmente llevó al estallido de una carrera armamentista nuclear entre Estados Unidos y la Unión Soviética representada por el desarrollo de la bomba de hidrógeno "súper bomba nuclear", y en Durante la crisis de los misiles en Cuba, casi toda la civilización humana fue arrastrada a un oscuro abismo más allá de la redención.

La crisis a la que se ha enfrentado Oppenheimer tiene muchas similitudes con la actual "Crisis Ómnica de la IA" a la que se enfrentan los humanos: antes de que los humanos usen la IA para arrastrarse a un futuro más grande e incontrolable, guíala hacia un futuro más masivo e incontrolable. Quizás la mejor manera es para implementar la supervisión en una vía segura.

En 2021, la "preparación para un día lluvioso" de la Unión Europea finalmente se convirtió en el primer marco regulatorio para la industria de la inteligencia artificial en la historia humana; también es el predecesor de la Ley de Inteligencia Artificial de la Unión Europea (Ley AI).

Sin embargo, cuando los legisladores diseñaron este proyecto de ley, no esperaban la existencia de inteligencia artificial generativa o modelos grandes para fines de 2022. Por lo tanto, el aumento explosivo de la IA generativa en 2023 también ha agregado más La sección sobre IA generativa: incluida la transparencia de su uso de modelos grandes, y la regulación de la recopilación/uso de datos de usuario.

Actualmente, este proyecto de ley ha sido votado por el Parlamento Europeo a mediados de junio. El próximo paso para las cláusulas finales es finalizar la ley en las negociaciones entre los tres órganos de decisión de la UE: Parlamento, Consejo y Comisión. Se firmará un acuerdo. alcanzarse y finalmente entrar en vigor.

En China, la legislación sobre IA generativa también está en curso: el 13 de julio, siete ministerios y comisiones emitieron conjuntamente las "Medidas provisionales para la administración de los servicios de inteligencia artificial generativa" (en lo sucesivo denominadas colectivamente "Medidas provisionales"). incluida la Administración del Ciberespacio de China y entrará en vigor en agosto.

Esta puede convertirse en la primera regulación de gestión de inteligencia artificial generativa que finalmente se implementará. En la última ronda de la "Carrera Legislativa de IA", el proceso de legislación de IA de China lo superó y se convirtió en la regulación específica de más rápido crecimiento en el campo de la inteligencia artificial generativa. IA. .

En otros países que se encuentran en el primer escalón de desarrollo de la IA, como el Reino Unido y los Estados Unidos, la legislación regulatoria sobre la IA también está en progreso: el 16 de marzo, la Oficina de derechos de autor de EE. UU. lanzó una iniciativa para estudiar las leyes y políticas de derechos de autor. derivados de la tecnología de inteligencia artificial: incluido el alcance de los derechos de autor en obras generadas con herramientas de inteligencia artificial y el uso de material protegido por derechos de autor para fines de aprendizaje automático. El gobierno del Reino Unido lanzó su primer marco regulatorio de IA el 4 de abril. Desde entonces, la Administración Nacional de Telecomunicaciones e Información de EE. UU. (NTIA) ha publicado un borrador de responsabilidad de AI para solicitar una opinión pública más amplia sobre las medidas y políticas de responsabilidad de AI.

"¿Deberíamos desarrollar un pensamiento no humano que eventualmente pueda reemplazar completamente a los humanos en términos de cantidad e inteligencia?" Esta es la pregunta planteada en una carta abierta firmada por varios directores ejecutivos e investigadores conocidos en marzo de este año. Mirando hacia atrás ahora, en el camino del desarrollo de la IA generativa, el llamado de "todo el mundo suspenda la investigación durante seis meses" es demasiado idealista. En la actualidad, solo los países que promuevan leyes relacionadas con la IA generativa que desempeñen un papel regulador pueden ser efectivos. razón.

INNOVACIÓN Y RESPONSABILIDAD

La legislación y la gobernanza de la IA generativa es un campo nuevo en el que nadie ha puesto un pie antes, y cada legislador tiene que soportar la presión de las dudas del mundo exterior: en la conferencia de desarrolladores Google I/O de este año, Google lanzó oficialmente su IA generativa El robot conversacional Bard, pero el alcance del servicio excluye completamente la región europea.

Esto hace que muchos investigadores/empresas europeas de IA se pregunten: ¿Por qué falta Europa? Más tarde, Google declaró más veces que "espera abrirse a los usuarios europeos", lo que se interpretó como una "medida de cobertura" para que Google evite el área gris legal que existe en la IA generativa, lo que resulta en multas enormes en la UE. .

En julio, Google finalmente reveló por qué: Jack Krawczyk, director de productos de Bard, escribió en una publicación de blog: Al comienzo de la investigación, la Comisión de Protección de Datos de Irlanda (DPC) ya había propuesto la intención de lanzar Bard en Europa, pero finalmente , se tardó hasta julio en atender el pedido de información del regulador.

Hoy, se ha publicado la "Ley de Inteligencia Artificial" de la Unión Europea, y casi todas las leyes que contiene apuntan directamente a los problemas emergentes o potenciales en el desarrollo actual de la IA: la difusión de información falsa/desinformación, la posible educación/salud mental y otros importantes problemas.

Pero luego los legisladores descubrieron que la parte más complicada de resolver este problema radica en cómo determinar la legislación: es necesario proteger la innovación/evitar el monopolio de los gigantes en el campo de la IA y garantizar la controlabilidad de la IA hasta cierto punto. . Evite la inundación con contenido falso. Se ha convertido en el núcleo común de la legislación de IA generativa en China, Estados Unidos y Europa, pero tienen diferentes énfasis en las regulaciones actuales.

Muchos casos europeos anteriores sobre inteligencia artificial han provocado un trato negativo por parte de instituciones como Google y OpenAI. Muchas empresas tecnológicas europeas locales e incluso legisladores están preocupados de que una legislación demasiado estricta permita a Europa volver al nivel líder mundial con la ayuda de la IA. industria La realización de la visión se ha vuelto difícil: después de que se apruebe oficialmente la "Ley de Inteligencia Artificial", la Unión Europea tiene derecho a imponer una multa de hasta 30 millones de euros, o el 6% de los ingresos anuales de la empresa. , contra las empresas que vulneran las normas de inteligencia artificial. Esta es sin duda una advertencia obvia para empresas como Google y Microsoft que quieren expandir su negocio de IA generativa en Europa.

En la versión de junio de la "Ley de inteligencia artificial", los legisladores de la UE incluyeron claramente nuevas disposiciones para fomentar la innovación responsable en inteligencia artificial al tiempo que reducen los riesgos tecnológicos, supervisan adecuadamente la inteligencia artificial y la colocan en primer plano. Posición importante: el artículo 1 del proyecto de ley claramente apoya medidas innovadoras para las pequeñas y medianas empresas y las empresas emergentes, incluido el establecimiento de "cajas de arena reglamentarias" y otras medidas para reducir la carga de cumplimiento de las pequeñas y medianas empresas y las empresas emergentes.

Sin embargo, antes de vender servicios de IA o implementar sistemas en el mercado, la IA generativa debe cumplir con una serie de requisitos normativos de gestión de riesgos, datos, transparencia y documentación, al tiempo que el uso de inteligencia artificial en áreas sensibles como infraestructura crítica será considerado como "Alto riesgo" está incluido en el alcance de la supervisión.

En la actualidad, la especificación de IA basada en las "Medidas provisionales" ya ha tomado medidas: el 31 de julio, Apple eliminó colectivamente de los estantes una gran cantidad de aplicaciones que brindaban servicios de ChatGPT en la App Store en China, y no no proporciona acceso directo a ChatGPT, pero también se enfoca en funciones de IA. Otro lote de aplicaciones no se verá afectado por el momento.

En la respuesta a los desarrolladores, la sugerencia de revisión oficial de Apple es que "los servicios de inteligencia artificial generativa deben cumplir con los requisitos de licencia para operar en China, incluida la obtención de una licencia del Ministerio de Industria y Tecnología de la Información". a La categoría de "prestación de servicios al público" en las "Medidas Provisionales".

El artículo 15 de las "Medidas provisionales" de China también menciona claramente el método de gestión para generar contenido de riesgo: "los proveedores deben tomar medidas de inmediato, como detener la generación, detener la transmisión y eliminar, y tomar medidas como la capacitación en optimización del modelo para hacer la rectificación". Esto ya se mencionó en el "Borrador para comentarios"; sin embargo, en comparación con la versión anterior, la descripción en las "Medidas provisionales" es más moderada y se eliminó la descripción del plazo como "rectificación dentro de los tres meses". .

Entre las controversias actuales que rodean el nacimiento de la IA generativa, las disputas por los derechos de autor de los datos utilizados para entrenar modelos de lenguaje a gran escala para la IA generativa, los fabricantes en el primer escalón del desarrollo de la IA generativa ya se han sentido limitados por la falta de contenido de alta calidad. Techo invisible”, pero al mismo tiempo, un sinnúmero de creadores y medios han comenzado a iniciar procesos judiciales y otras acciones por cuestiones de derechos de autor provocadas por la IA generativa. Es inminente formular cláusulas de protección de derechos de autor de contenido para el desarrollo de la IA generativa.

Por lo tanto, este es también el enfoque de la legislación de IA generativa en los Estados Unidos y Europa: la "Ley de Inteligencia Artificial" europea requiere claramente que los proveedores de modelos a gran escala declaren si usan materiales con derechos de autor para entrenar IA y al mismo tiempo registrar suficiente información de registro para que los creadores busquen compensación, mientras que la Oficina de derechos de autor de EE. UU. ha publicado una nueva revisión, solicitando sugerencias sobre los problemas generales de derechos de autor planteados por la IA generativa y buscando legislación especial para resolverlos.

En las "Medidas provisionales" actuales, se eliminaron los párrafos pertinentes del borrador para comentarios en abril, dejando las "Medidas provisionales" actuales con disposiciones en blanco sobre la protección de los derechos de propiedad intelectual con respecto a las fuentes de datos, que deben mejorarse con urgencia.

Sin embargo, para los modelos grandes en los que se basa la IA generativa para el desarrollo, es la ley del desarrollo buscar datos en Internet para acelerar el desarrollo iterativo de modelos grandes, y es probable que las restricciones de talla única causen un gran golpe para toda la industria Mencionó "exención" en diferentes escenarios: En la "Ley de Inteligencia Artificial" de la Unión Europea, se incluye una exención para la investigación de IA por parte de desarrolladores de código abierto: la cooperación y la construcción de componentes de inteligencia artificial en un entorno abierto recibirán especial proteccion. Al mismo tiempo, en las “Medidas Provisionales”, las cláusulas pertinentes también aclaran el alcance de la exención de la ley:

"Mientras las empresas, las instituciones de investigación científica, etc. no brinden abiertamente servicios de inteligencia artificial generativa al público, esta ley no se aplica".

"La legislación en el campo de la propiedad intelectual todavía necesita más tiempo para la investigación y la demostración". El entrenamiento de IA determina que incluso los gigantes no pueden firmar contratos por completo con cada plataforma y cada creador de contenido de forma independiente, sin mencionar que la tarifa de licencia altísima ya es un gran golpe para las nuevas empresas”.

"Quizás el problema actual solo pueda dejarse a tiempo para que el desarrollo de la industria obtenga mejores soluciones prácticas". Competencia y cooperación, agregó el consultor. Aunque en la competencia entre China y los Estados Unidos, el desarrollo de la IA se ha convertido en uno de los principales campos de batalla de los Estados Unidos para contener el desarrollo de China, pero en el campo de la legislación generativa de la IA, la cooperación entre China, los Estados Unidos y Europa se está convirtiendo gradualmente la corriente principal.

En esta etapa, las empresas de inteligencia artificial en los Estados Unidos se han dado cuenta de los riesgos que conlleva el desarrollo de la IA. Se han hecho promesas para garantizar que la IA "no haga el mal": OpenAI declaró que su misión declarada es "garantizar que la inteligencia artificial general beneficie a toda la humanidad". Los principios operativos de DeepMind incluyen el compromiso de "ser un pionero responsable en el campo de la inteligencia artificial", mientras que los fundadores de DeepMind se comprometen a no participar en investigaciones de inteligencia artificial letales, y los principios de investigación de inteligencia artificial de Google también estipulan que Google no desplegará ni diseñará para Armas que dañan a los humanos, o inteligencia artificial que viola las normas internacionales de vigilancia.

El 26 de julio, Anthropic, Google, Microsoft y OpenAI lanzaron el Frontier Model Forum, un organismo de la industria centrado en garantizar el desarrollo seguro y responsable de modelos de IA de vanguardia.

El foro tendrá como objetivo "trabajar con los responsables políticos, el mundo académico y la sociedad civil para minimizar el riesgo y compartir conocimientos sobre los riesgos de seguridad" mientras se avanza en la investigación de la IA. Al mismo tiempo, integrarse activamente en la cooperación multilateral internacional existente: incluida la formulación de políticas del G7, la OCDE y otras organizaciones sobre IA generativa. Con el fin de promover la sincronización de los países en la dirección de la legislación y los conceptos normativos.

Anteriormente, la revista Time comentó que hay muchas posibilidades de cooperación entre China y Estados Unidos como "jugadores importantes" en la IA generativa, y Europa, que a menudo ha sido "pionera" de facto en la legislación de nuevas tecnologías, está en los intereses de todas las partes para iniciar la cooperación en la etapa legislativa, y también es uno de los medios importantes para promover el desarrollo de la IA generativa.

Esto también es consistente con las opiniones de Max Tegmark, profesor del Instituto Tecnológico de Massachusetts y fundador del Instituto Future of Life: "China se encuentra en una posición ventajosa en muchos campos de la IA generativa y probablemente se convertirá en líder en el control de inteligencia artificial."

El número de modelos a gran escala en China y Estados Unidos representa el 90 % del mundo, por lo que la coordinación legislativa entre China, Estados Unidos y Europa determinará incluso la tendencia de desarrollo de la industria global de IA generativa. La "coordinación legal con China bajo la premisa de ajustarse a los intereses de los Estados Unidos" se ha convertido gradualmente en el consenso de los círculos políticos y académicos estadounidenses.

Portada de la historia de WIRED

Más representativas son las medidas de calificación para los riesgos de IA: las "Medidas provisionales" de China mencionaron "prudencia inclusiva y clasificación y supervisión de calificación para los servicios de inteligencia artificial generativa", pero no dieron más detalles sobre la calificación en la versión actual. En la actualidad, solo párrafos como " se han escrito las correspondientes normas o directrices de clasificación y supervisión de calificaciones".

La "Ley de inteligencia artificial" europea también propone un sistema de calificación que corresponde a las obligaciones de los desarrolladores de IA con diferentes niveles de riesgo. El "nivel de amenaza" de IA propuesto actualmente incluye cuatro categorías:

  • IA de riesgo limitado
  • IA de alto riesgo
  • Nivel de riesgo inaceptable
  • IA generativa: productos como ChatGPT

En la versión actual, la "Ley de Inteligencia Artificial" extrae la IA generativa como una clasificación independiente, y al mismo tiempo restringe estrictamente los productos clasificados como "IA de alto riesgo". Posibilidad de riesgo. Esto también se considera un "modelo de referencia" para la futura legislación sobre riesgos de IA en China y Estados Unidos.

Además, a juzgar por el proceso legislativo real, invitar activamente al público y a las instituciones de investigación de IA a participar en el proceso legislativo es un consenso formado por las agencias reguladoras en varios países a través de la experiencia de los últimos seis meses. Es una "cláusula sombra" que no puede ser cuestionado.

"Es posible que la IA generativa nunca sea perfecta, pero la ley está destinada a desempeñar un papel importante en la dirección clave del desarrollo de la IA"

Así como Oppenheimer nunca se arrepintió de haber desarrollado la bomba atómica en Nuevo México a pesar de que se opuso al uso de armas nucleares en la guerra, nadie puede impedir que los investigadores curiosos utilicen la tecnología existente para desarrollar una IA más inteligente, la ciencia El ritmo de la exploración nunca se detendrá ahí. La supervisión "necesaria y razonable" es el "bache" en el camino de la carrera frenética de AI, y también es la "última línea de defensa" para evitar que la inteligencia artificial generativa cause un daño real.

Pero centrarse en "cómo evitar quedarse atrás en la carrera de la IA provocada por la regulación" sigue siendo una de las cosas que más preocupa a los legisladores. Sin duda, la legislación pertinente será más completa con más experiencia y comentarios.

“Las agencias reguladoras mantendrán el espíritu de la legislación científica y la legislación de puertas abiertas, y realizarán revisiones y mejoras oportunas.” El pasaje sobre la IA generativa en las “Medidas Provisionales” puede ser el mejor principio para la legislación en la era de la IA generativa.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)