El modelo de inteligencia artificial de China ya no puede seguir "corriendo desnudo"

Autor: Shijie

A partir del 15 de agosto entraron en vigor las “Medidas Transitorias para la Administración de los Servicios de Inteligencia Artificial Generativa” (en adelante, las “Medidas Transitorias”).

Para la industria de modelos a gran escala que ha crecido imprudentemente y ha progresado rápidamente en los últimos seis meses, se puede decir que las "Medidas provisionales" entraron en vigor en el momento adecuado.

Según el "Informe de investigación de mapas de modelos grandes de inteligencia artificial de China" publicado por el Instituto de Información Científica y Tecnológica de China, a partir de la primera mitad de 2023, se han lanzado 79 modelos domésticos a gran escala con parámetros de mil millones o más. ocupando el segundo lugar en el mundo, solo superado por los Estados Unidos.

En el proceso de exploración de la ecología industrial de modelos grandes, los datos son datos de producción necesarios y también son un vínculo importante que debe estandarizarse. El abogado Wang Chen le dijo a "Shijie": "La protección de la privacidad personal de nuestro país se ha reflejado durante mucho tiempo en leyes y reglamentos relevantes, como la "Decisión sobre el fortalecimiento de la protección de la información de la red" aprobada en 2012, pero con el desarrollo de la tecnología AI, The la recopilación y el uso de información personal también se están introduciendo constantemente, lo que requiere un ajuste y una complementación constantes a nivel regulatorio”.

Las "Medidas Provisionales" que acaban de entrar en vigencia son las primeras políticas regulatorias nacionales e incluso globales emitidas para la industria actual de inteligencia artificial generativa explosiva (AIGC).

En este contexto, Liu Qingfeng, presidente de HKUST iFlytek, cree: "(Con la entrada en vigor de las 'Medidas provisionales'), el 15 de agosto marcará el comienzo de un nodo clave en el desarrollo de la inteligencia artificial general de China, y también será un hito nodo. .”

** "Miao Duck Camera" no puede quitar datos de usuario**

No hace mucho tiempo, la "Cámara Miaoya", que genera avatares digitales y fotos de IA por 9,9 yuanes, se hizo popular en Internet y miles de personas incluso hicieron fila para hacer avatares digitales. Sin embargo, su política de privacidad establece que la autorización otorgada por el usuario a Miaoya Camera es "irrevocable", y que el contenido del usuario puede ser "utilizado en cualquier forma y dentro de cualquier ámbito" y otros contenidos inapropiados.

Aunque el desarrollador de Miaoya Camera respondió más tarde que el contenido del acuerdo original era incorrecto y eliminó las cláusulas relevantes de inmediato, este incidente aún despertó la preocupación de los usuarios.

También han aparecido en los periódicos casos de uso de la tecnología AIGC para generar videos de rostros e incluso simular voces humanas para nuevos tipos de fraude. Según datos de la Secretaría de Seguridad Pública, al 10 de agosto se han detectado 79 casos de fraude relacionados causados por el “cambio de cara de IA” y 515 sospechosos han sido detenidos.

El ingeniero de algoritmos de IA, Wen Mu, le dijo a "Shijie": "El costo de usar la tecnología de IA para generar fotos o videos de caras falsas es extremadamente bajo. En teoría, los delincuentes solo necesitan un modelo de IA entrenado y una foto de la víctima. Se hará". "

Xu Liang, el responsable de una empresa de AIGC, cree que los incidentes de uso indebido de la tecnología de inteligencia artificial mencionados anteriormente reflejan que toda la cadena industrial de la industria de modelos a gran escala necesita ser regulada con urgencia. solo en China, pero también en el campo global de la IA, hay temas en los que hay que centrarse”.

Las “Medidas Provisionales”, que entraron en vigor el 15 de agosto, consta de 4 capítulos y 24 artículos, y establece claramente los temas de preocupación mencionados anteriormente.

Por ejemplo, las "Medidas provisionales" estipulan que en las actividades de procesamiento de datos que involucren información personal, los proveedores de servicios de AIGC deben obtener el consentimiento personal o cumplir con otras circunstancias estipuladas por las leyes y reglamentos administrativos; responsabilidad del autor, obligaciones relacionadas con la gestión de contenido, etc. Según el análisis de King & Wood Mallesons, esta disposición ayudará a evitar que las partes pertinentes incumplan sus obligaciones de cumplimiento o traten de eludir a los demás.

Xu Liang cree que las regulaciones relevantes sobre el ámbito de aplicación de las "Medidas Provisionales" son particularmente dignas de atención. Las disposiciones específicas incluyen: el uso de la tecnología AIGC para proporcionar al público doméstico el servicio de generación de texto, imágenes, audio, video y otro contenido, aplican estas medidas; organizaciones industriales, empresas, instituciones educativas y de investigación científica, instituciones culturales públicas, instituciones relevantes, etc. investigar y desarrollar y aplicar la tecnología AIGC Si los servicios AIGC no se brindan al público nacional, no se aplicarán las disposiciones de estas Medidas.

"Según tengo entendido, los productos AIGC de nivel de ToC enfrentarán una supervisión relativamente estricta para el mercado nacional, pero se puede considerar que van al extranjero. Sin embargo, cuando los productos modelo a gran escala entrenados en China van al extranjero, también deben considerar el problemas de cumplimiento de los datos que se envían al extranjero". Xu Liang dijo: "En general, las "Medidas provisionales" no son estrictas, lo que le da a la industria espacio para el libre desarrollo".

Vale la pena señalar que las "Medidas Provisionales" también estipulan que quienes brindan servicios de inteligencia artificial generativa con atributos de opinión pública o capacidades de movilización social deben realizar evaluaciones de seguridad de acuerdo con las regulaciones pertinentes y pasar por la presentación y otros procedimientos.

Desde finales de julio, la AppStore de Apple ha tomado la iniciativa de eliminar una gran cantidad de aplicaciones de IA generativa en China. Con la entrada en vigor de las "Medidas provisionales", en el futuro, dicho software de aplicación se volverá a lanzar después de completar los procedimientos pertinentes.

**¿Cómo gestionar la Caja de Pandora? **

La industria generalmente cree que en el camino hacia el desarrollo estandarizado de la industria de modelos a gran escala, además de la mejora continua de las leyes y regulaciones, también es necesario que las empresas e industrias construyan un sistema de cumplimiento de inteligencia artificial.

El responsable de una empresa humana digital virtual le dijo a "Shijie": "La aplicación de nuevas tecnologías a menudo nace antes que las normas. No podemos esperar pasivamente, sino que debemos contribuir activamente al desarrollo útil y beneficioso mientras exploramos e innovamos tecnologías y Aplicaciones". Para guiar en la dirección del mercado y proporcionar los servicios que necesita el mercado, la industria y la sociedad. Al mismo tiempo, también realizaremos evaluaciones de riesgo para identificar y evaluar los posibles efectos negativos del desarrollo tecnológico de manera oportuna. y formular las contramedidas correspondientes Prestar atención a la prevención de riesgos Al mismo tiempo, también deben establecerse simultáneamente mecanismos de tolerancia y corrección de errores.”

Cuando las "Medidas Provisionales" entraron en vigor, muchas empresas a gran escala también compartieron sus ideas y avances en la construcción de un sistema de cumplimiento de inteligencia artificial.

El 15 de agosto, Liu Qingfeng, presidente de iFLYTEK, dijo en la conferencia de prensa de su gran modelo de desarrollo propio "Xunfei Xinghuo Cognitive Model 2.0" que iFLYTEK ha diseñado la limpieza de datos de entrenamiento y la corrección de contenido generado.

Entre ellos, en el proceso de limpieza de datos, después de recolectar corpus de entrenamiento de todo el mundo, iFLYTEK limpiará el texto a través de discriminadores de idioma, discriminadores de calidad, discriminadores de privacidad y discriminadores de seguridad, y finalmente obtendrá un corpus de entrenamiento de alta calidad. Frente a la ilusión de los modelos grandes, la idea de iFLYTEK es combinar las capacidades de las bases de conocimiento general, las bases de conocimiento de la industria y los modelos grandes, usar modelos grandes generales para aprender bases de conocimiento seguras y profesionales de la industria, y luego extraer el conocimiento relevante. .

Baidu dijo que se ha dado cuenta de la seguridad y la capacidad de control de la cadena de suministro en la arquitectura de cuatro capas de capa de chip, capa de marco, capa de modelo y capa de aplicación.Su marco de aprendizaje profundo de desarrollo propio "Flying Paddle" también tiene una gestión completa de vulnerabilidades. mecanismo.

De acuerdo con la "Prueba de producto de LLM (Modelo de lenguaje grande) nacional", el modelo a gran escala de Baidu "Wen Xin Yi Yan" y el modelo a gran escala de Xunfei "Xunfei Xinghuo" tienen similitudes en creencias religiosas, superstición feudal, pan-pornografía, temas de actualidad. , protección de menores e Internet. La objetividad y la imparcialidad de las respuestas en campos relacionados, como la ley de seguridad, son mejores que GPT-3.5.

Zhou Hongyi, el fundador de 360 Group, dijo en una entrevista con los medios que 360 ha lanzado una solución de modelo a gran escala de IA de nivel empresarial y sigue los cuatro principios de "seguridad y confiabilidad, buen contenido y resultados creíbles" para crear un modelo vertical a gran escala a nivel empresarial Proporcionar soluciones para 20 industrias.

De acuerdo con el "Plan de Trabajo Legislativo 2023 del Consejo de Estado" emitido el 6 de junio, la "Ley de Inteligencia Artificial" de China también se encuentra en proceso legislativo, y las normas legales pertinentes se mejorarán cada vez más.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)