Fuente de la imagen: Generada por la herramienta de IA Unbounded
La "guerra de los mil modelos" desencadenada por GPT ha entrado gradualmente en el "juego decisivo de datos".
Los "datos de alta calidad" y el "volumen de datos" se han convertido en la clave para que los modelos grandes establezcan rápidamente barreras y compitan por el futuro. Según Wu Chao, director del Comité de expertos de CITIC Think Tank y director del Instituto de Investigación de Valores de China, "en el futuro, el 20 % de un modelo estará determinado por algoritmos y el 80 % por la calidad de los datos. A continuación, los datos de alta calidad serán la clave para mejorar el rendimiento del modelo".
Sin embargo, los datos reales son cada vez más escasos. Los bots impulsados por IA como ChatGPT pronto pueden "quedarse sin texto en el universo".
Un estudio conjunto "¿Nos quedaremos sin datos?" "Da un límite de tiempo: los datos originados por humanos pueden volverse cada vez más escasos en el futuro, y los datos de lenguaje natural de alta calidad pueden agotarse por modelos de lenguaje grandes tan pronto como 2026.
¿Cómo garantizar un flujo constante de datos para proporcionar entrenamiento de modelos grandes? Si bien las organizaciones internacionales de código abierto y los gigantes comerciales lo intentan constantemente, también sufren discordia.Existen preguntas interminables sobre la protección de los derechos de propiedad, la privacidad de los datos y la seguridad de la red que genera la recopilación de datos.
En marzo de este año, muchos usuarios de Windows 11 informaron que se vieron "obligados a abrir una ventana emergente", lo que indica que "sus datos se procesarán fuera del país o la región en la que se encuentra", y no hay opción para "cancelar", y solo pueden hacer clic en la opción "siguiente", de lo contrario, no podrán ingresar al escritorio del sistema.
La medida ha despertado la preocupación entre los usuarios del sistema operativo Windows por la fuga de datos privados al exterior. En este sentido, Microsoft afirmó que después de que los usuarios actualicen y usen Windows 11, los datos se enviarán fuera de China. Debido a que el centro de registro de software de Microsoft está en los Estados Unidos, después de que ChatGPT se integre en la búsqueda de Bing y el navegador Edge, también necesita el soporte del centro de datos de los EE. UU., por lo que los datos de los usuarios chinos pueden enviarse al extranjero.
El buen amigo de Microsoft, Open AI, aunque se beneficia de los datos masivos del primero, también encontró dudas. A finales de junio, OpenAI fue objeto de una demanda colectiva, acusada de robar "una gran cantidad de datos personales" para entrenar a ChatGPT. Musk impuso un límite temporal en la cantidad de tuits leídos el 1 de julio por este motivo.
Alphabet advirtió a los empleados que no usen chatbots a ciegas, incluido Google Bard, que está promocionando en los mercados globales. El 1 de junio, Google actualizó su declaración de privacidad y advirtió a los usuarios que "no involucren información confidencial o delicada en las conversaciones con Bard".
Por un lado, Crazy All-in construye un volante de datos para usuarios globales y, por otro lado, es cauteloso con sus propios datos comerciales. Este tipo de "doble estándar" ha obligado a la mayoría de las empresas de todo el mundo a adoptar una "defensa activa". Muchas empresas de todo el mundo, como Samsung y Amazon, han comenzado a establecer medidas de protección para los chatbots de IA. Y Microsoft y Google lanzaron oportunamente herramientas de diálogo para clientes comerciales, lo que garantiza que los datos no serán absorbidos por modelos públicos de IA, pero los clientes deben pagar tarifas altas por esto.
En cuanto a los riesgos que pueden derivarse de la forma en que AIGC utiliza y obtiene los datos, han intervenido los reguladores de varios países.
El regulador de datos italiano Garante anunció una prohibición total de ChatGPT el 31 de marzo de 2023 y prohibió a OpenAI procesar datos de usuarios italianos. Después de que OpenAI prometiera realizar las mejoras correspondientes, ChatGPT reanudó su servicio en Italia.
Posteriormente, Alemania, Francia e Irlanda también tomaron contramedidas. España solicitó a la Junta Europea de Protección de Datos (EDPB) que evaluara los problemas de protección de la privacidad de ChatGPT. La Comisión de Protección de Información Personal de Corea también declaró que inició una investigación sobre la fuga de datos de los usuarios coreanos de ChatGPT.
Nuestro país también actuó temprano. El 13 de julio, la Administración estatal del ciberespacio de China emitió conjuntamente las "Medidas provisionales para la gestión de los servicios de inteligencia artificial generativa" (denominadas "Medidas provisionales"). Esta es la primera legislación especial de mi país en el campo de la inteligencia artificial generativa.
Las "Medidas provisionales" aclararon los principios por primera vez: "Si la prestación de servicios de inteligencia artificial generativa desde fuera de la República Popular China no cumple con las leyes, los reglamentos administrativos y las disposiciones de estas medidas, el departamento de información de la red nacional notificará a las agencias pertinentes para que tomen las medidas técnicas y otras medidas necesarias para solucionarlo".
Además, también aclara el ámbito de aplicación de las Medidas: se aplica a los servicios que generan texto, imágenes, audio, video y otros contenidos para el público en China, y excluye claramente del ámbito de aplicación las actividades de I+D y aplicación que no brindan servicios al público nacional.
Esto significa que **los proveedores de servicios AIGC en el extranjero (ya sea la capa de modelo o la capa de aplicación) estarán sujetos a las disposiciones pertinentes de las "Medidas provisionales", ya sea que proporcionen servicios relacionados directamente a China o servicios indirectos a través de interfaces API o "encapsulación" o "anidamiento". Para los fabricantes nacionales, las Medidas provisionales se aplicarán independientemente de si están debidamente autorizados por los proveedores de servicios AIGC en el extranjero.
Los datos no conocen fronteras, pero la seguridad de los datos tiene fronteras. La promulgación de las "Medidas provisionales" ha delineado los límites para las empresas de tecnología y los empresarios nacionales a gran escala que participan en modelos a gran escala, y ha proporcionado una referencia de experiencia para la posterior promulgación de la "Ley de inteligencia artificial". En este sentido, los círculos académicos y las empresas generalmente creen que las "Medidas provisionales" se publicaron de manera oportuna y han generado confianza en el desarrollo de la inteligencia artificial en China.
Además del nivel legislativo, la industria también busca avances a través de sus propios esfuerzos. Las empresas de tecnología que han lanzado modelos a gran escala en los últimos seis meses han expresado su énfasis en la seguridad y la credibilidad mencionadas en las "Medidas Provisionales".
Baidu dijo que solo mediante el establecimiento y la mejora de leyes y reglamentos, sistemas institucionales y ética para garantizar el desarrollo saludable de la inteligencia artificial se puede crear una buena ecología de la innovación. 360 propone construir un modelo grande patentado que sea "seguro, confiable, controlable y fácil de usar". Alibaba Cloud propuso que "construir una inteligencia artificial segura y confiable" se haya convertido gradualmente en un consenso de la industria. JD Cloud afirmó que la infraestructura digital de próxima generación debe cumplir con las cuatro características de integración y apertura, colaboración eficiente, rendimiento de costo extremo y seguridad y capacidad de control.
El diseño industrial basado en la región ya ha comenzado a explorar.
No hace mucho, Beijing lanzó las "Veinte medidas sobre datos", dando opiniones sobre la colaboración industrial y construyendo un sistema confiable de circulación de datos: apoye a la Zona de Desarrollo Económico y Tecnológico de Beijing y otras áreas para llevar a cabo sistemas piloto de infraestructura de datos y crear políticas montañosas, espacios confiables y fábricas de datos.
De hecho, ya en mayo de este año, la Oficina Municipal de Economía y Tecnología de la Información de Beijing, el Comité de Gestión de Zhongguancun de la Comisión Municipal de Ciencia y Tecnología y la Comisión Municipal de Desarrollo y Reforma lanzaron conjuntamente el "Programa de Asociación para la Innovación de la Industria de Inteligencia Artificial General de Beijing", y ahora se ha anunciado la segunda fase de la lista de socios.
El plan espera reunir empresas innovadoras independientes y creíbles en Beijing para promover el desarrollo compatible y de alta calidad de la industria de la inteligencia artificial. La lista incluye socios de potencia informática como Alibaba Cloud, socios de datos como Beijing Big Data Center, socios modelo como Baidu, socios de aplicaciones como Tongxin UOS y WPS, y socios de inversión como IDG y CDH.
El plan incluye empresas líderes en nodos clave en la cadena de la industria de la inteligencia artificial, sentando una base ecológica independiente y creíble para que China compare la ecología de inteligencia artificial de IA abierta + Microsoft + Nvidia.
.FIN.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
¿Fluirán los datos al extranjero con el modelo grande internacional? Primera legislación sobre inteligencia artificial generativa aclara
**Fuente:**Oficial pionero de IA
La "guerra de los mil modelos" desencadenada por GPT ha entrado gradualmente en el "juego decisivo de datos".
Los "datos de alta calidad" y el "volumen de datos" se han convertido en la clave para que los modelos grandes establezcan rápidamente barreras y compitan por el futuro. Según Wu Chao, director del Comité de expertos de CITIC Think Tank y director del Instituto de Investigación de Valores de China, "en el futuro, el 20 % de un modelo estará determinado por algoritmos y el 80 % por la calidad de los datos. A continuación, los datos de alta calidad serán la clave para mejorar el rendimiento del modelo".
Sin embargo, los datos reales son cada vez más escasos. Los bots impulsados por IA como ChatGPT pronto pueden "quedarse sin texto en el universo".
Un estudio conjunto "¿Nos quedaremos sin datos?" "Da un límite de tiempo: los datos originados por humanos pueden volverse cada vez más escasos en el futuro, y los datos de lenguaje natural de alta calidad pueden agotarse por modelos de lenguaje grandes tan pronto como 2026.
¿Cómo garantizar un flujo constante de datos para proporcionar entrenamiento de modelos grandes? Si bien las organizaciones internacionales de código abierto y los gigantes comerciales lo intentan constantemente, también sufren discordia.Existen preguntas interminables sobre la protección de los derechos de propiedad, la privacidad de los datos y la seguridad de la red que genera la recopilación de datos.
En marzo de este año, muchos usuarios de Windows 11 informaron que se vieron "obligados a abrir una ventana emergente", lo que indica que "sus datos se procesarán fuera del país o la región en la que se encuentra", y no hay opción para "cancelar", y solo pueden hacer clic en la opción "siguiente", de lo contrario, no podrán ingresar al escritorio del sistema.
La medida ha despertado la preocupación entre los usuarios del sistema operativo Windows por la fuga de datos privados al exterior. En este sentido, Microsoft afirmó que después de que los usuarios actualicen y usen Windows 11, los datos se enviarán fuera de China. Debido a que el centro de registro de software de Microsoft está en los Estados Unidos, después de que ChatGPT se integre en la búsqueda de Bing y el navegador Edge, también necesita el soporte del centro de datos de los EE. UU., por lo que los datos de los usuarios chinos pueden enviarse al extranjero.
El buen amigo de Microsoft, Open AI, aunque se beneficia de los datos masivos del primero, también encontró dudas. A finales de junio, OpenAI fue objeto de una demanda colectiva, acusada de robar "una gran cantidad de datos personales" para entrenar a ChatGPT. Musk impuso un límite temporal en la cantidad de tuits leídos el 1 de julio por este motivo.
Alphabet advirtió a los empleados que no usen chatbots a ciegas, incluido Google Bard, que está promocionando en los mercados globales. El 1 de junio, Google actualizó su declaración de privacidad y advirtió a los usuarios que "no involucren información confidencial o delicada en las conversaciones con Bard".
Por un lado, Crazy All-in construye un volante de datos para usuarios globales y, por otro lado, es cauteloso con sus propios datos comerciales. Este tipo de "doble estándar" ha obligado a la mayoría de las empresas de todo el mundo a adoptar una "defensa activa". Muchas empresas de todo el mundo, como Samsung y Amazon, han comenzado a establecer medidas de protección para los chatbots de IA. Y Microsoft y Google lanzaron oportunamente herramientas de diálogo para clientes comerciales, lo que garantiza que los datos no serán absorbidos por modelos públicos de IA, pero los clientes deben pagar tarifas altas por esto.
En cuanto a los riesgos que pueden derivarse de la forma en que AIGC utiliza y obtiene los datos, han intervenido los reguladores de varios países.
El regulador de datos italiano Garante anunció una prohibición total de ChatGPT el 31 de marzo de 2023 y prohibió a OpenAI procesar datos de usuarios italianos. Después de que OpenAI prometiera realizar las mejoras correspondientes, ChatGPT reanudó su servicio en Italia.
Posteriormente, Alemania, Francia e Irlanda también tomaron contramedidas. España solicitó a la Junta Europea de Protección de Datos (EDPB) que evaluara los problemas de protección de la privacidad de ChatGPT. La Comisión de Protección de Información Personal de Corea también declaró que inició una investigación sobre la fuga de datos de los usuarios coreanos de ChatGPT.
Nuestro país también actuó temprano. El 13 de julio, la Administración estatal del ciberespacio de China emitió conjuntamente las "Medidas provisionales para la gestión de los servicios de inteligencia artificial generativa" (denominadas "Medidas provisionales"). Esta es la primera legislación especial de mi país en el campo de la inteligencia artificial generativa.
Las "Medidas provisionales" aclararon los principios por primera vez: "Si la prestación de servicios de inteligencia artificial generativa desde fuera de la República Popular China no cumple con las leyes, los reglamentos administrativos y las disposiciones de estas medidas, el departamento de información de la red nacional notificará a las agencias pertinentes para que tomen las medidas técnicas y otras medidas necesarias para solucionarlo".
Además, también aclara el ámbito de aplicación de las Medidas: se aplica a los servicios que generan texto, imágenes, audio, video y otros contenidos para el público en China, y excluye claramente del ámbito de aplicación las actividades de I+D y aplicación que no brindan servicios al público nacional.
Esto significa que **los proveedores de servicios AIGC en el extranjero (ya sea la capa de modelo o la capa de aplicación) estarán sujetos a las disposiciones pertinentes de las "Medidas provisionales", ya sea que proporcionen servicios relacionados directamente a China o servicios indirectos a través de interfaces API o "encapsulación" o "anidamiento". Para los fabricantes nacionales, las Medidas provisionales se aplicarán independientemente de si están debidamente autorizados por los proveedores de servicios AIGC en el extranjero.
Los datos no conocen fronteras, pero la seguridad de los datos tiene fronteras. La promulgación de las "Medidas provisionales" ha delineado los límites para las empresas de tecnología y los empresarios nacionales a gran escala que participan en modelos a gran escala, y ha proporcionado una referencia de experiencia para la posterior promulgación de la "Ley de inteligencia artificial". En este sentido, los círculos académicos y las empresas generalmente creen que las "Medidas provisionales" se publicaron de manera oportuna y han generado confianza en el desarrollo de la inteligencia artificial en China.
Además del nivel legislativo, la industria también busca avances a través de sus propios esfuerzos. Las empresas de tecnología que han lanzado modelos a gran escala en los últimos seis meses han expresado su énfasis en la seguridad y la credibilidad mencionadas en las "Medidas Provisionales".
Baidu dijo que solo mediante el establecimiento y la mejora de leyes y reglamentos, sistemas institucionales y ética para garantizar el desarrollo saludable de la inteligencia artificial se puede crear una buena ecología de la innovación. 360 propone construir un modelo grande patentado que sea "seguro, confiable, controlable y fácil de usar". Alibaba Cloud propuso que "construir una inteligencia artificial segura y confiable" se haya convertido gradualmente en un consenso de la industria. JD Cloud afirmó que la infraestructura digital de próxima generación debe cumplir con las cuatro características de integración y apertura, colaboración eficiente, rendimiento de costo extremo y seguridad y capacidad de control.
El diseño industrial basado en la región ya ha comenzado a explorar.
No hace mucho, Beijing lanzó las "Veinte medidas sobre datos", dando opiniones sobre la colaboración industrial y construyendo un sistema confiable de circulación de datos: apoye a la Zona de Desarrollo Económico y Tecnológico de Beijing y otras áreas para llevar a cabo sistemas piloto de infraestructura de datos y crear políticas montañosas, espacios confiables y fábricas de datos.
De hecho, ya en mayo de este año, la Oficina Municipal de Economía y Tecnología de la Información de Beijing, el Comité de Gestión de Zhongguancun de la Comisión Municipal de Ciencia y Tecnología y la Comisión Municipal de Desarrollo y Reforma lanzaron conjuntamente el "Programa de Asociación para la Innovación de la Industria de Inteligencia Artificial General de Beijing", y ahora se ha anunciado la segunda fase de la lista de socios.
El plan espera reunir empresas innovadoras independientes y creíbles en Beijing para promover el desarrollo compatible y de alta calidad de la industria de la inteligencia artificial. La lista incluye socios de potencia informática como Alibaba Cloud, socios de datos como Beijing Big Data Center, socios modelo como Baidu, socios de aplicaciones como Tongxin UOS y WPS, y socios de inversión como IDG y CDH.
El plan incluye empresas líderes en nodos clave en la cadena de la industria de la inteligencia artificial, sentando una base ecológica independiente y creíble para que China compare la ecología de inteligencia artificial de IA abierta + Microsoft + Nvidia.
.FIN.