**A medida que la IA evoluciona a una velocidad inimaginable, inevitablemente generará preocupaciones sobre el otro "filo" de la espada de la IA: la confianza. **El primero es la privacidad: en la era de la IA, ¿cómo pueden los humanos confiar en la IA desde la perspectiva de la privacidad de los datos? Quizás la transparencia del modelo de IA sea la clave para preocuparse: la capacidad de emerger como un modelo de lenguaje a gran escala equivale a una "caja negra" tecnológica impenetrable para los humanos, y los usuarios comunes no pueden entender cómo funciona el modelo y el resultados de la operación Y cómo obtenerlo: lo que es más problemático es que, como usuario, es posible que no sepa si el modelo de IA proporcionado por el proveedor de servicios funciona según lo prometido. Especialmente cuando se aplican algoritmos y modelos de IA en algunos datos confidenciales, como atención médica, finanzas, aplicaciones de Internet, etc., si el modelo de IA está sesgado (o incluso malintencionado), o si el proveedor de servicios ejecuta el modelo (y parámetros relacionados) exactamente como se prometió, se ha convertido en el tema más preocupante para los usuarios. La tecnología de prueba de conocimiento cero tiene una solución específica en este sentido, por lo que el aprendizaje automático de conocimiento cero (ZKML) se ha convertido en la última dirección de desarrollo.
** Consideración integral de la integridad informática, la optimización heurística y la privacidad, la combinación de la prueba de conocimiento cero y la IA, surgió el aprendizaje automático de conocimiento cero (Zero-Knowledge Machine Learning, ZKML). **En la era en que el contenido generado por IA se acerca cada vez más al contenido generado por humanos, las características técnicas de la prueba secreta de conocimiento cero pueden ayudarnos a determinar qué contenido específico se genera a través de un modelo específico. Para la protección de la privacidad, la tecnología de prueba de conocimiento cero es particularmente importante, es decir, la prueba y la verificación se pueden completar sin revelar la entrada de datos del usuario o los detalles específicos del modelo.
**Cinco formas en que se aplican las pruebas de conocimiento cero al aprendizaje automático: integridad computacional, integridad del modelo, verificación, capacitación distribuida y autenticación. **El rápido desarrollo reciente de modelos de lenguaje a gran escala (LLM) muestra que estos modelos se están volviendo cada vez más inteligentes, y estos modelos completan la importante interfaz entre los algoritmos y los humanos: el lenguaje. La tendencia de la inteligencia artificial general (AGI) ya es imparable, pero a juzgar por los resultados del entrenamiento del modelo actual, la IA puede imitar perfectamente a los humanos de alta capacidad en las interacciones digitales y superar a los humanos a una velocidad inimaginable en rápida evolución. El nivel de los seres humanos ha maravillarse con esta velocidad evolutiva, e incluso preocuparse por ser reemplazado rápidamente por IA.
**Los desarrolladores de la comunidad usan ZKML para verificar la función de recomendación de Twitter, lo cual es instructivo. **La función de recomendación "Para ti" de Twitter utiliza un algoritmo de recomendación de IA para destilar los aproximadamente 500 millones de tweets publicados cada día en un puñado de tweets populares, que finalmente se muestran en la línea de tiempo de la página de inicio del usuario. A fines de marzo de 2023, Twitter abrió el código del algoritmo, pero debido a que los detalles del modelo no se han hecho públicos, los usuarios aún no pueden verificar si el algoritmo se ejecuta de manera precisa y completa. El desarrollador de la comunidad Daniel Kang y otros usan herramientas criptográficas ZK-SNARK para verificar si el algoritmo de recomendación de Twitter es correcto y se ejecuta completamente sin revelar los detalles del algoritmo; este es el punto más atractivo de la prueba de conocimiento cero, es decir, no revelar ninguna información específica sobre el objeto Probar la credibilidad de la información sobre la premisa de la información (conocimiento cero). Idealmente, Twitter podría usar ZK-SNARKS para publicar pruebas de su modelo de clasificación, pruebas de que cuando el modelo se aplica a usuarios y tweets específicos, produce una clasificación de salida final específica. Esta prueba es la base de la confiabilidad del modelo: los usuarios pueden verificar que el cálculo del algoritmo del patrón funciona como se prometió, o enviarlo a un tercero para que lo audite. Todo esto se hace sin revelar los detalles de los pesos de los parámetros del modelo. Es decir, utilizando la prueba modelo anunciada oficialmente, el usuario utiliza la prueba para verificar que el tweet específico está funcionando honestamente según lo prometido por el modelo para tweets cuestionables específicos.
1. Ideas principales
A medida que la IA evoluciona a una velocidad inimaginable, inevitablemente generará preocupaciones sobre el otro "filo" de la espada de la IA: la confianza. El primero es la privacidad: en la era de la IA, ¿cómo pueden los humanos confiar en la IA desde la perspectiva de la privacidad? Quizás la transparencia del modelo de IA sea la clave para preocuparse: la capacidad de emerger como un modelo de lenguaje a gran escala equivale a una "caja negra" tecnológica impenetrable para los humanos, y los usuarios comunes no pueden entender cómo funciona el modelo y el resultados de la operación Y cómo obtenerlo (el modelo en sí está lleno de capacidades incomprensibles o predecibles): lo que es más problemático es que, como usuario, es posible que no sepa si el modelo de IA proporcionado por el proveedor de servicios está funcionando según lo prometido. . Especialmente cuando se aplican algoritmos y modelos de IA en algunos datos confidenciales, como aplicaciones médicas, financieras, de Internet, etc., ya sea que el modelo de IA esté sesgado (o incluso malintencionado), o si el proveedor de servicios ejecuta el modelo (y relacionados). parámetros) exactamente como se prometió, se ha convertido en el tema más preocupante para los usuarios.
La tecnología de prueba de conocimiento cero tiene una solución específica en este sentido, por lo que el aprendizaje automático de conocimiento cero (ZKML) se ha convertido en la última dirección de desarrollo. Este documento analiza las características de la tecnología ZKML, los posibles escenarios de aplicación y algunos casos inspiradores, y realiza una investigación y elaboración sobre la dirección de desarrollo de ZKML y su posible impacto industrial.
**2. El "otro filo" de la espada de la IA: ¿cómo confiar en la IA? **
Las capacidades de la inteligencia artificial se acercan rápidamente a las de los humanos y ya han superado a los humanos en muchos nichos de dominio. El rápido desarrollo reciente de modelos de lenguaje grande (LLM) sugiere que estos modelos se están volviendo cada vez más inteligentes, y estos modelos refinan una interfaz importante entre los algoritmos y los humanos: el lenguaje. La tendencia de la inteligencia artificial general (AGI) ya es imparable, pero a juzgar por los resultados del entrenamiento del modelo actual, la IA puede imitar perfectamente a los humanos de alta capacidad en las interacciones digitales y superar a los humanos a una velocidad inimaginable en el nivel de evolución rápida. El modelo de lenguaje ha hecho un progreso significativo recientemente. Los productos representados por ChatGPT han tenido un desempeño sorprendente, alcanzando más del 20% de la capacidad humana en la mayoría de las evaluaciones de rutina. Al comparar GPT-3.5 y GPT-4, que tienen solo unos meses de diferencia, lo que hace que Humans Hay que maravillarse con esta velocidad evolutiva. Pero por otro lado está la preocupación por la pérdida de control de las capacidades de la IA.
** Primero está el aspecto de la privacidad. **En la era de la IA, con el desarrollo de tecnologías como el reconocimiento facial, los usuarios siempre están preocupados por el riesgo de fuga de datos mientras experimentan los servicios de IA. Esto ha traído ciertos obstáculos para la promoción y el desarrollo de la IA: ¿cómo confiar en la IA desde la perspectiva de la privacidad?
**Quizás la transparencia de los modelos de IA es la clave de una mayor preocupación. **La capacidad de emerger de forma similar a los modelos de lenguaje a gran escala equivale a una "caja negra" tecnológica impenetrable para los humanos. Los usuarios generales no pueden entender cómo funciona el modelo y cómo se obtienen los resultados (el modelo en sí está lleno de Habilidad que es difícil de entender o predecir) - más problemático, ya que es posible que un usuario no sepa si el modelo de IA proporcionado por el proveedor de servicios funciona según lo prometido. Especialmente cuando se aplican algoritmos y modelos de IA en algunos datos confidenciales, como aplicaciones médicas, financieras, de Internet, etc., ya sea que el modelo de IA esté sesgado (o incluso malintencionado), o si el proveedor de servicios ejecuta el modelo (y relacionados). parámetros) exactamente como se prometió, se ha convertido en el tema más preocupante para los usuarios. Por ejemplo, ¿la plataforma de aplicación social hace recomendaciones relevantes según el algoritmo de “igualdad de trato”? ¿La recomendación del algoritmo de IA del proveedor de servicios financieros es tan precisa y completa como se prometió? ¿Hay consumos innecesarios en el plan de servicio médico recomendado por AI? ¿Los proveedores de servicios aceptan la auditoría de modelos de IA?
En pocas palabras, por un lado, los usuarios no conocen la situación real del modelo de IA proporcionado por el proveedor de servicios, pero al mismo tiempo les preocupa mucho que el modelo no sea "discriminatorio". Se considera que incluye algunos factores sesgados u otros factores orientados, que traerán pérdidas desconocidas para los usuarios o un impacto negativo.
Por otro lado, la velocidad de autoevolución de la IA parece ser cada vez más impredecible, y el modelo de algoritmo de IA cada vez más poderoso parece estar más allá de la posibilidad de control humano**, por lo que el tema de la confianza se ha convertido en otro "filo" de la espada afilada de AI ". **
Es necesario establecer la confianza del usuario en la IA desde la perspectiva de la privacidad de los datos, la transparencia del modelo y la capacidad de control del modelo. Los usuarios deben preocuparse por la protección de la privacidad y si el modelo de algoritmo se ejecuta de manera precisa y completa según lo prometido; sin embargo, esta no es una tarea fácil. En términos de transparencia del modelo, los proveedores de modelos tienen preocupaciones sobre la auditoría y la supervisión del modelo basadas en secretos comerciales y otros. perspectivas; Por otro lado, la evolución del modelo de algoritmo en sí no es fácil de controlar, y esta incontrolabilidad también debe ser considerada.
Desde la perspectiva de la protección de la privacidad de los datos del usuario, también investigamos mucho en nuestros informes anteriores, como "IA y elementos de datos impulsados por Web3.0: apertura, seguridad y privacidad". Algunas aplicaciones de Web3.0 son muy inspiradoras. en este sentido— — Es decir, el entrenamiento del modelo de IA se lleva a cabo bajo la premisa de la confirmación completa de los datos del usuario y la protección de la privacidad de los datos.
Sin embargo, el mercado actual está abrumado por el impresionante rendimiento de modelos grandes como Chatgpt, y no ha considerado los problemas de privacidad del modelo en sí, los problemas de confianza del modelo (y la confianza provocada por la incontrolabilidad) provocada por la evolución. de las características "emergentes" del algoritmo, pero en otro nivel, los usuarios siempre han sido escépticos sobre el funcionamiento preciso, completo y honesto del llamado modelo algorítmico. Por lo tanto, el tema de la confianza de la IA debe resolverse desde los tres niveles de usuarios, proveedores de servicios e incontrolabilidad del modelo.
3. ZKML: la combinación de prueba de conocimiento cero e IA genera confianza
3.1. Prueba de conocimiento cero: zk-SNARKS, zk-STARK y otras tecnologías están madurando
La prueba de conocimiento cero (Zero Knowledge Proof, ZKP) fue propuesta por primera vez por Shafi Goldwasser y Silvio Micali del MIT en un artículo titulado "Complejidad del conocimiento de los sistemas de prueba interactivos" en 1985. El autor mencionó en el artículo que es posible que un probador convenza a un verificador de la autenticidad de los datos sin revelar los datos específicos. La función pública f(x) y el valor de salida y de una función, Alice le dice a Bob que conoce el valor de x, pero Bob no se lo cree. Para hacer esto, Alice usa un algoritmo de prueba de conocimiento cero para generar una prueba. Bob verifica esta prueba para confirmar si Alice realmente sabe x que satisface la función f.
Por ejemplo, al usar la prueba de conocimiento cero, no necesita conocer los puntajes de las pruebas de Xiaoming, pero puede saber si sus puntajes cumplen con los requisitos del usuario, como si es un aprobado, si la tasa correcta de completar los espacios en blanco excede 60%, y así sucesivamente. En el campo de la IA, combinado con la prueba de conocimiento cero, puede tener una herramienta de confianza confiable para los modelos de IA.
La prueba de conocimiento cero puede ser interactiva, es decir, el probador tiene que probar la autenticidad de los datos una vez a cada verificador; también puede ser no interactiva, es decir, el probador crea una prueba, y cualquiera que use esta prueba puede ser verificado.
El conocimiento cero se divide en prueba y verificación.En términos generales, la prueba es casi lineal, es decir, la verificación es T*log(T).
Suponiendo que el tiempo de verificación es el cuadrado del logaritmo del número de transacciones, entonces el tiempo de verificación de la máquina para un bloque de 10 000 transacciones es
VTime = ( )2 ~ (13.2)2 ~ 177 ms; ahora aumente el tamaño del bloque cien veces (a 1 millón de tx/bloque), el nuevo tiempo de ejecución del validador es VTime = (log2 1000000)2 ~ 202 ~ 400ms Por lo tanto, podemos ver su súper escalabilidad, por lo que, en teoría, los tps pueden llegar a ser ilimitados.
**La verificación es muy rápida, y toda la dificultad radica en la parte de generar pruebas. **Mientras la velocidad de generación de pruebas pueda mantenerse, la verificación en cadena es muy simple. Actualmente hay muchas implementaciones de pruebas de conocimiento cero, como zk-SNARKS, zk-STARKS, PLONK y Bulletproofs. Cada método tiene sus propias ventajas y desventajas en términos de tamaño de prueba, tiempo de prueba y tiempo de verificación.
Cuanto más compleja y grande sea la prueba de conocimiento cero, mayor será el rendimiento y menor el tiempo necesario para la verificación. Como se muestra en la figura a continuación, STARK y Bulletproofs no requieren configuraciones confiables A medida que la cantidad de datos de transacciones aumenta de 1TX a 10,000TX, el tamaño de la última prueba aumenta aún menos. La ventaja de Bulletproofs es que el tamaño de la prueba es una transformación logarítmica (incluso si f y x son grandes), es posible almacenar la prueba en el bloque, pero la complejidad computacional de su verificación es lineal. Se puede ver que varios algoritmos tienen muchos puntos clave para sopesar, y también hay mucho espacio para la actualización. Sin embargo, en el proceso de operación real, la dificultad de generar pruebas es mucho mayor de lo imaginado. Por lo tanto, la industria está ahora comprometido a resolver el problema de generar pruebas.
Aunque el desarrollo de tecnología de prueba de conocimiento cero no es suficiente para igualar la escala de un modelo de lenguaje grande (LLM), su implementación técnica tiene escenarios de aplicación inspiradores. Especialmente en el desarrollo de la espada de doble filo de la IA, la prueba de conocimiento cero proporciona una solución confiable para la confianza de la IA.
3.2. Aprendizaje automático de conocimiento cero (ZKML): IA sin confianza
En una era en la que el contenido generado por IA se acerca cada vez más al contenido generado por humanos, las características técnicas de las pruebas secretas de conocimiento cero pueden ayudarnos a determinar qué contenido específico se genera aplicando un modelo específico. Para la protección de la privacidad, la tecnología de prueba de conocimiento cero es particularmente importante, es decir, la prueba y la verificación se pueden completar sin revelar la entrada de datos del usuario o los detalles específicos del modelo. Teniendo en cuenta la integridad de la informática, la optimización heurística y la privacidad, surgió la combinación de la prueba de conocimiento cero y la IA, el aprendizaje automático de conocimiento cero (Zero-Knowledge Machine Learning, ZKML).
Aquí hay cinco formas en que las pruebas de conocimiento cero se pueden aplicar al aprendizaje automático. Además de las funciones básicas como la integridad computacional, la integridad del modelo y la privacidad del usuario, el aprendizaje automático sin conocimiento también puede generar capacitación distribuida; esto promoverá la integración de la IA y la cadena de bloques, y la identificación de personas en la jungla de la IA. (Esta parte se puede encontrar en nuestro informe "OpenAI Founder's Web3 Vision: Worldcoin Creates AI Digital Passport").
La demanda de poder de cómputo del modelo grande de IA es obvia para todos. En este momento, al intercalar pruebas ZK en aplicaciones de IA, se imponen nuevas demandas en el poder de cómputo del hardware. El estado actual del arte de los sistemas de conocimiento cero combinados con hardware de alto rendimiento todavía no puede probar nada tan grande como los modelos de lenguaje grande (LLM) actualmente disponibles, pero se han logrado algunos avances en la creación de pruebas para modelos más pequeños. Según el equipo de Modulus Labs, el sistema de prueba ZK existente se probó con varios modelos de diferentes tamaños. Los sistemas de prueba como plonky2 pueden ejecutarse en unos 50 segundos en una potente máquina de AWS para crear pruebas para modelos con una escala de unos 18 millones de parámetros.
En términos de hardware, las opciones de hardware actuales para la tecnología ZK incluyen GPU, FPGA o ASIC. Cabe señalar que la prueba de conocimiento cero aún se encuentra en la etapa inicial de desarrollo, todavía hay poca estandarización y el algoritmo se actualiza y cambia constantemente. Cada algoritmo tiene sus propias características y es adecuado para diferentes hardware, y cada algoritmo será mejorado en cierta medida según lo requiera el desarrollo del proyecto, por lo que es difícil evaluar específicamente qué algoritmo es el mejor.
Cabe señalar que en cuanto a la combinación de modelos grandes ZK y AI, no existe una investigación clara sobre la evaluación de los sistemas de hardware existentes, por lo que aún existen grandes variables y potenciales en cuanto a los requisitos de hardware futuros.
3.3. Caso inspirador: validación del algoritmo de clasificación de recomendaciones de Twitter
La función de recomendación "Para ti" de Twitter utiliza un algoritmo de recomendación de IA para refinar los aproximadamente 500 millones de tweets publicados todos los días en un puñado de tweets populares, que finalmente se muestran en la línea de tiempo "Para ti" en la página de inicio del usuario. La recomendación extrae información latente de los datos de tweet, usuario y participación para poder proporcionar recomendaciones más relevantes. A fines de marzo de 2023, Twitter abrió el código del algoritmo que selecciona y clasifica las publicaciones en la línea de tiempo para la función de recomendación "Para ti". El proceso de recomendación es más o menos el siguiente:
Generar características de comportamiento de los usuarios a partir de la interacción entre los usuarios y el sitio web, y obtener los mejores tweets de diferentes fuentes de recomendación;
Usar el modelo de algoritmo de IA para clasificar cada tweet;
Aplicar heurísticas y filtros, como filtrar tweets que los usuarios han bloqueado y tweets que han visto, etc.
El módulo principal del algoritmo de recomendación es el servicio responsable de crear y proporcionar la línea de tiempo For You - Home Mixer. El servicio actúa como una columna vertebral algorítmica que conecta diferentes fuentes candidatas, funciones de puntuación, heurísticas y filtros.
La función de recomendación "Para ti" predice y califica la relevancia de cada tuit de candidato en función de aproximadamente 1500 recomendaciones de candidatos potencialmente relevantes. El sitio web oficial de Twitter dice que en esta etapa, todos los tuits de los candidatos reciben el mismo trato. La clasificación central se logra a través de una red neuronal de aproximadamente 48 millones de parámetros, que se entrena continuamente en las interacciones de tweets para optimizar. Este mecanismo de clasificación considera miles de funciones y genera unas diez etiquetas para calificar cada tweet, donde cada etiqueta representa la probabilidad de participación y luego clasifica los tweets en función de estos puntajes.
Aunque este es un paso importante hacia la transparencia en el algoritmo de recomendación de Twitter, los usuarios aún no pueden verificar si el algoritmo se ejecuta de manera precisa y completa; una de las razones principales son los detalles de peso específicos en el modelo de algoritmo utilizado para clasificar los tweets para proteger la privacidad del usuario. La razón no se hizo público. Por lo tanto, la transparencia del algoritmo aún está en duda.
Usando la tecnología ZKML (Zero-Knowledge Machine Learning), Twitter puede probar si los detalles del peso del modelo del algoritmo son precisos y completos (si el modelo y sus parámetros son "iguales a diferentes usuarios"), lo que hace que el modelo del algoritmo proteja la privacidad y haya un buen equilibrio entre la transparencia.
El desarrollador de la comunidad Daniel Kang y otros usan herramientas criptográficas ZK-SNARK para verificar si el algoritmo de recomendación de Twitter es correcto y se ejecuta completamente sin revelar los detalles del algoritmo; este es el punto más atractivo de la prueba de conocimiento cero, es decir, no revelar ninguna información específica sobre el objeto Probar la credibilidad de la información sobre la premisa de la información (conocimiento cero). Idealmente, Twitter podría usar ZK-SNARKS para publicar pruebas de su modelo de clasificación, pruebas de que cuando el modelo se aplica a usuarios y tweets específicos, produce una clasificación de salida final específica. Esta prueba es la base de la confiabilidad del modelo: los usuarios pueden verificar que el cálculo del algoritmo del patrón funciona como se prometió, o enviarlo a un tercero para que lo audite. Todo esto se hace sin revelar los detalles de los pesos de los parámetros del modelo. Es decir, utilizando la prueba modelo anunciada oficialmente, el usuario usa la prueba para verificar que el tweet específico está funcionando honestamente como lo prometió el modelo para tweets cuestionables específicos.
Supongamos que un usuario piensa que la línea de tiempo de la función de recomendación "Para usted" es cuestionable, pensando que ciertos tweets deberían clasificarse más alto (o más bajo). Si Twitter puede lanzar la función de prueba ZKML, los usuarios pueden usar la prueba oficial para verificar cómo se clasifica el tweet sospechoso en comparación con otros tweets en la línea de tiempo (la puntuación calculada corresponde a la clasificación). Las puntuaciones que no coinciden indican que el modelo algorítmico para esos tweets en particular no estaba operando honestamente (fue variado artificialmente en algunos parámetros). Se puede entender que aunque el oficial no anuncia los detalles específicos del modelo, pero según el modelo, se da una varita mágica (la prueba generada por el modelo). Cualquier tweet que use esta varita mágica puede mostrar el puntaje de clasificación relevante - y según esta varita mágica Sin embargo, los detalles privados del modelo no se pueden restaurar. Por lo tanto, los detalles del modelo oficial son auditados mientras se preserva la privacidad de los detalles.
Desde la perspectiva del modelo, mientras protege la privacidad del modelo, el uso de la tecnología ZKML aún puede hacer que el modelo gane la auditoría y la confianza del usuario.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Cómo confiar en la IA: qué ideas proporciona el aprendizaje automático de conocimiento cero (ZKML)
Resumen
**A medida que la IA evoluciona a una velocidad inimaginable, inevitablemente generará preocupaciones sobre el otro "filo" de la espada de la IA: la confianza. **El primero es la privacidad: en la era de la IA, ¿cómo pueden los humanos confiar en la IA desde la perspectiva de la privacidad de los datos? Quizás la transparencia del modelo de IA sea la clave para preocuparse: la capacidad de emerger como un modelo de lenguaje a gran escala equivale a una "caja negra" tecnológica impenetrable para los humanos, y los usuarios comunes no pueden entender cómo funciona el modelo y el resultados de la operación Y cómo obtenerlo: lo que es más problemático es que, como usuario, es posible que no sepa si el modelo de IA proporcionado por el proveedor de servicios funciona según lo prometido. Especialmente cuando se aplican algoritmos y modelos de IA en algunos datos confidenciales, como atención médica, finanzas, aplicaciones de Internet, etc., si el modelo de IA está sesgado (o incluso malintencionado), o si el proveedor de servicios ejecuta el modelo (y parámetros relacionados) exactamente como se prometió, se ha convertido en el tema más preocupante para los usuarios. La tecnología de prueba de conocimiento cero tiene una solución específica en este sentido, por lo que el aprendizaje automático de conocimiento cero (ZKML) se ha convertido en la última dirección de desarrollo.
** Consideración integral de la integridad informática, la optimización heurística y la privacidad, la combinación de la prueba de conocimiento cero y la IA, surgió el aprendizaje automático de conocimiento cero (Zero-Knowledge Machine Learning, ZKML). **En la era en que el contenido generado por IA se acerca cada vez más al contenido generado por humanos, las características técnicas de la prueba secreta de conocimiento cero pueden ayudarnos a determinar qué contenido específico se genera a través de un modelo específico. Para la protección de la privacidad, la tecnología de prueba de conocimiento cero es particularmente importante, es decir, la prueba y la verificación se pueden completar sin revelar la entrada de datos del usuario o los detalles específicos del modelo.
**Cinco formas en que se aplican las pruebas de conocimiento cero al aprendizaje automático: integridad computacional, integridad del modelo, verificación, capacitación distribuida y autenticación. **El rápido desarrollo reciente de modelos de lenguaje a gran escala (LLM) muestra que estos modelos se están volviendo cada vez más inteligentes, y estos modelos completan la importante interfaz entre los algoritmos y los humanos: el lenguaje. La tendencia de la inteligencia artificial general (AGI) ya es imparable, pero a juzgar por los resultados del entrenamiento del modelo actual, la IA puede imitar perfectamente a los humanos de alta capacidad en las interacciones digitales y superar a los humanos a una velocidad inimaginable en rápida evolución. El nivel de los seres humanos ha maravillarse con esta velocidad evolutiva, e incluso preocuparse por ser reemplazado rápidamente por IA.
**Los desarrolladores de la comunidad usan ZKML para verificar la función de recomendación de Twitter, lo cual es instructivo. **La función de recomendación "Para ti" de Twitter utiliza un algoritmo de recomendación de IA para destilar los aproximadamente 500 millones de tweets publicados cada día en un puñado de tweets populares, que finalmente se muestran en la línea de tiempo de la página de inicio del usuario. A fines de marzo de 2023, Twitter abrió el código del algoritmo, pero debido a que los detalles del modelo no se han hecho públicos, los usuarios aún no pueden verificar si el algoritmo se ejecuta de manera precisa y completa. El desarrollador de la comunidad Daniel Kang y otros usan herramientas criptográficas ZK-SNARK para verificar si el algoritmo de recomendación de Twitter es correcto y se ejecuta completamente sin revelar los detalles del algoritmo; este es el punto más atractivo de la prueba de conocimiento cero, es decir, no revelar ninguna información específica sobre el objeto Probar la credibilidad de la información sobre la premisa de la información (conocimiento cero). Idealmente, Twitter podría usar ZK-SNARKS para publicar pruebas de su modelo de clasificación, pruebas de que cuando el modelo se aplica a usuarios y tweets específicos, produce una clasificación de salida final específica. Esta prueba es la base de la confiabilidad del modelo: los usuarios pueden verificar que el cálculo del algoritmo del patrón funciona como se prometió, o enviarlo a un tercero para que lo audite. Todo esto se hace sin revelar los detalles de los pesos de los parámetros del modelo. Es decir, utilizando la prueba modelo anunciada oficialmente, el usuario utiliza la prueba para verificar que el tweet específico está funcionando honestamente según lo prometido por el modelo para tweets cuestionables específicos.
1. Ideas principales
A medida que la IA evoluciona a una velocidad inimaginable, inevitablemente generará preocupaciones sobre el otro "filo" de la espada de la IA: la confianza. El primero es la privacidad: en la era de la IA, ¿cómo pueden los humanos confiar en la IA desde la perspectiva de la privacidad? Quizás la transparencia del modelo de IA sea la clave para preocuparse: la capacidad de emerger como un modelo de lenguaje a gran escala equivale a una "caja negra" tecnológica impenetrable para los humanos, y los usuarios comunes no pueden entender cómo funciona el modelo y el resultados de la operación Y cómo obtenerlo (el modelo en sí está lleno de capacidades incomprensibles o predecibles): lo que es más problemático es que, como usuario, es posible que no sepa si el modelo de IA proporcionado por el proveedor de servicios está funcionando según lo prometido. . Especialmente cuando se aplican algoritmos y modelos de IA en algunos datos confidenciales, como aplicaciones médicas, financieras, de Internet, etc., ya sea que el modelo de IA esté sesgado (o incluso malintencionado), o si el proveedor de servicios ejecuta el modelo (y relacionados). parámetros) exactamente como se prometió, se ha convertido en el tema más preocupante para los usuarios.
La tecnología de prueba de conocimiento cero tiene una solución específica en este sentido, por lo que el aprendizaje automático de conocimiento cero (ZKML) se ha convertido en la última dirección de desarrollo. Este documento analiza las características de la tecnología ZKML, los posibles escenarios de aplicación y algunos casos inspiradores, y realiza una investigación y elaboración sobre la dirección de desarrollo de ZKML y su posible impacto industrial.
**2. El "otro filo" de la espada de la IA: ¿cómo confiar en la IA? **
Las capacidades de la inteligencia artificial se acercan rápidamente a las de los humanos y ya han superado a los humanos en muchos nichos de dominio. El rápido desarrollo reciente de modelos de lenguaje grande (LLM) sugiere que estos modelos se están volviendo cada vez más inteligentes, y estos modelos refinan una interfaz importante entre los algoritmos y los humanos: el lenguaje. La tendencia de la inteligencia artificial general (AGI) ya es imparable, pero a juzgar por los resultados del entrenamiento del modelo actual, la IA puede imitar perfectamente a los humanos de alta capacidad en las interacciones digitales y superar a los humanos a una velocidad inimaginable en el nivel de evolución rápida. El modelo de lenguaje ha hecho un progreso significativo recientemente. Los productos representados por ChatGPT han tenido un desempeño sorprendente, alcanzando más del 20% de la capacidad humana en la mayoría de las evaluaciones de rutina. Al comparar GPT-3.5 y GPT-4, que tienen solo unos meses de diferencia, lo que hace que Humans Hay que maravillarse con esta velocidad evolutiva. Pero por otro lado está la preocupación por la pérdida de control de las capacidades de la IA.
** Primero está el aspecto de la privacidad. **En la era de la IA, con el desarrollo de tecnologías como el reconocimiento facial, los usuarios siempre están preocupados por el riesgo de fuga de datos mientras experimentan los servicios de IA. Esto ha traído ciertos obstáculos para la promoción y el desarrollo de la IA: ¿cómo confiar en la IA desde la perspectiva de la privacidad?
**Quizás la transparencia de los modelos de IA es la clave de una mayor preocupación. **La capacidad de emerger de forma similar a los modelos de lenguaje a gran escala equivale a una "caja negra" tecnológica impenetrable para los humanos. Los usuarios generales no pueden entender cómo funciona el modelo y cómo se obtienen los resultados (el modelo en sí está lleno de Habilidad que es difícil de entender o predecir) - más problemático, ya que es posible que un usuario no sepa si el modelo de IA proporcionado por el proveedor de servicios funciona según lo prometido. Especialmente cuando se aplican algoritmos y modelos de IA en algunos datos confidenciales, como aplicaciones médicas, financieras, de Internet, etc., ya sea que el modelo de IA esté sesgado (o incluso malintencionado), o si el proveedor de servicios ejecuta el modelo (y relacionados). parámetros) exactamente como se prometió, se ha convertido en el tema más preocupante para los usuarios. Por ejemplo, ¿la plataforma de aplicación social hace recomendaciones relevantes según el algoritmo de “igualdad de trato”? ¿La recomendación del algoritmo de IA del proveedor de servicios financieros es tan precisa y completa como se prometió? ¿Hay consumos innecesarios en el plan de servicio médico recomendado por AI? ¿Los proveedores de servicios aceptan la auditoría de modelos de IA?
En pocas palabras, por un lado, los usuarios no conocen la situación real del modelo de IA proporcionado por el proveedor de servicios, pero al mismo tiempo les preocupa mucho que el modelo no sea "discriminatorio". Se considera que incluye algunos factores sesgados u otros factores orientados, que traerán pérdidas desconocidas para los usuarios o un impacto negativo.
Por otro lado, la velocidad de autoevolución de la IA parece ser cada vez más impredecible, y el modelo de algoritmo de IA cada vez más poderoso parece estar más allá de la posibilidad de control humano**, por lo que el tema de la confianza se ha convertido en otro "filo" de la espada afilada de AI ". **
Es necesario establecer la confianza del usuario en la IA desde la perspectiva de la privacidad de los datos, la transparencia del modelo y la capacidad de control del modelo. Los usuarios deben preocuparse por la protección de la privacidad y si el modelo de algoritmo se ejecuta de manera precisa y completa según lo prometido; sin embargo, esta no es una tarea fácil. En términos de transparencia del modelo, los proveedores de modelos tienen preocupaciones sobre la auditoría y la supervisión del modelo basadas en secretos comerciales y otros. perspectivas; Por otro lado, la evolución del modelo de algoritmo en sí no es fácil de controlar, y esta incontrolabilidad también debe ser considerada.
Desde la perspectiva de la protección de la privacidad de los datos del usuario, también investigamos mucho en nuestros informes anteriores, como "IA y elementos de datos impulsados por Web3.0: apertura, seguridad y privacidad". Algunas aplicaciones de Web3.0 son muy inspiradoras. en este sentido— — Es decir, el entrenamiento del modelo de IA se lleva a cabo bajo la premisa de la confirmación completa de los datos del usuario y la protección de la privacidad de los datos.
Sin embargo, el mercado actual está abrumado por el impresionante rendimiento de modelos grandes como Chatgpt, y no ha considerado los problemas de privacidad del modelo en sí, los problemas de confianza del modelo (y la confianza provocada por la incontrolabilidad) provocada por la evolución. de las características "emergentes" del algoritmo, pero en otro nivel, los usuarios siempre han sido escépticos sobre el funcionamiento preciso, completo y honesto del llamado modelo algorítmico. Por lo tanto, el tema de la confianza de la IA debe resolverse desde los tres niveles de usuarios, proveedores de servicios e incontrolabilidad del modelo.
3. ZKML: la combinación de prueba de conocimiento cero e IA genera confianza
3.1. Prueba de conocimiento cero: zk-SNARKS, zk-STARK y otras tecnologías están madurando
La prueba de conocimiento cero (Zero Knowledge Proof, ZKP) fue propuesta por primera vez por Shafi Goldwasser y Silvio Micali del MIT en un artículo titulado "Complejidad del conocimiento de los sistemas de prueba interactivos" en 1985. El autor mencionó en el artículo que es posible que un probador convenza a un verificador de la autenticidad de los datos sin revelar los datos específicos. La función pública f(x) y el valor de salida y de una función, Alice le dice a Bob que conoce el valor de x, pero Bob no se lo cree. Para hacer esto, Alice usa un algoritmo de prueba de conocimiento cero para generar una prueba. Bob verifica esta prueba para confirmar si Alice realmente sabe x que satisface la función f.
Por ejemplo, al usar la prueba de conocimiento cero, no necesita conocer los puntajes de las pruebas de Xiaoming, pero puede saber si sus puntajes cumplen con los requisitos del usuario, como si es un aprobado, si la tasa correcta de completar los espacios en blanco excede 60%, y así sucesivamente. En el campo de la IA, combinado con la prueba de conocimiento cero, puede tener una herramienta de confianza confiable para los modelos de IA.
La prueba de conocimiento cero puede ser interactiva, es decir, el probador tiene que probar la autenticidad de los datos una vez a cada verificador; también puede ser no interactiva, es decir, el probador crea una prueba, y cualquiera que use esta prueba puede ser verificado.
El conocimiento cero se divide en prueba y verificación.En términos generales, la prueba es casi lineal, es decir, la verificación es T*log(T).
Suponiendo que el tiempo de verificación es el cuadrado del logaritmo del número de transacciones, entonces el tiempo de verificación de la máquina para un bloque de 10 000 transacciones es
VTime = ( )2 ~ (13.2)2 ~ 177 ms; ahora aumente el tamaño del bloque cien veces (a 1 millón de tx/bloque), el nuevo tiempo de ejecución del validador es VTime = (log2 1000000)2 ~ 202 ~ 400ms Por lo tanto, podemos ver su súper escalabilidad, por lo que, en teoría, los tps pueden llegar a ser ilimitados.
**La verificación es muy rápida, y toda la dificultad radica en la parte de generar pruebas. **Mientras la velocidad de generación de pruebas pueda mantenerse, la verificación en cadena es muy simple. Actualmente hay muchas implementaciones de pruebas de conocimiento cero, como zk-SNARKS, zk-STARKS, PLONK y Bulletproofs. Cada método tiene sus propias ventajas y desventajas en términos de tamaño de prueba, tiempo de prueba y tiempo de verificación.
Cuanto más compleja y grande sea la prueba de conocimiento cero, mayor será el rendimiento y menor el tiempo necesario para la verificación. Como se muestra en la figura a continuación, STARK y Bulletproofs no requieren configuraciones confiables A medida que la cantidad de datos de transacciones aumenta de 1TX a 10,000TX, el tamaño de la última prueba aumenta aún menos. La ventaja de Bulletproofs es que el tamaño de la prueba es una transformación logarítmica (incluso si f y x son grandes), es posible almacenar la prueba en el bloque, pero la complejidad computacional de su verificación es lineal. Se puede ver que varios algoritmos tienen muchos puntos clave para sopesar, y también hay mucho espacio para la actualización. Sin embargo, en el proceso de operación real, la dificultad de generar pruebas es mucho mayor de lo imaginado. Por lo tanto, la industria está ahora comprometido a resolver el problema de generar pruebas.
Aunque el desarrollo de tecnología de prueba de conocimiento cero no es suficiente para igualar la escala de un modelo de lenguaje grande (LLM), su implementación técnica tiene escenarios de aplicación inspiradores. Especialmente en el desarrollo de la espada de doble filo de la IA, la prueba de conocimiento cero proporciona una solución confiable para la confianza de la IA.
3.2. Aprendizaje automático de conocimiento cero (ZKML): IA sin confianza
En una era en la que el contenido generado por IA se acerca cada vez más al contenido generado por humanos, las características técnicas de las pruebas secretas de conocimiento cero pueden ayudarnos a determinar qué contenido específico se genera aplicando un modelo específico. Para la protección de la privacidad, la tecnología de prueba de conocimiento cero es particularmente importante, es decir, la prueba y la verificación se pueden completar sin revelar la entrada de datos del usuario o los detalles específicos del modelo. Teniendo en cuenta la integridad de la informática, la optimización heurística y la privacidad, surgió la combinación de la prueba de conocimiento cero y la IA, el aprendizaje automático de conocimiento cero (Zero-Knowledge Machine Learning, ZKML).
Aquí hay cinco formas en que las pruebas de conocimiento cero se pueden aplicar al aprendizaje automático. Además de las funciones básicas como la integridad computacional, la integridad del modelo y la privacidad del usuario, el aprendizaje automático sin conocimiento también puede generar capacitación distribuida; esto promoverá la integración de la IA y la cadena de bloques, y la identificación de personas en la jungla de la IA. (Esta parte se puede encontrar en nuestro informe "OpenAI Founder's Web3 Vision: Worldcoin Creates AI Digital Passport").
La demanda de poder de cómputo del modelo grande de IA es obvia para todos. En este momento, al intercalar pruebas ZK en aplicaciones de IA, se imponen nuevas demandas en el poder de cómputo del hardware. El estado actual del arte de los sistemas de conocimiento cero combinados con hardware de alto rendimiento todavía no puede probar nada tan grande como los modelos de lenguaje grande (LLM) actualmente disponibles, pero se han logrado algunos avances en la creación de pruebas para modelos más pequeños. Según el equipo de Modulus Labs, el sistema de prueba ZK existente se probó con varios modelos de diferentes tamaños. Los sistemas de prueba como plonky2 pueden ejecutarse en unos 50 segundos en una potente máquina de AWS para crear pruebas para modelos con una escala de unos 18 millones de parámetros.
En términos de hardware, las opciones de hardware actuales para la tecnología ZK incluyen GPU, FPGA o ASIC. Cabe señalar que la prueba de conocimiento cero aún se encuentra en la etapa inicial de desarrollo, todavía hay poca estandarización y el algoritmo se actualiza y cambia constantemente. Cada algoritmo tiene sus propias características y es adecuado para diferentes hardware, y cada algoritmo será mejorado en cierta medida según lo requiera el desarrollo del proyecto, por lo que es difícil evaluar específicamente qué algoritmo es el mejor.
Cabe señalar que en cuanto a la combinación de modelos grandes ZK y AI, no existe una investigación clara sobre la evaluación de los sistemas de hardware existentes, por lo que aún existen grandes variables y potenciales en cuanto a los requisitos de hardware futuros.
3.3. Caso inspirador: validación del algoritmo de clasificación de recomendaciones de Twitter
La función de recomendación "Para ti" de Twitter utiliza un algoritmo de recomendación de IA para refinar los aproximadamente 500 millones de tweets publicados todos los días en un puñado de tweets populares, que finalmente se muestran en la línea de tiempo "Para ti" en la página de inicio del usuario. La recomendación extrae información latente de los datos de tweet, usuario y participación para poder proporcionar recomendaciones más relevantes. A fines de marzo de 2023, Twitter abrió el código del algoritmo que selecciona y clasifica las publicaciones en la línea de tiempo para la función de recomendación "Para ti". El proceso de recomendación es más o menos el siguiente:
Generar características de comportamiento de los usuarios a partir de la interacción entre los usuarios y el sitio web, y obtener los mejores tweets de diferentes fuentes de recomendación;
Usar el modelo de algoritmo de IA para clasificar cada tweet;
Aplicar heurísticas y filtros, como filtrar tweets que los usuarios han bloqueado y tweets que han visto, etc.
El módulo principal del algoritmo de recomendación es el servicio responsable de crear y proporcionar la línea de tiempo For You - Home Mixer. El servicio actúa como una columna vertebral algorítmica que conecta diferentes fuentes candidatas, funciones de puntuación, heurísticas y filtros.
La función de recomendación "Para ti" predice y califica la relevancia de cada tuit de candidato en función de aproximadamente 1500 recomendaciones de candidatos potencialmente relevantes. El sitio web oficial de Twitter dice que en esta etapa, todos los tuits de los candidatos reciben el mismo trato. La clasificación central se logra a través de una red neuronal de aproximadamente 48 millones de parámetros, que se entrena continuamente en las interacciones de tweets para optimizar. Este mecanismo de clasificación considera miles de funciones y genera unas diez etiquetas para calificar cada tweet, donde cada etiqueta representa la probabilidad de participación y luego clasifica los tweets en función de estos puntajes.
Aunque este es un paso importante hacia la transparencia en el algoritmo de recomendación de Twitter, los usuarios aún no pueden verificar si el algoritmo se ejecuta de manera precisa y completa; una de las razones principales son los detalles de peso específicos en el modelo de algoritmo utilizado para clasificar los tweets para proteger la privacidad del usuario. La razón no se hizo público. Por lo tanto, la transparencia del algoritmo aún está en duda.
Usando la tecnología ZKML (Zero-Knowledge Machine Learning), Twitter puede probar si los detalles del peso del modelo del algoritmo son precisos y completos (si el modelo y sus parámetros son "iguales a diferentes usuarios"), lo que hace que el modelo del algoritmo proteja la privacidad y haya un buen equilibrio entre la transparencia.
El desarrollador de la comunidad Daniel Kang y otros usan herramientas criptográficas ZK-SNARK para verificar si el algoritmo de recomendación de Twitter es correcto y se ejecuta completamente sin revelar los detalles del algoritmo; este es el punto más atractivo de la prueba de conocimiento cero, es decir, no revelar ninguna información específica sobre el objeto Probar la credibilidad de la información sobre la premisa de la información (conocimiento cero). Idealmente, Twitter podría usar ZK-SNARKS para publicar pruebas de su modelo de clasificación, pruebas de que cuando el modelo se aplica a usuarios y tweets específicos, produce una clasificación de salida final específica. Esta prueba es la base de la confiabilidad del modelo: los usuarios pueden verificar que el cálculo del algoritmo del patrón funciona como se prometió, o enviarlo a un tercero para que lo audite. Todo esto se hace sin revelar los detalles de los pesos de los parámetros del modelo. Es decir, utilizando la prueba modelo anunciada oficialmente, el usuario usa la prueba para verificar que el tweet específico está funcionando honestamente como lo prometió el modelo para tweets cuestionables específicos.
Supongamos que un usuario piensa que la línea de tiempo de la función de recomendación "Para usted" es cuestionable, pensando que ciertos tweets deberían clasificarse más alto (o más bajo). Si Twitter puede lanzar la función de prueba ZKML, los usuarios pueden usar la prueba oficial para verificar cómo se clasifica el tweet sospechoso en comparación con otros tweets en la línea de tiempo (la puntuación calculada corresponde a la clasificación). Las puntuaciones que no coinciden indican que el modelo algorítmico para esos tweets en particular no estaba operando honestamente (fue variado artificialmente en algunos parámetros). Se puede entender que aunque el oficial no anuncia los detalles específicos del modelo, pero según el modelo, se da una varita mágica (la prueba generada por el modelo). Cualquier tweet que use esta varita mágica puede mostrar el puntaje de clasificación relevante - y según esta varita mágica Sin embargo, los detalles privados del modelo no se pueden restaurar. Por lo tanto, los detalles del modelo oficial son auditados mientras se preserva la privacidad de los detalles.
Desde la perspectiva del modelo, mientras protege la privacidad del modelo, el uso de la tecnología ZKML aún puede hacer que el modelo gane la auditoría y la confianza del usuario.