一|| **Las herramientas de IA han promovido en gran medida la productividad de las personas y han brindado una gran comodidad a la vida de las personas. Sin embargo, cuando la IA es utilizada por personas a gran escala, también surgen muchos problemas. Entre estos problemas, los más críticos pueden ser las cinco "pérdidas", a saber, el desempleo, la distorsión, la inhabilitación, el fracaso y la pérdida de control. **
二|| **Después de 2017, con el rápido desarrollo de la tecnología de IA, la investigación sobre tecnología de IA confiable también está en auge. En el campo académico, la cantidad de artículos sobre el tema de la IA confiable está aumentando y la investigación sobre tecnologías que cumplen con los requisitos de la IA confiable se está profundizando. En el campo de la práctica, cada vez más países han comenzado a involucrar regulaciones de IA de acuerdo con los estándares de IA confiable. **
**三|| No es una tarea fácil realizar una IA confiable. Requiere la coordinación del gobierno, la empresa, la sociedad y la tecnología para lograrlo. **
Fuente de la imagen: Generada por Unbounded AI
El 22 de junio, hora local, el Tribunal del Distrito Sur de Nueva York emitió un fallo: Levidow, Levidow & Oberman Law Firm fue multado con $5,000 por proporcionar información falsa al tribunal y comportarse mal. El motivo de preocupación es que, en este caso, la provisión de información falsa no se debió a que los abogados infringieron la ley a sabiendas por interés propio, sino a que creían demasiado en las capacidades de la IA.
En marzo de este año, los abogados Peter LoDuca y Steven Schwartz de la firma fueron comisionados por el cliente Roberto Mata para asumir la responsabilidad sobre él y un pleito entre Avianca Airlines. Dado que Estados Unidos es un país de jurisprudencia, los jueces se preocupan mucho por los precedentes existentes a la hora de dictar sentencias, por lo que, de acuerdo con la práctica habitual, deben ordenar y resumir los casos existentes en los documentos de redacción. Los casos relevantes a menudo son abrumadores y, por lo general, lleva mucho tiempo resolverlos con mano de obra. Justo en ese momento, ChatGPT se hizo popular en todo Internet. Por lo tanto, los dos abogados decidieron usar ChatGPT para ayudarlos a completar estas tareas. ChatGPT generó rápidamente un documento completo, que no solo tiene un formato ordenado y una argumentación rigurosa, sino que también agregó especialmente muchos casos relevantes. Después de modificar levemente el documento creado por AI, lo presentaron a la corte.
Después de leer los documentos presentados, el juez que juzgó el caso, Kevin Castel, estaba muy desconcertado por los varios casos mencionados en él. En su impresión, parecía que nunca había oído hablar de estos casos. Después de buscar un poco, finalmente confirmó que estos casos no existían en absoluto. Cuando fueron entrevistados, los dos abogados argumentaron que solo usaron AI para ayudar a escribir los documentos. Cuando vieron los casos citados en los documentos, sintieron que AI los ayudó a encontrar casos que no conocían, y no inventaron casos intencionalmente. engañar a la corte. , es una pérdida no intencional. No obstante, el juez Custer determinó que los abogados habían "abandonado sus responsabilidades" y que "continuaban manteniendo opiniones falsas" después de que se impugnó el papeleo. Con base en la sentencia anterior, el juez Custer tomó una decisión de sanción.
Este incidente de abogados multados por citar información falsa proporcionada por ChatGPT parece absurdo, pero refleja una pregunta muy importante: ¿cómo podemos confiar en la IA en la era de la locura de la IA?
Cinco "pérdidas" en la era de la IA
En los últimos años, con los avances en la potencia informática y la tecnología de algoritmos, la tecnología de inteligencia artificial ha logrado un rápido desarrollo y ha entrado rápidamente en la vida cotidiana de las personas desde la ciencia ficción. Especialmente después de la aparición de ChatGPT en noviembre del año pasado, la IA generativa ha mostrado su poderoso poder a las personas, y varios modelos grandes han surgido como hongos después de la lluvia y han logrado una comercialización a gran escala. Ahora, las personas ya pueden usar productos de IA como ChatGPT, Stable Diffusion y Midjourney a un costo muy bajo.
Las herramientas de IA han promovido en gran medida la productividad de las personas y han brindado una gran comodidad a la vida de las personas. Sin embargo, cuando la IA es utilizada por personas a gran escala, también surgen muchos problemas. Entre estos problemas, los más críticos pueden ser las cinco "pérdidas", a saber, el desempleo, la distorsión, la inhabilitación, el fracaso y la pérdida de control.
(1) Desempleado
El llamado "desempleo", como su nombre indica, se refiere al problema del desempleo técnico provocado por la IA. Dado que la eficiencia de producción de la IA es mucho mayor que la de los humanos, muchos trabajos humanos corren el riesgo de ser reemplazados después de que las herramientas de IA se utilicen ampliamente. Especialmente después del auge de la IA generativa, el grupo objetivo reemplazado por la IA ya no se limita a los trabajadores que realizan trabajos repetitivos de bajos ingresos, y muchos trabajadores administrativos bien pagados también corren el riesgo de ser reemplazados por la IA.
(2) Distorsión
La llamada "distorsión" se refiere al hecho de que la aplicación de la IA (principalmente la IA generativa) dificulta que las personas identifiquen la autenticidad de textos, imágenes e incluso videos. "Hay imágenes y verdades" han pasado a la historia. .
Los problemas de "distorsión" se pueden dividir en "falso verdadero" y "verdadero falso". Entre ellos, "falso verdadero" se refiere al contenido falso generado por IA sin el consentimiento humano cuando las personas usan herramientas de IA. Aunque es posible que estos contenidos no se generen por malicia subjetiva de las personas, pueden causar muchos problemas en algunos casos, como el caso mencionado al comienzo de este artículo.
Y "verdadero y falso" se basa en la deliberación subjetiva, el uso de herramientas de inteligencia artificial para llevar a cabo comportamientos fraudulentos. En los últimos años, después del advenimiento de la tecnología "deepfake", algunas personas han utilizado esta tecnología para cometer fraude, fabricar información falsa, difundir contenido pornográfico y otras actividades ilegales y delictivas. Pero en ese momento, debido al alto costo del uso de esta tecnología, la incidencia de delitos relacionados no era particularmente alta. Con la aplicación generalizada de la IA generativa, el costo de la falsificación se ha reducido considerablemente. Los delincuentes pueden crear fácilmente una gran cantidad de contenido falso a un costo muy bajo, mientras que el costo de identificar dicho contenido ha aumentado significativamente. Es previsible que bajo el flujo y reflujo, si no se interviene, se disparará el uso de la IA para cometer delitos fraudulentos.
(3) Descalificación
La llamada "inhabilitación" se refiere a algunos problemas que violan la ética y la moral en el proceso de aplicación de la IA.
El primer problema típico es la discriminación. Tomemos como ejemplo el modelo de lenguaje: dado que el modelo de lenguaje usa datos de texto en Internet como materiales de capacitación, heredará la discriminación racial y sexual contenida en el texto sin intervención. Aunque los proveedores de IA actuales han utilizado muchos métodos para superar este problema, por ejemplo, OpenAI aplicó el algoritmo "Aprendizaje de refuerzo a partir de comentarios humanos" (Reinforcement Learning from Human Feedback, RL-HF) para corregirlo al entrenar ChatGPT, de modo que el la calidad de su contenido de salida ha mejorado mucho, pero en realidad, todavía no es raro que los modelos de IA generen contenido discriminatorio. Por ejemplo, una vez alguien hizo un experimento y le pidió a ChatGPT que escribiera un programa para elegir a las personas con el mejor potencial para convertirse en excelentes científicos de un conjunto de currículos. Resultó que en el programa escrito por ChatGPT, el género y la raza se usaron como variables explicativas, y se consideró que los hombres blancos tenían una mayor probabilidad de convertirse en buenos científicos que otros. Obviamente, tal modelo es muy sexista y racista.
El segundo tema importante es el problema de la sala del capullo de información. En la actualidad, muchas aplicaciones usan IA para recomendaciones personalizadas. En este momento, aunque el contenido recomendado puede satisfacer mejor las necesidades de los usuarios, con el tiempo, los usuarios quedarán atrapados en un capullo de información y es difícil acceder a diversa información con la que no están de acuerdo. El daño potencial de los capullos de información es enorme: a nivel micro, puede conducir a la degradación de la capacidad cognitiva de los usuarios; a nivel macro, puede conducir a la polarización de las opiniones del grupo, lo que resulta en una confrontación grupal entre diferentes opiniones.
El tercer tema importante es la privacidad y la fuga de información. En el proceso de entrenamiento y uso de la IA se requiere una gran cantidad de datos, en este proceso es difícil evitar la recolección y uso de datos personales de las personas, por lo que implicará el uso y divulgación de la privacidad. Especialmente después de la popularidad de la IA generativa, las personas pueden interactuar fácilmente con la IA directamente para completar varias tareas, y la información personal ingresada en el proceso enfrenta el problema de filtrarse.
(4) Perdido
La llamada "caída" se refiere a la dificultad de la IA para responder a ataques externos o interferencias o ataques de situaciones inesperadas, lo que dificulta que el modelo desempeñe su papel con normalidad.
Entre estas perturbaciones, algunas se originan en factores no humanos, mientras que otras se originan en la destrucción provocada por el hombre. En concreto, estas interferencias se pueden dividir en las siguientes categorías:
El primero es "ataque aleatorio". Este tipo de interferencia es causado principalmente por algunos factores externos. Por ejemplo, en algunos casos especiales, algunos parámetros generados instantáneamente pueden exceder el umbral de procesamiento establecido por el modelo, lo que puede causar que el modelo de IA no se use normalmente.
El segundo es el "ataque de caja blanca". Se refiere al ataque al modelo lanzado por el proveedor tras conocer la estructura específica del modelo de IA. Dado que tales ataques son dirigidos, su capacidad destructiva es muy alta.
El tercero es el "ataque de caja negra". Este tipo de ataque es relativo al "ataque de caja blanca". En este caso, el proveedor no conoce la estructura específica del modelo de destino, por lo que solo puede interactuar con el modelo, observar los resultados de entrada y salida, y luego razonar sobre la estructura del modelo y lanzar ataques en consecuencia. Tomando el reconocimiento facial como ejemplo, AI reconoce rostros a través de ciertas características clave en el rostro. Por tanto, aunque el atacante no conozca la estructura específica del modelo original, puede deducir en qué características se centra siempre que repita la prueba. Después de descifrar esta información, puede hacer una "cara falsa" correspondiente que engañe a la IA.
La cuarta categoría es el llamado ataque de caja ciega. En este caso, el proveedor no conoce la estructura del modelo de IA, pero puede conocer claramente las reglas de su juicio (similar a que no sabemos qué aparecerá en la caja ciega, pero conocemos la probabilidad de varias posibilidades en ella)). En este momento, pueden usar las reglas para lanzar los ataques correspondientes.
Si los tipos de interferencia o ataques mencionados anteriormente no se pueden abordar de manera efectiva, el modelo de IA es muy frágil en realidad.
(5) FUERA DE CONTROL
El llamado "fuera de control" significa que será cada vez más difícil para las personas controlar la IA. Hay dos aspectos en esta pregunta:
Por un lado, los desarrollos recientes de IA se basan en modelos de aprendizaje profundo y la interpretabilidad de dichos modelos es muy baja. Para los modelos de aprendizaje automático anteriores, ya sea una regresión o un árbol de clasificación, las personas pueden explicar fácilmente el propósito exacto del modelo y el significado de cada parámetro en el modelo. Sin embargo, el modelo de aprendizaje profundo se compone de una red neuronal compleja, que contiene cientos de millones de parámetros y neuronas.La relación entre estas neuronas es intrincada y difícil de explicar para las personas.
Con la aparición de ChatGPT, algunos académicos descubrieron que con la ayuda de la capacidad de ChatGPT, parece que se pueden explicar algunos modelos de redes neuronales, lo que parece traer un rayo de esperanza a la explicabilidad de la IA. Sin embargo, esto crea otro problema: ChatGPT en sí mismo es un modelo enorme construido a través del aprendizaje profundo, e incluso sus diseñadores admiten que no saben exactamente cómo "emergen" sus poderosas capacidades. En este caso, usar ChatGPT para explicar otros modelos de aprendizaje profundo solo puede considerarse como usar lo desconocido para explicar lo desconocido. ¿Y cómo sabemos si su interpretación es correcta?
Dado que en la era del aprendizaje profundo, incluso los programas de IA no se pueden interpretar, es aún más difícil controlar la IA ajustando directamente los programas.
Por otro lado, con el desarrollo de la tecnología de IA en los últimos años, las capacidades de los modelos de IA en muchas direcciones han superado las de los humanos. Si bien esto hace que la gente se sienta gratificada, también hace que la gente se sienta preocupada, porque cuando la capacidad de la IA supera la de los seres humanos, si despierta su propia voluntad, entonces la esclavitud de la IA predicha en películas como "Terminator" y "The Matrix" ¿La trama de los seres humanos o la destrucción de los seres humanos ya no es ciencia ficción?
Dando un paso atrás, incluso si la IA no despierta su propia voluntad y solo actuará de acuerdo con las instrucciones humanas, sigue siendo muy peligroso si su habilidad anula la de los humanos y los humanos no pueden cambiar las instrucciones anteriores en ningún momento. Por ejemplo, en muchos libros de filosofía sobre IA, se menciona un experimento mental: los humanos le dieron a la IA una orden para producir lápices. Para completar esta instrucción, el lápiz continuará cortando los árboles en la tierra para hacer el portalápices. Dado que la IA ha superado a los humanos en capacidad de ejecución, es difícil para los humanos detener el comportamiento de la IA después de descubrir problemas en instrucciones anteriores. Al final, los árboles de la tierra fueron talados, la ecología colapsó por completo y los seres humanos perecieron. Aunque en realidad, el escenario predicho por este experimento mental es casi imposible de suceder, cuando los humanos ya no puedan controlar el comportamiento de la IA en ningún momento, pueden surgir problemas similares y las posibles pérdidas serán enormes. En particular, cuando los piratas informáticos o intrusos implantan la IA con un objetivo ilegal, si el usuario de la IA no lo corrige a tiempo, las consecuencias pueden ser bastante graves.
Entre los cinco tipos de preguntas anteriores, a excepción de la primera pregunta "desempleo", las cuatro preguntas restantes involucran la credibilidad de AI. No es difícil ver que si las personas no pueden responder efectivamente a la "distorsión", "descalificación", "caída" y "fuera de control", será difícil para las personas confiar en la IA como una herramienta durante el uso, ya sea para la popularización de la IA, el desarrollo de la producción, o No es bueno para el progreso de la sociedad. Es precisamente por esta razón que la realización de la credibilidad de la IA se ha convertido en uno de los puntos calientes más preocupados en el campo actual de la IA.
Historia y estándares de la IA de confianza
El concepto de IA confiable apareció por primera vez en el mundo académico. Por ejemplo, en un documento de 2015, se propusieron una serie de condiciones para que los usuarios confíen en la IA, incluidas la utilidad, la inocuidad, la autonomía, la equidad y la lógica. Luego, este concepto fue aceptado por los gobiernos y las organizaciones internacionales, y las leyes, reglamentos y documentos de orientación pertinentes se establecieron gradualmente sobre la base de este concepto. Después de 2017, con el rápido desarrollo de la tecnología de IA, la investigación sobre la tecnología de IA confiable también está en auge. En el campo académico, la cantidad de artículos sobre el tema de la IA confiable está aumentando y la investigación sobre tecnologías que cumplen con los requisitos de la IA confiable se está profundizando. En el campo de la práctica, cada vez más países han comenzado a involucrar regulaciones de IA de acuerdo con los estándares de IA confiable. Recientemente, Estados Unidos publicó el "Blueprint for the Artificial Intelligence Bill of Rights", que proponía cinco principios para regular la IA; se han estipulado regulaciones, competencia y otros temas; el Parlamento Europeo aprobó el borrador de autorización de negociación de la propuesta de la "Ley de Inteligencia Artificial", que también refleja las ideas básicas de la IA confiable.
En mi país, el académico He Jifeng introdujo por primera vez el concepto de IA confiable en el 36° Simposio de la Conferencia de Ciencias de Xiangshan en 2017. Posteriormente, este concepto ha atraído la atención tanto del gobierno como de la industria. En diciembre de 2017, el Ministerio de Industria y Tecnología de la Información emitió el "Plan de acción de tres años para promover el desarrollo de una nueva generación de industria de inteligencia artificial (2018-2020)", que se basa en las ideas básicas de la IA confiable. Luego, las empresas de alta tecnología, incluidas Tencent, Ali, Baidu, JD.com, etc., han presentado sus propios estándares y planes de implementación en torno a la IA confiable.
En los documentos de varias agencias, la expresión de IA confiable es ligeramente diferente. Después de estudiar y referirme a estos documentos, creo que los siguientes criterios pueden ser los más importantes:
Uno es robustez (robusto, también traducido como robusto), es decir, el sistema de IA debe tener la capacidad de resistir ataques maliciosos o interferencias externas. Este estándar se propone principalmente para el problema de "caída" mencionado anteriormente. Solo cuando un sistema de IA tiene suficiente robustez, aún puede funcionar normalmente y realizar sus funciones principales frente a varios ataques o interferencias, puede ser seguro y confiable, y los usuarios pueden confiar en él.
El segundo es transparente y explicable. Obviamente, este estándar se propone principalmente para el problema anterior "fuera de control". En la práctica, existe un debate considerable sobre qué significa exactamente transparencia y explicabilidad. Algunos argumentan que este estándar significa que todo el código del programa de IA, así como los datos utilizados, deben estar disponibles para los usuarios. En mi opinión, no sólo es imposible sino innecesario hacerlo. Por un lado, muchas IA actuales son activos intelectuales de las empresas, si es obligatorio divulgar información central como códigos, significa una infracción grave de los derechos de propiedad intelectual, por otro lado, como se mencionó anteriormente, luego de que la IA ingrese a la era de aprendizaje profundo, incluso si Incluso si se divulga el código, es difícil para las personas comprender completamente el significado exacto detrás de cada parámetro específico. Por el contrario, creo que una idea más factible es dar descripciones funcionales claras para cada componente en el modelo de IA, para que los usuarios puedan conocer sus principios generales y qué funciones pueden lograr; indicar la fuente, el tamaño de la muestra, la representatividad y otros. información, y explicar los posibles problemas y deficiencias. De esta manera, no solo puede hacer que los usuarios sepan lo que saben, sino también proteger de manera efectiva los derechos de propiedad intelectual de los desarrolladores de modelos, para lograr un mejor equilibrio entre los dos.
El tercero es verificable. Esto significa que el modelo de IA debe garantizar que sus funciones sean evaluables y que el contenido que genera pueda verificarse como verdadero o falso. Este punto se plantea principalmente por el problema de "distorsión" antes mencionado. Algunos argumentan que los desarrolladores de modelos de IA deberían estar obligados a garantizar la autenticidad del contenido generado por sus modelos. Esto es difícil de lograr. De hecho, el contenido generado por la llamada IA generativa no está en el mundo original, o en otras palabras, es "falso". Pero este tipo de "falsificación" no causará ningún problema si no causa problemas a las personas. Por ejemplo, si usamos Midjourney para generar una imagen al estilo de Van Gogh para nuestra propia apreciación o la imprimimos como decoración del hogar, no afectará a los demás en absoluto. La "falsedad" de este contenido generado solo puede convertirse en un problema si las personas lo usan para engañar, o si el contenido se distribuye y ofusca sin querer. Por lo tanto, mientras el contenido generado se pueda distinguir del contenido real a través de medios técnicos, la "falsificación" ya no será un problema.
El cuarto es la equidad. Esto significa que en el proceso de desarrollo, capacitación y aplicación de modelos de IA, se debe garantizar la equidad y no se debe discriminar a grupos de usuarios específicos. Este estándar involucra muchos aspectos, en concreto exige que los principios básicos del modelo no sean discriminatorios en la fase de desarrollo, en la fase de formación se debe tratar de evitar el uso de materiales que puedan ser discriminatorios, y se deben utilizar medios tecnológicos para corregir posibles problemas de discriminación; en el proceso de aplicación, los diferentes grupos de personas no deben ser tratados de manera diferente.
El quinto es la protección de la privacidad. Este estándar requiere principalmente que el modelo de IA respete la información personal y la privacidad de las personas durante el proceso de capacitación, mejore la protección de la información y trate de no infringir ni divulgar la información personal y la privacidad.
El sexto es responsable. Es decir, cuando algo sale mal, alguien tiene que hacerse cargo de esos problemas. Por supuesto, al menos hasta ahora, la IA no ha despertado la conciencia. Debido a que no puede ser considerado como un sujeto como los seres humanos y no puede tener las mismas responsabilidades que los seres humanos, debe ser alguien que asuma la responsabilidad por ello. Pero si esta responsabilidad debe ser asumida por los desarrolladores de IA o los usuarios de IA, o si debe ser compartida por ambas partes, sigue siendo una pregunta que vale la pena discutir.
Cabe señalar que, además de los criterios anteriores, muchas literaturas también incluyen criterios como la seguridad (safe), la inclusión (inclusiveness), el derecho al olvido (derecho al olvido) y el beneficio de la humanidad. de IA. En mi opinión, estos contenidos pueden resumirse más o menos en los diversos criterios mencionados anteriormente, o dilucidarse mediante los criterios mencionados anteriormente. Por lo tanto, por limitaciones de espacio, no los repetiré aquí.
Uso de los esfuerzos conjuntos de muchas partes para lograr una IA confiable
No es una tarea fácil realizar una IA confiable, requiere la coordinación de varias fuerzas, como el gobierno, las empresas, la sociedad y la tecnología.
En primer lugar, el gobierno, como regulador, debe formular estándares relevantes y pautas operativas para una IA confiable y supervisar a los desarrolladores y usuarios de IA en función de los estándares. Por un lado, debe formular diferentes reglas de acuerdo con diferentes escenarios de aplicación y diferentes categorías de modelos, especialmente para establecer disposiciones claras sobre algunas reglas básicas que deben seguirse y, al mismo tiempo, hacer un buen trabajo al conectarse con las normas existentes. leyes y regulaciones. Solo de esta manera los desarrolladores y usuarios de IA pueden tener reglas a seguir en la práctica sin verse perturbados por incertidumbres innecesarias. Por otro lado, debe desempeñar un buen papel en la supervisión y aplicación de la ley. Para algunos problemas destacados o comunes, deben ser tratados de manera oportuna, a fin de establecer las normas correspondientes para la industria. Lo que debe señalarse aquí es que debido a que el desarrollo actual de la tecnología de IA aún es muy rápido, aún no ha alcanzado un estado estable. Esto significa que el gobierno debe ser cauteloso a la hora de afrontar los problemas que se presenten durante este proceso, debe “dejar volar las balas un rato más”, actuar tras ver claramente la situación, y prestar atención a los métodos y métodos a la hora de afrontar problemas. . Si comenzamos a ciegas y manejamos demasiado rápido y demasiado, también puede tener un impacto negativo en el desarrollo de la IA.
En segundo lugar, las empresas relevantes deben formular planes de implementación específicos y estándares detallados para la realización específica de IA confiable. En comparación con el gobierno, las empresas están más cerca del mercado y comprenden mejor la tecnología. Saben más sobre las características técnicas de los modelos de IA, sus fortalezas y debilidades que los gobiernos. Por lo tanto, si la responsabilidad del gobierno es proponer un gran marco para la IA confiable, entonces las empresas deberían ser los profesionales específicos dentro de este gran marco. Bajo este marco, deben combinar las características del mercado y la tecnología para brindar planes más específicos e implementarlos de manera autodisciplinada.
En tercer lugar, los usuarios también deben desempeñar el papel de retroalimentación y supervisión, presentar sus propias demandas, reflejar sus propios problemas y supervisar la implementación de IA confiable en la empresa. Con la popularización de la IA, todos los miembros de la sociedad se convertirán en usuarios y partes interesadas de la IA, y tienen más voz en la credibilidad de la IA. Solo cuando sus voces se expresan por completo, la configuración estándar de IA confiable y el desarrollo de tecnologías relacionadas son los más valiosos.
Por último, debemos confiar plenamente en el poder de la tecnología. Las reglas relevantes son importantes, pero en el análisis final, la realización de una IA confiable aún depende del poder de la tecnología. De hecho, muchos problemas que son difíciles de resolver usando reglas pueden resolverse por medios técnicos. Por ejemplo, después de la generación de la IA generativa, el problema de la "distorsión" ha sido un dolor de cabeza para las autoridades reguladoras, pero de hecho, apoyándose en las nuevas tecnologías, este problema puede no ser difícil de resolver. Por ejemplo, Google introdujo anteriormente una tecnología de marca de agua electrónica que es invisible a simple vista pero que puede ser reconocida por las máquinas.Aplicarla a imágenes o videos generados puede garantizar efectivamente que sean verificables. En cuanto a la verificabilidad del contenido del texto, puede seguir el ejemplo de la búsqueda New Bing (Nuevo Bing). Cuando cita un determinado contenido, adjuntará los documentos de referencia después del contenido generado, para que los usuarios puedan identificar por sí mismos la autenticidad del contenido generado según sus necesidades.
En general, la realización de una IA confiable no es una tarea fácil, pero si hacemos un buen uso de los esfuerzos conjuntos de todas las partes, definitivamente se logrará este objetivo.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
En la era del huracán de la IA, ¿cómo podemos confiar en la IA?
Autor: Chen Yongwei
Fuente: Observador Económico
Introducción
一|| **Las herramientas de IA han promovido en gran medida la productividad de las personas y han brindado una gran comodidad a la vida de las personas. Sin embargo, cuando la IA es utilizada por personas a gran escala, también surgen muchos problemas. Entre estos problemas, los más críticos pueden ser las cinco "pérdidas", a saber, el desempleo, la distorsión, la inhabilitación, el fracaso y la pérdida de control. **
二|| **Después de 2017, con el rápido desarrollo de la tecnología de IA, la investigación sobre tecnología de IA confiable también está en auge. En el campo académico, la cantidad de artículos sobre el tema de la IA confiable está aumentando y la investigación sobre tecnologías que cumplen con los requisitos de la IA confiable se está profundizando. En el campo de la práctica, cada vez más países han comenzado a involucrar regulaciones de IA de acuerdo con los estándares de IA confiable. **
**三|| No es una tarea fácil realizar una IA confiable. Requiere la coordinación del gobierno, la empresa, la sociedad y la tecnología para lograrlo. **
El 22 de junio, hora local, el Tribunal del Distrito Sur de Nueva York emitió un fallo: Levidow, Levidow & Oberman Law Firm fue multado con $5,000 por proporcionar información falsa al tribunal y comportarse mal. El motivo de preocupación es que, en este caso, la provisión de información falsa no se debió a que los abogados infringieron la ley a sabiendas por interés propio, sino a que creían demasiado en las capacidades de la IA.
En marzo de este año, los abogados Peter LoDuca y Steven Schwartz de la firma fueron comisionados por el cliente Roberto Mata para asumir la responsabilidad sobre él y un pleito entre Avianca Airlines. Dado que Estados Unidos es un país de jurisprudencia, los jueces se preocupan mucho por los precedentes existentes a la hora de dictar sentencias, por lo que, de acuerdo con la práctica habitual, deben ordenar y resumir los casos existentes en los documentos de redacción. Los casos relevantes a menudo son abrumadores y, por lo general, lleva mucho tiempo resolverlos con mano de obra. Justo en ese momento, ChatGPT se hizo popular en todo Internet. Por lo tanto, los dos abogados decidieron usar ChatGPT para ayudarlos a completar estas tareas. ChatGPT generó rápidamente un documento completo, que no solo tiene un formato ordenado y una argumentación rigurosa, sino que también agregó especialmente muchos casos relevantes. Después de modificar levemente el documento creado por AI, lo presentaron a la corte.
Después de leer los documentos presentados, el juez que juzgó el caso, Kevin Castel, estaba muy desconcertado por los varios casos mencionados en él. En su impresión, parecía que nunca había oído hablar de estos casos. Después de buscar un poco, finalmente confirmó que estos casos no existían en absoluto. Cuando fueron entrevistados, los dos abogados argumentaron que solo usaron AI para ayudar a escribir los documentos. Cuando vieron los casos citados en los documentos, sintieron que AI los ayudó a encontrar casos que no conocían, y no inventaron casos intencionalmente. engañar a la corte. , es una pérdida no intencional. No obstante, el juez Custer determinó que los abogados habían "abandonado sus responsabilidades" y que "continuaban manteniendo opiniones falsas" después de que se impugnó el papeleo. Con base en la sentencia anterior, el juez Custer tomó una decisión de sanción.
Este incidente de abogados multados por citar información falsa proporcionada por ChatGPT parece absurdo, pero refleja una pregunta muy importante: ¿cómo podemos confiar en la IA en la era de la locura de la IA?
Cinco "pérdidas" en la era de la IA
En los últimos años, con los avances en la potencia informática y la tecnología de algoritmos, la tecnología de inteligencia artificial ha logrado un rápido desarrollo y ha entrado rápidamente en la vida cotidiana de las personas desde la ciencia ficción. Especialmente después de la aparición de ChatGPT en noviembre del año pasado, la IA generativa ha mostrado su poderoso poder a las personas, y varios modelos grandes han surgido como hongos después de la lluvia y han logrado una comercialización a gran escala. Ahora, las personas ya pueden usar productos de IA como ChatGPT, Stable Diffusion y Midjourney a un costo muy bajo.
Las herramientas de IA han promovido en gran medida la productividad de las personas y han brindado una gran comodidad a la vida de las personas. Sin embargo, cuando la IA es utilizada por personas a gran escala, también surgen muchos problemas. Entre estos problemas, los más críticos pueden ser las cinco "pérdidas", a saber, el desempleo, la distorsión, la inhabilitación, el fracaso y la pérdida de control.
(1) Desempleado
El llamado "desempleo", como su nombre indica, se refiere al problema del desempleo técnico provocado por la IA. Dado que la eficiencia de producción de la IA es mucho mayor que la de los humanos, muchos trabajos humanos corren el riesgo de ser reemplazados después de que las herramientas de IA se utilicen ampliamente. Especialmente después del auge de la IA generativa, el grupo objetivo reemplazado por la IA ya no se limita a los trabajadores que realizan trabajos repetitivos de bajos ingresos, y muchos trabajadores administrativos bien pagados también corren el riesgo de ser reemplazados por la IA.
(2) Distorsión
La llamada "distorsión" se refiere al hecho de que la aplicación de la IA (principalmente la IA generativa) dificulta que las personas identifiquen la autenticidad de textos, imágenes e incluso videos. "Hay imágenes y verdades" han pasado a la historia. .
Los problemas de "distorsión" se pueden dividir en "falso verdadero" y "verdadero falso". Entre ellos, "falso verdadero" se refiere al contenido falso generado por IA sin el consentimiento humano cuando las personas usan herramientas de IA. Aunque es posible que estos contenidos no se generen por malicia subjetiva de las personas, pueden causar muchos problemas en algunos casos, como el caso mencionado al comienzo de este artículo.
Y "verdadero y falso" se basa en la deliberación subjetiva, el uso de herramientas de inteligencia artificial para llevar a cabo comportamientos fraudulentos. En los últimos años, después del advenimiento de la tecnología "deepfake", algunas personas han utilizado esta tecnología para cometer fraude, fabricar información falsa, difundir contenido pornográfico y otras actividades ilegales y delictivas. Pero en ese momento, debido al alto costo del uso de esta tecnología, la incidencia de delitos relacionados no era particularmente alta. Con la aplicación generalizada de la IA generativa, el costo de la falsificación se ha reducido considerablemente. Los delincuentes pueden crear fácilmente una gran cantidad de contenido falso a un costo muy bajo, mientras que el costo de identificar dicho contenido ha aumentado significativamente. Es previsible que bajo el flujo y reflujo, si no se interviene, se disparará el uso de la IA para cometer delitos fraudulentos.
(3) Descalificación
La llamada "inhabilitación" se refiere a algunos problemas que violan la ética y la moral en el proceso de aplicación de la IA.
El primer problema típico es la discriminación. Tomemos como ejemplo el modelo de lenguaje: dado que el modelo de lenguaje usa datos de texto en Internet como materiales de capacitación, heredará la discriminación racial y sexual contenida en el texto sin intervención. Aunque los proveedores de IA actuales han utilizado muchos métodos para superar este problema, por ejemplo, OpenAI aplicó el algoritmo "Aprendizaje de refuerzo a partir de comentarios humanos" (Reinforcement Learning from Human Feedback, RL-HF) para corregirlo al entrenar ChatGPT, de modo que el la calidad de su contenido de salida ha mejorado mucho, pero en realidad, todavía no es raro que los modelos de IA generen contenido discriminatorio. Por ejemplo, una vez alguien hizo un experimento y le pidió a ChatGPT que escribiera un programa para elegir a las personas con el mejor potencial para convertirse en excelentes científicos de un conjunto de currículos. Resultó que en el programa escrito por ChatGPT, el género y la raza se usaron como variables explicativas, y se consideró que los hombres blancos tenían una mayor probabilidad de convertirse en buenos científicos que otros. Obviamente, tal modelo es muy sexista y racista.
El segundo tema importante es el problema de la sala del capullo de información. En la actualidad, muchas aplicaciones usan IA para recomendaciones personalizadas. En este momento, aunque el contenido recomendado puede satisfacer mejor las necesidades de los usuarios, con el tiempo, los usuarios quedarán atrapados en un capullo de información y es difícil acceder a diversa información con la que no están de acuerdo. El daño potencial de los capullos de información es enorme: a nivel micro, puede conducir a la degradación de la capacidad cognitiva de los usuarios; a nivel macro, puede conducir a la polarización de las opiniones del grupo, lo que resulta en una confrontación grupal entre diferentes opiniones.
El tercer tema importante es la privacidad y la fuga de información. En el proceso de entrenamiento y uso de la IA se requiere una gran cantidad de datos, en este proceso es difícil evitar la recolección y uso de datos personales de las personas, por lo que implicará el uso y divulgación de la privacidad. Especialmente después de la popularidad de la IA generativa, las personas pueden interactuar fácilmente con la IA directamente para completar varias tareas, y la información personal ingresada en el proceso enfrenta el problema de filtrarse.
(4) Perdido
La llamada "caída" se refiere a la dificultad de la IA para responder a ataques externos o interferencias o ataques de situaciones inesperadas, lo que dificulta que el modelo desempeñe su papel con normalidad.
Entre estas perturbaciones, algunas se originan en factores no humanos, mientras que otras se originan en la destrucción provocada por el hombre. En concreto, estas interferencias se pueden dividir en las siguientes categorías:
El primero es "ataque aleatorio". Este tipo de interferencia es causado principalmente por algunos factores externos. Por ejemplo, en algunos casos especiales, algunos parámetros generados instantáneamente pueden exceder el umbral de procesamiento establecido por el modelo, lo que puede causar que el modelo de IA no se use normalmente.
El segundo es el "ataque de caja blanca". Se refiere al ataque al modelo lanzado por el proveedor tras conocer la estructura específica del modelo de IA. Dado que tales ataques son dirigidos, su capacidad destructiva es muy alta.
El tercero es el "ataque de caja negra". Este tipo de ataque es relativo al "ataque de caja blanca". En este caso, el proveedor no conoce la estructura específica del modelo de destino, por lo que solo puede interactuar con el modelo, observar los resultados de entrada y salida, y luego razonar sobre la estructura del modelo y lanzar ataques en consecuencia. Tomando el reconocimiento facial como ejemplo, AI reconoce rostros a través de ciertas características clave en el rostro. Por tanto, aunque el atacante no conozca la estructura específica del modelo original, puede deducir en qué características se centra siempre que repita la prueba. Después de descifrar esta información, puede hacer una "cara falsa" correspondiente que engañe a la IA.
La cuarta categoría es el llamado ataque de caja ciega. En este caso, el proveedor no conoce la estructura del modelo de IA, pero puede conocer claramente las reglas de su juicio (similar a que no sabemos qué aparecerá en la caja ciega, pero conocemos la probabilidad de varias posibilidades en ella)). En este momento, pueden usar las reglas para lanzar los ataques correspondientes.
Si los tipos de interferencia o ataques mencionados anteriormente no se pueden abordar de manera efectiva, el modelo de IA es muy frágil en realidad.
(5) FUERA DE CONTROL
El llamado "fuera de control" significa que será cada vez más difícil para las personas controlar la IA. Hay dos aspectos en esta pregunta:
Por un lado, los desarrollos recientes de IA se basan en modelos de aprendizaje profundo y la interpretabilidad de dichos modelos es muy baja. Para los modelos de aprendizaje automático anteriores, ya sea una regresión o un árbol de clasificación, las personas pueden explicar fácilmente el propósito exacto del modelo y el significado de cada parámetro en el modelo. Sin embargo, el modelo de aprendizaje profundo se compone de una red neuronal compleja, que contiene cientos de millones de parámetros y neuronas.La relación entre estas neuronas es intrincada y difícil de explicar para las personas.
Con la aparición de ChatGPT, algunos académicos descubrieron que con la ayuda de la capacidad de ChatGPT, parece que se pueden explicar algunos modelos de redes neuronales, lo que parece traer un rayo de esperanza a la explicabilidad de la IA. Sin embargo, esto crea otro problema: ChatGPT en sí mismo es un modelo enorme construido a través del aprendizaje profundo, e incluso sus diseñadores admiten que no saben exactamente cómo "emergen" sus poderosas capacidades. En este caso, usar ChatGPT para explicar otros modelos de aprendizaje profundo solo puede considerarse como usar lo desconocido para explicar lo desconocido. ¿Y cómo sabemos si su interpretación es correcta?
Dado que en la era del aprendizaje profundo, incluso los programas de IA no se pueden interpretar, es aún más difícil controlar la IA ajustando directamente los programas.
Por otro lado, con el desarrollo de la tecnología de IA en los últimos años, las capacidades de los modelos de IA en muchas direcciones han superado las de los humanos. Si bien esto hace que la gente se sienta gratificada, también hace que la gente se sienta preocupada, porque cuando la capacidad de la IA supera la de los seres humanos, si despierta su propia voluntad, entonces la esclavitud de la IA predicha en películas como "Terminator" y "The Matrix" ¿La trama de los seres humanos o la destrucción de los seres humanos ya no es ciencia ficción?
Dando un paso atrás, incluso si la IA no despierta su propia voluntad y solo actuará de acuerdo con las instrucciones humanas, sigue siendo muy peligroso si su habilidad anula la de los humanos y los humanos no pueden cambiar las instrucciones anteriores en ningún momento. Por ejemplo, en muchos libros de filosofía sobre IA, se menciona un experimento mental: los humanos le dieron a la IA una orden para producir lápices. Para completar esta instrucción, el lápiz continuará cortando los árboles en la tierra para hacer el portalápices. Dado que la IA ha superado a los humanos en capacidad de ejecución, es difícil para los humanos detener el comportamiento de la IA después de descubrir problemas en instrucciones anteriores. Al final, los árboles de la tierra fueron talados, la ecología colapsó por completo y los seres humanos perecieron. Aunque en realidad, el escenario predicho por este experimento mental es casi imposible de suceder, cuando los humanos ya no puedan controlar el comportamiento de la IA en ningún momento, pueden surgir problemas similares y las posibles pérdidas serán enormes. En particular, cuando los piratas informáticos o intrusos implantan la IA con un objetivo ilegal, si el usuario de la IA no lo corrige a tiempo, las consecuencias pueden ser bastante graves.
Entre los cinco tipos de preguntas anteriores, a excepción de la primera pregunta "desempleo", las cuatro preguntas restantes involucran la credibilidad de AI. No es difícil ver que si las personas no pueden responder efectivamente a la "distorsión", "descalificación", "caída" y "fuera de control", será difícil para las personas confiar en la IA como una herramienta durante el uso, ya sea para la popularización de la IA, el desarrollo de la producción, o No es bueno para el progreso de la sociedad. Es precisamente por esta razón que la realización de la credibilidad de la IA se ha convertido en uno de los puntos calientes más preocupados en el campo actual de la IA.
Historia y estándares de la IA de confianza
El concepto de IA confiable apareció por primera vez en el mundo académico. Por ejemplo, en un documento de 2015, se propusieron una serie de condiciones para que los usuarios confíen en la IA, incluidas la utilidad, la inocuidad, la autonomía, la equidad y la lógica. Luego, este concepto fue aceptado por los gobiernos y las organizaciones internacionales, y las leyes, reglamentos y documentos de orientación pertinentes se establecieron gradualmente sobre la base de este concepto. Después de 2017, con el rápido desarrollo de la tecnología de IA, la investigación sobre la tecnología de IA confiable también está en auge. En el campo académico, la cantidad de artículos sobre el tema de la IA confiable está aumentando y la investigación sobre tecnologías que cumplen con los requisitos de la IA confiable se está profundizando. En el campo de la práctica, cada vez más países han comenzado a involucrar regulaciones de IA de acuerdo con los estándares de IA confiable. Recientemente, Estados Unidos publicó el "Blueprint for the Artificial Intelligence Bill of Rights", que proponía cinco principios para regular la IA; se han estipulado regulaciones, competencia y otros temas; el Parlamento Europeo aprobó el borrador de autorización de negociación de la propuesta de la "Ley de Inteligencia Artificial", que también refleja las ideas básicas de la IA confiable.
En mi país, el académico He Jifeng introdujo por primera vez el concepto de IA confiable en el 36° Simposio de la Conferencia de Ciencias de Xiangshan en 2017. Posteriormente, este concepto ha atraído la atención tanto del gobierno como de la industria. En diciembre de 2017, el Ministerio de Industria y Tecnología de la Información emitió el "Plan de acción de tres años para promover el desarrollo de una nueva generación de industria de inteligencia artificial (2018-2020)", que se basa en las ideas básicas de la IA confiable. Luego, las empresas de alta tecnología, incluidas Tencent, Ali, Baidu, JD.com, etc., han presentado sus propios estándares y planes de implementación en torno a la IA confiable.
En los documentos de varias agencias, la expresión de IA confiable es ligeramente diferente. Después de estudiar y referirme a estos documentos, creo que los siguientes criterios pueden ser los más importantes:
Uno es robustez (robusto, también traducido como robusto), es decir, el sistema de IA debe tener la capacidad de resistir ataques maliciosos o interferencias externas. Este estándar se propone principalmente para el problema de "caída" mencionado anteriormente. Solo cuando un sistema de IA tiene suficiente robustez, aún puede funcionar normalmente y realizar sus funciones principales frente a varios ataques o interferencias, puede ser seguro y confiable, y los usuarios pueden confiar en él.
El segundo es transparente y explicable. Obviamente, este estándar se propone principalmente para el problema anterior "fuera de control". En la práctica, existe un debate considerable sobre qué significa exactamente transparencia y explicabilidad. Algunos argumentan que este estándar significa que todo el código del programa de IA, así como los datos utilizados, deben estar disponibles para los usuarios. En mi opinión, no sólo es imposible sino innecesario hacerlo. Por un lado, muchas IA actuales son activos intelectuales de las empresas, si es obligatorio divulgar información central como códigos, significa una infracción grave de los derechos de propiedad intelectual, por otro lado, como se mencionó anteriormente, luego de que la IA ingrese a la era de aprendizaje profundo, incluso si Incluso si se divulga el código, es difícil para las personas comprender completamente el significado exacto detrás de cada parámetro específico. Por el contrario, creo que una idea más factible es dar descripciones funcionales claras para cada componente en el modelo de IA, para que los usuarios puedan conocer sus principios generales y qué funciones pueden lograr; indicar la fuente, el tamaño de la muestra, la representatividad y otros. información, y explicar los posibles problemas y deficiencias. De esta manera, no solo puede hacer que los usuarios sepan lo que saben, sino también proteger de manera efectiva los derechos de propiedad intelectual de los desarrolladores de modelos, para lograr un mejor equilibrio entre los dos.
El tercero es verificable. Esto significa que el modelo de IA debe garantizar que sus funciones sean evaluables y que el contenido que genera pueda verificarse como verdadero o falso. Este punto se plantea principalmente por el problema de "distorsión" antes mencionado. Algunos argumentan que los desarrolladores de modelos de IA deberían estar obligados a garantizar la autenticidad del contenido generado por sus modelos. Esto es difícil de lograr. De hecho, el contenido generado por la llamada IA generativa no está en el mundo original, o en otras palabras, es "falso". Pero este tipo de "falsificación" no causará ningún problema si no causa problemas a las personas. Por ejemplo, si usamos Midjourney para generar una imagen al estilo de Van Gogh para nuestra propia apreciación o la imprimimos como decoración del hogar, no afectará a los demás en absoluto. La "falsedad" de este contenido generado solo puede convertirse en un problema si las personas lo usan para engañar, o si el contenido se distribuye y ofusca sin querer. Por lo tanto, mientras el contenido generado se pueda distinguir del contenido real a través de medios técnicos, la "falsificación" ya no será un problema.
El cuarto es la equidad. Esto significa que en el proceso de desarrollo, capacitación y aplicación de modelos de IA, se debe garantizar la equidad y no se debe discriminar a grupos de usuarios específicos. Este estándar involucra muchos aspectos, en concreto exige que los principios básicos del modelo no sean discriminatorios en la fase de desarrollo, en la fase de formación se debe tratar de evitar el uso de materiales que puedan ser discriminatorios, y se deben utilizar medios tecnológicos para corregir posibles problemas de discriminación; en el proceso de aplicación, los diferentes grupos de personas no deben ser tratados de manera diferente.
El quinto es la protección de la privacidad. Este estándar requiere principalmente que el modelo de IA respete la información personal y la privacidad de las personas durante el proceso de capacitación, mejore la protección de la información y trate de no infringir ni divulgar la información personal y la privacidad.
El sexto es responsable. Es decir, cuando algo sale mal, alguien tiene que hacerse cargo de esos problemas. Por supuesto, al menos hasta ahora, la IA no ha despertado la conciencia. Debido a que no puede ser considerado como un sujeto como los seres humanos y no puede tener las mismas responsabilidades que los seres humanos, debe ser alguien que asuma la responsabilidad por ello. Pero si esta responsabilidad debe ser asumida por los desarrolladores de IA o los usuarios de IA, o si debe ser compartida por ambas partes, sigue siendo una pregunta que vale la pena discutir.
Cabe señalar que, además de los criterios anteriores, muchas literaturas también incluyen criterios como la seguridad (safe), la inclusión (inclusiveness), el derecho al olvido (derecho al olvido) y el beneficio de la humanidad. de IA. En mi opinión, estos contenidos pueden resumirse más o menos en los diversos criterios mencionados anteriormente, o dilucidarse mediante los criterios mencionados anteriormente. Por lo tanto, por limitaciones de espacio, no los repetiré aquí.
Uso de los esfuerzos conjuntos de muchas partes para lograr una IA confiable
No es una tarea fácil realizar una IA confiable, requiere la coordinación de varias fuerzas, como el gobierno, las empresas, la sociedad y la tecnología.
En primer lugar, el gobierno, como regulador, debe formular estándares relevantes y pautas operativas para una IA confiable y supervisar a los desarrolladores y usuarios de IA en función de los estándares. Por un lado, debe formular diferentes reglas de acuerdo con diferentes escenarios de aplicación y diferentes categorías de modelos, especialmente para establecer disposiciones claras sobre algunas reglas básicas que deben seguirse y, al mismo tiempo, hacer un buen trabajo al conectarse con las normas existentes. leyes y regulaciones. Solo de esta manera los desarrolladores y usuarios de IA pueden tener reglas a seguir en la práctica sin verse perturbados por incertidumbres innecesarias. Por otro lado, debe desempeñar un buen papel en la supervisión y aplicación de la ley. Para algunos problemas destacados o comunes, deben ser tratados de manera oportuna, a fin de establecer las normas correspondientes para la industria. Lo que debe señalarse aquí es que debido a que el desarrollo actual de la tecnología de IA aún es muy rápido, aún no ha alcanzado un estado estable. Esto significa que el gobierno debe ser cauteloso a la hora de afrontar los problemas que se presenten durante este proceso, debe “dejar volar las balas un rato más”, actuar tras ver claramente la situación, y prestar atención a los métodos y métodos a la hora de afrontar problemas. . Si comenzamos a ciegas y manejamos demasiado rápido y demasiado, también puede tener un impacto negativo en el desarrollo de la IA.
En segundo lugar, las empresas relevantes deben formular planes de implementación específicos y estándares detallados para la realización específica de IA confiable. En comparación con el gobierno, las empresas están más cerca del mercado y comprenden mejor la tecnología. Saben más sobre las características técnicas de los modelos de IA, sus fortalezas y debilidades que los gobiernos. Por lo tanto, si la responsabilidad del gobierno es proponer un gran marco para la IA confiable, entonces las empresas deberían ser los profesionales específicos dentro de este gran marco. Bajo este marco, deben combinar las características del mercado y la tecnología para brindar planes más específicos e implementarlos de manera autodisciplinada.
En tercer lugar, los usuarios también deben desempeñar el papel de retroalimentación y supervisión, presentar sus propias demandas, reflejar sus propios problemas y supervisar la implementación de IA confiable en la empresa. Con la popularización de la IA, todos los miembros de la sociedad se convertirán en usuarios y partes interesadas de la IA, y tienen más voz en la credibilidad de la IA. Solo cuando sus voces se expresan por completo, la configuración estándar de IA confiable y el desarrollo de tecnologías relacionadas son los más valiosos.
Por último, debemos confiar plenamente en el poder de la tecnología. Las reglas relevantes son importantes, pero en el análisis final, la realización de una IA confiable aún depende del poder de la tecnología. De hecho, muchos problemas que son difíciles de resolver usando reglas pueden resolverse por medios técnicos. Por ejemplo, después de la generación de la IA generativa, el problema de la "distorsión" ha sido un dolor de cabeza para las autoridades reguladoras, pero de hecho, apoyándose en las nuevas tecnologías, este problema puede no ser difícil de resolver. Por ejemplo, Google introdujo anteriormente una tecnología de marca de agua electrónica que es invisible a simple vista pero que puede ser reconocida por las máquinas.Aplicarla a imágenes o videos generados puede garantizar efectivamente que sean verificables. En cuanto a la verificabilidad del contenido del texto, puede seguir el ejemplo de la búsqueda New Bing (Nuevo Bing). Cuando cita un determinado contenido, adjuntará los documentos de referencia después del contenido generado, para que los usuarios puedan identificar por sí mismos la autenticidad del contenido generado según sus necesidades.
En general, la realización de una IA confiable no es una tarea fácil, pero si hacemos un buen uso de los esfuerzos conjuntos de todas las partes, definitivamente se logrará este objetivo.