Bill Gates: Los riesgos de la inteligencia artificial son reales, pero manejables

Escrito por: Bill Gates

Fuente: Gatesnotes

Fuente de la imagen: Generada por la herramienta de IA Unbounded

Hemos aprendido mucho sobre cómo lidiar con los problemas que plantean las innovaciones revolucionarias.

Los riesgos que plantea la inteligencia artificial pueden parecer abrumadores. ¿Qué sucede con las personas cuyos trabajos son arrebatados por máquinas inteligentes? ¿La inteligencia artificial afectará los resultados electorales? ¿Qué pasa si la futura inteligencia artificial decide que los humanos ya no son necesarios y quiere deshacerse de nosotros?

Estas son preguntas legítimas y las preocupaciones que plantean deben tomarse en serio. Pero tenemos buenas razones para creer que podemos resolver estos problemas: esta no es la primera vez que una innovación importante trae nuevas amenazas que deben controlarse, y las hemos encontrado antes.

Ya sea con la llegada del automóvil o el surgimiento de la computadora personal e Internet, las personas han experimentado otros momentos transformadores que, a pesar de muchos cambios, terminaron mejorando. Poco después de que los primeros autos salieran a la carretera, ocurrieron los primeros choques. Pero en lugar de prohibir los automóviles, hemos adoptado límites de velocidad, estándares de seguridad, requisitos para la licencia de conducir, leyes sobre la conducción bajo los efectos del alcohol y otras reglas de tránsito.

Ahora estamos en las primeras etapas de otra transformación profunda, la era de la inteligencia artificial. Es similar a la era de la incertidumbre antes de los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápido que no está claro qué sucederá a continuación. Nos enfrentamos a grandes preguntas sobre cómo funciona la tecnología actual, cómo la gente la usará maliciosamente y cómo la inteligencia artificial cambiará la sociedad y las personas.

En momentos como estos, es natural sentirse incómodo. Pero la historia demuestra que es posible afrontar los retos que plantean las nuevas tecnologías.

Una vez escribí un artículo sobre cómo la inteligencia artificial cambiará por completo nuestras vidas. Ayudará a resolver problemas de salud, educación, cambio climático y más que parecían intratables en el pasado. La Fundación Gates ha hecho de esto una prioridad, y nuestro CEO Mark Suzman recientemente compartió sus pensamientos sobre el papel de la IA en la reducción de la desigualdad.

Hablaré más sobre los beneficios de la IA en el futuro, pero en esta publicación quiero abordar algunas de las preocupaciones que escucho y leo con frecuencia, muchas de las cuales comparto, y explicar cómo las veo.

Una cosa que queda clara de todos los escritos sobre los riesgos de la IA hasta el momento es que nadie tiene todas las respuestas. Otro punto claro es que el futuro de la inteligencia artificial no es tan sombrío como imaginan algunos, ni tan halagüeño como imaginan otros. Los riesgos son reales, pero soy optimista de que se pueden gestionar. A medida que aborde cada una de estas preocupaciones, volveré a los siguientes temas:

  • Muchos de los problemas que plantea la inteligencia artificial tienen precedentes históricos. Tendrá un gran impacto en la educación, por ejemplo, pero también lo tendrán las calculadoras portátiles hace décadas y, más recientemente, la entrada de computadoras en las aulas. Podemos aprender de los éxitos del pasado.
  • Muchos problemas provocados por la inteligencia artificial también se pueden resolver con la ayuda de la inteligencia artificial.
  • Necesitamos adaptar las leyes antiguas y adoptar otras nuevas, al igual que las leyes antifraude existentes deben adaptarse al mundo en línea.

En este artículo, me centraré en los riesgos existentes o inminentes. No discutiré lo que sucede cuando desarrollamos una IA que puede aprender cualquier tema o tarea, a diferencia de la IA dedicada de hoy. Ya sea que lleguemos a este punto en la próxima década o en un siglo, la sociedad necesita pensar profundamente. ¿Qué pasa si una IA superinteligente establece sus propios objetivos? ¿Y si entran en conflicto con los humanos? ¿Deberíamos construir una súper inteligencia artificial?

Sin embargo, pensar en estos riesgos a más largo plazo no debe hacerse a expensas de riesgos más inmediatos.

La IA generó falsificaciones profundas y la desinformación podría destruir las elecciones y la democracia

El uso de la tecnología para difundir mentiras y desinformación no es nada nuevo. La gente ha estado haciendo esto a través de libros y folletos durante siglos. Esto se hizo más fácil con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales.

La inteligencia artificial ha tomado el problema del texto falsificado y lo ha ampliado para que casi cualquier persona pueda crear audio y video falsos, conocidos como falsificaciones profundas. Si recibe un mensaje de voz que suena como si su hijo estuviera diciendo "Me han secuestrado, envíe $ 1,000 a esta cuenta bancaria dentro de los próximos 10 minutos y no llame a la policía", el terrible impacto emocional que puede tener será mucho más poderoso que un correo electrónico diciendo lo mismo.

A mayor escala, las falsificaciones profundas generadas por IA podrían usarse para tratar de influir en las elecciones. Por supuesto, no se necesita tecnología sofisticada para poner en duda el ganador legítimo de una elección, pero la inteligencia artificial lo hará mucho más fácil.

Ya han aparecido videos falsos de imágenes falsas de políticos conocidos. Imagínese que en la mañana de las elecciones, un video que muestra a un candidato robando un banco se vuelve viral. Era falso, pero las organizaciones de noticias y la campaña tardaron horas en probarlo. ¿Cuántas personas van a ver este video y cambiar su voto en el último minuto? Eso podría inclinar la balanza, especialmente si la carrera está reñida.

Recientemente, cuando el cofundador de OpenAI, Sam Altman, testificó ante un comité del Senado de EE. UU., los senadores de ambos partidos hablaron sobre el impacto de AI en las elecciones y la democracia. Espero que este tema siga estando en la agenda de todos.

Ciertamente no hemos resuelto el problema de la desinformación y las falsificaciones profundas. Pero dos cosas me hacen cautelosamente optimista. Una es que las personas tienen la capacidad de aprender a no tomar nada al pie de la letra. Durante años, los usuarios de correo electrónico se han visto envueltos en estafas haciéndose pasar por príncipes nigerianos que prometen compartir números de tarjetas de crédito a cambio de grandes recompensas. Pero eventualmente, la mayoría de las personas aprenden a pensar dos veces. A medida que los engaños se han vuelto más sofisticados, muchos objetivos se han vuelto más tortuosos. Necesitamos construir la misma capacidad para deepfakes.

Otra cosa que encuentro esperanzadora es que la inteligencia artificial puede ayudar a identificar deepfakes y crear deepfakes. Por ejemplo, Intel ha desarrollado un detector de falsificación profunda y la agencia gubernamental DARPA está desarrollando tecnología para identificar si se ha manipulado el video o el audio.

Será un proceso iterativo: alguien encontrará una forma de detectar la falsificación, alguien descubrirá cómo contrarrestarla, alguien desarrollará contramedidas, etc. No será perfecto, pero tampoco estaremos desesperados.

La IA facilitará el ataque a humanos y gobiernos

Hoy en día, cuando los piratas informáticos esperan encontrar una vulnerabilidad explotable en el software, lo hacen por "fuerza bruta": escriben código y atacan las debilidades potenciales hasta que se descubre la vulnerabilidad. Esto implica muchos desvíos, por lo que requiere tiempo y paciencia.

Los profesionales de la seguridad que quieran luchar contra los piratas informáticos deben hacer lo mismo. Cada parche de software que instala en su teléfono o computadora portátil representa horas de búsqueda.

Los modelos de IA acelerarán este proceso al ayudar a los piratas informáticos a escribir un código más eficiente. También pueden explotar la información pública de un individuo, como dónde trabajan y sus amigos, para desarrollar ataques de phishing más avanzados que los disponibles actualmente.

La buena noticia es que la IA es un arma de doble filo. Los equipos de seguridad del gobierno y del sector privado deben contar con las últimas herramientas para encontrar y reparar las vulnerabilidades de seguridad antes de que los delincuentes las exploten. Espero que la industria de la seguridad del software amplíe el trabajo que ya realizan en esta área, debería ser su principal preocupación.

Por supuesto, esta también es la razón por la que no debemos intentar evitar temporalmente que las personas implementen nuevos desarrollos en inteligencia artificial, como algunos han sugerido. Los ciberdelincuentes no dejan de fabricar nuevas herramientas. Quienes quieran utilizar la inteligencia artificial para diseñar armas nucleares y ataques bioterroristas no se detendrán. Los esfuerzos para detenerlos deben continuar al mismo ritmo.

También existe un riesgo relacionado a nivel global: una carrera armamentista en inteligencia artificial que podría usarse para diseñar y lanzar ataques cibernéticos contra otros estados. El gobierno de cada país quiere tener la tecnología más poderosa disponible para disuadir los ataques de los adversarios. Esta motivación de "no dejar a nadie primero" podría desencadenar una carrera para crear armas cibernéticas cada vez más peligrosas. Las cosas empeorarán para todos.

Es una idea aterradora, pero tenemos la historia como guía. A pesar de lo defectuoso que es el régimen mundial de no proliferación nuclear, ha evitado la guerra nuclear total que mi generación creció aterrorizada. Los gobiernos deberían considerar la creación de una agencia global de IA similar a la Agencia Internacional de Energía Atómica.

IA tomará los trabajos de las personas

El principal impacto de la inteligencia artificial en el trabajo en los próximos años será ayudar a las personas a hacer su trabajo de manera más eficiente. Esto es cierto ya sea que esté trabajando en una fábrica o en la oficina manejando llamadas de ventas y cuentas por pagar. Eventualmente, AI podrá expresarse bien, redactar correos electrónicos y administrar su bandeja de entrada por usted. Simplemente escribiendo una solicitud en inglés o en cualquier otro idioma, puede obtener el PPT que desea.

Como argumenté en mi artículo de febrero, una mayor productividad es buena para la sociedad. Les da a las personas más tiempo para hacer otras cosas en el trabajo y en el hogar. La necesidad de personas útiles nunca desaparecerá, como la enseñanza, el cuidado de los enfermos y el cuidado de los ancianos. Pero algunos trabajadores necesitan apoyo y capacitación a medida que hacemos la transición a un lugar de trabajo impulsado por la IA. Ese es el trabajo de los gobiernos y las empresas para que los trabajadores no se queden atrás, sin el tipo de interrupción en la vida de las personas que ocurre cuando se pierden los empleos en la industria estadounidense.

Además, tenga en cuenta que esta no es la primera vez que las nuevas tecnologías han provocado cambios significativos en el mercado laboral. No creo que el impacto de la inteligencia artificial sea tan grande como el de la revolución industrial, pero ciertamente será similar al impacto de la introducción de la computadora personal. Las aplicaciones de procesamiento de textos no eliminaron el trabajo de oficina, pero lo cambiaron para siempre. Los empleadores y los empleados tuvieron que adaptarse, y lo hicieron. La transformación provocada por la IA será una transición llena de baches, pero hay muchas razones para creer que podemos reducir la interrupción de la vida y los medios de subsistencia de las personas.

AI heredará nuestros prejuicios y los compensará

Las alucinaciones, cuando una IA hace afirmaciones con confianza que simplemente no coinciden con la verdad, generalmente ocurren porque la máquina no entiende su solicitud. Pídele a una IA que escriba una historia corta sobre unas vacaciones en la luna y podría darte una respuesta imaginativa. Pero si le pide a AI que escriba sus planes de viaje a Tanzania, es posible que lo envíe a un hotel que ni siquiera existe.

Otro riesgo de la inteligencia artificial es que refleja o incluso refuerza los prejuicios de las personas sobre determinados géneros, razas, etnias, etc.

Para comprender por qué ocurren las alucinaciones y los sesgos, es importante saber cómo funcionan los modelos de IA más comunes en la actualidad. Básicamente, son versiones de código muy sofisticadas que permiten que su aplicación de correo electrónico prediga la siguiente palabra que está a punto de escribir: escanean grandes cantidades de texto (en algunos casos, casi todo el texto disponible en la web) y luego analizan para encontrar patrones en el lenguaje humano.

Cuando le haces una pregunta a la IA, mira las palabras que usas y luego busca fragmentos de texto que a menudo están asociados con esas palabras. Si escribe "enumerar los ingredientes para panqueques", la IA podría notar que palabras como "harina, azúcar, sal, levadura en polvo, leche y huevos" aparecen con frecuencia con la frase. Luego, en base a lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta. (Los modelos de IA que funcionan de esta manera usan los llamados Transformers. GPT-4 es uno de esos modelos).

Este proceso explica por qué la IA puede alucinar o estar sesgada. No tiene contexto para la pregunta que hiciste o lo que dijiste. Si le dice a la IA que cometió un error, podría decir "lo siento, cometí un error tipográfico". Pero eso es solo una ilusión, en realidad no ingresa nada. Dice esto porque ha escaneado suficiente texto para saber que "lo siento, cometí un error tipográfico" es una frase que la gente suele escribir después de que otra persona la ha corregido.

Del mismo modo, los modelos de IA heredan sesgos incrustados en el texto en el que fueron entrenados. Si uno lee muchos artículos sobre médicos, y la mayoría de los artículos mencionan a médicos varones, entonces su respuesta asumirá que la mayoría de los médicos son hombres.

Aunque algunos investigadores argumentan que las alucinaciones son un problema inherente, no estoy de acuerdo. Soy optimista de que, con el tiempo, los modelos de IA pueden aprender a distinguir la realidad de la ficción. Por ejemplo, OpenAI ha realizado investigaciones prometedoras en esta área.

Otros grupos, incluidos el Instituto Alan Turing y el Instituto Nacional de Estándares y Tecnología, también están trabajando para abordar el sesgo. Un enfoque es construir valores humanos y razonamiento de alto nivel en la IA. Es similar a cómo funcionan los humanos conscientes de sí mismos: tal vez pienses que la mayoría de los médicos son hombres, pero eres lo suficientemente consciente de esa suposición como para saber que tienes que luchar contra ella conscientemente. La inteligencia artificial puede operar de manera similar, especialmente si los modelos están diseñados por personas de diferentes orígenes.

Al final, todos los que usan IA deben ser conscientes del problema del sesgo y convertirse en un usuario informado. Los documentos que le pide a una IA que redacte pueden estar llenos de sesgos y errores de hecho. Debe examinar los sesgos de la IA, así como los suyos propios.

Los estudiantes no aprenderán a escribir porque la IA lo hará por ellos

A muchos profesores les preocupa que la IA interrumpa su colaboración con los estudiantes. En una era en la que cualquier persona con conexión a Internet puede usar IA para escribir un primer borrador decente de una tesis, ¿qué impide que un estudiante la entregue como propia?

Ya existen herramientas de IA que pueden aprender a saber si un ensayo está escrito por un ser humano o por una computadora, para que los maestros puedan saber cuándo los estudiantes están haciendo su propia tarea. Pero algunos maestros no están tratando de disuadir a los estudiantes de usar IA en sus escritos; en realidad, lo están alentando.

En enero, una maestra de inglés veterana llamada Cherie Shields escribió en Education Week sobre cómo usa ChatGPT en su salón de clases. ChatGPT ayuda a sus alumnos con todo, desde comenzar a escribir hasta redactar esquemas, e incluso proporciona comentarios sobre sus tareas.

"Los maestros deben adoptar la tecnología de inteligencia artificial como otra herramienta que los estudiantes pueden usar", escribió. "Así como una vez les enseñamos a los estudiantes cómo hacer una buena búsqueda en Google, los maestros deben diseñar lecciones claras sobre cómo los bots de ChatGPT pueden ayudar con la redacción de ensayos. Reconocer la existencia de la IA y ayudar a los estudiantes a usarla podría revolucionar la forma en que enseñamos". Cada maestro tiene tiempo para aprender y usar nuevas herramientas, pero los educadores como Cherie Shields argumentan que aquellos que tienen tiempo se beneficiarán enormemente.

Esto me recuerda a las décadas de 1970 y 1980 cuando las calculadoras electrónicas se hicieron populares. Algunos profesores de matemáticas temían que los estudiantes dejaran de aprender aritmética básica, pero otros adoptaron la nueva tecnología y se centraron en el pensamiento detrás de la aritmética.

La IA también puede ayudar con la escritura y el pensamiento crítico. Especialmente en los primeros días, cuando las alucinaciones y los prejuicios siguen siendo un problema, los educadores pueden hacer que la IA genere ensayos y luego los verifique con los estudiantes. Las organizaciones educativas sin fines de lucro, como Khan Academy, que yo financio, y OER Project brindan a los maestros y estudiantes herramientas en línea gratuitas que ponen un fuerte énfasis en la prueba de afirmaciones. No hay habilidad más importante que saber distinguir lo real de lo falso.

Realmente necesitamos asegurarnos de que el software educativo ayude a cerrar la brecha de logros, no a empeorarla. El software actual está dirigido principalmente a estudiantes que ya están motivados para aprender. Puede crear un plan de estudio para usted, indicarle buenos recursos y evaluar su conocimiento. Sin embargo, aún no sabe cómo involucrarte en temas que aún no te interesan. Este es un problema que los desarrolladores deben abordar para que todos los tipos de estudiantes puedan beneficiarse de la IA.

**¿Que sigue? **

Creo que tenemos más razones para ser optimistas de que podemos gestionar los riesgos de la IA mientras maximizamos sus beneficios. Pero tenemos que actuar rápido.

Los gobiernos deben desarrollar experiencia en IA para desarrollar leyes y regulaciones informadas para hacer frente a esta nueva tecnología. Deben lidiar con la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Solo un ejemplo: la ley debe aclarar qué usos de las falsificaciones profundas son legales y cómo se etiquetan las falsificaciones profundas para que todos entiendan que lo que ven o escuchan es falso.

Los líderes políticos deben poder entablar un diálogo informado y reflexivo con los electores. También deben decidir cuánto cooperar con otros países en estos temas, en lugar de hacerlo solos.

En el sector privado, las empresas de IA deben trabajar de manera segura y responsable. Esto incluye proteger la privacidad de las personas, garantizar que los modelos de IA reflejen los valores humanos fundamentales, minimizar los sesgos para beneficiar a tantas personas como sea posible y evitar que la tecnología sea explotada por delincuentes o terroristas. Las empresas de muchos sectores de la economía necesitan ayudar a sus empleados a hacer la transición a un lugar de trabajo centrado en la IA para que nadie se quede atrás. Los clientes siempre deben saber que están interactuando con IA y no con humanos.

Finalmente, animo a todos a prestar la mayor atención posible al desarrollo de la inteligencia artificial. Esta es la innovación más transformadora que veremos en nuestra vida, y un debate público saludable dependerá de la comprensión de todos sobre esta tecnología, sus beneficios y riesgos. Los beneficios de la inteligencia artificial serán enormes y la mejor razón para creer que podemos controlar el riesgo es que lo hemos hecho.

Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)