ChatGPT ha sido popular durante más de medio año. Además del rápido desarrollo, además de resolver problemas técnicos, el cumplimiento puede ser el próximo gran problema: después de que el Congreso citara a Sam Altman, ahora la FTC (Comisión Federal de Comercio) también lleva a cabo oficialmente ChatGPT. investigación.
Esto hace eco de lo que dijo Bill Gates hace unos días. En su última publicación de blog, dijo: La IA es la innovación más transformadora. Es cierto que hay riesgos, pero los riesgos también son controlables.
En la publicación del blog, Bill Gates analiza principalmente los riesgos y desafíos de la inteligencia artificial y cómo lidiar con ellos, y también brinda algunos ejemplos y sugerencias.
Bill Gates expresó por primera vez su afirmación de las preocupaciones de la gente sobre la IA hoy: ahora estamos en una era de cambios profundos en la inteligencia artificial, que es una era incierta. Pero es optimista de que estos riesgos son manejables.
En segundo lugar, Bill Gates también enumeró los riesgos causados por la IA actual, incluida la falsificación profunda y la información errónea generada por la inteligencia artificial, que pueden destruir las elecciones y la democracia, facilitar que los individuos y los gobiernos lancen ataques y quitarles el trabajo a las personas. hereda sesgos humanos e inventa cosas, los estudiantes no aprenderán a escribir porque la IA lo hará por ellos, etc.
Finalmente, Bill Gates también presentó una serie de propuestas para regular la IA. A nivel de gobierno nacional, los gobiernos deben acumular experiencia en inteligencia artificial para formular leyes y reglamentos para hacer frente a la IA, para hacer frente a la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación.
En términos de soluciones, los líderes gubernamentales deben cooperar con otros países, no solos, y la capacidad de tener un diálogo informado y reflexivo con la gente.
Además, para las empresas, las empresas de IA deben tener una actitud responsable y se debe trabajar para garantizar la seguridad, incluida la protección de la privacidad de las personas, etc.
El siguiente es el texto completo, traducido de GPT-4, editado por 36 Krypton:
Los riesgos que plantea la IA parecen abrumadores. ¿Qué pasa con aquellos que pierden sus trabajos para ser reemplazados por máquinas inteligentes? ¿Afectará la IA los resultados de las elecciones? ¿Qué pasa si la futura IA decide que los humanos ya no son necesarios y quiere deshacerse de nosotros?
Estas son preguntas legítimas y debemos tomarnos en serio las preocupaciones que plantean. Pero tenemos todas las razones para creer que podemos lidiar con ellos: esta no es la primera vez que una innovación importante ha introducido nuevas amenazas que deben contenerse, y las hemos encontrado antes.
Ya sea con la llegada del automóvil o el surgimiento de la computadora personal e Internet, las personas han vivido otros momentos transformadores que, a pesar de muchos trastornos, terminaron para mejor. Poco después de que los primeros autos salieran a la carretera, ocurrieron los primeros choques. Pero en lugar de prohibir los automóviles, hemos adoptado límites de velocidad, estándares de seguridad, requisitos para la licencia de conducir, leyes sobre la conducción bajo los efectos del alcohol y otras reglas viales.
Ahora estamos en las primeras etapas de otra transformación profunda, la era de la IA, similar a la era de la incertidumbre antes de los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápidamente que no está claro qué sucederá a continuación. Nos enfrentamos a grandes preguntas sobre cómo funciona la tecnología actual, cómo las personas la usan con fines maliciosos y cómo la inteligencia artificial puede cambiarnos como miembros de la sociedad y como individuos.
En momentos como estos, es natural sentirse incómodo. Pero la historia demuestra que es posible afrontar los retos que plantean las nuevas tecnologías.
He escrito sobre cómo la inteligencia artificial revolucionará nuestras vidas, ayudando a resolver problemas de salud, educación, cambio climático y más que parecían intratables en el pasado. La Fundación Gates está haciendo de este tema una prioridad, y nuestro CEO, Mark Suzman, compartió recientemente sus reflexiones sobre el papel de la IA en la reducción de la desigualdad.
Hablaré más sobre los beneficios de la IA en el futuro, pero en esta publicación quiero hablar sobre las preocupaciones más comunes que escucho y leo, muchas de las cuales comparto, y explicar cómo me siento acerca de ellas.
De todo lo escrito hasta ahora sobre los riesgos de la inteligencia artificial, una cosa está clara, y es que ninguna persona tiene todas las respuestas. Otro punto que me queda claro es que el futuro de la inteligencia artificial no es tan sombrío como imaginan algunos, ni tan halagüeño como imaginan otros. Los riesgos son reales, pero soy optimista de que se pueden manejar. A medida que analice cada tema uno por uno, volveré a algunos temas:
Muchos de los problemas que plantea la inteligencia artificial tienen precedentes históricos. Tendrá un gran impacto en la educación, por ejemplo, pero también lo han tenido las calculadoras portátiles hace décadas y, más recientemente, al permitir que las computadoras entren en las aulas, podemos aprender de los éxitos del pasado.
Muchos problemas provocados por la inteligencia artificial también se pueden resolver con la ayuda de la inteligencia artificial.
Necesitamos adaptar las leyes antiguas y promulgar otras nuevas, al igual que las leyes antifraude existentes deben adaptarse al mundo en línea.
En este artículo, me centraré en los riesgos existentes o inminentes. No voy a discutir qué sucederá cuando desarrollemos una IA capaz de aprender cualquier tema o tarea. En cambio, hoy estoy hablando de IA especialmente diseñada.
Ya sea que lleguemos a este punto en una década o en un siglo, la sociedad deberá enfrentar algunas preguntas profundas. ¿Qué pasaría si una súper IA estableciera sus propios objetivos? ¿Qué pasa si entran en conflicto con los objetivos humanos? ¿Deberíamos estar construyendo una súper IA?
Sin embargo, los riesgos inmediatos no deben pasarse por alto al considerar estos riesgos a largo plazo. Paso ahora a estos riesgos a corto plazo.
El contenido falso generado por IA y la desinformación podrían destruir las elecciones y la democracia
El uso de la tecnología para difundir mentiras y desinformación no es nada nuevo. La gente ha estado difundiendo mentiras a través de libros y folletos durante siglos. Esta práctica se ha vuelto más fácil con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales.
La inteligencia artificial ha amplificado este problema de texto falso, haciendo posible que casi cualquier persona cree audio y video falsos, conocidos como deepfakes. Si recibe un mensaje de voz que parece que su hijo dice "Me han secuestrado, envíe $ 1,000 a esta cuenta bancaria dentro de los próximos 10 minutos y no llame a la policía", generará mucho más que el mismo contenido. El temible impacto emocional del correo.
A mayor escala, las falsificaciones profundas generadas por IA podrían usarse para tratar de influir en los resultados de las elecciones. Por supuesto, no se necesita una tecnología sofisticada para poner en duda al ganador legítimo de una elección, pero la inteligencia artificial facilitará mucho el proceso.
Ya han surgido videos falsos que contienen imágenes fabricadas de políticos conocidos. Imagine que en la mañana de una elección importante, un video de un candidato robando un banco se vuelve viral. Aunque era falso, las organizaciones de noticias y las campañas tardaron horas en probarlo. ¿Cuántas personas van a ver este video y cambiar su voto en el último minuto? Eso podría cambiar el resultado de la carrera, especialmente si la carrera es reñida.
Cuando el cofundador de Open AI, Sam Altman, testificó ante un comité del Senado de EE. UU. recientemente, los senadores de ambos partidos expresaron su preocupación por el impacto de AI en las elecciones y la democracia. Espero que este tema siga interesando a todos. Realmente no hemos resuelto el problema de la desinformación y las falsificaciones profundas. Pero dos cosas me hacen cautelosamente optimista. Una es que las personas tienen la capacidad de aprender a no confiar en todo. Durante años, los usuarios de correo electrónico han sido engañados por alguien que se hacía pasar por un príncipe nigeriano, prometiéndoles enormes recompensas por compartir números de tarjetas de crédito. Pero eventualmente, la mayoría de las personas aprenden a verificar esos correos electrónicos. A medida que los engaños se vuelven más sofisticados y muchos objetivos más tortuosos, debemos crear la misma conciencia sobre las falsificaciones profundas.
Otra cosa que me da esperanzas es que la IA no solo puede crear falsificaciones profundas, sino también ayudar a identificarlas. Por ejemplo, Intel ha desarrollado un detector de falsificación profunda, mientras que la agencia gubernamental DARPA está trabajando en cómo identificar si un video o audio ha sido manipulado.
Será un proceso circular: alguien encuentra una manera de detectar la falsificación, alguien más descubre cómo contrarrestarla, alguien desarrolla una contramedida, y así sucesivamente. No será un éxito perfecto, pero tampoco estaremos atados.
La IA facilita que los humanos y los gobiernos lancen ataques
Hoy en día, cuando los piratas informáticos quieren encontrar un error en el software, escriben código a través de la fuerza bruta, atacando las debilidades potenciales hasta que encuentran el error. Esto implica muchos desvíos, por lo que requiere tiempo y paciencia.
Los profesionales de la seguridad que quieran luchar contra los piratas informáticos deben hacer lo mismo. Cada parche de software que instala en su teléfono o computadora portátil representa una gran cantidad de tiempo invertido en buscarlo por parte de alguien benigno o malintencionado.
Los modelos de IA acelerarán este proceso al ayudar a los piratas informáticos a escribir un código más eficiente. También podrán usar información pública sobre individuos, como dónde trabajan y quiénes son sus amigos, para desarrollar ataques de phishing más avanzados que los que estamos viendo hoy.
La buena noticia es que la IA se puede utilizar tanto con fines maliciosos como buenos. Los equipos de seguridad del gobierno y del sector privado deben contar con las últimas herramientas para encontrar y reparar las vulnerabilidades de seguridad antes de que los delincuentes las exploten. Espero que la industria de la seguridad del software amplíe el trabajo que ya realizan en esta área, debería ser su principal preocupación.
Es por eso que no deberíamos tratar de evitar temporalmente que las personas implementen nuevos desarrollos en inteligencia artificial, como algunos han sugerido. Los ciberdelincuentes no dejarán de fabricar nuevas herramientas, y tampoco lo harán aquellos que quieran usar IA para diseñar armas nucleares y ataques bioterroristas, y detenerlos debe continuar al mismo ritmo.
También existen riesgos relacionados a nivel global: una carrera armamentista de IA podría usarse para diseñar y lanzar ataques cibernéticos contra otros estados. El gobierno de cada país quiere tener la tecnología más poderosa disponible para disuadir los ataques de los adversarios. Esta motivación de "no dejar a nadie primero" podría desencadenar una carrera para crear armas cibernéticas cada vez más peligrosas. De esta manera, todos estarán peor.
Es una idea aterradora, pero tenemos la historia como lección. A pesar de sus fallas, el régimen mundial de no proliferación de armas nucleares evitó la guerra nuclear total que mi generación creció aterrorizada. Los gobiernos deberían considerar la creación de una agencia global de IA similar a la Agencia Internacional de Energía Atómica.
IA tomará trabajos de personas
El principal impacto de la inteligencia artificial en el trabajo en los próximos años será ayudar a las personas a hacer su trabajo de manera más eficiente. Esto es cierto ya sea que esté trabajando en una fábrica o en la oficina manejando llamadas de ventas y cuentas por pagar. Eventualmente, la habilidad de AI para expresar pensamientos será lo suficientemente buena como para escribir correos electrónicos y administrar su bandeja de entrada por usted. Podrá escribir una solicitud en inglés sencillo o en cualquier otro idioma y generar un informe de trabajo informativo.
Como dije en mi artículo de febrero, el aumento de la productividad es bueno para la sociedad. Esto deja más tiempo para que las personas hagan otras cosas, ya sea en el trabajo o en casa. Y, la necesidad de personas útiles, tales como la enseñanza, el cuidado de los enfermos y el cuidado de los ancianos, nunca desaparecerá.
Pero algunos trabajadores necesitan apoyo y capacitación a medida que hacemos la transición a un lugar de trabajo impulsado por la IA. Ese es el trabajo de los gobiernos y las corporaciones para administrarlo bien para que los trabajadores no se queden atrás, sin el tipo de interrupción en la vida de las personas que ocurrió cuando se perdieron los trabajos de fabricación en los EE. UU.
Además, tenga en cuenta que esta no es la primera vez que las nuevas tecnologías han provocado cambios significativos en el mercado laboral. No creo que el impacto de la inteligencia artificial sea tan grande como el de la revolución industrial, pero definitivamente será tan grande como el advenimiento de la computadora personal. Las aplicaciones de procesamiento de textos no eliminaron el trabajo de oficina, pero lo cambiaron para siempre. Los empleadores y los empleados tuvieron que adaptarse, y lo hicieron. La transformación provocada por la IA será una transición llena de baches, pero hay muchas razones para creer que podemos reducir la interrupción de la vida y los medios de subsistencia de las personas.
La IA hereda nuestros prejuicios y los inventa
Alucinaciones, que es cuando una IA hace una declaración con confianza que simplemente no es cierta, y generalmente sucede porque la máquina no entiende el contexto de su solicitud. Si le pidieras a una IA que escribiera una historia corta sobre unas vacaciones en la luna, podría darte una respuesta muy imaginativa. Pero si dejas que te ayude a planificar un viaje a Tanzania, podría intentar dejarte en un hotel que no existe.
Otro riesgo de la IA es que refleja o incluso exacerba los sesgos existentes sobre ciertas identidades de género, razas, etnias, etc.
Para comprender por qué surgen tales ilusiones y sesgos, es importante comprender cómo funcionan los modelos de IA actuales más comunes. Básicamente, son versiones de código muy complejas que permiten que su aplicación de correo electrónico prediga la siguiente palabra que va a escribir: en algunos casos, casi todo el texto disponible en la web, y escanean grandes cantidades de texto, lo analizan, lo encuentran patrones en el lenguaje humano.
Cuando le haces una pregunta a la IA, mira las palabras que usas y luego busca el texto que a menudo se asocia con esas palabras. Si escribe "lista de ingredientes para panqueques", podría notar que las palabras "harina, azúcar, sal, levadura en polvo, leche y huevos" aparecen con frecuencia con la frase. Luego, en función de lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta (los modelos de IA que funcionan de esta manera usan los llamados transformadores, y GPT-4 es uno de esos modelos).
Este proceso explica por qué la IA puede alucinar o estar sesgada, sin ninguna comprensión contextual de las preguntas que haces o las cosas que le dices. Si le dices que cometiste un error tipográfico, probablemente dirá "lo siento, cometí un error tipográfico". Pero eso es solo una ilusión, no escribe mal nada, dice que porque ha escaneado suficiente texto para saber que "lo siento, lo escribí mal" es una de las cosas que la gente suele escribir después de corregir la oración.
Del mismo modo, los modelos de IA heredan sesgos inherentes al texto en el que fueron entrenados. Si una persona lee muchos artículos sobre médicos, y la mayoría de los artículos mencionan a médicos varones, su respuesta supondrá que la mayoría de los médicos son hombres.
Aunque algunos investigadores argumentan que las alucinaciones son un problema inherente, no estoy de acuerdo. Soy optimista de que, con el tiempo, podamos enseñar modelos de IA para distinguir la realidad de la ficción. Por ejemplo, Open AI ha realizado un trabajo prometedor en esto.
Otras organizaciones, incluidos el Instituto Alan Turing y el Instituto Nacional de Estándares y Tecnología, están abordando el sesgo. Un enfoque es incorporar valores humanos y razonamiento de alto nivel en la IA. Es similar a cómo funcionan los humanos conscientes de sí mismos: tal vez pienses que la mayoría de los médicos son hombres, pero eres lo suficientemente consciente de esa suposición como para saber que tienes que luchar contra ella conscientemente. La inteligencia artificial puede funcionar de manera similar, especialmente si los modelos están diseñados por personas de diferentes orígenes.
Al final, todos los que usan IA deben ser conscientes del problema del sesgo y ser un usuario informado. Un documento que le pide a una IA que redacte puede estar tan lleno de sesgo como de error de hecho. Debe verificar los sesgos de su IA, así como los suyos.
Los estudiantes no aprenderán a escribir porque la IA lo hará por ellos
A muchos profesores les preocupa que la IA interrumpa su trabajo con los estudiantes. En una era en la que cualquier persona con conexión a Internet puede usar la inteligencia artificial para escribir un primer borrador respetable de una disertación, ¿qué impide que un estudiante la entregue como propia?
Ya existen algunas herramientas de IA que están aprendiendo a saber si un ensayo fue escrito por un ser humano o por una computadora, para que los maestros puedan saber si sus alumnos están haciendo su propio trabajo. Pero en lugar de tratar de disuadir a sus alumnos de usar la IA en la escritura, algunos maestros en realidad lo están alentando.
En enero, una veterana profesora de inglés llamada Cherie Shields publicó un artículo en Education Week. publicó un artículo sobre cómo usa Chat GPT en su salón de clases. Chat GPT ayuda a sus alumnos desde que comienzan un ensayo hasta que escriben un esquema e incluso brindan comentarios sobre sus tareas.
Ella escribe: "Los maestros deben adoptar la tecnología de IA como otra herramienta que los estudiantes pueden usar. Así como una vez les enseñamos a los estudiantes cómo hacer una buena búsqueda en Google, los maestros deben diseñar claridad sobre cómo los bots Chat GPT pueden ayudar a escribir ensayos". La existencia de la IA y ayudar a los estudiantes a usarla podría revolucionar la forma en que enseñamos". No todos los maestros tienen el tiempo para aprender y usar nuevas herramientas, pero los educadores como Cherie Shields ofrecen un buen argumento, que aquellos maestros que tienen el tiempo se beneficiarán enormemente. .
Esto me recuerda la época en que las calculadoras electrónicas se hicieron populares en los años setenta y ochenta. A algunos profesores de matemáticas les preocupa que los estudiantes dejen de aprender aritmética básica, pero otros adoptan la nueva tecnología y se enfocan en el pensamiento detrás de la aritmética.
La IA también puede ayudar con la escritura y el pensamiento crítico. Especialmente en los primeros días, cuando las alucinaciones y los prejuicios siguen siendo un problema, los educadores pueden hacer que la IA genere ensayos y luego los verifique con los estudiantes. Las organizaciones educativas sin fines de lucro, como Khan Academy y OER Project, brindan a los maestros y estudiantes herramientas en línea gratuitas que ponen un gran énfasis en la prueba de afirmaciones, y ninguna habilidad es más importante que saber distinguir la verdad de lo falso.
Realmente necesitamos asegurarnos de que el software educativo ayude a cerrar la brecha de logros, no a empeorarla. El software actual está dirigido principalmente a estudiantes que ya están motivados para aprender. Puede crear un plan de estudio para usted, conectarlo con buenos recursos y evaluar su conocimiento. Sin embargo, aún no sabe cómo involucrarte en temas que aún no te interesan. Este es un problema que los desarrolladores deben abordar para que todos los tipos de estudiantes puedan beneficiarse de la IA.
**¿Qué hacer a continuación? **
Creo que tenemos más motivos para ser optimistas de que podemos gestionar los riesgos de la IA y maximizar sus beneficios, pero tenemos que actuar con rapidez.
Los gobiernos deben desarrollar experiencia en IA para desarrollar leyes y regulaciones que se ocupen de esta nueva tecnología. Deben lidiar con la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Solo un ejemplo: la ley debe aclarar qué usos de las falsificaciones profundas son legales y cómo se deben etiquetar las falsificaciones profundas para que todos entiendan que lo que ven o escuchan es falso.
Los líderes políticos deben poder entablar un diálogo informado y reflexivo con los electores. También deben decidir cuánto cooperar con otros países en estos temas, en lugar de hacerlo solos.
En el sector privado, las empresas de IA deben hacer su trabajo de manera segura y responsable. Esto incluye proteger la privacidad de las personas, garantizar que sus modelos de IA reflejen los valores humanos fundamentales, minimizar el sesgo para beneficiar a tantas personas como sea posible y evitar que la tecnología sea explotada por delincuentes o terroristas. Las empresas de muchos sectores de la economía deberán ayudar a sus empleados a hacer la transición a un lugar de trabajo centrado en la IA para que nadie se quede atrás. Y los clientes siempre deben saber si están interactuando con una IA o con un ser humano.
Finalmente, animo a todos a prestar la mayor atención posible al desarrollo de la inteligencia artificial. Esta es la innovación más transformadora que veremos en nuestra vida, y un debate público saludable dependerá de la comprensión de todos de la tecnología en sí, sus beneficios y sus riesgos. Los beneficios de la inteligencia artificial serán enormes, y la mejor razón para creer que podemos controlar los riesgos es que hemos sido capaces de hacerlo.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Última publicación de blog de Bill Gates: Los riesgos de la IA existen, pero son controlables
Autor: Jin Qiong
ChatGPT ha sido popular durante más de medio año. Además del rápido desarrollo, además de resolver problemas técnicos, el cumplimiento puede ser el próximo gran problema: después de que el Congreso citara a Sam Altman, ahora la FTC (Comisión Federal de Comercio) también lleva a cabo oficialmente ChatGPT. investigación.
Esto hace eco de lo que dijo Bill Gates hace unos días. En su última publicación de blog, dijo: La IA es la innovación más transformadora. Es cierto que hay riesgos, pero los riesgos también son controlables.
En la publicación del blog, Bill Gates analiza principalmente los riesgos y desafíos de la inteligencia artificial y cómo lidiar con ellos, y también brinda algunos ejemplos y sugerencias.
Bill Gates expresó por primera vez su afirmación de las preocupaciones de la gente sobre la IA hoy: ahora estamos en una era de cambios profundos en la inteligencia artificial, que es una era incierta. Pero es optimista de que estos riesgos son manejables.
En segundo lugar, Bill Gates también enumeró los riesgos causados por la IA actual, incluida la falsificación profunda y la información errónea generada por la inteligencia artificial, que pueden destruir las elecciones y la democracia, facilitar que los individuos y los gobiernos lancen ataques y quitarles el trabajo a las personas. hereda sesgos humanos e inventa cosas, los estudiantes no aprenderán a escribir porque la IA lo hará por ellos, etc.
Finalmente, Bill Gates también presentó una serie de propuestas para regular la IA. A nivel de gobierno nacional, los gobiernos deben acumular experiencia en inteligencia artificial para formular leyes y reglamentos para hacer frente a la IA, para hacer frente a la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación.
En términos de soluciones, los líderes gubernamentales deben cooperar con otros países, no solos, y la capacidad de tener un diálogo informado y reflexivo con la gente.
Además, para las empresas, las empresas de IA deben tener una actitud responsable y se debe trabajar para garantizar la seguridad, incluida la protección de la privacidad de las personas, etc.
El siguiente es el texto completo, traducido de GPT-4, editado por 36 Krypton:
Los riesgos que plantea la IA parecen abrumadores. ¿Qué pasa con aquellos que pierden sus trabajos para ser reemplazados por máquinas inteligentes? ¿Afectará la IA los resultados de las elecciones? ¿Qué pasa si la futura IA decide que los humanos ya no son necesarios y quiere deshacerse de nosotros?
Estas son preguntas legítimas y debemos tomarnos en serio las preocupaciones que plantean. Pero tenemos todas las razones para creer que podemos lidiar con ellos: esta no es la primera vez que una innovación importante ha introducido nuevas amenazas que deben contenerse, y las hemos encontrado antes.
Ya sea con la llegada del automóvil o el surgimiento de la computadora personal e Internet, las personas han vivido otros momentos transformadores que, a pesar de muchos trastornos, terminaron para mejor. Poco después de que los primeros autos salieran a la carretera, ocurrieron los primeros choques. Pero en lugar de prohibir los automóviles, hemos adoptado límites de velocidad, estándares de seguridad, requisitos para la licencia de conducir, leyes sobre la conducción bajo los efectos del alcohol y otras reglas viales.
Ahora estamos en las primeras etapas de otra transformación profunda, la era de la IA, similar a la era de la incertidumbre antes de los límites de velocidad y los cinturones de seguridad. La IA está cambiando tan rápidamente que no está claro qué sucederá a continuación. Nos enfrentamos a grandes preguntas sobre cómo funciona la tecnología actual, cómo las personas la usan con fines maliciosos y cómo la inteligencia artificial puede cambiarnos como miembros de la sociedad y como individuos.
En momentos como estos, es natural sentirse incómodo. Pero la historia demuestra que es posible afrontar los retos que plantean las nuevas tecnologías.
He escrito sobre cómo la inteligencia artificial revolucionará nuestras vidas, ayudando a resolver problemas de salud, educación, cambio climático y más que parecían intratables en el pasado. La Fundación Gates está haciendo de este tema una prioridad, y nuestro CEO, Mark Suzman, compartió recientemente sus reflexiones sobre el papel de la IA en la reducción de la desigualdad.
Hablaré más sobre los beneficios de la IA en el futuro, pero en esta publicación quiero hablar sobre las preocupaciones más comunes que escucho y leo, muchas de las cuales comparto, y explicar cómo me siento acerca de ellas.
De todo lo escrito hasta ahora sobre los riesgos de la inteligencia artificial, una cosa está clara, y es que ninguna persona tiene todas las respuestas. Otro punto que me queda claro es que el futuro de la inteligencia artificial no es tan sombrío como imaginan algunos, ni tan halagüeño como imaginan otros. Los riesgos son reales, pero soy optimista de que se pueden manejar. A medida que analice cada tema uno por uno, volveré a algunos temas:
En este artículo, me centraré en los riesgos existentes o inminentes. No voy a discutir qué sucederá cuando desarrollemos una IA capaz de aprender cualquier tema o tarea. En cambio, hoy estoy hablando de IA especialmente diseñada.
Ya sea que lleguemos a este punto en una década o en un siglo, la sociedad deberá enfrentar algunas preguntas profundas. ¿Qué pasaría si una súper IA estableciera sus propios objetivos? ¿Qué pasa si entran en conflicto con los objetivos humanos? ¿Deberíamos estar construyendo una súper IA?
Sin embargo, los riesgos inmediatos no deben pasarse por alto al considerar estos riesgos a largo plazo. Paso ahora a estos riesgos a corto plazo.
El contenido falso generado por IA y la desinformación podrían destruir las elecciones y la democracia
El uso de la tecnología para difundir mentiras y desinformación no es nada nuevo. La gente ha estado difundiendo mentiras a través de libros y folletos durante siglos. Esta práctica se ha vuelto más fácil con la llegada de los procesadores de texto, las impresoras láser, el correo electrónico y las redes sociales.
La inteligencia artificial ha amplificado este problema de texto falso, haciendo posible que casi cualquier persona cree audio y video falsos, conocidos como deepfakes. Si recibe un mensaje de voz que parece que su hijo dice "Me han secuestrado, envíe $ 1,000 a esta cuenta bancaria dentro de los próximos 10 minutos y no llame a la policía", generará mucho más que el mismo contenido. El temible impacto emocional del correo.
A mayor escala, las falsificaciones profundas generadas por IA podrían usarse para tratar de influir en los resultados de las elecciones. Por supuesto, no se necesita una tecnología sofisticada para poner en duda al ganador legítimo de una elección, pero la inteligencia artificial facilitará mucho el proceso.
Ya han surgido videos falsos que contienen imágenes fabricadas de políticos conocidos. Imagine que en la mañana de una elección importante, un video de un candidato robando un banco se vuelve viral. Aunque era falso, las organizaciones de noticias y las campañas tardaron horas en probarlo. ¿Cuántas personas van a ver este video y cambiar su voto en el último minuto? Eso podría cambiar el resultado de la carrera, especialmente si la carrera es reñida.
Cuando el cofundador de Open AI, Sam Altman, testificó ante un comité del Senado de EE. UU. recientemente, los senadores de ambos partidos expresaron su preocupación por el impacto de AI en las elecciones y la democracia. Espero que este tema siga interesando a todos. Realmente no hemos resuelto el problema de la desinformación y las falsificaciones profundas. Pero dos cosas me hacen cautelosamente optimista. Una es que las personas tienen la capacidad de aprender a no confiar en todo. Durante años, los usuarios de correo electrónico han sido engañados por alguien que se hacía pasar por un príncipe nigeriano, prometiéndoles enormes recompensas por compartir números de tarjetas de crédito. Pero eventualmente, la mayoría de las personas aprenden a verificar esos correos electrónicos. A medida que los engaños se vuelven más sofisticados y muchos objetivos más tortuosos, debemos crear la misma conciencia sobre las falsificaciones profundas.
Otra cosa que me da esperanzas es que la IA no solo puede crear falsificaciones profundas, sino también ayudar a identificarlas. Por ejemplo, Intel ha desarrollado un detector de falsificación profunda, mientras que la agencia gubernamental DARPA está trabajando en cómo identificar si un video o audio ha sido manipulado.
Será un proceso circular: alguien encuentra una manera de detectar la falsificación, alguien más descubre cómo contrarrestarla, alguien desarrolla una contramedida, y así sucesivamente. No será un éxito perfecto, pero tampoco estaremos atados.
La IA facilita que los humanos y los gobiernos lancen ataques
Hoy en día, cuando los piratas informáticos quieren encontrar un error en el software, escriben código a través de la fuerza bruta, atacando las debilidades potenciales hasta que encuentran el error. Esto implica muchos desvíos, por lo que requiere tiempo y paciencia.
Los profesionales de la seguridad que quieran luchar contra los piratas informáticos deben hacer lo mismo. Cada parche de software que instala en su teléfono o computadora portátil representa una gran cantidad de tiempo invertido en buscarlo por parte de alguien benigno o malintencionado.
Los modelos de IA acelerarán este proceso al ayudar a los piratas informáticos a escribir un código más eficiente. También podrán usar información pública sobre individuos, como dónde trabajan y quiénes son sus amigos, para desarrollar ataques de phishing más avanzados que los que estamos viendo hoy.
La buena noticia es que la IA se puede utilizar tanto con fines maliciosos como buenos. Los equipos de seguridad del gobierno y del sector privado deben contar con las últimas herramientas para encontrar y reparar las vulnerabilidades de seguridad antes de que los delincuentes las exploten. Espero que la industria de la seguridad del software amplíe el trabajo que ya realizan en esta área, debería ser su principal preocupación.
Es por eso que no deberíamos tratar de evitar temporalmente que las personas implementen nuevos desarrollos en inteligencia artificial, como algunos han sugerido. Los ciberdelincuentes no dejarán de fabricar nuevas herramientas, y tampoco lo harán aquellos que quieran usar IA para diseñar armas nucleares y ataques bioterroristas, y detenerlos debe continuar al mismo ritmo.
También existen riesgos relacionados a nivel global: una carrera armamentista de IA podría usarse para diseñar y lanzar ataques cibernéticos contra otros estados. El gobierno de cada país quiere tener la tecnología más poderosa disponible para disuadir los ataques de los adversarios. Esta motivación de "no dejar a nadie primero" podría desencadenar una carrera para crear armas cibernéticas cada vez más peligrosas. De esta manera, todos estarán peor.
Es una idea aterradora, pero tenemos la historia como lección. A pesar de sus fallas, el régimen mundial de no proliferación de armas nucleares evitó la guerra nuclear total que mi generación creció aterrorizada. Los gobiernos deberían considerar la creación de una agencia global de IA similar a la Agencia Internacional de Energía Atómica.
IA tomará trabajos de personas
El principal impacto de la inteligencia artificial en el trabajo en los próximos años será ayudar a las personas a hacer su trabajo de manera más eficiente. Esto es cierto ya sea que esté trabajando en una fábrica o en la oficina manejando llamadas de ventas y cuentas por pagar. Eventualmente, la habilidad de AI para expresar pensamientos será lo suficientemente buena como para escribir correos electrónicos y administrar su bandeja de entrada por usted. Podrá escribir una solicitud en inglés sencillo o en cualquier otro idioma y generar un informe de trabajo informativo.
Como dije en mi artículo de febrero, el aumento de la productividad es bueno para la sociedad. Esto deja más tiempo para que las personas hagan otras cosas, ya sea en el trabajo o en casa. Y, la necesidad de personas útiles, tales como la enseñanza, el cuidado de los enfermos y el cuidado de los ancianos, nunca desaparecerá.
Pero algunos trabajadores necesitan apoyo y capacitación a medida que hacemos la transición a un lugar de trabajo impulsado por la IA. Ese es el trabajo de los gobiernos y las corporaciones para administrarlo bien para que los trabajadores no se queden atrás, sin el tipo de interrupción en la vida de las personas que ocurrió cuando se perdieron los trabajos de fabricación en los EE. UU.
Además, tenga en cuenta que esta no es la primera vez que las nuevas tecnologías han provocado cambios significativos en el mercado laboral. No creo que el impacto de la inteligencia artificial sea tan grande como el de la revolución industrial, pero definitivamente será tan grande como el advenimiento de la computadora personal. Las aplicaciones de procesamiento de textos no eliminaron el trabajo de oficina, pero lo cambiaron para siempre. Los empleadores y los empleados tuvieron que adaptarse, y lo hicieron. La transformación provocada por la IA será una transición llena de baches, pero hay muchas razones para creer que podemos reducir la interrupción de la vida y los medios de subsistencia de las personas.
La IA hereda nuestros prejuicios y los inventa
Alucinaciones, que es cuando una IA hace una declaración con confianza que simplemente no es cierta, y generalmente sucede porque la máquina no entiende el contexto de su solicitud. Si le pidieras a una IA que escribiera una historia corta sobre unas vacaciones en la luna, podría darte una respuesta muy imaginativa. Pero si dejas que te ayude a planificar un viaje a Tanzania, podría intentar dejarte en un hotel que no existe.
Otro riesgo de la IA es que refleja o incluso exacerba los sesgos existentes sobre ciertas identidades de género, razas, etnias, etc.
Para comprender por qué surgen tales ilusiones y sesgos, es importante comprender cómo funcionan los modelos de IA actuales más comunes. Básicamente, son versiones de código muy complejas que permiten que su aplicación de correo electrónico prediga la siguiente palabra que va a escribir: en algunos casos, casi todo el texto disponible en la web, y escanean grandes cantidades de texto, lo analizan, lo encuentran patrones en el lenguaje humano.
Cuando le haces una pregunta a la IA, mira las palabras que usas y luego busca el texto que a menudo se asocia con esas palabras. Si escribe "lista de ingredientes para panqueques", podría notar que las palabras "harina, azúcar, sal, levadura en polvo, leche y huevos" aparecen con frecuencia con la frase. Luego, en función de lo que sabe sobre el orden en que suelen aparecer esas palabras, genera una respuesta (los modelos de IA que funcionan de esta manera usan los llamados transformadores, y GPT-4 es uno de esos modelos).
Este proceso explica por qué la IA puede alucinar o estar sesgada, sin ninguna comprensión contextual de las preguntas que haces o las cosas que le dices. Si le dices que cometiste un error tipográfico, probablemente dirá "lo siento, cometí un error tipográfico". Pero eso es solo una ilusión, no escribe mal nada, dice que porque ha escaneado suficiente texto para saber que "lo siento, lo escribí mal" es una de las cosas que la gente suele escribir después de corregir la oración.
Del mismo modo, los modelos de IA heredan sesgos inherentes al texto en el que fueron entrenados. Si una persona lee muchos artículos sobre médicos, y la mayoría de los artículos mencionan a médicos varones, su respuesta supondrá que la mayoría de los médicos son hombres.
Aunque algunos investigadores argumentan que las alucinaciones son un problema inherente, no estoy de acuerdo. Soy optimista de que, con el tiempo, podamos enseñar modelos de IA para distinguir la realidad de la ficción. Por ejemplo, Open AI ha realizado un trabajo prometedor en esto.
Otras organizaciones, incluidos el Instituto Alan Turing y el Instituto Nacional de Estándares y Tecnología, están abordando el sesgo. Un enfoque es incorporar valores humanos y razonamiento de alto nivel en la IA. Es similar a cómo funcionan los humanos conscientes de sí mismos: tal vez pienses que la mayoría de los médicos son hombres, pero eres lo suficientemente consciente de esa suposición como para saber que tienes que luchar contra ella conscientemente. La inteligencia artificial puede funcionar de manera similar, especialmente si los modelos están diseñados por personas de diferentes orígenes.
Al final, todos los que usan IA deben ser conscientes del problema del sesgo y ser un usuario informado. Un documento que le pide a una IA que redacte puede estar tan lleno de sesgo como de error de hecho. Debe verificar los sesgos de su IA, así como los suyos.
Los estudiantes no aprenderán a escribir porque la IA lo hará por ellos
A muchos profesores les preocupa que la IA interrumpa su trabajo con los estudiantes. En una era en la que cualquier persona con conexión a Internet puede usar la inteligencia artificial para escribir un primer borrador respetable de una disertación, ¿qué impide que un estudiante la entregue como propia?
Ya existen algunas herramientas de IA que están aprendiendo a saber si un ensayo fue escrito por un ser humano o por una computadora, para que los maestros puedan saber si sus alumnos están haciendo su propio trabajo. Pero en lugar de tratar de disuadir a sus alumnos de usar la IA en la escritura, algunos maestros en realidad lo están alentando.
En enero, una veterana profesora de inglés llamada Cherie Shields publicó un artículo en Education Week. publicó un artículo sobre cómo usa Chat GPT en su salón de clases. Chat GPT ayuda a sus alumnos desde que comienzan un ensayo hasta que escriben un esquema e incluso brindan comentarios sobre sus tareas.
Ella escribe: "Los maestros deben adoptar la tecnología de IA como otra herramienta que los estudiantes pueden usar. Así como una vez les enseñamos a los estudiantes cómo hacer una buena búsqueda en Google, los maestros deben diseñar claridad sobre cómo los bots Chat GPT pueden ayudar a escribir ensayos". La existencia de la IA y ayudar a los estudiantes a usarla podría revolucionar la forma en que enseñamos". No todos los maestros tienen el tiempo para aprender y usar nuevas herramientas, pero los educadores como Cherie Shields ofrecen un buen argumento, que aquellos maestros que tienen el tiempo se beneficiarán enormemente. .
Esto me recuerda la época en que las calculadoras electrónicas se hicieron populares en los años setenta y ochenta. A algunos profesores de matemáticas les preocupa que los estudiantes dejen de aprender aritmética básica, pero otros adoptan la nueva tecnología y se enfocan en el pensamiento detrás de la aritmética.
La IA también puede ayudar con la escritura y el pensamiento crítico. Especialmente en los primeros días, cuando las alucinaciones y los prejuicios siguen siendo un problema, los educadores pueden hacer que la IA genere ensayos y luego los verifique con los estudiantes. Las organizaciones educativas sin fines de lucro, como Khan Academy y OER Project, brindan a los maestros y estudiantes herramientas en línea gratuitas que ponen un gran énfasis en la prueba de afirmaciones, y ninguna habilidad es más importante que saber distinguir la verdad de lo falso.
Realmente necesitamos asegurarnos de que el software educativo ayude a cerrar la brecha de logros, no a empeorarla. El software actual está dirigido principalmente a estudiantes que ya están motivados para aprender. Puede crear un plan de estudio para usted, conectarlo con buenos recursos y evaluar su conocimiento. Sin embargo, aún no sabe cómo involucrarte en temas que aún no te interesan. Este es un problema que los desarrolladores deben abordar para que todos los tipos de estudiantes puedan beneficiarse de la IA.
**¿Qué hacer a continuación? **
Creo que tenemos más motivos para ser optimistas de que podemos gestionar los riesgos de la IA y maximizar sus beneficios, pero tenemos que actuar con rapidez.
Los gobiernos deben desarrollar experiencia en IA para desarrollar leyes y regulaciones que se ocupen de esta nueva tecnología. Deben lidiar con la desinformación y las falsificaciones profundas, las amenazas a la seguridad, los cambios en el mercado laboral y el impacto en la educación. Solo un ejemplo: la ley debe aclarar qué usos de las falsificaciones profundas son legales y cómo se deben etiquetar las falsificaciones profundas para que todos entiendan que lo que ven o escuchan es falso.
Los líderes políticos deben poder entablar un diálogo informado y reflexivo con los electores. También deben decidir cuánto cooperar con otros países en estos temas, en lugar de hacerlo solos.
En el sector privado, las empresas de IA deben hacer su trabajo de manera segura y responsable. Esto incluye proteger la privacidad de las personas, garantizar que sus modelos de IA reflejen los valores humanos fundamentales, minimizar el sesgo para beneficiar a tantas personas como sea posible y evitar que la tecnología sea explotada por delincuentes o terroristas. Las empresas de muchos sectores de la economía deberán ayudar a sus empleados a hacer la transición a un lugar de trabajo centrado en la IA para que nadie se quede atrás. Y los clientes siempre deben saber si están interactuando con una IA o con un ser humano.
Finalmente, animo a todos a prestar la mayor atención posible al desarrollo de la inteligencia artificial. Esta es la innovación más transformadora que veremos en nuestra vida, y un debate público saludable dependerá de la comprensión de todos de la tecnología en sí, sus beneficios y sus riesgos. Los beneficios de la inteligencia artificial serán enormes, y la mejor razón para creer que podemos controlar los riesgos es que hemos sido capaces de hacerlo.