Fuente de la imagen: Generada por la herramienta de IA Unbounded
¿Quién le teme a los robots? Parece que mucha gente es así. Actualmente, la cantidad de figuras prominentes que hacen declaraciones públicas o firman cartas abiertas advirtiendo sobre los peligros catastróficos de la inteligencia artificial es asombrosa.
Cientos de científicos, líderes empresariales y legisladores se han pronunciado, desde los pioneros del aprendizaje profundo Geoffrey Hinton y Yoshua Bengio, hasta los directores ejecutivos de las principales empresas de inteligencia artificial como Sam Altman y Demis Hassabis, hasta el representante de California Ted Lieu con el expresidente de Estonia Kersti Kaljulaid.
La afirmación más contundente firmada por todas estas figuras y muchas más fue una declaración de 22 palabras publicada hace dos semanas por el Centro para la Seguridad de la Inteligencia Artificial (CAIS), una organización de investigación con sede en San Francisco, que declaró que “mitigar el riesgo de extinción que plantea la inteligencia artificial debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".
Esta redacción es deliberada. "Si tuviéramos que usar una declaración al estilo de la prueba de Rorschach, diríamos 'riesgo existencial' porque podría significar muchas cosas para muchas personas diferentes", dijo el director de CAIS, Dan Hendrycks. Pero querían una aclaración: es no se trata de derribar la economía. "Es por eso que hablamos de 'riesgo de extinción', aunque muchos de nosotros también nos preocupamos por otros riesgos", dijo Hendrycks.
Ya hemos estado allí antes: la perdición de la IA viene con la exageración de la IA. Pero esta vez se siente diferente. La ventana de Overton se ha movido. Lo que alguna vez fue una visión extrema ahora es la corriente principal, acaparando los titulares y la atención de los líderes mundiales. "Las voces de preocupación sobre la IA son demasiado fuertes para ignorarlas", dijo Jenna Burrell, directora de investigación de Data and Society, una organización que estudia el impacto social de la tecnología.
¿Qué pasó? ¿Se está volviendo realmente (más) peligrosa la inteligencia artificial? ¿Por qué las personas que introdujeron esta tecnología en primer lugar ahora comienzan a hacer sonar la alarma?
Es cierto que estos puntos de vista están divididos en el campo. La semana pasada, el científico jefe de Meta, Yann LeCun, quien compartió el Premio Turing 2018 con Hinton y Bengio, calificó la teoría del fin del mundo de "ridícula". Aidan Gómez, director ejecutivo de la empresa de inteligencia artificial Cohere, dijo que era "un uso ridículo de nuestro tiempo".
Asimismo, otros se burlaron de él. “No hay más evidencia ahora que en 1950 de que la inteligencia artificial planteará estos riesgos existenciales”, dijo Meredith Whittaker, presidenta de Signal, cofundadora y ex directora del AI now Institute, que es un laboratorio de investigación. que estudia las implicaciones políticas de la inteligencia artificial. "Las historias de fantasmas son contagiosas, tener miedo es realmente emocionante y estimulante".
"También es una forma de mirar más allá de todo lo que está sucediendo hoy", dijo Burrell. "Esto demuestra que no hemos visto daños reales o graves".
Un miedo ancestral
La preocupación por las máquinas desbocadas y automejorables ha existido desde Alan Turing. Futuristas como Vernor Vinge y Ray Kurzweil popularizaron estas ideas al hablar de la llamada "Singularidad", una fecha hipotética en la que la inteligencia artificial supera a la inteligencia humana y es asumida por las máquinas.
Pero en el centro de esta preocupación está la cuestión del control: si (o cuando) las máquinas se vuelven más inteligentes, ¿cómo pueden los humanos mantener su dominio? En un artículo de 2017 titulado "¿Cómo plantea la IA un riesgo existencial?", Karina Vold, filósofa de IA de la Universidad de Toronto (quien también firmó la declaración CAIS), expone los argumentos básicos detrás de esta preocupación.
El argumento tiene tres premisas clave. Primero, es posible que los humanos creen una máquina superinteligente que supere a todas las demás inteligencias. Segundo, corremos el riesgo de perder el control de agentes superinteligentes capaces de superarnos. En tercer lugar, existe la posibilidad de que un agente superinteligente haga cosas que no queremos que haga.
Juntando todo esto, es posible crear una máquina que hará cosas que no queremos que haga, incluso destruirnos, y no podremos detenerla.
También hay diferentes casos para este escenario. Cuando Hinton expresó su preocupación por la inteligencia artificial en mayo, citó el ejemplo de los robots que desvían la red para tener más poder. Pero la superinteligencia (o AGI) no es necesaria. Las máquinas estúpidas también pueden ser desastrosas si tienen demasiado espacio. Muchos escenarios involucran implementaciones imprudentes o maliciosas en lugar de bots de autoservicio.
En un artículo publicado en línea la semana pasada, los investigadores de inteligencia artificial Stuart Russell y Andrew Critch de la Universidad de California, Berkeley (que también firmaron la declaración CAIS) ofrecen una taxonomía del riesgo existencial. Estos riesgos van desde chatbots virales que brindan consejos que les dicen a millones que abandonen la universidad, hasta industrias autónomas que persiguen fines económicos dañinos, hasta estados-nación que construyen superarmas impulsadas por IA.
En muchos casos imaginarios, un modelo teórico logra sus objetivos dados por humanos, pero de una manera que no es buena para nosotros. Para Hendrycks, que estudia cómo los modelos de aprendizaje profundo a veces se comportan de manera inesperada cuando se les dan entradas que no se ven en los datos de entrenamiento, los sistemas de inteligencia artificial pueden ser desastrosos porque son destructivos en lugar de omnipotentes. “Si le das una meta y encuentra una solución exótica, nos lleva a un viaje extraño”, dijo.
El problema con estos futuros posibles es que se basan en una serie de "si" que los hacen parecer ciencia ficción. Vold mismo lo admitió. "Debido a que los eventos que constituyen o desencadenan [riesgos existenciales] no tienen precedentes, los argumentos de que representan tal amenaza deben ser de naturaleza teórica", escribió. "Su rareza también hace que cualquier especulación sobre cómo o cuándo ocurren tales eventos sea subjetiva y no pueda verificarse empíricamente".
Entonces, ¿por qué hay más personas que creen en estas ideas que nunca? "Diferentes personas hablan sobre el riesgo por diferentes razones, y pueden expresarlo de manera diferente”, dice François Chollet, investigador de IA en Google. Pero es una narrativa irresistible: "El riesgo existencial siempre ha sido una buena historia".
"Hay un elemento mitológico, casi religioso, que no se puede ignorar", dijo Whittaker. "Creo que debemos reconocer que, dado que lo que se describe no tiene una base de evidencia, está más cerca de una creencia, un fervor religioso, que un discurso científico".
El Contagio del Juicio Final
Cuando los investigadores de aprendizaje profundo comenzaron a lograr una serie de éxitos, piense en la puntuación récord de reconocimiento de imágenes de Hinton y sus colegas en la competencia ImageNet de 2012, y la primera victoria de DeepMind en AlphaGo sobre un campeón humano en 2015. día del juicio final, también. Destacados científicos como Hawking y el cosmólogo Martin Rees, así como líderes tecnológicos de alto perfil como Elon Musk, han hecho sonar la alarma sobre los riesgos existenciales. Pero estos personajes no son expertos en IA.
De pie en el escenario en San José hace ocho años, Andrew Ng, pionero del aprendizaje profundo y luego científico jefe de Baidu, se rió de la idea.
"En un futuro distante, puede haber una carrera de robots asesinos", dijo Andrew Ng a la audiencia en la Conferencia de Tecnología de GPU Nvidia 2015. “Pero hoy no estoy tan comprometido con evitar que la inteligencia artificial se vuelva maligna como con preocuparme por la sobrepoblación en Marte” (los comentarios de Ng fueron informados en ese momento por el sitio de noticias tecnológicas The Register).
Andrew Ng, quien cofundó el laboratorio de inteligencia artificial de Google en 2011 y ahora es el director ejecutivo de Landing AI, ha repetido esta frase en entrevistas desde entonces. Pero ahora es menos optimista. "Mantengo la mente abierta y estoy hablando con algunas personas para aprender más", me dijo. "Los rápidos desarrollos hacen que los científicos reconsideren el riesgo".
Como muchos, Ng expresó su preocupación por el rápido desarrollo de la IA generativa y su potencial de mal uso. El mes pasado, señaló, una imagen generada por IA que circuló ampliamente de una explosión en el Pentágono asustó a la gente y provocó la caída del mercado de valores.
"Desafortunadamente, la IA es tan poderosa que también parece probable que cause grandes problemas", dijo Ng. Pero no habló de robots asesinos: "Ahora mismo, todavía me cuesta ver cómo la inteligencia artificial podría llevar a nuestra extinción".
Lo que es diferente de antes es la conciencia generalizada de lo que la IA puede hacer. ChatGPT puso la tecnología a disposición del público a fines del año pasado. "La IA es de repente un tema candente en la corriente principal", dijo Chollet. "La gente se toma en serio la inteligencia artificial porque ven los saltos repentinos en la capacidad como un presagio de más saltos por venir".
Además, la experiencia de hablar con un chatbot puede ser inquietante. La conversación es algo que generalmente se entiende como algo que las personas hacen con otras personas. "Agrega un sentido de legitimidad a la idea de que la IA es como un ser humano o un interlocutor consciente”, dijo Whittaker. "Creo que lleva a la gente a creer que si la IA puede simular la comunicación humana, también puede hacer XYZ".
"Es por eso que estoy empezando a sentir que la conversación sobre el riesgo de supervivencia es algo apropiada: hacer inferencias sin evidencia", dijo.
Pensando en el futuro
Tenemos motivos para estar indignados. A medida que los reguladores se ponen al día con la industria tecnológica, hay preguntas sobre la mesa sobre qué tipo de actividad debe o no restringirse. Resaltar los riesgos a largo plazo en lugar de los daños a corto plazo (como la contratación discriminatoria o la información errónea) vuelve a centrar a los reguladores en hipotéticos problemas futuros.
"Sospecho que la amenaza de restricciones regulatorias reales ha impulsado una postura”, dijo Burrell. “Hablar sobre el riesgo existencial puede validar las preocupaciones de los reguladores sin destruir las oportunidades comerciales”. Ella dijo: “IA superinteligente que traiciona a la humanidad Suena aterrador, pero también es claramente algo que aún no ha sucedido".
Exagerar las preocupaciones sobre el riesgo existencial también es bueno para los negocios de otras maneras. Chollet señala que las principales empresas de IA necesitan que pensemos que AGI está llegando y que son ellas las que lo están construyendo. "Si quieres que la gente piense que lo que estás trabajando es poderoso, es una buena idea hacer que le teman", dijo.
Whittaker tiene una opinión similar. "Es importante presentarse como el creador de una entidad que podría ser más poderosa que los humanos", dijo.
Nada de esto importa si es solo marketing o publicidad. Pero decidir qué es y qué no es un riesgo tiene consecuencias. En un mundo de presupuestos y períodos de atención limitados, las lesiones menos graves que la guerra nuclear podrían pasarse por alto porque no creemos que sean una prioridad.
"Esta es una pregunta importante, especialmente dado el creciente enfoque en la seguridad y la protección como un marco estrecho para la intervención de políticas", dijo Sarah Myers West, directora general del AI Now Institute.
Cuando el primer ministro Rishi Sunak se reunió con los jefes de las empresas de inteligencia artificial, incluidos Sam Altman y Demis Hassabis, en mayo, el gobierno del Reino Unido emitió un comunicado que decía: "El primer ministro y los directores ejecutivos discutieron los riesgos de la tecnología, desde la desinformación y la seguridad del estado, hasta una amenaza existencial".
La semana anterior, Altman le dijo al Senado de los EE. UU. que su mayor preocupación era que la industria de la IA causara un daño significativo al mundo. El testimonio de Altman provocó llamados para un nuevo tipo de agencia para abordar este daño sin precedentes.
Con el cambio de ventana de Overton, ¿se ha hecho el daño? "Si estamos hablando del futuro distante, si estamos hablando de un riesgo mítico, entonces estamos reformulando completamente el problema como un problema que existe en un mundo de fantasía, y la solución puede existir en un mundo de fantasía", dijo Whittaker. dijo .
Pero Whittaker también señaló que las discusiones sobre políticas en torno a la IA se han prolongado durante años, más que los temores recientes. "No creo en la inevitabilidad", dijo. "Vamos a ver cómo se contrarresta la exageración. Va a desvanecerse".
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
MIT Technology Review: cómo el riesgo existencial se convirtió en el mayor meme de la IA
Escrito por: Will Douglas Heaven
Fuente: MIT Technology Review
¿Quién le teme a los robots? Parece que mucha gente es así. Actualmente, la cantidad de figuras prominentes que hacen declaraciones públicas o firman cartas abiertas advirtiendo sobre los peligros catastróficos de la inteligencia artificial es asombrosa.
Cientos de científicos, líderes empresariales y legisladores se han pronunciado, desde los pioneros del aprendizaje profundo Geoffrey Hinton y Yoshua Bengio, hasta los directores ejecutivos de las principales empresas de inteligencia artificial como Sam Altman y Demis Hassabis, hasta el representante de California Ted Lieu con el expresidente de Estonia Kersti Kaljulaid.
La afirmación más contundente firmada por todas estas figuras y muchas más fue una declaración de 22 palabras publicada hace dos semanas por el Centro para la Seguridad de la Inteligencia Artificial (CAIS), una organización de investigación con sede en San Francisco, que declaró que “mitigar el riesgo de extinción que plantea la inteligencia artificial debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".
Esta redacción es deliberada. "Si tuviéramos que usar una declaración al estilo de la prueba de Rorschach, diríamos 'riesgo existencial' porque podría significar muchas cosas para muchas personas diferentes", dijo el director de CAIS, Dan Hendrycks. Pero querían una aclaración: es no se trata de derribar la economía. "Es por eso que hablamos de 'riesgo de extinción', aunque muchos de nosotros también nos preocupamos por otros riesgos", dijo Hendrycks.
Ya hemos estado allí antes: la perdición de la IA viene con la exageración de la IA. Pero esta vez se siente diferente. La ventana de Overton se ha movido. Lo que alguna vez fue una visión extrema ahora es la corriente principal, acaparando los titulares y la atención de los líderes mundiales. "Las voces de preocupación sobre la IA son demasiado fuertes para ignorarlas", dijo Jenna Burrell, directora de investigación de Data and Society, una organización que estudia el impacto social de la tecnología.
¿Qué pasó? ¿Se está volviendo realmente (más) peligrosa la inteligencia artificial? ¿Por qué las personas que introdujeron esta tecnología en primer lugar ahora comienzan a hacer sonar la alarma?
Es cierto que estos puntos de vista están divididos en el campo. La semana pasada, el científico jefe de Meta, Yann LeCun, quien compartió el Premio Turing 2018 con Hinton y Bengio, calificó la teoría del fin del mundo de "ridícula". Aidan Gómez, director ejecutivo de la empresa de inteligencia artificial Cohere, dijo que era "un uso ridículo de nuestro tiempo".
Asimismo, otros se burlaron de él. “No hay más evidencia ahora que en 1950 de que la inteligencia artificial planteará estos riesgos existenciales”, dijo Meredith Whittaker, presidenta de Signal, cofundadora y ex directora del AI now Institute, que es un laboratorio de investigación. que estudia las implicaciones políticas de la inteligencia artificial. "Las historias de fantasmas son contagiosas, tener miedo es realmente emocionante y estimulante".
"También es una forma de mirar más allá de todo lo que está sucediendo hoy", dijo Burrell. "Esto demuestra que no hemos visto daños reales o graves".
Un miedo ancestral
La preocupación por las máquinas desbocadas y automejorables ha existido desde Alan Turing. Futuristas como Vernor Vinge y Ray Kurzweil popularizaron estas ideas al hablar de la llamada "Singularidad", una fecha hipotética en la que la inteligencia artificial supera a la inteligencia humana y es asumida por las máquinas.
Pero en el centro de esta preocupación está la cuestión del control: si (o cuando) las máquinas se vuelven más inteligentes, ¿cómo pueden los humanos mantener su dominio? En un artículo de 2017 titulado "¿Cómo plantea la IA un riesgo existencial?", Karina Vold, filósofa de IA de la Universidad de Toronto (quien también firmó la declaración CAIS), expone los argumentos básicos detrás de esta preocupación.
El argumento tiene tres premisas clave. Primero, es posible que los humanos creen una máquina superinteligente que supere a todas las demás inteligencias. Segundo, corremos el riesgo de perder el control de agentes superinteligentes capaces de superarnos. En tercer lugar, existe la posibilidad de que un agente superinteligente haga cosas que no queremos que haga.
Juntando todo esto, es posible crear una máquina que hará cosas que no queremos que haga, incluso destruirnos, y no podremos detenerla.
También hay diferentes casos para este escenario. Cuando Hinton expresó su preocupación por la inteligencia artificial en mayo, citó el ejemplo de los robots que desvían la red para tener más poder. Pero la superinteligencia (o AGI) no es necesaria. Las máquinas estúpidas también pueden ser desastrosas si tienen demasiado espacio. Muchos escenarios involucran implementaciones imprudentes o maliciosas en lugar de bots de autoservicio.
En un artículo publicado en línea la semana pasada, los investigadores de inteligencia artificial Stuart Russell y Andrew Critch de la Universidad de California, Berkeley (que también firmaron la declaración CAIS) ofrecen una taxonomía del riesgo existencial. Estos riesgos van desde chatbots virales que brindan consejos que les dicen a millones que abandonen la universidad, hasta industrias autónomas que persiguen fines económicos dañinos, hasta estados-nación que construyen superarmas impulsadas por IA.
En muchos casos imaginarios, un modelo teórico logra sus objetivos dados por humanos, pero de una manera que no es buena para nosotros. Para Hendrycks, que estudia cómo los modelos de aprendizaje profundo a veces se comportan de manera inesperada cuando se les dan entradas que no se ven en los datos de entrenamiento, los sistemas de inteligencia artificial pueden ser desastrosos porque son destructivos en lugar de omnipotentes. “Si le das una meta y encuentra una solución exótica, nos lleva a un viaje extraño”, dijo.
El problema con estos futuros posibles es que se basan en una serie de "si" que los hacen parecer ciencia ficción. Vold mismo lo admitió. "Debido a que los eventos que constituyen o desencadenan [riesgos existenciales] no tienen precedentes, los argumentos de que representan tal amenaza deben ser de naturaleza teórica", escribió. "Su rareza también hace que cualquier especulación sobre cómo o cuándo ocurren tales eventos sea subjetiva y no pueda verificarse empíricamente".
Entonces, ¿por qué hay más personas que creen en estas ideas que nunca? "Diferentes personas hablan sobre el riesgo por diferentes razones, y pueden expresarlo de manera diferente”, dice François Chollet, investigador de IA en Google. Pero es una narrativa irresistible: "El riesgo existencial siempre ha sido una buena historia".
"Hay un elemento mitológico, casi religioso, que no se puede ignorar", dijo Whittaker. "Creo que debemos reconocer que, dado que lo que se describe no tiene una base de evidencia, está más cerca de una creencia, un fervor religioso, que un discurso científico".
El Contagio del Juicio Final
Cuando los investigadores de aprendizaje profundo comenzaron a lograr una serie de éxitos, piense en la puntuación récord de reconocimiento de imágenes de Hinton y sus colegas en la competencia ImageNet de 2012, y la primera victoria de DeepMind en AlphaGo sobre un campeón humano en 2015. día del juicio final, también. Destacados científicos como Hawking y el cosmólogo Martin Rees, así como líderes tecnológicos de alto perfil como Elon Musk, han hecho sonar la alarma sobre los riesgos existenciales. Pero estos personajes no son expertos en IA.
De pie en el escenario en San José hace ocho años, Andrew Ng, pionero del aprendizaje profundo y luego científico jefe de Baidu, se rió de la idea.
"En un futuro distante, puede haber una carrera de robots asesinos", dijo Andrew Ng a la audiencia en la Conferencia de Tecnología de GPU Nvidia 2015. “Pero hoy no estoy tan comprometido con evitar que la inteligencia artificial se vuelva maligna como con preocuparme por la sobrepoblación en Marte” (los comentarios de Ng fueron informados en ese momento por el sitio de noticias tecnológicas The Register).
Andrew Ng, quien cofundó el laboratorio de inteligencia artificial de Google en 2011 y ahora es el director ejecutivo de Landing AI, ha repetido esta frase en entrevistas desde entonces. Pero ahora es menos optimista. "Mantengo la mente abierta y estoy hablando con algunas personas para aprender más", me dijo. "Los rápidos desarrollos hacen que los científicos reconsideren el riesgo".
Como muchos, Ng expresó su preocupación por el rápido desarrollo de la IA generativa y su potencial de mal uso. El mes pasado, señaló, una imagen generada por IA que circuló ampliamente de una explosión en el Pentágono asustó a la gente y provocó la caída del mercado de valores.
"Desafortunadamente, la IA es tan poderosa que también parece probable que cause grandes problemas", dijo Ng. Pero no habló de robots asesinos: "Ahora mismo, todavía me cuesta ver cómo la inteligencia artificial podría llevar a nuestra extinción".
Lo que es diferente de antes es la conciencia generalizada de lo que la IA puede hacer. ChatGPT puso la tecnología a disposición del público a fines del año pasado. "La IA es de repente un tema candente en la corriente principal", dijo Chollet. "La gente se toma en serio la inteligencia artificial porque ven los saltos repentinos en la capacidad como un presagio de más saltos por venir".
Además, la experiencia de hablar con un chatbot puede ser inquietante. La conversación es algo que generalmente se entiende como algo que las personas hacen con otras personas. "Agrega un sentido de legitimidad a la idea de que la IA es como un ser humano o un interlocutor consciente”, dijo Whittaker. "Creo que lleva a la gente a creer que si la IA puede simular la comunicación humana, también puede hacer XYZ".
"Es por eso que estoy empezando a sentir que la conversación sobre el riesgo de supervivencia es algo apropiada: hacer inferencias sin evidencia", dijo.
Pensando en el futuro
Tenemos motivos para estar indignados. A medida que los reguladores se ponen al día con la industria tecnológica, hay preguntas sobre la mesa sobre qué tipo de actividad debe o no restringirse. Resaltar los riesgos a largo plazo en lugar de los daños a corto plazo (como la contratación discriminatoria o la información errónea) vuelve a centrar a los reguladores en hipotéticos problemas futuros.
"Sospecho que la amenaza de restricciones regulatorias reales ha impulsado una postura”, dijo Burrell. “Hablar sobre el riesgo existencial puede validar las preocupaciones de los reguladores sin destruir las oportunidades comerciales”. Ella dijo: “IA superinteligente que traiciona a la humanidad Suena aterrador, pero también es claramente algo que aún no ha sucedido".
Exagerar las preocupaciones sobre el riesgo existencial también es bueno para los negocios de otras maneras. Chollet señala que las principales empresas de IA necesitan que pensemos que AGI está llegando y que son ellas las que lo están construyendo. "Si quieres que la gente piense que lo que estás trabajando es poderoso, es una buena idea hacer que le teman", dijo.
Whittaker tiene una opinión similar. "Es importante presentarse como el creador de una entidad que podría ser más poderosa que los humanos", dijo.
Nada de esto importa si es solo marketing o publicidad. Pero decidir qué es y qué no es un riesgo tiene consecuencias. En un mundo de presupuestos y períodos de atención limitados, las lesiones menos graves que la guerra nuclear podrían pasarse por alto porque no creemos que sean una prioridad.
"Esta es una pregunta importante, especialmente dado el creciente enfoque en la seguridad y la protección como un marco estrecho para la intervención de políticas", dijo Sarah Myers West, directora general del AI Now Institute.
Cuando el primer ministro Rishi Sunak se reunió con los jefes de las empresas de inteligencia artificial, incluidos Sam Altman y Demis Hassabis, en mayo, el gobierno del Reino Unido emitió un comunicado que decía: "El primer ministro y los directores ejecutivos discutieron los riesgos de la tecnología, desde la desinformación y la seguridad del estado, hasta una amenaza existencial".
La semana anterior, Altman le dijo al Senado de los EE. UU. que su mayor preocupación era que la industria de la IA causara un daño significativo al mundo. El testimonio de Altman provocó llamados para un nuevo tipo de agencia para abordar este daño sin precedentes.
Con el cambio de ventana de Overton, ¿se ha hecho el daño? "Si estamos hablando del futuro distante, si estamos hablando de un riesgo mítico, entonces estamos reformulando completamente el problema como un problema que existe en un mundo de fantasía, y la solución puede existir en un mundo de fantasía", dijo Whittaker. dijo .
Pero Whittaker también señaló que las discusiones sobre políticas en torno a la IA se han prolongado durante años, más que los temores recientes. "No creo en la inevitabilidad", dijo. "Vamos a ver cómo se contrarresta la exageración. Va a desvanecerse".