Gobernanza de tecnologías que podrían destruir la sociedad.
Fuente de la imagen: generada por la herramienta Unbounded AI
El director de cine Christopher Nolan dijo que ha hablado con científicos de inteligencia artificial que están experimentando un "momento Oppenheimer" y están preocupados por la potencial destructividad de sus creaciones. "Estoy contando la historia de Oppenheimer", dijo sobre su película biográfica de Oppenheimer, "porque creo que es una historia importante y definitivamente es una advertencia". De hecho, algunas personas han comparado a Ultraman Sam de OpenAI con el padre del bomba atómica.
Oppenheimer fue llamado "el Prometeo de Estados Unidos" por sus biógrafos por descifrar de los dioses los secretos del fuego nuclear, que divide la materia para liberar una energía horrible que, temía, podría incinerar la civilización humana.
Y Altman también se preguntó si utilizó ChatGPT para promover el desarrollo de la inteligencia artificial generativa, si eso también era "algo muy malo". Dijo en una audiencia en el Senado: "Si algo sale mal con esta tecnología, podría causar una catástrofe". Gregory Hinton, conocido como el padrino de la inteligencia artificial, renunció a Google en mayo de este año, diciendo que no tenía confianza en el futuro de su vida. trabajo... hacer máquinas más inteligentes que los humanos... en parte lo siento. "Será difícil evitar que los malos actores utilicen la IA para hacer cosas malas", advirtió. Además, otros de sus colegas hablaron del "riesgo de extinción de la IA", yuxtaponiéndolo con otras amenazas existenciales como la guerra nuclear y el cambio climático. y pandemias.
En opinión de Yuval Noah Harari (autor de "Una breve historia de la humanidad"), la inteligencia artificial generativa puede ser tan destructiva para la sociedad como la bomba atómica. En una frase citada por Oppenheimer de "Baghavad Gita", "el destructor del mundo de el Esta vez, el Homo sapiens se convirtió en dioses, y la descendencia inorgánica que produjeron algún día podría reemplazar a sus antepasados. En una conversación hace varios años, Harari lo expresó de esta manera: "La historia humana comienza cuando los humanos crean a los dioses. La historia humana termina cuando los humanos se convierten en dioses".
Harari y los coautores Tristan Harris y Aza Raskin explican en un artículo reciente: "Al principio era el lenguaje. El lenguaje es el sistema operativo de la cultura humana. Del lenguaje surgieron el mito y la ley, los dioses y el dinero, el arte y la ciencia, la amistad, "Los estados y el código informático. El nuevo dominio del lenguaje por parte de la IA significa que ahora puede piratear y manipular los sistemas operativos de la civilización. Al dominar el lenguaje, la IA se está apoderando de la llave maestra de la civilización, desde las bóvedas de los bancos hasta el Santo Sepulcro".
Continuaron:
Durante milenios, los humanos hemos vivido los sueños de otras personas. Adoramos a dioses, perseguimos hermosos ideales y dedicamos nuestras vidas a causas nacidas de la imaginación de un profeta, poeta o estadista. Pronto nosotros también nos encontraremos viviendo bajo la ilusión de una inteligencia inhumana...
En poco tiempo, finalmente nos enfrentaremos a los demonios de Descartes, las cuevas de Platón y los mayas budistas. Un velo de alucinaciones puede colgar sobre la humanidad y es posible que nunca podamos levantar el velo, o siquiera ser conscientes de su existencia.
El historiador y filósofo israelí está tan consternado ante la perspectiva de que entidades no humanas escriban nuestras narrativas que recomienda con entusiasmo que el Homo sapiens se detenga antes de ceder el dominio de nuestro reino a nuestras tecnologías potenciadas.
"Debemos ser conscientes de la IA antes de que nuestra política, nuestra economía y nuestra vida cotidiana se vuelvan dependientes de ella", advirtieron. "Si esperamos hasta que se produzca el caos para tomar medidas, será demasiado tarde".
La probabilidad de un escenario "Terminator" es baja
El vicepresidente de Google, Blaise Agüera Y Arcas, y sus colegas del Instituto de Inteligencia Artificial de Quebec escribieron en la revista Noema que no creen que la escena hollywoodense de "Terminator" vaya a aparecer en un futuro próximo. En cambio, les preocupa que centrarse en “amenazas existenciales” en un futuro lejano distraiga la atención de mitigar los claros peligros que la IA representa para la sociedad actual.
Antes de que la IA se convierta en superinteligencia, sus peores temores ya están aquí: vigilancia masiva, desinformación y manipulación, uso militar indebido de la IA y desplazamiento masivo de empleos.
Para este grupo de científicos y tecnólogos, "la extinción por IA deshonesta es un escenario extremadamente improbable que se basa en suposiciones dudosas sobre la evolución a largo plazo de la vida, la inteligencia, la tecnología y la sociedad. También es un escenario poco probable y demasiado probable, ya que hay "Hay muchas limitaciones y restricciones físicas que un sistema de IA superinteligente necesitaría superar antes de poder "traicionar" de esta manera. Hay múltiples puntos de control naturales que los investigadores pueden ayudar a mitigar abordando desafíos tangibles y apremiantes. Los riesgos de la IA sin hacer explícitamente los riesgos existenciales un prioridad global”.
En su opinión, "hay tres formas de inducir la extinción: la competencia por los recursos, la caza y el consumo excesivo, o cambiar el clima o su nicho ecológico de modo que las condiciones ambientales conduzcan a su desaparición. Ninguno de estos tres escenarios se aplica a la IA actual".
Lo más importante es que "actualmente, la IA depende de nosotros, y la superinteligencia presumiblemente reconocerá este hecho y tratará de proteger a la humanidad, ya que somos tan importantes para la existencia de la IA como lo son las plantas productoras de oxígeno para nuestra existencia. Es por eso que la evolución de la interdependencia entre la inteligencia artificial y los humanos es mucho más probable que el resultado de la competencia".
Pagar un "precio infinito" por el "resultado improbable" de la extinción sería como dedicar toda nuestra destreza tecnológica a defendernos contra la posibilidad entre un millón de que un meteoro golpee la Tierra como primera prioridad de la Tierra. En pocas palabras, "los riesgos existenciales que plantea la IA superinteligente no son dignos de ser una prioridad global junto con el cambio climático, la guerra nuclear y la prevención de pandemias".
Otro momento Oppenheimer
Cualquier peligro que pueda surgir de la competencia entre humanos y la incipiente superinteligencia, tanto cercana como lejana, sólo se verá exacerbado por la competencia entre Estados-nación.
En sus últimos años, Oppenheimer fue perseguido, aislado y la Comisión de Energía Atómica de Estados Unidos le revocó su autorización de seguridad, ya que el fervor macartista de principios de la Guerra Fría lo veía como un compañero comunista. Sus crímenes: oponerse al despliegue de bombas de hidrógeno y pedir cooperación con otras naciones para controlar el uso de armas nucleares.
Altman también pidió cooperación sobre cómo gestionar el uso de la inteligencia artificial en un discurso ante científicos de inteligencia artificial en Beijing en junio de este año. "China tiene el mejor talento en inteligencia artificial del mundo", afirmó. Controlar sistemas avanzados de IA "requiere las mejores mentes de todo el mundo. Con el surgimiento de sistemas de IA cada vez más poderosos, lo que está en juego para la colaboración global nunca ha sido tan grande".
Uno no puede evitar preguntarse cuánto tiempo pasará hasta que el sentido general de responsabilidad científica de Altman quede atrapado en la actual histeria macartista contra China en Washington, como la de Oppenheimer.
Entre los peligros claros y presentes que plantea la inteligencia artificial, el primero y más importante es cómo se puede utilizar como arma. Como advierte Harari, el momento de hacer frente a esta amenaza es ahora, no sólo cuando se convierte en realidad y es demasiado tarde. Los participantes responsables deben utilizar la sabiduría que las máquinas no pueden impartir y trabajar juntas para reducir los riesgos. Si Ultraman sufre otro momento Oppenheimer, los riesgos existenciales se acercan cada vez más.
En una señal de bienvenida, el Secretario de Estado de Estados Unidos, Antony Blinken, y la Secretaria de Comercio, Gina Raimondo, reconocieron que "ningún país o empresa puede dar forma al futuro de la inteligencia artificial por sí solo... Sólo a través de la atención colectiva, la sabiduría y la cooperación de la comunidad internacional podemos lograr plenamente y aprovechar al máximo de forma segura el potencial de la inteligencia artificial".
Sin embargo, hasta ahora sus iniciativas, aunque vitales, se han visto limitadas por la competencia estratégica. Para los países de todo el mundo, el desafío más serio es cómo comunicarse directamente antes de que la carrera armamentista de inteligencia artificial se salga de control y evitar que la situación empeore.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
"Oppenheimer" llega a los cines, ¿será Sam Altman el próximo?
Escrito por: Nathan Gardels
Origen: Noema
El director de cine Christopher Nolan dijo que ha hablado con científicos de inteligencia artificial que están experimentando un "momento Oppenheimer" y están preocupados por la potencial destructividad de sus creaciones. "Estoy contando la historia de Oppenheimer", dijo sobre su película biográfica de Oppenheimer, "porque creo que es una historia importante y definitivamente es una advertencia". De hecho, algunas personas han comparado a Ultraman Sam de OpenAI con el padre del bomba atómica.
Oppenheimer fue llamado "el Prometeo de Estados Unidos" por sus biógrafos por descifrar de los dioses los secretos del fuego nuclear, que divide la materia para liberar una energía horrible que, temía, podría incinerar la civilización humana.
Y Altman también se preguntó si utilizó ChatGPT para promover el desarrollo de la inteligencia artificial generativa, si eso también era "algo muy malo". Dijo en una audiencia en el Senado: "Si algo sale mal con esta tecnología, podría causar una catástrofe". Gregory Hinton, conocido como el padrino de la inteligencia artificial, renunció a Google en mayo de este año, diciendo que no tenía confianza en el futuro de su vida. trabajo... hacer máquinas más inteligentes que los humanos... en parte lo siento. "Será difícil evitar que los malos actores utilicen la IA para hacer cosas malas", advirtió. Además, otros de sus colegas hablaron del "riesgo de extinción de la IA", yuxtaponiéndolo con otras amenazas existenciales como la guerra nuclear y el cambio climático. y pandemias.
En opinión de Yuval Noah Harari (autor de "Una breve historia de la humanidad"), la inteligencia artificial generativa puede ser tan destructiva para la sociedad como la bomba atómica. En una frase citada por Oppenheimer de "Baghavad Gita", "el destructor del mundo de el Esta vez, el Homo sapiens se convirtió en dioses, y la descendencia inorgánica que produjeron algún día podría reemplazar a sus antepasados. En una conversación hace varios años, Harari lo expresó de esta manera: "La historia humana comienza cuando los humanos crean a los dioses. La historia humana termina cuando los humanos se convierten en dioses".
Harari y los coautores Tristan Harris y Aza Raskin explican en un artículo reciente: "Al principio era el lenguaje. El lenguaje es el sistema operativo de la cultura humana. Del lenguaje surgieron el mito y la ley, los dioses y el dinero, el arte y la ciencia, la amistad, "Los estados y el código informático. El nuevo dominio del lenguaje por parte de la IA significa que ahora puede piratear y manipular los sistemas operativos de la civilización. Al dominar el lenguaje, la IA se está apoderando de la llave maestra de la civilización, desde las bóvedas de los bancos hasta el Santo Sepulcro".
Continuaron:
El historiador y filósofo israelí está tan consternado ante la perspectiva de que entidades no humanas escriban nuestras narrativas que recomienda con entusiasmo que el Homo sapiens se detenga antes de ceder el dominio de nuestro reino a nuestras tecnologías potenciadas.
"Debemos ser conscientes de la IA antes de que nuestra política, nuestra economía y nuestra vida cotidiana se vuelvan dependientes de ella", advirtieron. "Si esperamos hasta que se produzca el caos para tomar medidas, será demasiado tarde".
La probabilidad de un escenario "Terminator" es baja
El vicepresidente de Google, Blaise Agüera Y Arcas, y sus colegas del Instituto de Inteligencia Artificial de Quebec escribieron en la revista Noema que no creen que la escena hollywoodense de "Terminator" vaya a aparecer en un futuro próximo. En cambio, les preocupa que centrarse en “amenazas existenciales” en un futuro lejano distraiga la atención de mitigar los claros peligros que la IA representa para la sociedad actual.
Antes de que la IA se convierta en superinteligencia, sus peores temores ya están aquí: vigilancia masiva, desinformación y manipulación, uso militar indebido de la IA y desplazamiento masivo de empleos.
Para este grupo de científicos y tecnólogos, "la extinción por IA deshonesta es un escenario extremadamente improbable que se basa en suposiciones dudosas sobre la evolución a largo plazo de la vida, la inteligencia, la tecnología y la sociedad. También es un escenario poco probable y demasiado probable, ya que hay "Hay muchas limitaciones y restricciones físicas que un sistema de IA superinteligente necesitaría superar antes de poder "traicionar" de esta manera. Hay múltiples puntos de control naturales que los investigadores pueden ayudar a mitigar abordando desafíos tangibles y apremiantes. Los riesgos de la IA sin hacer explícitamente los riesgos existenciales un prioridad global”.
En su opinión, "hay tres formas de inducir la extinción: la competencia por los recursos, la caza y el consumo excesivo, o cambiar el clima o su nicho ecológico de modo que las condiciones ambientales conduzcan a su desaparición. Ninguno de estos tres escenarios se aplica a la IA actual".
Lo más importante es que "actualmente, la IA depende de nosotros, y la superinteligencia presumiblemente reconocerá este hecho y tratará de proteger a la humanidad, ya que somos tan importantes para la existencia de la IA como lo son las plantas productoras de oxígeno para nuestra existencia. Es por eso que la evolución de la interdependencia entre la inteligencia artificial y los humanos es mucho más probable que el resultado de la competencia".
Pagar un "precio infinito" por el "resultado improbable" de la extinción sería como dedicar toda nuestra destreza tecnológica a defendernos contra la posibilidad entre un millón de que un meteoro golpee la Tierra como primera prioridad de la Tierra. En pocas palabras, "los riesgos existenciales que plantea la IA superinteligente no son dignos de ser una prioridad global junto con el cambio climático, la guerra nuclear y la prevención de pandemias".
Otro momento Oppenheimer
Cualquier peligro que pueda surgir de la competencia entre humanos y la incipiente superinteligencia, tanto cercana como lejana, sólo se verá exacerbado por la competencia entre Estados-nación.
En sus últimos años, Oppenheimer fue perseguido, aislado y la Comisión de Energía Atómica de Estados Unidos le revocó su autorización de seguridad, ya que el fervor macartista de principios de la Guerra Fría lo veía como un compañero comunista. Sus crímenes: oponerse al despliegue de bombas de hidrógeno y pedir cooperación con otras naciones para controlar el uso de armas nucleares.
Altman también pidió cooperación sobre cómo gestionar el uso de la inteligencia artificial en un discurso ante científicos de inteligencia artificial en Beijing en junio de este año. "China tiene el mejor talento en inteligencia artificial del mundo", afirmó. Controlar sistemas avanzados de IA "requiere las mejores mentes de todo el mundo. Con el surgimiento de sistemas de IA cada vez más poderosos, lo que está en juego para la colaboración global nunca ha sido tan grande".
Uno no puede evitar preguntarse cuánto tiempo pasará hasta que el sentido general de responsabilidad científica de Altman quede atrapado en la actual histeria macartista contra China en Washington, como la de Oppenheimer.
Entre los peligros claros y presentes que plantea la inteligencia artificial, el primero y más importante es cómo se puede utilizar como arma. Como advierte Harari, el momento de hacer frente a esta amenaza es ahora, no sólo cuando se convierte en realidad y es demasiado tarde. Los participantes responsables deben utilizar la sabiduría que las máquinas no pueden impartir y trabajar juntas para reducir los riesgos. Si Ultraman sufre otro momento Oppenheimer, los riesgos existenciales se acercan cada vez más.
En una señal de bienvenida, el Secretario de Estado de Estados Unidos, Antony Blinken, y la Secretaria de Comercio, Gina Raimondo, reconocieron que "ningún país o empresa puede dar forma al futuro de la inteligencia artificial por sí solo... Sólo a través de la atención colectiva, la sabiduría y la cooperación de la comunidad internacional podemos lograr plenamente y aprovechar al máximo de forma segura el potencial de la inteligencia artificial".
Sin embargo, hasta ahora sus iniciativas, aunque vitales, se han visto limitadas por la competencia estratégica. Para los países de todo el mundo, el desafío más serio es cómo comunicarse directamente antes de que la carrera armamentista de inteligencia artificial se salga de control y evitar que la situación empeore.