Autor: Mariana Lenharo, Compiladora: Heart of the Metaverse
La idea de que la inteligencia artificial genere conciencia ha sido durante mucho tiempo parte de la ciencia ficción, recordando la supercomputadora convertida en villano HAL 9000 en la película de 1968 2001: Una odisea en el espacio. Con el rápido desarrollo de la inteligencia artificial, esta posibilidad se está volviendo menos extraña, incluso reconocida por figuras destacadas de la inteligencia artificial.
El año pasado, Ilya Sutskever, científico jefe de OpenAI, la compañía detrás del chatbot ChatGPT, tuiteó que algunas de las redes de IA más avanzadas pueden volverse "ligeramente conscientes".
Muchos investigadores afirman que los sistemas de inteligencia artificial aún no son conscientes. Pero la velocidad a la que evoluciona la IA les hace reflexionar: ¿Cómo sabemos si una IA es consciente?
Para responder a esta pregunta, un equipo de 19 neurocientíficos, filósofos e informáticos ideó una lista de criterios que, de cumplirse, indicarían que un sistema tiene una alta probabilidad de ser consciente. Publicaron la guía provisional, que aún no ha sido revisada por pares, en el repositorio de preimpresiones de arXiv a principios de esta semana.
El coautor Robert Long, filósofo del Centro para la Seguridad de la IA en San Francisco, California, dijo que hicieron el trabajo porque "parece haber una falta real de investigaciones detalladas, basadas empíricamente y bien pensadas sobre la conciencia de la IA". "discutir".
El equipo de investigación dice que la incapacidad de identificar si un sistema de IA es consciente podría tener importantes implicaciones éticas. Megan Peters, neurocientífica y coautora del estudio, dijo que si algo fuera etiquetado como "consciente", "tendría que cambiar drásticamente la forma en que nosotros, como humanos, lo abordamos".
Long añadió que, hasta donde él sabe, las empresas que construyen sistemas avanzados de IA no han hecho lo suficiente para evaluar el conocimiento de esos modelos y planificar en consecuencia. Dijo: "Aunque escuché algunos discursos de los jefes de laboratorios líderes, dijeron que la conciencia de la inteligencia artificial o la percepción de la inteligencia artificial es algo en lo que vale la pena pensar, pero no creo que sea suficiente".
Nature se puso en contacto con dos de las principales empresas tecnológicas que impulsan el desarrollo de la IA: Microsoft y Google. Un portavoz de Microsoft dijo que el núcleo del desarrollo de la inteligencia artificial por parte de la compañía es ayudar a los humanos a ser más productivos de manera responsable, no replicar la inteligencia humana.
El portavoz dijo que desde el lanzamiento de GPT-4, la última versión del lanzamiento público de ChatGPT, ha quedado claro que "nuestra búsqueda para aprovechar todo el potencial de la inteligencia artificial en beneficio de la sociedad en su conjunto requiere nuevas formas de evaluar estos Capacidades artificiales del modelo inteligente". Google no respondió.
01. ¿Qué es la conciencia?
Uno de los desafíos al estudiar la conciencia de la IA es definir qué es la conciencia. Para los fines del informe, los investigadores se centraron en la "conciencia fenomenal" o experiencia subjetiva, dijo Peters. Es decir, los sentidos que existen en humanos, animales o sistemas de inteligencia artificial (si se demuestra que uno de ellos es consciente).
Existen muchas teorías basadas en la neurociencia que describen la base biológica de la conciencia. Pero no hay consenso sobre cuál es el "correcto". Por lo tanto, los autores emplean una variedad de teorías para crear su marco. Su pensamiento es que si la funcionalidad de un sistema de IA coincide con múltiples aspectos de estas teorías, entonces tiene mayores posibilidades de ser consciente.
Argumentan que esta forma de evaluar la conciencia es mejor que simplemente realizar pruebas de comportamiento, como preguntarle a ChatGPT si está consciente, o desafiarlo y observar sus respuestas. Porque los sistemas de inteligencia artificial han logrado avances increíbles en la imitación de los humanos.
El neurocientífico Anil Seth, director del Centro para la Ciencia de la Conciencia de la Universidad de Sussex en el Reino Unido, cree que el enfoque teóricamente riguroso del equipo es bueno. Sin embargo, afirma, "se necesitan teorías de la conciencia más precisas y bien comprobadas".
02. Un enfoque intensivo en teoría
Para formular sus criterios, los autores plantean que la conciencia está relacionada con la forma en que los sistemas procesan la información, ya sea que estén hechos de neuronas, chips de computadora u otros materiales. Este enfoque se conoce como funcionalismo computacional. También plantearon la hipótesis de que las teorías de la conciencia basadas en la neurociencia, derivadas de escáneres cerebrales y otros estudios técnicos de humanos y animales, podrían aplicarse a la inteligencia artificial.
Basándose en estos supuestos, el equipo seleccionó seis de estas teorías, de las que extrajeron una serie de indicadores de conciencia.
Una de ellas es la teoría del espacio de trabajo global, que afirma que los humanos y otros animales utilizan muchos sistemas especializados (también llamados módulos) para realizar tareas cognitivas como la visión y el oído. Estos módulos funcionan de forma independiente pero en paralelo y se integran en un único sistema para compartir información.
Según Long, "al observar la arquitectura del sistema y la forma en que fluye la información dentro de él", se puede evaluar si un sistema de IA en particular presenta los indicadores derivados de la teoría.
Seth quedó impresionado con la propuesta del equipo. "Está muy bien pensado, no es grandilocuente y establece claramente sus suposiciones", dijo. Aunque no estoy de acuerdo con algunas de las suposiciones, está totalmente bien porque existe la posibilidad de que me equivoque. "
Los autores dicen que el artículo está lejos de ser concluyente sobre cómo evaluar los sistemas de IA conscientes y esperan que otros investigadores ayuden a perfeccionar su metodología. Pero estos estándares ya se pueden aplicar a los sistemas de inteligencia artificial existentes.
Por ejemplo, el informe evalúa modelos de lenguaje a gran escala como ChatGPT y encuentra que se puede decir que dichos sistemas tienen algunos indicadores de conciencia relacionados con la teoría del espacio de trabajo global. Aún así, el trabajo no sugiere que ningún sistema de IA existente sea un fuerte candidato para la conciencia, al menos no todavía.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Si la inteligencia artificial se concientizara: cómo podrían descubrirlo los científicos
Autor: Mariana Lenharo, Compiladora: Heart of the Metaverse
La idea de que la inteligencia artificial genere conciencia ha sido durante mucho tiempo parte de la ciencia ficción, recordando la supercomputadora convertida en villano HAL 9000 en la película de 1968 2001: Una odisea en el espacio. Con el rápido desarrollo de la inteligencia artificial, esta posibilidad se está volviendo menos extraña, incluso reconocida por figuras destacadas de la inteligencia artificial.
El año pasado, Ilya Sutskever, científico jefe de OpenAI, la compañía detrás del chatbot ChatGPT, tuiteó que algunas de las redes de IA más avanzadas pueden volverse "ligeramente conscientes".
Muchos investigadores afirman que los sistemas de inteligencia artificial aún no son conscientes. Pero la velocidad a la que evoluciona la IA les hace reflexionar: ¿Cómo sabemos si una IA es consciente?
Para responder a esta pregunta, un equipo de 19 neurocientíficos, filósofos e informáticos ideó una lista de criterios que, de cumplirse, indicarían que un sistema tiene una alta probabilidad de ser consciente. Publicaron la guía provisional, que aún no ha sido revisada por pares, en el repositorio de preimpresiones de arXiv a principios de esta semana.
El coautor Robert Long, filósofo del Centro para la Seguridad de la IA en San Francisco, California, dijo que hicieron el trabajo porque "parece haber una falta real de investigaciones detalladas, basadas empíricamente y bien pensadas sobre la conciencia de la IA". "discutir".
El equipo de investigación dice que la incapacidad de identificar si un sistema de IA es consciente podría tener importantes implicaciones éticas. Megan Peters, neurocientífica y coautora del estudio, dijo que si algo fuera etiquetado como "consciente", "tendría que cambiar drásticamente la forma en que nosotros, como humanos, lo abordamos".
Long añadió que, hasta donde él sabe, las empresas que construyen sistemas avanzados de IA no han hecho lo suficiente para evaluar el conocimiento de esos modelos y planificar en consecuencia. Dijo: "Aunque escuché algunos discursos de los jefes de laboratorios líderes, dijeron que la conciencia de la inteligencia artificial o la percepción de la inteligencia artificial es algo en lo que vale la pena pensar, pero no creo que sea suficiente".
Nature se puso en contacto con dos de las principales empresas tecnológicas que impulsan el desarrollo de la IA: Microsoft y Google. Un portavoz de Microsoft dijo que el núcleo del desarrollo de la inteligencia artificial por parte de la compañía es ayudar a los humanos a ser más productivos de manera responsable, no replicar la inteligencia humana.
El portavoz dijo que desde el lanzamiento de GPT-4, la última versión del lanzamiento público de ChatGPT, ha quedado claro que "nuestra búsqueda para aprovechar todo el potencial de la inteligencia artificial en beneficio de la sociedad en su conjunto requiere nuevas formas de evaluar estos Capacidades artificiales del modelo inteligente". Google no respondió.
01. ¿Qué es la conciencia?
Uno de los desafíos al estudiar la conciencia de la IA es definir qué es la conciencia. Para los fines del informe, los investigadores se centraron en la "conciencia fenomenal" o experiencia subjetiva, dijo Peters. Es decir, los sentidos que existen en humanos, animales o sistemas de inteligencia artificial (si se demuestra que uno de ellos es consciente).
Existen muchas teorías basadas en la neurociencia que describen la base biológica de la conciencia. Pero no hay consenso sobre cuál es el "correcto". Por lo tanto, los autores emplean una variedad de teorías para crear su marco. Su pensamiento es que si la funcionalidad de un sistema de IA coincide con múltiples aspectos de estas teorías, entonces tiene mayores posibilidades de ser consciente.
Argumentan que esta forma de evaluar la conciencia es mejor que simplemente realizar pruebas de comportamiento, como preguntarle a ChatGPT si está consciente, o desafiarlo y observar sus respuestas. Porque los sistemas de inteligencia artificial han logrado avances increíbles en la imitación de los humanos.
El neurocientífico Anil Seth, director del Centro para la Ciencia de la Conciencia de la Universidad de Sussex en el Reino Unido, cree que el enfoque teóricamente riguroso del equipo es bueno. Sin embargo, afirma, "se necesitan teorías de la conciencia más precisas y bien comprobadas".
02. Un enfoque intensivo en teoría
Para formular sus criterios, los autores plantean que la conciencia está relacionada con la forma en que los sistemas procesan la información, ya sea que estén hechos de neuronas, chips de computadora u otros materiales. Este enfoque se conoce como funcionalismo computacional. También plantearon la hipótesis de que las teorías de la conciencia basadas en la neurociencia, derivadas de escáneres cerebrales y otros estudios técnicos de humanos y animales, podrían aplicarse a la inteligencia artificial.
Basándose en estos supuestos, el equipo seleccionó seis de estas teorías, de las que extrajeron una serie de indicadores de conciencia.
Una de ellas es la teoría del espacio de trabajo global, que afirma que los humanos y otros animales utilizan muchos sistemas especializados (también llamados módulos) para realizar tareas cognitivas como la visión y el oído. Estos módulos funcionan de forma independiente pero en paralelo y se integran en un único sistema para compartir información.
Según Long, "al observar la arquitectura del sistema y la forma en que fluye la información dentro de él", se puede evaluar si un sistema de IA en particular presenta los indicadores derivados de la teoría.
Seth quedó impresionado con la propuesta del equipo. "Está muy bien pensado, no es grandilocuente y establece claramente sus suposiciones", dijo. Aunque no estoy de acuerdo con algunas de las suposiciones, está totalmente bien porque existe la posibilidad de que me equivoque. "
Los autores dicen que el artículo está lejos de ser concluyente sobre cómo evaluar los sistemas de IA conscientes y esperan que otros investigadores ayuden a perfeccionar su metodología. Pero estos estándares ya se pueden aplicar a los sistemas de inteligencia artificial existentes.
Por ejemplo, el informe evalúa modelos de lenguaje a gran escala como ChatGPT y encuentra que se puede decir que dichos sistemas tienen algunos indicadores de conciencia relacionados con la teoría del espacio de trabajo global. Aún así, el trabajo no sugiere que ningún sistema de IA existente sea un fuerte candidato para la conciencia, al menos no todavía.