En la cognición humana, parece que la inteligencia general artificial (AGI) se ha utilizado durante mucho tiempo para establecer la forma definitiva de inteligencia artificial y el objetivo final del desarrollo.
Aunque OpenAI ha establecido durante mucho tiempo el objetivo de la empresa para lograr AGI. Pero para qué es AGI, el propio CEO de OpenAI, Sam Altman, no pudo dar una definición específica.
En cuanto a cuándo vendrá AGI, solo existe en los escenarios narrativos de futuro cercano lanzados por los jefes, parece estar al alcance, pero está lejos.
Hoy, en el conocido sitio web de podcasts extranjeros Substack, un veterano de la industria de la inteligencia artificial llamado Valentino Zocca, desde el punto de vista narrativo de la historia humana, escribió un artículo majestuoso, que cuenta de manera completa y profunda la historia de los seres humanos y los dispositivos artificiales en general. inteligencia La distancia entre la inteligencia.
En el artículo, AGI se define aproximadamente como un "modelo que puede entender el mundo", no solo como "un modelo que describe el mundo".
Él cree que si los humanos quieren realmente alcanzar el mundo de AGI, necesitan construir un "sistema que pueda cuestionar su propia realidad y poder explorarse a sí mismos".
En este gran proceso de exploración, quizás nadie tenga las calificaciones y la capacidad para dar una hoja de ruta específica.
Como explican los científicos de OpenAI Kenneth Stanley y Joel Lehman en su libro reciente, "Por qué no se puede planificar la grandeza", la búsqueda de la grandeza tiene una dirección, pero los resultados específicos pueden ser inesperados.
**¿Qué tan lejos estamos de AGI? **
Hace unos 200.000 años, el Homo sapiens comenzó a caminar erguido sobre la tierra y, al mismo tiempo, también comenzó a viajar en el campo del pensamiento y el conocimiento.
Una serie de descubrimientos e inventos en la historia humana han dado forma a la historia humana. Algunos de estos no solo afectan nuestro lenguaje y pensamiento, sino que también afectan potencialmente nuestra composición biológica.
Por ejemplo, el descubrimiento del fuego permitió al hombre primitivo cocinar alimentos. Los alimentos cocinados aportan más energía al cerebro, favoreciendo así el desarrollo de la inteligencia humana.
Desde la invención de la rueda hasta la creación de la máquina de vapor, la humanidad marcó el comienzo de la Revolución Industrial. La electricidad allanó aún más el camino para los desarrollos tecnológicos que tenemos hoy, y la imprenta aceleró la difusión generalizada de nuevas ideas y culturas, estimulando el desarrollo de la innovación humana.
Sin embargo, el progreso no proviene solo del descubrimiento de nuevas dimensiones físicas, sino también de nuevas ideas.
La historia del mundo occidental va desde la caída del Imperio Romano hasta la Edad Media, experimentando un renacimiento durante el Renacimiento y la Ilustración.
Pero con el crecimiento del conocimiento humano, la especie humana comenzó a darse cuenta de su propia insignificancia.
Más de dos mil años después de Sócrates, los humanos comenzaron a "saber que no sabían nada", y nuestra tierra ya no era vista como el centro del universo. El universo mismo se está expandiendo y nosotros somos solo una mota de polvo en él.
Cambiar la percepción de la realidad
Pero el mayor cambio en la percepción humana del mundo se produjo en el siglo XX.
En 1931, Kurt Gödel publicó el teorema de incompletitud.
Solo cuatro años más tarde, para continuar con el tema de la "integridad", Einstein, Podolsky y Rosen publicaron un artículo titulado "¿Puede considerarse completo el deion cuántico-mecánico de la realidad física?" de?)
Posteriormente, Niels Bohr refutó este artículo, demostrando la validez de la física cuántica.
El teorema de Gödel muestra que incluso las matemáticas no pueden probar todo de manera concluyente (los humanos siempre tendrán hechos indemostrables), mientras que la teoría cuántica muestra que nuestro mundo carece de certeza, lo que nos impide predecir ciertos eventos, como la velocidad y la ubicación de los electrones.
A pesar de la famosa declaración de Einstein de que "Dios no juega a los dados con el universo", en esencia, las limitaciones humanas están a la vista cuando se trata simplemente de predecir o comprender las cosas en física.
No importa cuánto se esfuercen los humanos en diseñar un universo matemático que se rija por las reglas formuladas por los humanos, tal universo abstracto siempre está incompleto, y hay axiomas objetivos que no se pueden probar ni negar escondidos en él.
Además de la formulación abstracta de las matemáticas, el mundo humano también se expresa mediante la filosofía que describe la realidad.
Pero los humanos se encuentran incapaces de describir, articular completamente, comprender o incluso simplemente definir estas representaciones.
A principios del siglo XX, el concepto de "verdad" aún era incierto, y conceptos como "arte", "belleza" y "vida" carecían de un consenso básico a nivel de definición.
Lo mismo es cierto para muchos otros conceptos importantes, "sabiduría" y "conciencia" tampoco pueden ser definidos claramente por los propios humanos.
Definición de inteligencia
Con el fin de llenar el vacío en la definición de inteligencia, en 2007, Legg y Hart propusieron la definición de inteligencia artificial en el libro "Inteligencia general": "La inteligencia mide la capacidad de un agente (Agente) para lograr objetivos en un entorno cambiante. ."
Asimismo, en "Resolución de problemas e inteligencia", Hambrick, Burgoyne y Altman argumentan que la resolución de problemas no es solo un aspecto o característica de la inteligencia, sino la esencia de la inteligencia.
Estas dos declaraciones son similares en la descripción del lenguaje y ambas creen que "lograr una meta" se puede vincular con "resolver un problema".
En el libro "Mainstream Science on Intelligence: An Editorial with 52 Signatories", Gottfredson resumió las definiciones de inteligencia de varios investigadores desde una perspectiva más amplia:
"La inteligencia es una habilidad mental muy general que incluye el razonamiento, la planificación, la resolución de problemas, el pensamiento abstracto, la comprensión de ideas complejas, el aprendizaje rápido y el aprendizaje a partir de la experiencia. No se trata solo de conocimientos de libros, habilidades académicas limitadas o habilidades para tomar exámenes. Más bien , refleja una capacidad más amplia y profunda para comprender el entorno de uno: la capacidad de 'capturar', 'comprender' cosas o 'descubrir' qué hacer”.
Esta definición lleva la construcción de la inteligencia más allá de las meras "habilidades para resolver problemas" e introduce dos dimensiones clave: la capacidad de aprender de la experiencia y la capacidad de comprender el entorno que lo rodea.
En otras palabras, la inteligencia no debe verse como una habilidad abstracta para encontrar soluciones a problemas generales, sino como una habilidad concreta para aplicar lo que hemos aprendido de la experiencia previa a las capacidades de nuestro entorno para las diferentes situaciones que se puedan presentar.
Esto subraya el vínculo intrínseco entre inteligencia y aprendizaje.
En el libro "Cómo aprendemos", Stanislas Dehaene define el aprendizaje como "aprender es el proceso de formar un modelo del mundo", lo que significa que la inteligencia es también una habilidad que requiere comprender el entorno que lo rodea y crear un modelo interno para describir el ambiente.
Por tanto, la inteligencia requiere también la capacidad de crear modelos del mundo, aunque no sólo esta capacidad.
**¿Qué tan inteligentes son las máquinas actuales? **
Cuando hablamos de inteligencia artificial general (AGI) e inteligencia artificial limitada (Narrow AI), a menudo enfatizamos la diferencia entre ellos.
La inteligencia artificial estrecha (o inteligencia artificial débil) es muy común y exitosa, a menudo superando a los humanos en tareas específicas.
Por ejemplo, este conocido ejemplo, en 2016, la inteligencia artificial de sentido estrecho AlphaGo derrotó al campeón mundial Li Shidol con una puntuación de 4 a 1 en el juego Go, que es un buen ejemplo.
Sin embargo, en 2023, el ajedrecista aficionado Kellin Perline utilizó tácticas que la inteligencia artificial no podía manejar para ganar un juego para humanos en el campo de Go, lo que demuestra que la inteligencia artificial limitada tiene limitaciones en algunos casos.
Carece de la capacidad humana para reconocer tácticas inusuales y ajustarse en consecuencia.
Además, en el nivel más básico, incluso un científico de datos novato entiende que cada modelo de aprendizaje automático en el que se basa la inteligencia artificial debe lograr un equilibrio entre el sesgo y la varianza.
Esto significa aprender de los datos, comprender y generalizar soluciones, no solo memorizar.
Narrow AI utiliza el poder de cómputo y la capacidad de memoria de las computadoras para generar modelos complejos basados en grandes cantidades de datos observados con relativa facilidad.
Sin embargo, una vez que las condiciones cambian ligeramente, estos modelos a menudo no son generalizables.
Sería como si se nos ocurriera una teoría de la gravedad para describir la Tierra basada en observaciones, solo para descubrir que los objetos son mucho más ligeros en la Luna.
Si usamos variables en lugar de números basados en nuestro conocimiento teórico de la gravedad, podemos entender cómo usar los valores correctos para predecir rápidamente la magnitud de la gravedad en cada planeta o luna.
Pero si solo usamos ecuaciones numéricas sin variables, no podremos generalizar adecuadamente estas ecuaciones a otros planetas sin reescribirlas.
En otras palabras, es posible que la inteligencia artificial no pueda "aprender" verdaderamente, sino solo destilar información o experiencia. AI no entiende formando un modelo integral del mundo, sino solo creando un resumen para expresar.
**¿Realmente ya hemos alcanzado el AGI? **
Ahora se entiende generalmente que AGI se refiere a: un sistema de inteligencia artificial que puede comprender y razonar en múltiples campos cognitivos a nivel humano o superior, es decir, inteligencia artificial fuerte.
Y nuestra inteligencia artificial actual para tareas específicas es solo una inteligencia artificial débil, como AlphaGO of Go.
AGI representa un sistema de inteligencia artificial con inteligencia a nivel humano que cubre varios campos en el campo del pensamiento abstracto.
Esto significa que lo que necesitamos para AGI es un modelo del mundo que sea consistente con la experiencia y pueda hacer predicciones precisas.
Como señalan Everitt, Lea y Hutter en la "Revisión de literatura de seguridad" (Revisión de literatura de seguridad de AGI): AGI aún no ha llegado.
Para la pregunta "¿Qué tan lejos estamos del verdadero AGI?", las diferentes predicciones varían ampliamente.
Pero es consistente con los puntos de vista de la mayoría de los investigadores de inteligencia artificial e instituciones autorizadas, es decir, los seres humanos están al menos a unos años de distancia de la verdadera inteligencia artificial general.
Después del lanzamiento de GPT-4, frente a la inteligencia artificial más poderosa en la actualidad, muchas personas consideran a GPT-4 como la chispa de AGI.
El 13 de abril, el socio de OpenAI, Microsoft, publicó un artículo "Chispas de inteligencia artificial general: primeros experimentos con GPT-4" (Chispas de inteligencia artificial general: primeros experimentos con GPT-4).
Dirección en papel:
que menciona:
"GPT-4 no solo domina el lenguaje, sino que también resuelve tareas de vanguardia que abarcan matemáticas, codificación, visión, medicina, derecho, psicología y otros campos, sin necesidad de indicaciones especiales.
Y en todas las tareas anteriores, el nivel de rendimiento de GPT-4 está casi a la par con el nivel humano. Basándonos en la amplitud y profundidad de las capacidades de GPT-4, creemos que puede verse razonablemente como una versión casi completa, pero no completa, de la inteligencia artificial general. "
Pero como comentó Maarten Sap, profesor de la Universidad Carnegie Mellon, la "chispa de AGI" es solo un ejemplo de algunas grandes empresas que incluyen trabajos de investigación como relaciones públicas.
Por otro lado, el investigador y empresario de máquinas Rodney Brooks señala un concepto erróneo: "Al evaluar la funcionalidad de sistemas como ChatGPT, a menudo equiparamos el rendimiento con la capacidad".
Equiparar falsamente el rendimiento con la habilidad significa que GPT-4 genera descripciones sumativas del mundo que considera una comprensión del mundo real.
Esto tiene que ver con los datos en los que se entrena el modelo de IA.
La mayoría de los modelos actuales solo están capacitados en texto y no tienen la capacidad de hablar, oír, oler y vivir en el mundo real.
Esta situación es similar a la alegoría de la caverna de Platón: las personas que viven en la caverna solo pueden ver la sombra en la pared, pero no pueden reconocer la existencia real de las cosas.
Solo se garantiza que los modelos mundiales entrenados solo en texto sean gramaticalmente correctos. Pero en esencia, no entiende a qué se refiere el lenguaje, y le falta el sentido común del contacto directo con el entorno.
Principales limitaciones del modelo grande actual
El desafío más controvertido de los modelos de lenguaje extenso (LLM) es su tendencia a alucinar.
Las alucinaciones se refieren a situaciones en las que un modelo falsifica referencias y hechos, o confunde inferencias lógicas, inferencias causales, etc., y genera contenido sin sentido.
La ilusión de los grandes modelos de lenguaje proviene de su falta de comprensión de las relaciones causales entre eventos.
En el artículo "¿Es ChatGPT un buen razonador causal? Una evaluación integral", los investigadores confirmaron este hecho:
Los modelos de lenguaje grande como ChatGPT, independientemente de si existe una relación en la realidad, tienden a asumir que existe una relación causal entre los eventos.
Dirección en papel:
Los investigadores finalmente concluyeron:
"ChatGPT es un excelente explicador causal, pero no un buen inferenciador causal".
Del mismo modo, esta conclusión también se puede extender a otros LLM.
Esto significa que LLM esencialmente solo tiene la capacidad de inducción causal a través de la observación, pero no la capacidad de deducción causal.
Esto también conduce a las limitaciones de LLM Si la inteligencia significa aprender de la experiencia y transformar el contenido aprendido en un modelo mundial para comprender el entorno circundante, entonces la inferencia causal, como elemento básico del aprendizaje, no es posible para la inteligencia.
Los LLM existentes carecen de este aspecto, por lo que Yann LeCun cree que el modelo actual de idiomas grandes no puede convertirse en AGI.
en conclusión
Como lo reveló el nacimiento de la mecánica cuántica a principios del siglo XX, la realidad a menudo es diferente de nuestra intuición formada por la observación diaria.
El lenguaje, el conocimiento, los datos de texto, incluso el video, el audio y otros materiales que construimos son solo una parte muy limitada de la realidad que podemos experimentar.
Así como exploramos, aprendemos y dominamos una realidad que desafía nuestra intuición y experiencia, AGI solo se realizará verdaderamente cuando podamos construir sistemas que tengan la capacidad de cuestionar su propia realidad, capaces de auto-indagarse.
Y al menos en esta etapa, deberíamos construir un modelo que pueda hacer inferencias causales y comprender el mundo.
Esta perspectiva es otro paso adelante en la historia humana, lo que implica una mayor comprensión de la naturaleza de nuestro mundo.
Aunque el surgimiento de AGI debilitará nuestro valor único y la importancia de nuestra existencia, a través del progreso continuo y la expansión de los límites cognitivos, comprenderemos más claramente el estado de los seres humanos en el universo, y la relación entre los seres humanos y la relación con el universo.
Referencias:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿GPT-4 es solo la chispa de AGI? LLM eventualmente saldrá, el modelo mundial es el futuro
Fuente original: Xinzhiyuan
En la cognición humana, parece que la inteligencia general artificial (AGI) se ha utilizado durante mucho tiempo para establecer la forma definitiva de inteligencia artificial y el objetivo final del desarrollo.
En cuanto a cuándo vendrá AGI, solo existe en los escenarios narrativos de futuro cercano lanzados por los jefes, parece estar al alcance, pero está lejos.
Hoy, en el conocido sitio web de podcasts extranjeros Substack, un veterano de la industria de la inteligencia artificial llamado Valentino Zocca, desde el punto de vista narrativo de la historia humana, escribió un artículo majestuoso, que cuenta de manera completa y profunda la historia de los seres humanos y los dispositivos artificiales en general. inteligencia La distancia entre la inteligencia.
Él cree que si los humanos quieren realmente alcanzar el mundo de AGI, necesitan construir un "sistema que pueda cuestionar su propia realidad y poder explorarse a sí mismos".
En este gran proceso de exploración, quizás nadie tenga las calificaciones y la capacidad para dar una hoja de ruta específica.
Como explican los científicos de OpenAI Kenneth Stanley y Joel Lehman en su libro reciente, "Por qué no se puede planificar la grandeza", la búsqueda de la grandeza tiene una dirección, pero los resultados específicos pueden ser inesperados.
**¿Qué tan lejos estamos de AGI? **
Hace unos 200.000 años, el Homo sapiens comenzó a caminar erguido sobre la tierra y, al mismo tiempo, también comenzó a viajar en el campo del pensamiento y el conocimiento.
Una serie de descubrimientos e inventos en la historia humana han dado forma a la historia humana. Algunos de estos no solo afectan nuestro lenguaje y pensamiento, sino que también afectan potencialmente nuestra composición biológica.
Por ejemplo, el descubrimiento del fuego permitió al hombre primitivo cocinar alimentos. Los alimentos cocinados aportan más energía al cerebro, favoreciendo así el desarrollo de la inteligencia humana.
Desde la invención de la rueda hasta la creación de la máquina de vapor, la humanidad marcó el comienzo de la Revolución Industrial. La electricidad allanó aún más el camino para los desarrollos tecnológicos que tenemos hoy, y la imprenta aceleró la difusión generalizada de nuevas ideas y culturas, estimulando el desarrollo de la innovación humana.
Sin embargo, el progreso no proviene solo del descubrimiento de nuevas dimensiones físicas, sino también de nuevas ideas.
La historia del mundo occidental va desde la caída del Imperio Romano hasta la Edad Media, experimentando un renacimiento durante el Renacimiento y la Ilustración.
Pero con el crecimiento del conocimiento humano, la especie humana comenzó a darse cuenta de su propia insignificancia.
Más de dos mil años después de Sócrates, los humanos comenzaron a "saber que no sabían nada", y nuestra tierra ya no era vista como el centro del universo. El universo mismo se está expandiendo y nosotros somos solo una mota de polvo en él.
Cambiar la percepción de la realidad
Pero el mayor cambio en la percepción humana del mundo se produjo en el siglo XX.
En 1931, Kurt Gödel publicó el teorema de incompletitud.
Solo cuatro años más tarde, para continuar con el tema de la "integridad", Einstein, Podolsky y Rosen publicaron un artículo titulado "¿Puede considerarse completo el deion cuántico-mecánico de la realidad física?" de?)
Posteriormente, Niels Bohr refutó este artículo, demostrando la validez de la física cuántica.
El teorema de Gödel muestra que incluso las matemáticas no pueden probar todo de manera concluyente (los humanos siempre tendrán hechos indemostrables), mientras que la teoría cuántica muestra que nuestro mundo carece de certeza, lo que nos impide predecir ciertos eventos, como la velocidad y la ubicación de los electrones.
A pesar de la famosa declaración de Einstein de que "Dios no juega a los dados con el universo", en esencia, las limitaciones humanas están a la vista cuando se trata simplemente de predecir o comprender las cosas en física.
No importa cuánto se esfuercen los humanos en diseñar un universo matemático que se rija por las reglas formuladas por los humanos, tal universo abstracto siempre está incompleto, y hay axiomas objetivos que no se pueden probar ni negar escondidos en él.
Además de la formulación abstracta de las matemáticas, el mundo humano también se expresa mediante la filosofía que describe la realidad.
Pero los humanos se encuentran incapaces de describir, articular completamente, comprender o incluso simplemente definir estas representaciones.
A principios del siglo XX, el concepto de "verdad" aún era incierto, y conceptos como "arte", "belleza" y "vida" carecían de un consenso básico a nivel de definición.
Lo mismo es cierto para muchos otros conceptos importantes, "sabiduría" y "conciencia" tampoco pueden ser definidos claramente por los propios humanos.
Definición de inteligencia
Con el fin de llenar el vacío en la definición de inteligencia, en 2007, Legg y Hart propusieron la definición de inteligencia artificial en el libro "Inteligencia general": "La inteligencia mide la capacidad de un agente (Agente) para lograr objetivos en un entorno cambiante. ."
Asimismo, en "Resolución de problemas e inteligencia", Hambrick, Burgoyne y Altman argumentan que la resolución de problemas no es solo un aspecto o característica de la inteligencia, sino la esencia de la inteligencia.
Estas dos declaraciones son similares en la descripción del lenguaje y ambas creen que "lograr una meta" se puede vincular con "resolver un problema".
"La inteligencia es una habilidad mental muy general que incluye el razonamiento, la planificación, la resolución de problemas, el pensamiento abstracto, la comprensión de ideas complejas, el aprendizaje rápido y el aprendizaje a partir de la experiencia. No se trata solo de conocimientos de libros, habilidades académicas limitadas o habilidades para tomar exámenes. Más bien , refleja una capacidad más amplia y profunda para comprender el entorno de uno: la capacidad de 'capturar', 'comprender' cosas o 'descubrir' qué hacer”.
Esta definición lleva la construcción de la inteligencia más allá de las meras "habilidades para resolver problemas" e introduce dos dimensiones clave: la capacidad de aprender de la experiencia y la capacidad de comprender el entorno que lo rodea.
En otras palabras, la inteligencia no debe verse como una habilidad abstracta para encontrar soluciones a problemas generales, sino como una habilidad concreta para aplicar lo que hemos aprendido de la experiencia previa a las capacidades de nuestro entorno para las diferentes situaciones que se puedan presentar.
Esto subraya el vínculo intrínseco entre inteligencia y aprendizaje.
En el libro "Cómo aprendemos", Stanislas Dehaene define el aprendizaje como "aprender es el proceso de formar un modelo del mundo", lo que significa que la inteligencia es también una habilidad que requiere comprender el entorno que lo rodea y crear un modelo interno para describir el ambiente.
Por tanto, la inteligencia requiere también la capacidad de crear modelos del mundo, aunque no sólo esta capacidad.
**¿Qué tan inteligentes son las máquinas actuales? **
Cuando hablamos de inteligencia artificial general (AGI) e inteligencia artificial limitada (Narrow AI), a menudo enfatizamos la diferencia entre ellos.
La inteligencia artificial estrecha (o inteligencia artificial débil) es muy común y exitosa, a menudo superando a los humanos en tareas específicas.
Por ejemplo, este conocido ejemplo, en 2016, la inteligencia artificial de sentido estrecho AlphaGo derrotó al campeón mundial Li Shidol con una puntuación de 4 a 1 en el juego Go, que es un buen ejemplo.
Sin embargo, en 2023, el ajedrecista aficionado Kellin Perline utilizó tácticas que la inteligencia artificial no podía manejar para ganar un juego para humanos en el campo de Go, lo que demuestra que la inteligencia artificial limitada tiene limitaciones en algunos casos.
Carece de la capacidad humana para reconocer tácticas inusuales y ajustarse en consecuencia.
Además, en el nivel más básico, incluso un científico de datos novato entiende que cada modelo de aprendizaje automático en el que se basa la inteligencia artificial debe lograr un equilibrio entre el sesgo y la varianza.
Esto significa aprender de los datos, comprender y generalizar soluciones, no solo memorizar.
Narrow AI utiliza el poder de cómputo y la capacidad de memoria de las computadoras para generar modelos complejos basados en grandes cantidades de datos observados con relativa facilidad.
Sin embargo, una vez que las condiciones cambian ligeramente, estos modelos a menudo no son generalizables.
Sería como si se nos ocurriera una teoría de la gravedad para describir la Tierra basada en observaciones, solo para descubrir que los objetos son mucho más ligeros en la Luna.
Si usamos variables en lugar de números basados en nuestro conocimiento teórico de la gravedad, podemos entender cómo usar los valores correctos para predecir rápidamente la magnitud de la gravedad en cada planeta o luna.
Pero si solo usamos ecuaciones numéricas sin variables, no podremos generalizar adecuadamente estas ecuaciones a otros planetas sin reescribirlas.
En otras palabras, es posible que la inteligencia artificial no pueda "aprender" verdaderamente, sino solo destilar información o experiencia. AI no entiende formando un modelo integral del mundo, sino solo creando un resumen para expresar.
**¿Realmente ya hemos alcanzado el AGI? **
Ahora se entiende generalmente que AGI se refiere a: un sistema de inteligencia artificial que puede comprender y razonar en múltiples campos cognitivos a nivel humano o superior, es decir, inteligencia artificial fuerte.
Y nuestra inteligencia artificial actual para tareas específicas es solo una inteligencia artificial débil, como AlphaGO of Go.
AGI representa un sistema de inteligencia artificial con inteligencia a nivel humano que cubre varios campos en el campo del pensamiento abstracto.
Esto significa que lo que necesitamos para AGI es un modelo del mundo que sea consistente con la experiencia y pueda hacer predicciones precisas.
Como señalan Everitt, Lea y Hutter en la "Revisión de literatura de seguridad" (Revisión de literatura de seguridad de AGI): AGI aún no ha llegado.
Para la pregunta "¿Qué tan lejos estamos del verdadero AGI?", las diferentes predicciones varían ampliamente.
Pero es consistente con los puntos de vista de la mayoría de los investigadores de inteligencia artificial e instituciones autorizadas, es decir, los seres humanos están al menos a unos años de distancia de la verdadera inteligencia artificial general.
Después del lanzamiento de GPT-4, frente a la inteligencia artificial más poderosa en la actualidad, muchas personas consideran a GPT-4 como la chispa de AGI.
El 13 de abril, el socio de OpenAI, Microsoft, publicó un artículo "Chispas de inteligencia artificial general: primeros experimentos con GPT-4" (Chispas de inteligencia artificial general: primeros experimentos con GPT-4).
que menciona:
"GPT-4 no solo domina el lenguaje, sino que también resuelve tareas de vanguardia que abarcan matemáticas, codificación, visión, medicina, derecho, psicología y otros campos, sin necesidad de indicaciones especiales.
Y en todas las tareas anteriores, el nivel de rendimiento de GPT-4 está casi a la par con el nivel humano. Basándonos en la amplitud y profundidad de las capacidades de GPT-4, creemos que puede verse razonablemente como una versión casi completa, pero no completa, de la inteligencia artificial general. "
Pero como comentó Maarten Sap, profesor de la Universidad Carnegie Mellon, la "chispa de AGI" es solo un ejemplo de algunas grandes empresas que incluyen trabajos de investigación como relaciones públicas.
Por otro lado, el investigador y empresario de máquinas Rodney Brooks señala un concepto erróneo: "Al evaluar la funcionalidad de sistemas como ChatGPT, a menudo equiparamos el rendimiento con la capacidad".
Equiparar falsamente el rendimiento con la habilidad significa que GPT-4 genera descripciones sumativas del mundo que considera una comprensión del mundo real.
Esto tiene que ver con los datos en los que se entrena el modelo de IA.
La mayoría de los modelos actuales solo están capacitados en texto y no tienen la capacidad de hablar, oír, oler y vivir en el mundo real.
Esta situación es similar a la alegoría de la caverna de Platón: las personas que viven en la caverna solo pueden ver la sombra en la pared, pero no pueden reconocer la existencia real de las cosas.
Principales limitaciones del modelo grande actual
El desafío más controvertido de los modelos de lenguaje extenso (LLM) es su tendencia a alucinar.
Las alucinaciones se refieren a situaciones en las que un modelo falsifica referencias y hechos, o confunde inferencias lógicas, inferencias causales, etc., y genera contenido sin sentido.
La ilusión de los grandes modelos de lenguaje proviene de su falta de comprensión de las relaciones causales entre eventos.
En el artículo "¿Es ChatGPT un buen razonador causal? Una evaluación integral", los investigadores confirmaron este hecho:
Los modelos de lenguaje grande como ChatGPT, independientemente de si existe una relación en la realidad, tienden a asumir que existe una relación causal entre los eventos.
Los investigadores finalmente concluyeron:
"ChatGPT es un excelente explicador causal, pero no un buen inferenciador causal".
Del mismo modo, esta conclusión también se puede extender a otros LLM.
Esto significa que LLM esencialmente solo tiene la capacidad de inducción causal a través de la observación, pero no la capacidad de deducción causal.
Esto también conduce a las limitaciones de LLM Si la inteligencia significa aprender de la experiencia y transformar el contenido aprendido en un modelo mundial para comprender el entorno circundante, entonces la inferencia causal, como elemento básico del aprendizaje, no es posible para la inteligencia.
Los LLM existentes carecen de este aspecto, por lo que Yann LeCun cree que el modelo actual de idiomas grandes no puede convertirse en AGI.
en conclusión
Como lo reveló el nacimiento de la mecánica cuántica a principios del siglo XX, la realidad a menudo es diferente de nuestra intuición formada por la observación diaria.
El lenguaje, el conocimiento, los datos de texto, incluso el video, el audio y otros materiales que construimos son solo una parte muy limitada de la realidad que podemos experimentar.
Así como exploramos, aprendemos y dominamos una realidad que desafía nuestra intuición y experiencia, AGI solo se realizará verdaderamente cuando podamos construir sistemas que tengan la capacidad de cuestionar su propia realidad, capaces de auto-indagarse.
Y al menos en esta etapa, deberíamos construir un modelo que pueda hacer inferencias causales y comprender el mundo.
Esta perspectiva es otro paso adelante en la historia humana, lo que implica una mayor comprensión de la naturaleza de nuestro mundo.
Aunque el surgimiento de AGI debilitará nuestro valor único y la importancia de nuestra existencia, a través del progreso continuo y la expansión de los límites cognitivos, comprenderemos más claramente el estado de los seres humanos en el universo, y la relación entre los seres humanos y la relación con el universo.
Referencias: