¿Sigues lamentando los cambios revolucionarios provocados por la IA generativa? ¿Lamentar el poder de GPT-4? ¿Sigues adivinando qué nuevas características tendrá GPT-5? OpenAI ha visto más allá y ya está en acción.
Fuente de la imagen: Generada por Unbounded AI
El equipo de OpenAI lanzó su último movimiento ayer, formando un nuevo equipo, Superalignment, codirigido por Ilya Sutskever (cofundador y científico jefe de OpenAI) y Jan Leike (líder de alineación). Este es un equipo sobre superinteligencia, que se centra en la investigación de alineación de superinteligencia. OpenAI afirma que gastará el 20 % de sus recursos informáticos en resolver problemas de alineación superinteligente en los próximos cuatro años, lo que es suficiente para mostrar la importancia de OpenAI.
¿Qué es la Superinteligencia?
La superinteligencia se refiere a un sistema inteligente que supera la inteligencia humana. No es solo un simple programa de computadora, sino un cuerpo inteligente, que tiene las características de capacidad cognitiva, capacidad emocional, autoconciencia e intención, y puede pensar, juzgar y tomar decisiones de forma independiente. -hacer puede incluso superar la inteligencia humana hasta cierto punto. El concepto de superinteligencia es relativo al sistema de inteligencia artificial actual, se refiere a una inteligencia artificial más avanzada que se puede aplicar en una gama más amplia de campos y entornos complejos.
Actualmente, la superinteligencia sigue siendo un concepto teórico y aún no se ha realizado. Lograr la superinteligencia requiere resolver muchos problemas técnicos, incluidos los desafíos en el aprendizaje automático, el procesamiento del lenguaje natural, la visión por computadora, el razonamiento y la toma de decisiones. Además, el surgimiento de la superinteligencia también traerá muchas cuestiones éticas, sociales y políticas, como el control de la superinteligencia, la seguridad y la privacidad.
La superinteligencia es un concepto emocionante y convincente porque puede generar varias aplicaciones importantes en varios campos, como el diagnóstico médico, el desarrollo de nuevos medicamentos, el transporte inteligente, la producción automatizada y la defensa de la seguridad, etc. Al mismo tiempo, la superinteligencia también tiene algunos riesgos y desafíos: si se sale de control, puede representar una gran amenaza para los seres humanos.
Alcanzar la superinteligencia requiere resolver muchos problemas técnicos. Uno de los temas más importantes es cómo permitir que los sistemas inteligentes tengan la capacidad de aprender de forma independiente, es decir, aprender continuamente nuevos conocimientos y habilidades a partir de los datos y la experiencia, para mejorar continuamente su nivel de inteligencia. Al mismo tiempo, la superinteligencia también debe tener fuertes capacidades de razonamiento, toma de decisiones e innovación, y ser capaz de pensar de forma independiente y resolver varios problemas complejos.
"A medida que nos acercamos a la superinteligencia", debemos pensar más en los riesgos existenciales de la IA. — Zuckerberg
¿La superinteligencia será una realidad en diez años? Al menos OpenAI piensa eso
OpenAI cree que la superinteligencia será la tecnología más impactante jamás inventada, ayudándonos a resolver muchos de los problemas más importantes del mundo. Pero el inmenso poder de una superinteligencia también puede ser muy peligroso y podría conducir a la pérdida de poder de la humanidad, o incluso a su extinción. Si bien **la superinteligencia puede parecer remota ahora, creemos que puede serlo dentro de una década. **
###
¿Cómo solucionar los riesgos de la superinteligencia?
Aunque la superinteligencia tiene una gran energía, los riesgos también son enormes. OpenAI dijo que la gestión de estos riesgos requerirá nuevas instituciones de gobierno y abordará el problema de la coordinación de la superinteligencia, es decir, ¿cómo garantizar que los sistemas de inteligencia artificial sean mucho más inteligentes que los humanos pero que también sigan las intenciones humanas?
OpenAI no dio una respuesta. Creen que los humanos no pueden supervisar de manera confiable esos sistemas de inteligencia artificial que son más inteligentes que los humanos. La tecnología de alineación actual no puede extenderse a la superinteligencia. Por lo tanto, es necesario buscar nuevos avances científicos y tecnológicos.
Sin embargo, el camino de OpenAI para resolver el problema de alineación de la superinteligencia ha sido claro, es decir, establecer un investigador de alineación automática aproximadamente al nivel humano, para mejorar la capacidad de los sistemas de inteligencia artificial para aprender de la retroalimentación humana y ayudar a los humanos a evaluar la inteligencia artificial. El objetivo es construir un sistema de IA lo suficientemente alineado como para ayudarnos a resolver todos los demás problemas de alineación.
En el último año, OpenAI ha publicado una entrada de blog que aclara su línea de investigación sobre alineación:
Superalineación del nuevo equipo de OpenAI
El equipo será un equipo de investigadores e ingenieros de aprendizaje automático de primer nivel, con el objetivo de resolver los principales desafíos técnicos de la alineación de la superinteligencia en cuatro años, desde el desarrollo de nuevos métodos hasta la ampliación de la implementación. El científico jefe de OpenAI, Ilya Sutskever, ha convertido el problema de alineación de la superinteligencia en un foco de investigación central. La alineación de superinteligencia es fundamentalmente un problema de aprendizaje automático y OpenAI está reclutando excelentes expertos en aprendizaje automático.
Referencias:
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Últimas tendencias de OpenAI: formar un nuevo equipo, apostar por la superinteligencia e inclinar el 20% de los recursos informáticos
¿Sigues lamentando los cambios revolucionarios provocados por la IA generativa? ¿Lamentar el poder de GPT-4? ¿Sigues adivinando qué nuevas características tendrá GPT-5? OpenAI ha visto más allá y ya está en acción.
El equipo de OpenAI lanzó su último movimiento ayer, formando un nuevo equipo, Superalignment, codirigido por Ilya Sutskever (cofundador y científico jefe de OpenAI) y Jan Leike (líder de alineación). Este es un equipo sobre superinteligencia, que se centra en la investigación de alineación de superinteligencia. OpenAI afirma que gastará el 20 % de sus recursos informáticos en resolver problemas de alineación superinteligente en los próximos cuatro años, lo que es suficiente para mostrar la importancia de OpenAI.
¿Qué es la Superinteligencia?
La superinteligencia se refiere a un sistema inteligente que supera la inteligencia humana. No es solo un simple programa de computadora, sino un cuerpo inteligente, que tiene las características de capacidad cognitiva, capacidad emocional, autoconciencia e intención, y puede pensar, juzgar y tomar decisiones de forma independiente. -hacer puede incluso superar la inteligencia humana hasta cierto punto. El concepto de superinteligencia es relativo al sistema de inteligencia artificial actual, se refiere a una inteligencia artificial más avanzada que se puede aplicar en una gama más amplia de campos y entornos complejos.
Actualmente, la superinteligencia sigue siendo un concepto teórico y aún no se ha realizado. Lograr la superinteligencia requiere resolver muchos problemas técnicos, incluidos los desafíos en el aprendizaje automático, el procesamiento del lenguaje natural, la visión por computadora, el razonamiento y la toma de decisiones. Además, el surgimiento de la superinteligencia también traerá muchas cuestiones éticas, sociales y políticas, como el control de la superinteligencia, la seguridad y la privacidad.
La superinteligencia es un concepto emocionante y convincente porque puede generar varias aplicaciones importantes en varios campos, como el diagnóstico médico, el desarrollo de nuevos medicamentos, el transporte inteligente, la producción automatizada y la defensa de la seguridad, etc. Al mismo tiempo, la superinteligencia también tiene algunos riesgos y desafíos: si se sale de control, puede representar una gran amenaza para los seres humanos.
Alcanzar la superinteligencia requiere resolver muchos problemas técnicos. Uno de los temas más importantes es cómo permitir que los sistemas inteligentes tengan la capacidad de aprender de forma independiente, es decir, aprender continuamente nuevos conocimientos y habilidades a partir de los datos y la experiencia, para mejorar continuamente su nivel de inteligencia. Al mismo tiempo, la superinteligencia también debe tener fuertes capacidades de razonamiento, toma de decisiones e innovación, y ser capaz de pensar de forma independiente y resolver varios problemas complejos.
¿La superinteligencia será una realidad en diez años? Al menos OpenAI piensa eso
OpenAI cree que la superinteligencia será la tecnología más impactante jamás inventada, ayudándonos a resolver muchos de los problemas más importantes del mundo. Pero el inmenso poder de una superinteligencia también puede ser muy peligroso y podría conducir a la pérdida de poder de la humanidad, o incluso a su extinción. Si bien **la superinteligencia puede parecer remota ahora, creemos que puede serlo dentro de una década. **
¿Cómo solucionar los riesgos de la superinteligencia?
Aunque la superinteligencia tiene una gran energía, los riesgos también son enormes. OpenAI dijo que la gestión de estos riesgos requerirá nuevas instituciones de gobierno y abordará el problema de la coordinación de la superinteligencia, es decir, ¿cómo garantizar que los sistemas de inteligencia artificial sean mucho más inteligentes que los humanos pero que también sigan las intenciones humanas?
OpenAI no dio una respuesta. Creen que los humanos no pueden supervisar de manera confiable esos sistemas de inteligencia artificial que son más inteligentes que los humanos. La tecnología de alineación actual no puede extenderse a la superinteligencia. Por lo tanto, es necesario buscar nuevos avances científicos y tecnológicos.
Sin embargo, el camino de OpenAI para resolver el problema de alineación de la superinteligencia ha sido claro, es decir, establecer un investigador de alineación automática aproximadamente al nivel humano, para mejorar la capacidad de los sistemas de inteligencia artificial para aprender de la retroalimentación humana y ayudar a los humanos a evaluar la inteligencia artificial. El objetivo es construir un sistema de IA lo suficientemente alineado como para ayudarnos a resolver todos los demás problemas de alineación.
En el último año, OpenAI ha publicado una entrada de blog que aclara su línea de investigación sobre alineación:
Superalineación del nuevo equipo de OpenAI
El equipo será un equipo de investigadores e ingenieros de aprendizaje automático de primer nivel, con el objetivo de resolver los principales desafíos técnicos de la alineación de la superinteligencia en cuatro años, desde el desarrollo de nuevos métodos hasta la ampliación de la implementación. El científico jefe de OpenAI, Ilya Sutskever, ha convertido el problema de alineación de la superinteligencia en un foco de investigación central. La alineación de superinteligencia es fundamentalmente un problema de aprendizaje automático y OpenAI está reclutando excelentes expertos en aprendizaje automático. Referencias: