a16z habla con el CTO de OpenAI: ¿Cómo impulsará la tecnología de IA la innovación futura?

Escrito por San Pablo

Después de que OpenAI lanzara ChatGPT a finales de 2022, la comprensión del campo de inversión sobre el campo de la inteligencia artificial ha seguido profundizándose. La cadena de la industria de la inteligencia artificial se puede dividir a grandes rasgos en proveedores de tecnología central, sistemas de inteligencia artificial y usuarios de inteligencia artificial. A juzgar por la percepción general de los inversores globales, ahora todo el mundo se da cuenta de que es probable que la inteligencia artificial se convierta en una vía de inversión durante mucho tiempo en el futuro, similar a las computadoras hace 30 años o Internet hace 20 años. Y de cara al futuro, las aplicaciones ya son una realidad.

Para comprender la inversión en campos subdivididos, siempre necesitamos aprender de los inversores de la industria. El conocido capitalista de riesgo A16Z sigue haciendo grandes apuestas en el campo de la inteligencia artificial. Recientemente tuvieron una conversación con la CTO de OpenAI, Mira Murati. Compartió la historia detrás de ChatGPT y el futuro de la inteligencia artificial y la interacción persona-computadora.

Resumen

  • ChatGPT se originó al pensar en cómo crear un sistema de inteligencia artificial seguro que utilice la retroalimentación humana para el aprendizaje reforzado.
  • OpenAI está redefiniendo la forma en que las personas interactúan con la información digital, convirtiéndose en un asistente similar a un socio y mejorando continuamente la coherencia y seguridad de los sistemas de inteligencia artificial. A través de la situación de productización, obtener comentarios de usuarios del mundo real es más que simplemente sentarse en el laboratorio.
  • ChatGPT agrega imágenes, videos y otros basados en texto. Esto permite que los modelos proporcionen una imagen más completa del mundo que nos rodea, similar a cómo entendemos y observamos el mundo.
  • Aunque no habrá un modelo único que gobierne el mundo en el futuro, porque la gente eventualmente buscará la herramienta que mejor se adapte a sus necesidades.

#Mira Murati Antecedentes

Mira nació en Albania, justo después del fin del comunismo. Albania en aquella época era muy similar a la Corea del Norte actual. En una era de constantes cambios e incertidumbre, la educación tiene la clave de todo. Además, aparte de los libros, en aquella época había poco entretenimiento. En ese momento, Mira buscaba respuestas en los libros. Mira prefiere aquellas verdades de la ciencia que sean estables y puedan estudiarse en profundidad. Y las fuentes de materias de humanidades como la historia y la sociología son cuestionables porque la historia cambia constantemente. Así, Mira creció con una tendencia intuitiva y natural hacia las ciencias y las matemáticas. Básicamente, Mira todavía se dedica a las matemáticas en Open AI.

Debido a su excelente desempeño académico, Mira recibió una beca y completó sus dos últimos años de escuela secundaria en Canadá.

En la universidad, Mira estudió ingeniería mecánica porque creía que era la mejor manera de aplicar el conocimiento a problemas del mundo real. En ese momento, Mira estaba muy interesada en formas de llevar el transporte y la energía sostenibles al mundo. Su proyecto de graduación en ese momento era construir un auto de carreras híbrido usando supercondensadores.

Poco después, Mira se unió a Tesla y participó en el trabajo en el motor dual del Model S. Trabajó con el Model X desde los primeros días de su diseño inicial y finalmente dirigió el lanzamiento de todo el proyecto.

También fue trabajar en Tesla lo que hizo que Mira se interesara mucho en la aplicación de la inteligencia artificial, especialmente en la conducción autónoma. Porque puede utilizar la inteligencia artificial y la visión por computadora para revolucionar los viajes. Empezó a pensar más en diferentes aplicaciones de la inteligencia artificial. Entonces Mira se interesó cada vez más en la IA y los cambios que podría generar en el mundo.

Específicamente, siente mucha curiosidad por saber cómo la IA afecta la interacción entre humanos y computadoras y la forma en que las personas interactúan con la información en general, y está muy interesada en la computación espacial. Después de eso, se unió a Leap Motion, una empresa de tecnología negra, como vicepresidenta de producto e ingeniería. Fue esta experiencia la que fortaleció aún más sus capacidades de producción.

(Por cierto, el fundador de Leap Motion, David Holz, fundó otra popular aplicación de inteligencia artificial, Midjourney, después de vender Leap Motion).

En 2018, Mira se unió a OpenAI. Fue entonces cuando empezó a pensar más en lo que sucedería si se centrara únicamente en la versatilidad.

Además, del análisis de Mira sobre los métodos de investigación, podemos ver su espíritu exploratorio de la innovación tecnológica en un entorno incierto:

*A veces te echas una siesta y te despiertas con nuevas ideas. En el transcurso de días o semanas, llegará a la solución final. No es un retorno rápido ni iterativo en ocasiones.

  • Es casi como una forma diferente de pensar, estás construyendo la intuición, pero también tienes la disciplina para abordar los problemas y confiar en ti mismo para resolverlos. Con el tiempo, desarrollará una intuición sobre qué problemas realmente deben resolverse.

Resumen de la conversación

El conocido capitalista de riesgo A16Z ha hecho una gran apuesta en el campo de la inteligencia artificial. Los siguientes extractos son extractos de una conversación entre Martin, el administrador del fondo de A16Z, y Mira. Mira compartió la historia detrás de ChatGPT y el futuro de la inteligencia artificial y la interacción persona-computadora. También podemos ver que Mira, que tiene experiencia como gerente de producto, está extremadamente preocupada por la aplicabilidad de los productos.

MARTIN: ¿Crees que en este momento es más una cuestión de sistemas o de ingeniería?

Mira: Ambos. Los problemas de sistemas e ingeniería son enormes y estamos implementando estas tecnologías e intentando escalarlas, hacerlas más eficientes y hacerlas accesibles. Esto significa que no es necesario conocer las complejidades del ML para utilizarlo.

De hecho, podemos ver un contraste entre proporcionar estos modelos a través de API y proporcionar la tecnología a través de ChatGPT. Es básicamente la misma tecnología, con una posible excepción: ChatGPT tiene capacidades de aprendizaje reforzado y retroalimentación humana. Lo que esto significa es que la respuesta y la capacidad de capturar la imaginación de las personas y permitirles utilizar esta tecnología todos los días es completamente diferente.

interfaz de lenguaje natural

Martin: También creo que la API ChatGPT es algo muy interesante. Siempre que uso estos modelos en mis programas, siempre siento como si estuviera envolviendo una supercomputadora en un ábaco. A veces digo: "Le daré al modelo un teclado y un mouse y dejaré que haga la programación". La API está en inglés y le diré qué hacer y él hará toda la programación. Tengo curiosidad: cuando diseñas algo como ChatGPT, ¿crees que con el tiempo la interfaz real será un lenguaje natural o crees que los programas todavía tienen un papel importante que desempeñar?

Mira: La programación se vuelve menos abstracta en ChatGPT y podemos hablar con computadoras usando lenguaje natural con un gran ancho de banda. Pero tal vez otro vector es que esta tecnología nos está ayudando a comprender cómo trabajar realmente con ella en lugar de programarla. La capa de programación es cada vez más fácil y accesible porque se puede programar en lenguaje natural. Pero el otro lado de eso que estamos viendo con ChatGPT es que realmente puedes trabajar con el modelo como un socio o un colega.

MARTIN: Será interesante ver qué sucede con el tiempo. Has decidido tener una API en ChatGTP, pero como colega, no tienes una API. Estás hablando con un colega. Con el tiempo, estas cosas pueden evolucionar hasta hablar en un lenguaje natural. ¿O cree que siempre es necesario que haya un componente en el sistema que sea una máquina de estados finitos o una computadora tradicional?

Mira: Hay un punto de inflexión en este momento en el que estamos redefiniendo cómo interactuamos con la información digital, y es a través de estos sistemas de inteligencia artificial que lo estamos haciendo. Quizás tengamos varios sistemas de IA, quizás todos tengan habilidades diferentes. Quizás tengamos un sistema universal que nos sigue a todas partes, conoce mis antecedentes, lo que hice hoy, cuáles son mis objetivos en la vida y en el trabajo, me ayuda en momentos difíciles, me guía, etc. Como puedes imaginar, esto es súper poderoso.

Ahora nos encontramos en un punto de inflexión a la hora de redefinirlo. No sabemos cómo será el futuro y estamos trabajando arduamente para que estas herramientas y técnicas estén disponibles para muchas otras personas para que puedan experimentar y ver qué sucede. Esta es la estrategia que hemos utilizado desde el principio.

En el ChatGPT de la semana anterior, nos preocupaba que no fuera lo suficientemente bueno. Todos vimos lo que pasó. Lo publicamos y la gente nos dijo que hizo un muy buen trabajo al encontrar nuevos casos. Eso es lo que sucede cuando haces que estas cosas sean accesibles y fáciles de usar, y haces que sea fácil de usar para todos.

Hoja de ruta de desarrollo de OpenAI

MARTIN: Cuando se trata de inteligencia artificial, la gente aún no sabe pensar. Tiene que haber alguna orientación, hay que tomar algunas decisiones. Estás en OpenAI y tienes que decidir qué hacer a continuación. Si pudieras recorrer este proceso de toma de decisiones: ¿Cómo decides qué hacer, en qué concentrarte, qué liberar o cómo posicionarte?

Mira: Si piensas en cómo surgió ChatGPT, no era un producto que quisiéramos lanzar. De hecho, sus verdaderas raíces se remontan a hace más de 5 años, cuando pensábamos en cómo hacer un sistema de inteligencia artificial seguro. No necesariamente quieres que un humano escriba la función objetivo, porque no quieres que un sustituto lo haga para una función objetivo compleja, o no quieres cometer errores porque eso puede ser muy peligroso.

Aquí es donde entra en juego el aprendizaje por refuerzo utilizando la retroalimentación humana. Lo que realmente estamos tratando de lograr es alinear el sistema de inteligencia artificial con los valores humanos y permitirle aceptar comentarios humanos. Según la retroalimentación humana, es más probable que haga lo correcto y menos probable que haga algo que no quiere hacer. Luego, después de que desarrollamos GPT-3 y lo lanzamos en la API, fue la primera vez que aplicamos nuestra investigación de seguridad al mundo real. Esto se logra mediante el modelo de seguimiento de instrucciones.

Usamos este enfoque para recibir indicaciones de los clientes que usan la API y luego hacemos que los contratistas generen comentarios para que el modelo aprenda. Ajustamos el modelo en función de estos datos y construimos un modelo que siguió las instrucciones. Es más probable que sigan la intención del usuario y hagan lo que usted realmente quiere que haga. Esto es muy poderoso porque la seguridad de la IA no es solo un concepto teórico del que uno se sienta y habla. En realidad, se convierte en: ahora estamos entrando en la era de los sistemas de seguridad de inteligencia artificial, ¿cómo se integra eso en el mundo real?

Claramente, en grandes modelos de lenguaje vemos grandes representaciones de conceptos e ideas del mundo real. Pero en términos de producción, hay muchos problemas. Uno de los mayores problemas son, obviamente, las alucinaciones. Hemos estado trabajando en temas de ilusión y autenticidad. ¿Cómo se consigue que estos modelos expresen incertidumbre?

El predecesor de ChatGPT fue en realidad otro proyecto al que llamamos WebGPT, que utilizaba la recuperación para obtener información y citar fuentes. Este proyecto finalmente se convirtió en ChatGPT porque pensamos que las conversaciones eran especiales. Te permite hacer preguntas, corregir a la otra persona y expresar incertidumbre.

MARTIN: Constantemente se descubren errores porque estás interactuando...

Mira: Sí, con este tipo de interacción puedes entender la verdad más profunda. Empezamos a ir en esta dirección y en ese momento lo estábamos haciendo con GPT-3 y GPT-3.5. Desde una perspectiva de seguridad, estamos muy entusiasmados con esto. Pero una cosa que la gente olvida es que en este momento hemos entrenado a GPT-4. Dentro de OpenAI, estamos muy entusiasmados con GPT-4 y tenemos ChatGPT en el espejo retrovisor. Luego nos dimos cuenta de que "vamos a pasar seis meses centrándonos en la alineación y la seguridad del GPT-4" y empezamos a pensar en lo que podíamos hacer. Una de las cosas principales es poner ChatGPT en manos de los investigadores y ellos pueden darnos su opinión ahora que tenemos este modelo conversacional. El objetivo inicial es obtener comentarios de los investigadores y utilizarlos para hacer que GPT-4 sea más consistente, seguro, robusto y confiable.

MARTIN: Cuando dice coherencia y seguridad, ¿tiene razón al incluir eso, que haga lo que quiera? ¿O te refieres a seguro, es decir, a protegerte de algún tipo de daño?

Mira: Por consistente, normalmente me refiero a que coincide con la intención del usuario, por lo que hace exactamente lo que usted quiere que haga. Pero la seguridad también incluye otras cosas, como el abuso, donde los usuarios intentan utilizar intencionalmente un modelo para producir resultados dañinos. Con ChatGPT, en realidad estamos tratando de hacer que sea más probable que el modelo haga lo que usted desea, haciéndolo más consistente. También queríamos resolver el problema de las alucinaciones, que obviamente es un problema extremadamente difícil.

Creo que este enfoque de utilizar la retroalimentación humana para el aprendizaje por refuerzo, si intentamos hacerlo, tal vez sea lo que necesitamos.

MARTIN: Entonces, ¿no hay un gran plan? ¿Qué debemos hacer para alcanzar AGI? Es sólo cuestión de ir paso a paso.

Mira: Sí. Y todas las pequeñas decisiones que tomas en el camino. Quizás sea más probable que suceda porque tomamos una decisión estratégica hace unos años para desarrollar el producto. Hacemos esto porque creemos que es imposible simplemente sentarse en un laboratorio y desarrollar estas cosas en el vacío sin comentarios de los usuarios del mundo real. Ésa es la suposición. Creo que eso nos ayuda a tomar algunas de esas decisiones y construir la infraestructura subyacente para que eventualmente podamos implementar algo como ChatGPT.

Ley de Proporciones

MARTIN: Puedes repetir la ley de la proporción. Creo que este es un gran problema que todos tenemos. El ritmo del progreso es asombroso. Pero la historia de la inteligencia artificial parece ser que en algún momento se alcanzan rendimientos decrecientes, y no es paramétrico. En cierto modo disminuye. Desde su perspectiva (que es probablemente la perspectiva más inteligente de toda la industria), ¿cree que la ley de escala se mantendrá y seguiremos viendo avances, o cree que nos dirigimos hacia rendimientos decrecientes?

Mira: No hay evidencia de que a medida que sigamos expandiendo el modelo a través de los ejes computacionales y de datos, no obtengamos modelos mejores y más potentes. Si llegará hasta la AGI (Inteligencia General Artificial) es una cuestión diferente. En este proceso, es posible que se necesiten otros avances y avances. Para obtener realmente muchos beneficios de estos modelos más grandes, las leyes de escala todavía tienen un largo camino por recorrer.

MARTIN: ¿Cómo se define AGI?

Mira: En nuestra carta de OpenAI. Lo definimos como un sistema informático que puede realizar la mayor parte del trabajo intelectual de forma autónoma.

Martin: Estaba almorzando y Robert Nishihara de Anyscale estaba allí. Hizo lo que yo llamo la pregunta de Robert Nishihara. Creo que en realidad es una caracterización bastante buena. Dijo: "Hay un continuo entre las computadoras y los Einsteins. Se pasa de las computadoras a los gatos, de los gatos a la gente normal y de la gente normal a los Einsteins". Luego formuló la pregunta: "Estamos en un continuo". ¿Qué problemas se resolverán?

Todo el mundo coincide en que sabemos cómo pasar de gato a ser humano. No sabemos cómo pasar de una computadora a un gato porque es un problema universal de percepción. Estamos cerca, pero aún no hemos llegado a ese punto, y realmente no sabemos cómo hacer Einstein, y ese es el razonamiento establecido.

Mira: Puedes conseguir mucho con ajustes, pero en general, creo que en la mayoría de las misiones, estamos en un nivel interno en este momento. El problema es la confiabilidad. No puedes confiar completamente en que el sistema haga lo que quieres que haga todo el tiempo. En muchas tareas simplemente no puede hacerlo. ¿Cómo se puede mejorar la confiabilidad con el tiempo y luego ampliar las nuevas capacidades que pueden ofrecer estos modelos?

Creo que es importante prestar atención a estas capacidades emergentes, incluso si son muy poco confiables. Especialmente para las personas que están construyendo una empresa hoy en día, realmente quieren pensar: "¿Qué es posible hoy? ¿Qué ven hoy?" Estos modelos se vuelven confiables muy rápidamente.

**¿Un solo modelo puede conquistar el mundo? **

MARTIN: Voy a preguntar de inmediato, predecir cómo será el futuro. Pero antes de preguntar, egoístamente, cómo cree que se desarrollará la economía de esto. Os cuento a qué me recuerda. Esto me recuerda a la industria del silicio. Recuerdo que en los años 90, cuando comprabas una computadora, había muchos procesadores de escritura extraños. "Esto es coincidencia de cadenas, esto es punto flotante, esto es cifrado", todo ello consumiendo la CPU.

Resulta que la versatilidad es tan poderosa que crea un cierto tipo de economía en la que tanto Intel como AMD son actores. Por supuesto, fabricar estos chips cuesta mucho dinero.

Entonces puedes imaginar dos futuros. En el futuro, la versatilidad es tan fuerte que los modelos grandes absorberán esencialmente toda la funcionalidad con el tiempo. Y luego hay otro futuro en el que hay un montón de modelos diferentes, todo tipo de piezas, diferentes puntos en el espacio de diseño. ¿Tiene esta sensación: OpenAI es único o tiene muchos modelos?

Mira: Depende de lo que quieras hacer. Claramente, la trayectoria actual es que estos sistemas de inteligencia artificial harán cada vez más trabajo que nosotros. Podrán operar de forma autónoma, pero tendremos que brindarles dirección, orientación y supervisión. Pero no quiero hacer mucho trabajo repetitivo que tengo que hacer todos los días. Quiero centrarme en otras cosas. Quizás no tengamos que trabajar 10 o 12 horas al día, quizás podamos trabajar menos y ser más productivos. Eso es lo que espero. En cuanto al funcionamiento de la plataforma, aún hoy se puede ver que tenemos muchos modelos disponibles a través de la API, desde modelos muy pequeños hasta nuestros modelos de última generación.

No siempre es necesario utilizar el modelo más potente y capaz. A veces simplemente necesitan un modelo que realmente se ajuste a su caso de uso específico y que sea mucho más económico. Creo que habrá un rango. Pero en términos de cómo imaginamos los juegos de plataformas, definitivamente queremos que la gente construya sobre nuestro modelo, y queremos darles las herramientas para hacerlo fácil y darles cada vez más acceso y control. Puedes traer tus datos, puedes personalizar estos modelos. Realmente puedes concentrarte en las capas fuera del modelo y definir el producto, lo cual en realidad es muy, muy difícil. Ahora hay mucha atención en construir más modelos, pero es muy difícil construir buenos productos sobre estos modelos.

Próximos 5 a 10 años

MARTIN: Me gustaría que predijeras dónde crees que estará esto dentro de tres, cinco o diez años.

Mira: Creo que el modelo fundacional hoy tiene una gran representación del mundo en el texto. Estamos agregando otros modelos, como imágenes, videos y todo tipo de cosas, para que estos modelos puedan proporcionar una imagen más completa del mundo que nos rodea, similar a cómo entendemos y observamos el mundo. El mundo existe no sólo en palabras sino también en imágenes. Definitivamente nos estamos moviendo en esa dirección y vamos a tener estos modelos más grandes que emplean todos estos patrones en el trabajo previo al entrenamiento. Realmente queremos que estos modelos previamente entrenados comprendan el mundo como lo hacemos nosotros.

En la parte de salida del modelo, introducimos el aprendizaje por refuerzo con retroalimentación humana. Queremos que el modelo realmente haga lo que le pedimos y queremos que sea confiable. Esto requiere mucho trabajo y quizás la introducción de la navegación para poder obtener nueva información, hacer referencia a ella y resolver las alucinaciones. No creo que sea posible. Creo que esto se puede lograr.

En cuanto al producto, queremos reunir todo esto en una colección de productos con los que la gente trabaje y proporcionar una plataforma sobre la que la gente pueda construir. Si realmente miras hacia afuera, estos modelos son muy, muy poderosos. Obviamente, esto conlleva el temor de que estos modelos tan poderosos sean inconsistentes con nuestras intenciones. Un gran desafío es la Super Alineación, que es un desafío técnico difícil. Tenemos un equipo completo en OpenAI enfocado en este problema.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)