Diálogo: Zhang Peng, Li Zhifei
Planificación: Wei Shijie, Li Shiyun
Fuente de la imagen: Generada por Unbounded AI
Hace treinta años, cuando Internet estaba en su infancia e incluso las computadoras personales eran raras, un escritor de tecnología comenzó su propia frontera itinerante de todos los ámbitos de la vida en ese momento. Hablando con algunas de las mentes más brillantes del mundo, vislumbró algo del futuro que culminaría en el tomo Fuera de control (1994). Hasta más de diez años después, cuando llegó la era de Internet móvil y los teléfonos inteligentes, la gente se sorprendió al descubrir que los últimos conceptos "interconexión de información global, sistemas distribuidos, moneda digital, computación en la nube, etc." habían sido predichos durante mucho tiempo por este libro.
El redactor técnico es Kevin Kelly, también conocido como KK. Es el fundador de la revista "Wired", observador de tecnología y "profeta". En 2010, se lanzó la versión china de "Fuera de control", y KK también comenzó una serie de visitas a China y gradualmente se familiarizó con el pueblo chino.
De pie en el nodo de hoy, la inteligencia artificial general (AGI) está brotando, y está a punto de comenzar una revolución de los tiempos, que se hace eco débilmente de la profecía del libro "Fuera de control". KK predijo en ese momento que los humanos eventualmente se unirían con las máquinas, "las máquinas se están volviendo biológicas y los organismos están siendo diseñados". En sus propias palabras, "Fuera de control" solo habla de una cosa, es decir, cómo construir un "sistema complejo": los robots, la inteligencia artificial (IA), etc. pueden considerarse sistemas complejos, y cree que esta idea todavía es aplicable hoy en día.
No hace mucho, tuvimos una conversación con KK junto con Li Zhifei, el fundador y director ejecutivo de la gran empresa emergente Going out to ask.
El primero es desde la perspectiva práctica de la tecnología y los negocios, mientras que el segundo es desde la perspectiva abstracta de los seres humanos, la historia e incluso el universo, discutiendo el surgimiento, el impacto y la amenaza de la inteligencia artificial. Esta es una discusión más bien "de ciencia ficción" e "imaginativa" en la que tratamos de "predecir" el futuro de los humanos y la inteligencia artificial nuevamente.
Ambos argumentan que, por primera vez en la historia de la humanidad, la inteligencia artificial actual ha adoptado formas similares a la vida. Li Zhifei dijo que la IA actual ya es equivalente al coeficiente intelectual de un niño humano y tiene capacidades reales de inteligencia general, como conocimiento, lógica, razonamiento y planificación. Y KK cree que como una "vida basada en silicio", la IA será tan adaptable como los humanos y podrá aprender y crecer por sí misma.
De manera muy similar, ambos adoptan el optimismo tecnológico. KK cree que la IA no hará que los humanos queden desempleados, solo hará que los humanos sean más eficientes y los liberará de trabajos "aborrecibles". La IA parece ampliar la brecha entre ricos y pobres, pero es más probable que logre equidad y justicia haciendo que el pastel sea más grande y mejor, como cada cambio tecnológico en la historia de la humanidad. En términos de impacto en los negocios, empoderará a las personas, a las pequeñas y medianas empresas y a las grandes empresas al mismo tiempo.
Como dice el nombre del libro "Fuera de control", Kevin Kelly cree que para obtener mejor el poder de la IA, los humanos deberían permitir que partes de la IA "se salgan de control". Después de todo, ChatGPT nació en un estado de "emergencia" fuera de control para los humanos. Tanto él como Li Zhifei creen que la inteligencia actual de la IA aún es inmadura, y que los humanos deberían continuar soltándose, en lugar de controlar (supervisar) de manera prematura y excesiva. Este último puede sofocar la innovación en su infancia.
Desde una perspectiva más amplia, si algún día la IA realmente se convierte en una súper forma de vida, ¿cómo deberían llevarse bien los humanos con ella?
Tanto la ciencia ficción como las películas pintan un futuro sombrío que a menudo termina con el despertar de la IA para matar humanos. Pero Kevin Kelly cree que esta es una manifestación de la falta de imaginación humana. El fracaso siempre es más fácil de imaginar que el éxito, y también es tentador para las historias. En cuanto al futuro, no es difícil imaginar los beneficios y el valor de la inteligencia artificial.
Su sugerencia es que la IA puede ser considerada como un "alienígena artificial", y los seres humanos podrán usar la sabiduría de la IA para resolver sus propios problemas y lograr un cierto grado de "control". Li Zhifei cree que, como "ancestro" de la IA, los humanos eventualmente se fusionarán con la IA en lugar de controlarla.
En cuanto a si esta profecía será cierta, depende del mundo después de 5000 días.
El siguiente es el texto completo de la conversación:
01 Incluso si OpenAI no hizo ChatGPT, otras compañías pronto lo harán
**Zhang Peng: Independientemente de China o Estados Unidos, la gente está discutiendo modelos grandes recientemente. ¿Cómo te sientes con esta ola de cambio tecnológico en modelos grandes? ¿Te sentirás muy conmocionado? **
Kevin Kelly: La inteligencia artificial (IA) existe desde hace décadas. Se produjo un gran avance cuando los modelos de IA comenzaron a emplear redes neuronales y aprendizaje profundo, y se hicieron cada vez más grandes. Hace unos 4 o 5 años, comenzó a producir modelos de transformadores muy grandes (modelos de aprendizaje profundo con mecanismo de autoatención). En los últimos dos años, ha comenzado a interactuar con grandes modelos de lenguaje.
De hecho, recientemente, el gran cambio en la IA no es su capacidad, y su desempeño en este sentido no es mucho mejor. **Lo que realmente ha cambiado en la IA últimamente es que nos permite tener una interfaz de usuario conversacional que realmente puede comunicarse con la IA en lenguaje (natural). Antes de eso, las personas necesitaban aprender muchos conocimientos de programación y ser muy competentes para usar la IA. Pero ahora, de repente, todo el mundo está usando IA. Esa es la parte realmente emocionante. **
Li Zhifei: Estoy de acuerdo con lo que dijo KK, el cambio principal en el modelo de lenguaje grande actual es la mejora de las capacidades de interacción del lenguaje natural. De hecho, esto es lo que mucha gente común puede sentir, y es precisamente por eso que ChatGPT tiene una influencia social tan grande en la actualidad.
Pero creo que también hay mucha variación en las capacidades de los modelos grandes hoy en día, y es esa variación la que hace posible su interacción natural. Porque detrás de la realización de la interacción natural, la IA debe tener un conocimiento sólido, capacidad de comprensión, capacidad de lenguaje, capacidad de razonamiento y planificación, etc. La IA debe tener un gran avance en estas capacidades básicas para lograr una interacción de lenguaje natural.
Y creo que la capacidad de los modelos grandes en el futuro no será solo la interacción del lenguaje natural. Cosas como la escritura de programas, los procesos de automatización empresarial y la automatización de robots no son interactivos, pero serán posibles en el futuro.
**Zhang Peng: Estoy muy de acuerdo en que la capacidad de la IA para comunicarse mejor con los humanos provocará un cambio de paradigma en la tecnología y los negocios. Si ChatGPT es la segunda curva del desarrollo de la IA, ¿su aparición es inevitable o accidental? **
**Kevin Kelly:**ChatGPT es capaz de superar todas las expectativas. **No creo que nadie esperara esto, incluidas las personas en el campo de la IA. De hecho, la mayoría de los investigadores no saben cómo funciona ChatGPT e intentan mejorarlo, pero es difícil porque no saben cómo funciona. Por lo tanto, la aparición de ChatGPT fue un accidente. **
Aunque ChatGPT es muy sorprendente, también vemos sus limitaciones. **Su principal limitación es que el modelo se entrenó en contenido promedio creado por humanos, por lo que tiende a producir resultados promedio. Y lo que a menudo queremos no es el promedio, sino algo por encima del promedio. ** Esto es difícil de hacer.
En segundo lugar, estos modelos están optimizados para la plausibilidad, no para la precisión. Por lo tanto, cómo hacerlos más precisos es un gran desafío al que todos se enfrentan actualmente.
Li Zhifei: Creo que la aparición de ChatGPT es accidental a corto plazo, pero inevitable a largo plazo. Se puede decir que fue accidental que OpenAI hiciera ChatGPT a fines del año pasado, pero incluso si no lo hizo, otras compañías lo harán pronto. **
Esto se ha repetido innumerables veces en la historia de la tecnología. Tomando como ejemplo el aprendizaje profundo, AlexNet fue el primero en hacer anotaciones de imágenes en 2012, pero en ese momento muchos equipos con fuertes creencias y capacidades de ingeniería también lo estaban haciendo. Si AlexNet no lo lograba, otros lo harían. Además, Google hizo un transformador en 2017 para solucionar los problemas de baja escalabilidad de los modelos de secuencias como RNN y LSTM, si no lo hacía Google, lo harían otros equipos.
**El trasfondo del nacimiento de ChatGPT es que el transformador ya está muy maduro y tenemos un gran poder de cómputo para entrenar los datos masivos de Internet. Todos los elementos necesarios de ChatGPT ya están disponibles y su nacimiento es inevitable. ** Es solo que OpenAI lo armó mejor en ese momento.
**Zhang Peng: Al hablar de inevitabilidad y contingencia, pensé en una palabra que ha sido muy popular recientemente, "emergencia". Esta palabra ha aparecido al menos 88 veces en "Out of Control" de KK ¿Cómo debemos entender el significado de esta palabra hoy? **
Kevin Kelly: Desde un punto de vista inglés, "emergencia" es un término que se refiere al comportamiento de un sistema, un montón de cosas interconectadas, como Internet, robots, cuerpos, ecosistemas o incluso El mundo, cuyo comportamiento no está contenido en el comportamiento de una sola parte. Por ejemplo, una colmena puede recordar cosas más allá de la vida de una sola abeja, por lo que la colmena en sí tiene un comportamiento, una capacidad y un poder que las partes individuales no tienen. A esto lo llamamos "emergencia".
Asimismo, gran parte de la IA que se está generando también es “emergente”. Debido a que no hay un solo lugar en el modelo que explique de dónde vino, se necesitan todas las partes para trabajar juntas para producir esta nueva capacidad. Así como no hay un "pensamiento" en nuestro cerebro, el "pensamiento" "emerge" de toda la neurona. **Cosas como el pensamiento, la evolución y el aprendizaje pueden "emergir" del sistema.
**Li Zhifei:**Mi comprensión de "emergencia" proviene del libro "Complejidad", que habla sobre "más es diferente" y "más es diferente". Al igual que un viejo dicho chino, "el cambio cuantitativo conduce al cambio cualitativo". La primera vez que la gran modelo habló de "emergencia" fue un artículo publicado por Stanford y Google a fines del año pasado. Descubrieron a través de experimentos que al aumentar el tamaño del modelo grande, cuando se alcanzaba un cierto punto crítico, repentinamente "emergía" en cierta capacidad.
Ahora siento que la palabra "emergencia" en realidad se usa en exceso. Como no podemos explicar cómo surge la habilidad del modelo grande, lo llamamos "emergencia". Esta palabra no se puede explicar ni manipular, y no nos ayuda a entrenar y aplicar el modelo grande. Ahora, ya no todos están estudiando "emergencia", sino más investigaciones sobre la relación cuantitativa entre la cantidad de parámetros del modelo grande y el rendimiento final, lo que puede ser más útil para comprender y controlar el modelo grande.
**Zhang Peng: ¿Podemos entender que la "emergencia" conducirá a la "pérdida de control"? **
Kevin Kelly: Este entendimiento no es del todo correcto. Por supuesto, tendrá "partes fuera de control", si desea poder usar el poder del comportamiento de "emergencia", es posible que deba tolerar algunas cosas fuera de su control. Nuestra comprensión y control de ella puede no ser lo suficientemente bueno en IA en este momento, pero en realidad es necesario para obtener resultados óptimos.
Pero al mismo tiempo, no podemos dejar que todo se “salga de control”, debemos llevar a cabo un cierto grado de “control”, es decir, guiar y manejar la inteligencia artificial. ** Nuevamente, no queremos ser demasiado restrictivos, pero se debe lograr cierto nivel de control. Sin embargo, es probable que nunca tengamos control total sobre ellos**, especialmente con inteligencias artificiales más poderosas, es probable que nunca comprendamos completamente cómo funcionan. Esa es la compensación.
**Zhang Peng: Han pasado muchos años desde que escribiste el libro "Fuera de control". En este momento actual, combinado con esta ola de revolución de IA, ¿crees que hay alguna parte de "Fuera de control" que valga la pena? recalibrando? **
Kevin Kelly: No creo que hablé demasiado sobre inteligencia artificial y fuera de control en el libro "Fuera de control", en realidad hablaba principalmente sobre cómo convertir cosas simples en cosas complejas. Hay algo llamado arquitectura de subsistema de Rodney Brooks, que menciona que puedes hacer un robot complejo incrustando partes de inteligencia en él. El proceso que conduce a la complejidad consiste en superponer cosas sobre cosas que ya están funcionando. (La teoría arquitectónica de Brooks propone que el comportamiento de nivel superior debe contener el comportamiento de nivel inferior).
**Como un insecto, incluso si le cortas la cabeza, aún puede caminar, porque la función de caminar se completa más parcialmente. Al igual que nuestro cerebro tiene un núcleo responsable de la respiración y otras funciones autónomas, agregamos más capas de complejidad encima. Esta idea sigue siendo válida hoy en día, cuando las personas fabrican robots e inteligencia artificial y tratan de hacerlos más complejos. **Esto es realmente lo único de lo que hablo en "Fuera de control" y creo que el punto sigue en pie.
**Zhang Peng: Recuerdo que antes tenías una perspectiva interesante, es decir, "asumiendo que la tecnología es un tipo de vida", cuando emerge con una inteligencia cercana a los seres humanos, ¿qué querrá después? ¿Cómo afectará esto al mundo de los negocios ya la sociedad humana? **
**Kevin Kelly:**La tecnología es lo que yo llamo el "séptimo reino de la vida". Hemos acelerado la evolución de la vida hacia un reino "seco" que ya no necesita un entorno "húmedo", sino que puede existir en silicio. Podemos usar nuestras mentes para crear otras tecnologías similares a la vida. Son adaptables y pueden aprender y crecer.
Mi punto es que la tecnología persigue básicamente las mismas cosas que la vida. Por ejemplo, aumentarían en diversidad a medida que evolucionaran, y también se volverían más especializados y específicos. Nuestro cuerpo tiene 52 tipos diferentes de células, incluidas las células del corazón, las células óseas y las células óseas. También crearemos IA especializadas que realicen tareas específicas como la traducción de idiomas, la generación de imágenes y la conducción autónoma. **Además, la tecnología se volverá más compleja como la vida, lo cual es obvio.
Al final, la tecnología también será "mutuamente beneficiosa y simbiótica" como la vida. La vida evolucionó de manera tan compleja que solo entró en contacto con otra vida, nunca con material no vivo. Como las bacterias en tu intestino. Están rodeados únicamente por otras células vivas. ** En el futuro, también habrá algunas IA que no están diseñadas para humanos, pero están diseñadas para servir a otras IA. Por ejemplo, habrá IA dedicadas a mantener otras IA, IA que solo se comunican con otras IA. **
**Li Zhifei:**Quiero explicar la relación entre la IA y la vida desde la perspectiva de un ingeniero. Hace algunos años, mucha gente siempre me preguntaba: "¿Cuántos años tiene el coeficiente intelectual de Alphago (el primer programa de computadora que derrotó al campeón mundial de Go)?" En ese momento, no me gustaban este tipo de preguntas porque no podía No respondas. En ese momento, aunque AI podía jugar Go y tenía un alto coeficiente intelectual, no podía realizar conversaciones en lenguaje natural como un niño de 3 años. En ese momento, su mecanismo era fundamentalmente diferente al de los seres humanos.
Pero en estos días, me gusta especialmente comparar la IA con un niño. Creo que el núcleo se debe a que la IA actual ya posee las verdaderas capacidades de inteligencia general que tienen los niños, como el conocimiento, la lógica, el razonamiento, la planificación, etc. **Entonces quiero decir que la IA de hoy es más como un cuerpo vivo. Tiene el coeficiente intelectual de un niño de 5 años y el conocimiento de un profesor universitario, así como el de un bebé recién nacido, dependiendo de si ha visto los datos. **
Sobre la base de este entendimiento, creo que debemos repensar lo que la IA realmente quiere. Para un niño de 5 años, primero se purificará a sí mismo, seguido de la autorreplicación y la colaboración. Yo mismo no tengo una buena respuesta a esta pregunta.
02 En los próximos 5000 días, pasaremos por un estrecho y urgente período de transición
**Zhang Peng: cuando las capacidades de la IA crecen rápidamente, muchas personas comunes se sienten ansiosas y temen perder su competitividad. ¿Tiene KK alguna idea o sugerencia sobre este tema? **
**Kevin Kelly:**Aunque la tecnología de IA ha estado en desarrollo durante 20 años, las personas sienten que es un éxito de la noche a la mañana y están ansiosos por su tasa de crecimiento y capacidades. **Siempre somos propensos a imaginar los peores escenarios en lugar de los mejores escenarios. Creo que una forma de lidiar con la ansiedad por el cambio es mirar hacia atrás. De hecho, los humanos han tenido este tipo de ansiedad en el pasado, pero nunca en el peor de los casos que imaginamos. Es probable que sea lo mismo esta vez. **
La mejor manera que he encontrado para lidiar con mis ansiedades es tratar de usarlas. Encuentro que la mayor parte de la ansiedad proviene de aquellos que no han usado IA y mantienen una sensación de distancia de la IA. De hecho, una vez que comiencen a probarlo y usarlo, verán que la IA tiene beneficios, limitaciones y daños. Esto reducirá su ansiedad.
Li Zhifei: Si AGI no sucede hoy, sucederá mañana. Como es imparable, debes aceptarlo y comprenderlo. Para mí en este momento, AGI es un socio pensante. Hablaré con él sobre muchos problemas, su conocimiento es muy completo y me puede dar consejos desde una perspectiva amplia y completa. Creo que esta puede ser una buena forma de IA que abraza a los humanos.
Al mismo tiempo, podemos ver que los modelos grandes de hoy todavía carecen de algunas capacidades críticas del AGI real. Por ejemplo, la capacidad de razonamiento lógico y la planificación de tareas complejas. Si desea que la IA desmonte los pasos y logre el objetivo en función de un objetivo determinado, no es tan bueno en este momento.
**Zhang Peng: KK también es un creador de contenido. ¿Cuál crees que es el valor final de los creadores que no pueden ser reemplazados por la IA en la era de la IA? **
Kevin Kelly: He usado inteligencia artificial y otras herramientas en mi escritura. No creo que nadie pierda su trabajo debido a la IA. **Porque no puedo encontrar un solo ejemplo en el que un artista haya perdido su trabajo debido a la IA. Es un miedo imaginado, un problema que no existe. El empleo es probablemente el problema menos grave asociado con la IA. **
Lo que estoy tratando de decir es que lo que se ha ido puede ser la descripción de su trabajo, que es lo que realmente hace, puede cambiar. ** Algunas personas han observado que la IA puede realizar el 50 % de su trabajo, mientras que la IA aumenta y amplifica el otro 50 %. **Entonces, en el futuro, es posible que la mitad del trabajo ya no necesite que las personas lo hagan, y las personas pueden hacer mejor el 50% restante del trabajo. Este suele ser el patrón que veremos.
**Por supuesto, ciertos tipos de trabajos desaparecen, como ordenar comida y contar dinero como cajero. No queremos que los humanos hagan estos trabajos, por lo que definitivamente desaparecerán y deberían desaparecer. **
**Zhang Peng: ¿Cómo evalúa la competitividad de jóvenes y mayores en la era de la IA? **
Kevin Kelly: Las personas mayores tienen muchas ventajas, están bien informadas y tienen experiencia. Los jóvenes también tienen muchas ventajas porque no saben lo que es imposible. No creo que nadie sea más competitivo que quién.
Diría que los jóvenes de hoy a menudo hablan de ser nativos digitales y de tener una ventaja sobre la tecnología. Pero debido al rápido desarrollo de la inteligencia artificial y otras cosas, los jóvenes pueden ser aborígenes ayer y ser como "ancianos" mañana. Tanto si eres joven como si eres mayor, todo el mundo es un "novato" en la nueva era y debe seguir aprendiendo cosas nuevas rápidamente a lo largo de su vida.
**Zhang Peng: Con un dominio diferente de la tecnología de IA, ¿producirá esto cambios en la brecha entre ricos y pobres? Es decir, ¿las personas que utilizarán IA en el futuro serán más productivas y más capaces de competir? **
Kevin Kelly: Sí, la brecha de riqueza se ampliará. **Creo que con el tiempo, tu capacidad para trabajar con inteligencia artificial puede ser más importante que si vas o no a la universidad. Quizás el propósito de la universidad sea enseñarte a trabajar con inteligencia artificial. Para los muy ambiciosos, si aprenden a usar la inteligencia artificial, su salario marcará una gran diferencia. **
Sin embargo, a medida que la IA se extienda por todo el mundo, en el futuro lograremos la igualdad de acceso a la IA a nivel mundial, al igual que la igualdad de acceso a la educación. Conozco amigos que dirigen grandes empresas en los EE. UU. y contratan empleados que trabajan de forma remota, siempre que puedan, sin importar los antecedentes. Por lo tanto, a muchas personas que trabajan en América del Sur y África se les pagará de acuerdo con los estándares salariales estadounidenses. Ganarán más dinero de lo que harían de otra manera.
**Zhang Peng: El rápido desarrollo de la tecnología puede traer inequidad e injusticia en el campo social. ¿Cómo debemos lograr un equilibrio entre el desarrollo y la equidad y la justicia? **
Kevin Kelly: Creo que podemos lograr un equilibrio entre el progreso y la equidad. De hecho, creo que una gran parte del progreso es repartir la equidad.
En comparación con hace cientos de años, el mundo era muy injusto. Nacías esclavo, siervo o campesino, y no había posibilidad de ir más allá de eso. Pero gracias al progreso, ahora tenemos un mundo más igualitario y justo. Creo que el desarrollo de la tecnología puede aumentar la equidad, aunque no se realice, es posible.
**Li Zhifei:**Desde la perspectiva de un ingeniero,**si miras la equidad desde el punto final y esperas que todos tengan el mismo nivel de riqueza y habilidad, entonces esto definitivamente conducirá a más y más injusticia. Pero si observa la equidad desde un punto de partida, como hacer que las herramientas de inteligencia artificial estén disponibles para todos, esto puede ser mejor para lograr la equidad. **
**Zhang Peng: Ahora vemos que en algunas empresas, como Midjourney, una empresa gráfica de Vincent, una docena de personas pueden generar un ingreso anual de cientos de millones de dólares. ¿Podemos entender que la IA ha cambiado fundamentalmente la productividad? ¿Las futuras empresas se volverán más pequeñas y ágiles como resultado? **
Kevin Kelly: El increíble poder que ahora poseen Internet y la inteligencia artificial puede empoderar simultáneamente a individuos, medianas empresas y grandes corporaciones. Hace que sea más fácil para un individuo ser propietario de una empresa, por lo que veremos muchas empresas nuevas que son solo IA más algunas personas. Pero al mismo tiempo, también hemos visto cómo algunas empresas se hacen más grandes debido a la existencia de la inteligencia artificial, e incluso aumentan el tamaño de un millón de personas.
**Así que no vamos a entrar repentinamente en un mundo de empresas con solo una o dos personas, eso no va a suceder. Al mismo tiempo, no solo beneficiaremos a las grandes empresas. Esa es la belleza de la IA, puede beneficiar y empoderar a todos. **
Li Zhifei: Creo que el efecto de cola larga y el efecto Matthew se volverán cada vez más evidentes.
Por un lado, la cola será cada vez más larga y aparecerán cada vez más pequeñas empresas, que se convertirán en un sistema completo por sí mismas. Por otro lado, cuando una gran empresa tiene fuertes capacidades de IA, su poder organizativo será más fuerte. Antes solo podía organizar a 1.000 personas, pero ahora puede organizar a 10.000, 100.000 o 1 millón de personas. Por ejemplo, la industria de entrega de alimentos de China se basa en un conjunto completo de sistemas de automatización para organizar un gran grupo de pasajeros.
**Zhang Peng: En la actualidad, la IA es también el tema más candente en Silicon Valley. Muchos empresarios piensan en la innovación empresarial con modelos grandes como núcleo. ¿Tiene KK alguna observación sobre esto? **
Kevin Kelly: Esto me recuerda los primeros días de Internet. Cuando apareció Internet por primera vez, de repente todas las empresas se dieron cuenta de que tenían que ponerse en Internet. Y ahora, todas las empresas aprovechan la interfaz conversacional de la IA mediante la introducción de grandes modelos de lenguaje e inteligencia artificial para realizar negocios. Un ejemplo es Wendy's, una hamburguesería de comida rápida de moda que ahora utiliza una interfaz conversacional, lo que permite a los clientes pedir comida en el automóvil y hablar con una máquina.
Más allá de eso, hay algunos servicios e ideas completamente nuevos que aún no han surgido. No sé los números exactos, pero lo que sí sé con seguridad es que cientos de miles de millones de dólares están fluyendo hacia este espacio en este momento. La mayoría de las veces, la mayoría de ellos probablemente no tendrán éxito, pero muchos de ellos sí lo tendrán. Vamos a ver algunas cosas bastante asombrosas en los próximos tres años, y algunas compañías completamente nuevas que podrían crecer mucho.
**Zhang Peng: En los últimos 5.000 días, KK ha hecho muchas predicciones correctas y tiene una comprensión prospectiva de muchas direcciones importantes. Recientemente, predijiste que los próximos 5000 días serán uno de los períodos más críticos de la historia humana. ¿Dónde está la clave de este nodo? ¿En qué dirección conducirá la humanidad a la encrucijada? **
Kevin Kelly: Hay muchas otras cosas sucediendo en el mundo además de la inteligencia artificial. Nos enfrentamos al desafío del cambio climático, la ingeniería genética está en el horizonte, es fácil imaginar que la inteligencia artificial es degradante, es fácil ver que la vigilancia se vuelve omnipresente y perdemos el control. Enfrentamos muchos desafíos y oportunidades a escala global.
**Este es un período de transición estrecho y urgente, y debemos superarlo. **Creo que podemos acceder a este estrecho portal a través de la electrificación, los vehículos eléctricos, las energías alternativas y el éxito en el desarrollo de una nueva vacuna corona. En la actualidad, todavía hay muchas tensiones y divisiones políticas en el planeta, pero necesitamos una acción colectiva, y necesitamos llegar a un consenso en los campos de la tecnología, el medio ambiente, etc., y trabajar juntos para resolver problemas.
**Esta es la primera vez en la Tierra que surgen culturas globales, economías globales e impactos ambientales globales. Esta es también nuestra oportunidad de convertirnos en una civilización más global en los próximos 5000 días. **
Li Zhifei: KK dijo que en los próximos 5000 días, el mundo tendrá muchos otros desafíos además de la IA. Creo que los próximos 365 días también son muy importantes desde la perspectiva de la IA. AI ha pasado por muchas rondas, cada vez que la gente tiene grandes expectativas, pero no funciona, y luego la gente espera valores altos, y no funciona de nuevo. Creo que si la ola de AGI de hoy será algo que la gente de la industria considere increíble, o si se convertirá en algo muy importante en la sociedad, depende en gran medida de los próximos 365 días.
Incluyendo cómo desarrollar el modelo grande, ¿cuanto más grande mejor, o debemos agregar multimodalidad, o debemos agregar soluciones, etc.? Incluyendo mirar la tasa de penetración. En la actualidad, menos del 5% de las personas en el mundo pueden haber usado ChatGPT. ¿Cómo podemos aumentar la tasa de penetración del 5% al 20%? Incluyendo la regulación, ¿cómo deberían los humanos lidiar con el impacto de la IA en la sociedad? También incluye IA además de aplicarse a industrias como Internet, ¿cómo debería implementarse en industrias tradicionales como atención médica, automóviles y finanzas? etc.
Creo que la gente puede tardar al menos un año en hacer varios intentos antes de poder tener un juicio más claro.
03 Los humanos promedio no son nobles, queremos que la IA sea mejor que los humanos promedio
**Zhang Peng: En muchos casos, los humanos tienden a confiar en la tecnología. Por ejemplo, alguien dormirá en un auto sin conductor y provocará un accidente. ¿Es esta sutil confianza en la tecnología avanzada un hábito humano? ¿Cuáles son las consecuencias? **
Kevin Kelly: Los autos sin conductor no son perfectos, pero aun así son mejores que los humanos para conducir. ¿Podemos confiar en la inteligencia artificial? En conversaciones con chatbots, descubrimos que sus respuestas no eran precisas, por lo que no podíamos confiar plenamente en ellos. Pero creo que vamos a empezar a abordar eso pronto.
En estos días, la mayoría de la gente confía en sus calculadoras. Le das números, te da respuestas y confías completamente en él. Entonces sabemos que la máquina es confiable, y eso es algo en lo que se puede trabajar para mejorar. ** Y sesgos sobre la IA porque están entrenados en humanos promedio que son racistas, sexistas, maliciosos, no son nobles. De hecho, queremos que nuestra IA sea mejor que la de los humanos. **
Al igual que una calculadora es mejor que un humano promedio, debe confiar más en las respuestas que le da la calculadora que el humano promedio. **La confianza es algo en lo que debemos enfocarnos y trabajar, aunque hay muchos desafíos, pero al final creo que confiaremos mucho en la inteligencia artificial y las máquinas. **
**Zhang Peng: Recientemente, muchas personas en los Estados Unidos creen que el desarrollo de la IA es demasiado rápido y que deberían reducir la velocidad o incluso detenerse y pensar en ello. ¿Estás de acuerdo con esta idea? **
Kevin Kelly: No, no lo apoyo. Creo que esto es engañoso, engañoso e innecesario. No creo que sea realmente posible, ni aconsejable.
**Zhang Peng: En la mayoría de las películas de ciencia ficción o novelas de seres humanos, la IA es un personaje relativamente sombrío. ¿Se debe a que los seres humanos carecen de imaginación o tenemos demasiadas imaginaciones incorrectas? **
**Kevin Kelly: Hollywood siempre ha retratado la inteligencia artificial como distópica, horrible e indeseable, lo que creo que es falta de imaginación. Porque es una ley del universo que es mucho más fácil imaginar cómo fallará algo que cómo tendrá éxito. **Honestamente, es difícil para la gente imaginar un mundo maravilloso dentro de 100 años donde la IA sea omnipresente, barata y beneficiosa para la humanidad, aunque ese es el mundo en el que queremos vivir.
Además, esos estudios son muy buenos para contar historias, y los elementos de una gran historia son el conflicto, el desastre y algunos elementos fuertes. Ya sean guerras, huracanes o inteligencia artificial tratando de destruir el mundo. Por lo tanto, es poco probable que veamos una visión color de rosa de la inteligencia artificial en una película de Hollywood porque no contribuye a la historia, aunque la posibilidad existe, pero es muy pequeña.
Por lo tanto, no podemos mirar la inteligencia artificial a través de la impresión de Hollywood (películas). Desafortunadamente, eso es lo que mucha gente hace. Cuando se trata de inteligencia artificial, piensan en "Terminator", "2001 Space Odyssey" y "HER".
Li Zhifei: Creo que toda desconfianza se debe a la ignorancia. Cuando nos enfrentamos a la nueva especie de AGI, no entiendo cómo emergen sus capacidades, qué quiere y qué puede hacer, ese es el tema central.
Creo que lo que los humanos pueden hacer, por un lado, es entender más AGI y, por otro lado, aprender a dejar que AGI se explique claramente. Por ejemplo, cuando te da una respuesta, dejas que hable sobre el proceso de trabajo interno y el monólogo interno. Esto puede crear un sentido más fuerte de confianza. **
**Zhang Peng: Para KK, parece que el "Tao Te Ching" de Lao Tzu te ha inspirado mucho. Mencionaste que "el nivel más alto de control está fuera de control, y el nivel más bajo de control es controlarlo todo". ¿Qué opina del reciente aumento en la regulación gubernamental y tecnológica de la IA? **
Kevin Kelly: No creo que la regulación actual sea buena. Por supuesto, la regulación es importante y necesaria, es necesaria para garantizar que las cosas funcionen sin problemas, mantener la igualdad de condiciones y garantizar la seguridad. Pero la regulación prematura da miedo. El problema en este momento es que tratamos de regular algo que no conocemos muy bien, y eso suele llevar al desastre.
Li Zhifei:¿Por qué hay supervisión? Fundamentalmente, son las personas las que se preocupan de que el impacto negativo de AGI supere al positivo, que sea demasiado capaz y socialmente inaceptable. Pero en esta etapa, este juicio es incorrecto. Porque hoy, el impacto positivo de AGI debe ser mayor que su impacto negativo.
En segundo lugar, el problema real con AGI hoy en día es que no es lo suficientemente potente. Incluyendo la capacidad de planificación, la capacidad de integrarse con el mundo físico, la capacidad de autoevolucionar, etc. Aunque hemos visto esperanza, todavía está muy lejos de la realización real. Puede que nunca lleguemos allí.
Así que mi punto es, **No podemos simplemente ver la tendencia AGI y luego aumentar drásticamente la regulación. Esto puede permitirnos matar AGI incluso antes de que lo logremos. Definitivamente se necesita supervisión, pero no se debe regular en exceso. **
**Zhang Peng: Se ha hablado de la inteligencia artificial durante muchos años y ahora parece que está entrando en una nueva era. Si la IA realmente tiene la oportunidad de convertirse en una forma de vida con una inteligencia superior a la de los seres humanos en el futuro, ¿deberíamos integrarlos en la civilización humana o ponerlos bajo control humano? ¿De qué manera puede realmente mejorar la civilización humana? **
**Kevin Kelly: Creo que hay un marco muy útil para comprender la inteligencia artificial (IA) del futuro, no la IA de hoy, ya que se compara con la IA de los próximos 30, 50 o 100 años. Eso no es lo suficientemente complicado, eso es tratarlo como un extraterrestre artificial de otro planeta. **
Mucha IA será una especie que nunca antes habíamos visto, pensando de manera diferente a los humanos. Serán tan inteligentes como Yoda (el personaje virtual de "Star Wars") o Spock (el personaje virtual de "Star Trek"), e incluso superarán a los humanos en algunos aspectos. Crearíamos muchos tipos diferentes de extraterrestres artificiales, los respetaríamos y usaríamos sus diferentes inteligencias para ayudarnos a resolver problemas difíciles, como descubrir qué es realmente la gravedad cuántica.
Pero no les entregaremos el control. Si no nos gusta su comportamiento, los devolvemos, los cerramos. Podemos quitarles su poder si creemos que han ganado demasiado poder. No queremos que la IA decida nuestro destino.
**Li Zhifei:**El AGI actual es como una mariposa.Después de obtener una gran cantidad de nutrientes de las larvas, completa su propia sublimación. Es equivalente a utilizar todo el conocimiento de Internet de los seres humanos en el pasado para completar su propia transformación. En el futuro, la IA definitivamente superará a los humanos en muchos aspectos. Creo que los seres humanos pueden ser los ancestros de la IA, y eso es bastante feliz.
KK dijo que tenemos que tratar a la IA como un extraterrestre, lo que suena más a control. **Creo que los humanos pueden sobrestimar demasiado sus habilidades o su coeficiente intelectual. Puedes imaginarte que, por ejemplo, dentro de otros 50 años, entre los 100 agentes más poderosos e influyentes del mundo, quizás solo 20 serán humanos y los 80 restantes serán IA. Entonces creo que, al final, los humanos y la IA deben ser fusión, no control. **
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Conversación con Kevin Kelly: Es demasiado pronto para regular la IA y debería permitir "fuera de control"
Diálogo: Zhang Peng, Li Zhifei Planificación: Wei Shijie, Li Shiyun
Hace treinta años, cuando Internet estaba en su infancia e incluso las computadoras personales eran raras, un escritor de tecnología comenzó su propia frontera itinerante de todos los ámbitos de la vida en ese momento. Hablando con algunas de las mentes más brillantes del mundo, vislumbró algo del futuro que culminaría en el tomo Fuera de control (1994). Hasta más de diez años después, cuando llegó la era de Internet móvil y los teléfonos inteligentes, la gente se sorprendió al descubrir que los últimos conceptos "interconexión de información global, sistemas distribuidos, moneda digital, computación en la nube, etc." habían sido predichos durante mucho tiempo por este libro.
El redactor técnico es Kevin Kelly, también conocido como KK. Es el fundador de la revista "Wired", observador de tecnología y "profeta". En 2010, se lanzó la versión china de "Fuera de control", y KK también comenzó una serie de visitas a China y gradualmente se familiarizó con el pueblo chino.
De pie en el nodo de hoy, la inteligencia artificial general (AGI) está brotando, y está a punto de comenzar una revolución de los tiempos, que se hace eco débilmente de la profecía del libro "Fuera de control". KK predijo en ese momento que los humanos eventualmente se unirían con las máquinas, "las máquinas se están volviendo biológicas y los organismos están siendo diseñados". En sus propias palabras, "Fuera de control" solo habla de una cosa, es decir, cómo construir un "sistema complejo": los robots, la inteligencia artificial (IA), etc. pueden considerarse sistemas complejos, y cree que esta idea todavía es aplicable hoy en día.
No hace mucho, tuvimos una conversación con KK junto con Li Zhifei, el fundador y director ejecutivo de la gran empresa emergente Going out to ask.
El primero es desde la perspectiva práctica de la tecnología y los negocios, mientras que el segundo es desde la perspectiva abstracta de los seres humanos, la historia e incluso el universo, discutiendo el surgimiento, el impacto y la amenaza de la inteligencia artificial. Esta es una discusión más bien "de ciencia ficción" e "imaginativa" en la que tratamos de "predecir" el futuro de los humanos y la inteligencia artificial nuevamente.
Ambos argumentan que, por primera vez en la historia de la humanidad, la inteligencia artificial actual ha adoptado formas similares a la vida. Li Zhifei dijo que la IA actual ya es equivalente al coeficiente intelectual de un niño humano y tiene capacidades reales de inteligencia general, como conocimiento, lógica, razonamiento y planificación. Y KK cree que como una "vida basada en silicio", la IA será tan adaptable como los humanos y podrá aprender y crecer por sí misma.
De manera muy similar, ambos adoptan el optimismo tecnológico. KK cree que la IA no hará que los humanos queden desempleados, solo hará que los humanos sean más eficientes y los liberará de trabajos "aborrecibles". La IA parece ampliar la brecha entre ricos y pobres, pero es más probable que logre equidad y justicia haciendo que el pastel sea más grande y mejor, como cada cambio tecnológico en la historia de la humanidad. En términos de impacto en los negocios, empoderará a las personas, a las pequeñas y medianas empresas y a las grandes empresas al mismo tiempo.
Como dice el nombre del libro "Fuera de control", Kevin Kelly cree que para obtener mejor el poder de la IA, los humanos deberían permitir que partes de la IA "se salgan de control". Después de todo, ChatGPT nació en un estado de "emergencia" fuera de control para los humanos. Tanto él como Li Zhifei creen que la inteligencia actual de la IA aún es inmadura, y que los humanos deberían continuar soltándose, en lugar de controlar (supervisar) de manera prematura y excesiva. Este último puede sofocar la innovación en su infancia.
Desde una perspectiva más amplia, si algún día la IA realmente se convierte en una súper forma de vida, ¿cómo deberían llevarse bien los humanos con ella?
Tanto la ciencia ficción como las películas pintan un futuro sombrío que a menudo termina con el despertar de la IA para matar humanos. Pero Kevin Kelly cree que esta es una manifestación de la falta de imaginación humana. El fracaso siempre es más fácil de imaginar que el éxito, y también es tentador para las historias. En cuanto al futuro, no es difícil imaginar los beneficios y el valor de la inteligencia artificial.
Su sugerencia es que la IA puede ser considerada como un "alienígena artificial", y los seres humanos podrán usar la sabiduría de la IA para resolver sus propios problemas y lograr un cierto grado de "control". Li Zhifei cree que, como "ancestro" de la IA, los humanos eventualmente se fusionarán con la IA en lugar de controlarla.
En cuanto a si esta profecía será cierta, depende del mundo después de 5000 días.
El siguiente es el texto completo de la conversación:
01 Incluso si OpenAI no hizo ChatGPT, otras compañías pronto lo harán
**Zhang Peng: Independientemente de China o Estados Unidos, la gente está discutiendo modelos grandes recientemente. ¿Cómo te sientes con esta ola de cambio tecnológico en modelos grandes? ¿Te sentirás muy conmocionado? **
Kevin Kelly: La inteligencia artificial (IA) existe desde hace décadas. Se produjo un gran avance cuando los modelos de IA comenzaron a emplear redes neuronales y aprendizaje profundo, y se hicieron cada vez más grandes. Hace unos 4 o 5 años, comenzó a producir modelos de transformadores muy grandes (modelos de aprendizaje profundo con mecanismo de autoatención). En los últimos dos años, ha comenzado a interactuar con grandes modelos de lenguaje.
De hecho, recientemente, el gran cambio en la IA no es su capacidad, y su desempeño en este sentido no es mucho mejor. **Lo que realmente ha cambiado en la IA últimamente es que nos permite tener una interfaz de usuario conversacional que realmente puede comunicarse con la IA en lenguaje (natural). Antes de eso, las personas necesitaban aprender muchos conocimientos de programación y ser muy competentes para usar la IA. Pero ahora, de repente, todo el mundo está usando IA. Esa es la parte realmente emocionante. **
Li Zhifei: Estoy de acuerdo con lo que dijo KK, el cambio principal en el modelo de lenguaje grande actual es la mejora de las capacidades de interacción del lenguaje natural. De hecho, esto es lo que mucha gente común puede sentir, y es precisamente por eso que ChatGPT tiene una influencia social tan grande en la actualidad.
Pero creo que también hay mucha variación en las capacidades de los modelos grandes hoy en día, y es esa variación la que hace posible su interacción natural. Porque detrás de la realización de la interacción natural, la IA debe tener un conocimiento sólido, capacidad de comprensión, capacidad de lenguaje, capacidad de razonamiento y planificación, etc. La IA debe tener un gran avance en estas capacidades básicas para lograr una interacción de lenguaje natural.
Y creo que la capacidad de los modelos grandes en el futuro no será solo la interacción del lenguaje natural. Cosas como la escritura de programas, los procesos de automatización empresarial y la automatización de robots no son interactivos, pero serán posibles en el futuro.
**Zhang Peng: Estoy muy de acuerdo en que la capacidad de la IA para comunicarse mejor con los humanos provocará un cambio de paradigma en la tecnología y los negocios. Si ChatGPT es la segunda curva del desarrollo de la IA, ¿su aparición es inevitable o accidental? **
**Kevin Kelly:**ChatGPT es capaz de superar todas las expectativas. **No creo que nadie esperara esto, incluidas las personas en el campo de la IA. De hecho, la mayoría de los investigadores no saben cómo funciona ChatGPT e intentan mejorarlo, pero es difícil porque no saben cómo funciona. Por lo tanto, la aparición de ChatGPT fue un accidente. **
Aunque ChatGPT es muy sorprendente, también vemos sus limitaciones. **Su principal limitación es que el modelo se entrenó en contenido promedio creado por humanos, por lo que tiende a producir resultados promedio. Y lo que a menudo queremos no es el promedio, sino algo por encima del promedio. ** Esto es difícil de hacer.
En segundo lugar, estos modelos están optimizados para la plausibilidad, no para la precisión. Por lo tanto, cómo hacerlos más precisos es un gran desafío al que todos se enfrentan actualmente.
Li Zhifei: Creo que la aparición de ChatGPT es accidental a corto plazo, pero inevitable a largo plazo. Se puede decir que fue accidental que OpenAI hiciera ChatGPT a fines del año pasado, pero incluso si no lo hizo, otras compañías lo harán pronto. **
Esto se ha repetido innumerables veces en la historia de la tecnología. Tomando como ejemplo el aprendizaje profundo, AlexNet fue el primero en hacer anotaciones de imágenes en 2012, pero en ese momento muchos equipos con fuertes creencias y capacidades de ingeniería también lo estaban haciendo. Si AlexNet no lo lograba, otros lo harían. Además, Google hizo un transformador en 2017 para solucionar los problemas de baja escalabilidad de los modelos de secuencias como RNN y LSTM, si no lo hacía Google, lo harían otros equipos.
**El trasfondo del nacimiento de ChatGPT es que el transformador ya está muy maduro y tenemos un gran poder de cómputo para entrenar los datos masivos de Internet. Todos los elementos necesarios de ChatGPT ya están disponibles y su nacimiento es inevitable. ** Es solo que OpenAI lo armó mejor en ese momento.
**Zhang Peng: Al hablar de inevitabilidad y contingencia, pensé en una palabra que ha sido muy popular recientemente, "emergencia". Esta palabra ha aparecido al menos 88 veces en "Out of Control" de KK ¿Cómo debemos entender el significado de esta palabra hoy? **
Kevin Kelly: Desde un punto de vista inglés, "emergencia" es un término que se refiere al comportamiento de un sistema, un montón de cosas interconectadas, como Internet, robots, cuerpos, ecosistemas o incluso El mundo, cuyo comportamiento no está contenido en el comportamiento de una sola parte. Por ejemplo, una colmena puede recordar cosas más allá de la vida de una sola abeja, por lo que la colmena en sí tiene un comportamiento, una capacidad y un poder que las partes individuales no tienen. A esto lo llamamos "emergencia".
Asimismo, gran parte de la IA que se está generando también es “emergente”. Debido a que no hay un solo lugar en el modelo que explique de dónde vino, se necesitan todas las partes para trabajar juntas para producir esta nueva capacidad. Así como no hay un "pensamiento" en nuestro cerebro, el "pensamiento" "emerge" de toda la neurona. **Cosas como el pensamiento, la evolución y el aprendizaje pueden "emergir" del sistema.
**Li Zhifei:**Mi comprensión de "emergencia" proviene del libro "Complejidad", que habla sobre "más es diferente" y "más es diferente". Al igual que un viejo dicho chino, "el cambio cuantitativo conduce al cambio cualitativo". La primera vez que la gran modelo habló de "emergencia" fue un artículo publicado por Stanford y Google a fines del año pasado. Descubrieron a través de experimentos que al aumentar el tamaño del modelo grande, cuando se alcanzaba un cierto punto crítico, repentinamente "emergía" en cierta capacidad.
Ahora siento que la palabra "emergencia" en realidad se usa en exceso. Como no podemos explicar cómo surge la habilidad del modelo grande, lo llamamos "emergencia". Esta palabra no se puede explicar ni manipular, y no nos ayuda a entrenar y aplicar el modelo grande. Ahora, ya no todos están estudiando "emergencia", sino más investigaciones sobre la relación cuantitativa entre la cantidad de parámetros del modelo grande y el rendimiento final, lo que puede ser más útil para comprender y controlar el modelo grande.
**Zhang Peng: ¿Podemos entender que la "emergencia" conducirá a la "pérdida de control"? **
Kevin Kelly: Este entendimiento no es del todo correcto. Por supuesto, tendrá "partes fuera de control", si desea poder usar el poder del comportamiento de "emergencia", es posible que deba tolerar algunas cosas fuera de su control. Nuestra comprensión y control de ella puede no ser lo suficientemente bueno en IA en este momento, pero en realidad es necesario para obtener resultados óptimos.
Pero al mismo tiempo, no podemos dejar que todo se “salga de control”, debemos llevar a cabo un cierto grado de “control”, es decir, guiar y manejar la inteligencia artificial. ** Nuevamente, no queremos ser demasiado restrictivos, pero se debe lograr cierto nivel de control. Sin embargo, es probable que nunca tengamos control total sobre ellos**, especialmente con inteligencias artificiales más poderosas, es probable que nunca comprendamos completamente cómo funcionan. Esa es la compensación.
**Zhang Peng: Han pasado muchos años desde que escribiste el libro "Fuera de control". En este momento actual, combinado con esta ola de revolución de IA, ¿crees que hay alguna parte de "Fuera de control" que valga la pena? recalibrando? **
Kevin Kelly: No creo que hablé demasiado sobre inteligencia artificial y fuera de control en el libro "Fuera de control", en realidad hablaba principalmente sobre cómo convertir cosas simples en cosas complejas. Hay algo llamado arquitectura de subsistema de Rodney Brooks, que menciona que puedes hacer un robot complejo incrustando partes de inteligencia en él. El proceso que conduce a la complejidad consiste en superponer cosas sobre cosas que ya están funcionando. (La teoría arquitectónica de Brooks propone que el comportamiento de nivel superior debe contener el comportamiento de nivel inferior).
**Como un insecto, incluso si le cortas la cabeza, aún puede caminar, porque la función de caminar se completa más parcialmente. Al igual que nuestro cerebro tiene un núcleo responsable de la respiración y otras funciones autónomas, agregamos más capas de complejidad encima. Esta idea sigue siendo válida hoy en día, cuando las personas fabrican robots e inteligencia artificial y tratan de hacerlos más complejos. **Esto es realmente lo único de lo que hablo en "Fuera de control" y creo que el punto sigue en pie.
**Zhang Peng: Recuerdo que antes tenías una perspectiva interesante, es decir, "asumiendo que la tecnología es un tipo de vida", cuando emerge con una inteligencia cercana a los seres humanos, ¿qué querrá después? ¿Cómo afectará esto al mundo de los negocios ya la sociedad humana? **
**Kevin Kelly:**La tecnología es lo que yo llamo el "séptimo reino de la vida". Hemos acelerado la evolución de la vida hacia un reino "seco" que ya no necesita un entorno "húmedo", sino que puede existir en silicio. Podemos usar nuestras mentes para crear otras tecnologías similares a la vida. Son adaptables y pueden aprender y crecer.
Mi punto es que la tecnología persigue básicamente las mismas cosas que la vida. Por ejemplo, aumentarían en diversidad a medida que evolucionaran, y también se volverían más especializados y específicos. Nuestro cuerpo tiene 52 tipos diferentes de células, incluidas las células del corazón, las células óseas y las células óseas. También crearemos IA especializadas que realicen tareas específicas como la traducción de idiomas, la generación de imágenes y la conducción autónoma. **Además, la tecnología se volverá más compleja como la vida, lo cual es obvio.
Al final, la tecnología también será "mutuamente beneficiosa y simbiótica" como la vida. La vida evolucionó de manera tan compleja que solo entró en contacto con otra vida, nunca con material no vivo. Como las bacterias en tu intestino. Están rodeados únicamente por otras células vivas. ** En el futuro, también habrá algunas IA que no están diseñadas para humanos, pero están diseñadas para servir a otras IA. Por ejemplo, habrá IA dedicadas a mantener otras IA, IA que solo se comunican con otras IA. **
**Li Zhifei:**Quiero explicar la relación entre la IA y la vida desde la perspectiva de un ingeniero. Hace algunos años, mucha gente siempre me preguntaba: "¿Cuántos años tiene el coeficiente intelectual de Alphago (el primer programa de computadora que derrotó al campeón mundial de Go)?" En ese momento, no me gustaban este tipo de preguntas porque no podía No respondas. En ese momento, aunque AI podía jugar Go y tenía un alto coeficiente intelectual, no podía realizar conversaciones en lenguaje natural como un niño de 3 años. En ese momento, su mecanismo era fundamentalmente diferente al de los seres humanos.
Pero en estos días, me gusta especialmente comparar la IA con un niño. Creo que el núcleo se debe a que la IA actual ya posee las verdaderas capacidades de inteligencia general que tienen los niños, como el conocimiento, la lógica, el razonamiento, la planificación, etc. **Entonces quiero decir que la IA de hoy es más como un cuerpo vivo. Tiene el coeficiente intelectual de un niño de 5 años y el conocimiento de un profesor universitario, así como el de un bebé recién nacido, dependiendo de si ha visto los datos. **
Sobre la base de este entendimiento, creo que debemos repensar lo que la IA realmente quiere. Para un niño de 5 años, primero se purificará a sí mismo, seguido de la autorreplicación y la colaboración. Yo mismo no tengo una buena respuesta a esta pregunta.
02 En los próximos 5000 días, pasaremos por un estrecho y urgente período de transición
**Zhang Peng: cuando las capacidades de la IA crecen rápidamente, muchas personas comunes se sienten ansiosas y temen perder su competitividad. ¿Tiene KK alguna idea o sugerencia sobre este tema? **
**Kevin Kelly:**Aunque la tecnología de IA ha estado en desarrollo durante 20 años, las personas sienten que es un éxito de la noche a la mañana y están ansiosos por su tasa de crecimiento y capacidades. **Siempre somos propensos a imaginar los peores escenarios en lugar de los mejores escenarios. Creo que una forma de lidiar con la ansiedad por el cambio es mirar hacia atrás. De hecho, los humanos han tenido este tipo de ansiedad en el pasado, pero nunca en el peor de los casos que imaginamos. Es probable que sea lo mismo esta vez. **
La mejor manera que he encontrado para lidiar con mis ansiedades es tratar de usarlas. Encuentro que la mayor parte de la ansiedad proviene de aquellos que no han usado IA y mantienen una sensación de distancia de la IA. De hecho, una vez que comiencen a probarlo y usarlo, verán que la IA tiene beneficios, limitaciones y daños. Esto reducirá su ansiedad.
Li Zhifei: Si AGI no sucede hoy, sucederá mañana. Como es imparable, debes aceptarlo y comprenderlo. Para mí en este momento, AGI es un socio pensante. Hablaré con él sobre muchos problemas, su conocimiento es muy completo y me puede dar consejos desde una perspectiva amplia y completa. Creo que esta puede ser una buena forma de IA que abraza a los humanos.
Al mismo tiempo, podemos ver que los modelos grandes de hoy todavía carecen de algunas capacidades críticas del AGI real. Por ejemplo, la capacidad de razonamiento lógico y la planificación de tareas complejas. Si desea que la IA desmonte los pasos y logre el objetivo en función de un objetivo determinado, no es tan bueno en este momento.
**Zhang Peng: KK también es un creador de contenido. ¿Cuál crees que es el valor final de los creadores que no pueden ser reemplazados por la IA en la era de la IA? **
Kevin Kelly: He usado inteligencia artificial y otras herramientas en mi escritura. No creo que nadie pierda su trabajo debido a la IA. **Porque no puedo encontrar un solo ejemplo en el que un artista haya perdido su trabajo debido a la IA. Es un miedo imaginado, un problema que no existe. El empleo es probablemente el problema menos grave asociado con la IA. **
Lo que estoy tratando de decir es que lo que se ha ido puede ser la descripción de su trabajo, que es lo que realmente hace, puede cambiar. ** Algunas personas han observado que la IA puede realizar el 50 % de su trabajo, mientras que la IA aumenta y amplifica el otro 50 %. **Entonces, en el futuro, es posible que la mitad del trabajo ya no necesite que las personas lo hagan, y las personas pueden hacer mejor el 50% restante del trabajo. Este suele ser el patrón que veremos.
**Por supuesto, ciertos tipos de trabajos desaparecen, como ordenar comida y contar dinero como cajero. No queremos que los humanos hagan estos trabajos, por lo que definitivamente desaparecerán y deberían desaparecer. **
**Zhang Peng: ¿Cómo evalúa la competitividad de jóvenes y mayores en la era de la IA? **
Kevin Kelly: Las personas mayores tienen muchas ventajas, están bien informadas y tienen experiencia. Los jóvenes también tienen muchas ventajas porque no saben lo que es imposible. No creo que nadie sea más competitivo que quién.
Diría que los jóvenes de hoy a menudo hablan de ser nativos digitales y de tener una ventaja sobre la tecnología. Pero debido al rápido desarrollo de la inteligencia artificial y otras cosas, los jóvenes pueden ser aborígenes ayer y ser como "ancianos" mañana. Tanto si eres joven como si eres mayor, todo el mundo es un "novato" en la nueva era y debe seguir aprendiendo cosas nuevas rápidamente a lo largo de su vida.
**Zhang Peng: Con un dominio diferente de la tecnología de IA, ¿producirá esto cambios en la brecha entre ricos y pobres? Es decir, ¿las personas que utilizarán IA en el futuro serán más productivas y más capaces de competir? **
Kevin Kelly: Sí, la brecha de riqueza se ampliará. **Creo que con el tiempo, tu capacidad para trabajar con inteligencia artificial puede ser más importante que si vas o no a la universidad. Quizás el propósito de la universidad sea enseñarte a trabajar con inteligencia artificial. Para los muy ambiciosos, si aprenden a usar la inteligencia artificial, su salario marcará una gran diferencia. **
Sin embargo, a medida que la IA se extienda por todo el mundo, en el futuro lograremos la igualdad de acceso a la IA a nivel mundial, al igual que la igualdad de acceso a la educación. Conozco amigos que dirigen grandes empresas en los EE. UU. y contratan empleados que trabajan de forma remota, siempre que puedan, sin importar los antecedentes. Por lo tanto, a muchas personas que trabajan en América del Sur y África se les pagará de acuerdo con los estándares salariales estadounidenses. Ganarán más dinero de lo que harían de otra manera.
**Zhang Peng: El rápido desarrollo de la tecnología puede traer inequidad e injusticia en el campo social. ¿Cómo debemos lograr un equilibrio entre el desarrollo y la equidad y la justicia? **
Kevin Kelly: Creo que podemos lograr un equilibrio entre el progreso y la equidad. De hecho, creo que una gran parte del progreso es repartir la equidad.
En comparación con hace cientos de años, el mundo era muy injusto. Nacías esclavo, siervo o campesino, y no había posibilidad de ir más allá de eso. Pero gracias al progreso, ahora tenemos un mundo más igualitario y justo. Creo que el desarrollo de la tecnología puede aumentar la equidad, aunque no se realice, es posible.
**Li Zhifei:**Desde la perspectiva de un ingeniero,**si miras la equidad desde el punto final y esperas que todos tengan el mismo nivel de riqueza y habilidad, entonces esto definitivamente conducirá a más y más injusticia. Pero si observa la equidad desde un punto de partida, como hacer que las herramientas de inteligencia artificial estén disponibles para todos, esto puede ser mejor para lograr la equidad. **
**Zhang Peng: Ahora vemos que en algunas empresas, como Midjourney, una empresa gráfica de Vincent, una docena de personas pueden generar un ingreso anual de cientos de millones de dólares. ¿Podemos entender que la IA ha cambiado fundamentalmente la productividad? ¿Las futuras empresas se volverán más pequeñas y ágiles como resultado? **
Kevin Kelly: El increíble poder que ahora poseen Internet y la inteligencia artificial puede empoderar simultáneamente a individuos, medianas empresas y grandes corporaciones. Hace que sea más fácil para un individuo ser propietario de una empresa, por lo que veremos muchas empresas nuevas que son solo IA más algunas personas. Pero al mismo tiempo, también hemos visto cómo algunas empresas se hacen más grandes debido a la existencia de la inteligencia artificial, e incluso aumentan el tamaño de un millón de personas.
**Así que no vamos a entrar repentinamente en un mundo de empresas con solo una o dos personas, eso no va a suceder. Al mismo tiempo, no solo beneficiaremos a las grandes empresas. Esa es la belleza de la IA, puede beneficiar y empoderar a todos. **
Li Zhifei: Creo que el efecto de cola larga y el efecto Matthew se volverán cada vez más evidentes.
Por un lado, la cola será cada vez más larga y aparecerán cada vez más pequeñas empresas, que se convertirán en un sistema completo por sí mismas. Por otro lado, cuando una gran empresa tiene fuertes capacidades de IA, su poder organizativo será más fuerte. Antes solo podía organizar a 1.000 personas, pero ahora puede organizar a 10.000, 100.000 o 1 millón de personas. Por ejemplo, la industria de entrega de alimentos de China se basa en un conjunto completo de sistemas de automatización para organizar un gran grupo de pasajeros.
**Zhang Peng: En la actualidad, la IA es también el tema más candente en Silicon Valley. Muchos empresarios piensan en la innovación empresarial con modelos grandes como núcleo. ¿Tiene KK alguna observación sobre esto? **
Kevin Kelly: Esto me recuerda los primeros días de Internet. Cuando apareció Internet por primera vez, de repente todas las empresas se dieron cuenta de que tenían que ponerse en Internet. Y ahora, todas las empresas aprovechan la interfaz conversacional de la IA mediante la introducción de grandes modelos de lenguaje e inteligencia artificial para realizar negocios. Un ejemplo es Wendy's, una hamburguesería de comida rápida de moda que ahora utiliza una interfaz conversacional, lo que permite a los clientes pedir comida en el automóvil y hablar con una máquina.
Más allá de eso, hay algunos servicios e ideas completamente nuevos que aún no han surgido. No sé los números exactos, pero lo que sí sé con seguridad es que cientos de miles de millones de dólares están fluyendo hacia este espacio en este momento. La mayoría de las veces, la mayoría de ellos probablemente no tendrán éxito, pero muchos de ellos sí lo tendrán. Vamos a ver algunas cosas bastante asombrosas en los próximos tres años, y algunas compañías completamente nuevas que podrían crecer mucho.
**Zhang Peng: En los últimos 5.000 días, KK ha hecho muchas predicciones correctas y tiene una comprensión prospectiva de muchas direcciones importantes. Recientemente, predijiste que los próximos 5000 días serán uno de los períodos más críticos de la historia humana. ¿Dónde está la clave de este nodo? ¿En qué dirección conducirá la humanidad a la encrucijada? **
Kevin Kelly: Hay muchas otras cosas sucediendo en el mundo además de la inteligencia artificial. Nos enfrentamos al desafío del cambio climático, la ingeniería genética está en el horizonte, es fácil imaginar que la inteligencia artificial es degradante, es fácil ver que la vigilancia se vuelve omnipresente y perdemos el control. Enfrentamos muchos desafíos y oportunidades a escala global.
**Este es un período de transición estrecho y urgente, y debemos superarlo. **Creo que podemos acceder a este estrecho portal a través de la electrificación, los vehículos eléctricos, las energías alternativas y el éxito en el desarrollo de una nueva vacuna corona. En la actualidad, todavía hay muchas tensiones y divisiones políticas en el planeta, pero necesitamos una acción colectiva, y necesitamos llegar a un consenso en los campos de la tecnología, el medio ambiente, etc., y trabajar juntos para resolver problemas.
**Esta es la primera vez en la Tierra que surgen culturas globales, economías globales e impactos ambientales globales. Esta es también nuestra oportunidad de convertirnos en una civilización más global en los próximos 5000 días. **
Li Zhifei: KK dijo que en los próximos 5000 días, el mundo tendrá muchos otros desafíos además de la IA. Creo que los próximos 365 días también son muy importantes desde la perspectiva de la IA. AI ha pasado por muchas rondas, cada vez que la gente tiene grandes expectativas, pero no funciona, y luego la gente espera valores altos, y no funciona de nuevo. Creo que si la ola de AGI de hoy será algo que la gente de la industria considere increíble, o si se convertirá en algo muy importante en la sociedad, depende en gran medida de los próximos 365 días.
Incluyendo cómo desarrollar el modelo grande, ¿cuanto más grande mejor, o debemos agregar multimodalidad, o debemos agregar soluciones, etc.? Incluyendo mirar la tasa de penetración. En la actualidad, menos del 5% de las personas en el mundo pueden haber usado ChatGPT. ¿Cómo podemos aumentar la tasa de penetración del 5% al 20%? Incluyendo la regulación, ¿cómo deberían los humanos lidiar con el impacto de la IA en la sociedad? También incluye IA además de aplicarse a industrias como Internet, ¿cómo debería implementarse en industrias tradicionales como atención médica, automóviles y finanzas? etc.
Creo que la gente puede tardar al menos un año en hacer varios intentos antes de poder tener un juicio más claro.
03 Los humanos promedio no son nobles, queremos que la IA sea mejor que los humanos promedio
**Zhang Peng: En muchos casos, los humanos tienden a confiar en la tecnología. Por ejemplo, alguien dormirá en un auto sin conductor y provocará un accidente. ¿Es esta sutil confianza en la tecnología avanzada un hábito humano? ¿Cuáles son las consecuencias? **
Kevin Kelly: Los autos sin conductor no son perfectos, pero aun así son mejores que los humanos para conducir. ¿Podemos confiar en la inteligencia artificial? En conversaciones con chatbots, descubrimos que sus respuestas no eran precisas, por lo que no podíamos confiar plenamente en ellos. Pero creo que vamos a empezar a abordar eso pronto.
En estos días, la mayoría de la gente confía en sus calculadoras. Le das números, te da respuestas y confías completamente en él. Entonces sabemos que la máquina es confiable, y eso es algo en lo que se puede trabajar para mejorar. ** Y sesgos sobre la IA porque están entrenados en humanos promedio que son racistas, sexistas, maliciosos, no son nobles. De hecho, queremos que nuestra IA sea mejor que la de los humanos. **
Al igual que una calculadora es mejor que un humano promedio, debe confiar más en las respuestas que le da la calculadora que el humano promedio. **La confianza es algo en lo que debemos enfocarnos y trabajar, aunque hay muchos desafíos, pero al final creo que confiaremos mucho en la inteligencia artificial y las máquinas. **
**Zhang Peng: Recientemente, muchas personas en los Estados Unidos creen que el desarrollo de la IA es demasiado rápido y que deberían reducir la velocidad o incluso detenerse y pensar en ello. ¿Estás de acuerdo con esta idea? **
Kevin Kelly: No, no lo apoyo. Creo que esto es engañoso, engañoso e innecesario. No creo que sea realmente posible, ni aconsejable.
**Zhang Peng: En la mayoría de las películas de ciencia ficción o novelas de seres humanos, la IA es un personaje relativamente sombrío. ¿Se debe a que los seres humanos carecen de imaginación o tenemos demasiadas imaginaciones incorrectas? **
**Kevin Kelly: Hollywood siempre ha retratado la inteligencia artificial como distópica, horrible e indeseable, lo que creo que es falta de imaginación. Porque es una ley del universo que es mucho más fácil imaginar cómo fallará algo que cómo tendrá éxito. **Honestamente, es difícil para la gente imaginar un mundo maravilloso dentro de 100 años donde la IA sea omnipresente, barata y beneficiosa para la humanidad, aunque ese es el mundo en el que queremos vivir.
Además, esos estudios son muy buenos para contar historias, y los elementos de una gran historia son el conflicto, el desastre y algunos elementos fuertes. Ya sean guerras, huracanes o inteligencia artificial tratando de destruir el mundo. Por lo tanto, es poco probable que veamos una visión color de rosa de la inteligencia artificial en una película de Hollywood porque no contribuye a la historia, aunque la posibilidad existe, pero es muy pequeña.
Por lo tanto, no podemos mirar la inteligencia artificial a través de la impresión de Hollywood (películas). Desafortunadamente, eso es lo que mucha gente hace. Cuando se trata de inteligencia artificial, piensan en "Terminator", "2001 Space Odyssey" y "HER".
Li Zhifei: Creo que toda desconfianza se debe a la ignorancia. Cuando nos enfrentamos a la nueva especie de AGI, no entiendo cómo emergen sus capacidades, qué quiere y qué puede hacer, ese es el tema central.
Creo que lo que los humanos pueden hacer, por un lado, es entender más AGI y, por otro lado, aprender a dejar que AGI se explique claramente. Por ejemplo, cuando te da una respuesta, dejas que hable sobre el proceso de trabajo interno y el monólogo interno. Esto puede crear un sentido más fuerte de confianza. **
**Zhang Peng: Para KK, parece que el "Tao Te Ching" de Lao Tzu te ha inspirado mucho. Mencionaste que "el nivel más alto de control está fuera de control, y el nivel más bajo de control es controlarlo todo". ¿Qué opina del reciente aumento en la regulación gubernamental y tecnológica de la IA? **
Kevin Kelly: No creo que la regulación actual sea buena. Por supuesto, la regulación es importante y necesaria, es necesaria para garantizar que las cosas funcionen sin problemas, mantener la igualdad de condiciones y garantizar la seguridad. Pero la regulación prematura da miedo. El problema en este momento es que tratamos de regular algo que no conocemos muy bien, y eso suele llevar al desastre.
Li Zhifei:¿Por qué hay supervisión? Fundamentalmente, son las personas las que se preocupan de que el impacto negativo de AGI supere al positivo, que sea demasiado capaz y socialmente inaceptable. Pero en esta etapa, este juicio es incorrecto. Porque hoy, el impacto positivo de AGI debe ser mayor que su impacto negativo.
En segundo lugar, el problema real con AGI hoy en día es que no es lo suficientemente potente. Incluyendo la capacidad de planificación, la capacidad de integrarse con el mundo físico, la capacidad de autoevolucionar, etc. Aunque hemos visto esperanza, todavía está muy lejos de la realización real. Puede que nunca lleguemos allí.
Así que mi punto es, **No podemos simplemente ver la tendencia AGI y luego aumentar drásticamente la regulación. Esto puede permitirnos matar AGI incluso antes de que lo logremos. Definitivamente se necesita supervisión, pero no se debe regular en exceso. **
**Zhang Peng: Se ha hablado de la inteligencia artificial durante muchos años y ahora parece que está entrando en una nueva era. Si la IA realmente tiene la oportunidad de convertirse en una forma de vida con una inteligencia superior a la de los seres humanos en el futuro, ¿deberíamos integrarlos en la civilización humana o ponerlos bajo control humano? ¿De qué manera puede realmente mejorar la civilización humana? **
**Kevin Kelly: Creo que hay un marco muy útil para comprender la inteligencia artificial (IA) del futuro, no la IA de hoy, ya que se compara con la IA de los próximos 30, 50 o 100 años. Eso no es lo suficientemente complicado, eso es tratarlo como un extraterrestre artificial de otro planeta. **
Mucha IA será una especie que nunca antes habíamos visto, pensando de manera diferente a los humanos. Serán tan inteligentes como Yoda (el personaje virtual de "Star Wars") o Spock (el personaje virtual de "Star Trek"), e incluso superarán a los humanos en algunos aspectos. Crearíamos muchos tipos diferentes de extraterrestres artificiales, los respetaríamos y usaríamos sus diferentes inteligencias para ayudarnos a resolver problemas difíciles, como descubrir qué es realmente la gravedad cuántica.
Pero no les entregaremos el control. Si no nos gusta su comportamiento, los devolvemos, los cerramos. Podemos quitarles su poder si creemos que han ganado demasiado poder. No queremos que la IA decida nuestro destino.
**Li Zhifei:**El AGI actual es como una mariposa.Después de obtener una gran cantidad de nutrientes de las larvas, completa su propia sublimación. Es equivalente a utilizar todo el conocimiento de Internet de los seres humanos en el pasado para completar su propia transformación. En el futuro, la IA definitivamente superará a los humanos en muchos aspectos. Creo que los seres humanos pueden ser los ancestros de la IA, y eso es bastante feliz.
KK dijo que tenemos que tratar a la IA como un extraterrestre, lo que suena más a control. **Creo que los humanos pueden sobrestimar demasiado sus habilidades o su coeficiente intelectual. Puedes imaginarte que, por ejemplo, dentro de otros 50 años, entre los 100 agentes más poderosos e influyentes del mundo, quizás solo 20 serán humanos y los 80 restantes serán IA. Entonces creo que, al final, los humanos y la IA deben ser fusión, no control. **