Fuente de la imagen: Generada por la herramienta de IA Unbounded
El 22 de junio, hora local de Toronto, Yang Likun, el "padrino de la IA" y científico jefe de IA de Meta, apareció en el Debate de Munk y bombardeó ChatGPT nuevamente: "Dentro de cinco años, nadie usará ChatGPT". realmente no entiende el mundo real, solo entrenamiento de texto puro, "y la mayor parte del conocimiento humano no tiene nada que ver con el texto o el lenguaje".
Esta audaz predicción inmediatamente atrajo mucha atención.
El debate de Munk al que asistió Yang Likun también tuvo como tema "la inteligencia artificial plantea una amenaza existencial". Durante el debate, Yang Likun insistió en que "la predicción de fatalidad que trae la inteligencia artificial no es más que un nuevo oscurantismo".
Yang Likun cree que lo que preocupa a la gente es que una vez que se encienda la futura IA, se hará cargo del mundo en unos minutos, "esto es ridículo". Este miedo a la IA tiene sus raíces en la psicología humana y no tiene evidencia científica por el momento.
Yang Likun en la escena del debate
En cuanto a la "teoría de una amenaza", la discusión en Silicon Valley ha sido acalorada y no se ha llegado a un consenso. Este debate es una continuación de este tema, y no despertó demasiado ruido en Internet. Curiosamente, el breve video de Yang Likun criticando a ChatGPT durante el debate se convirtió en un tema candente en las redes sociales nacionales.
Esta no es la primera vez que Yang Likun se queja de ChatGPT. En la conferencia Viva Tech en París a mediados de junio, Yang Likun creía que la IA como ChatGPT no es tan inteligente como un perro. En abril, dijo en una transmisión en vivo que ChatGPT no es una investigación y desarrollo real en el campo de la IA, "es un producto".
Sus dudas sobre ChatGPT parten primero de que no hay una innovación especial a nivel técnico, la razón es que otras empresas tienen tecnologías similares, OpenAI no es avanzado, pero "(la tecnología) está bien combinada".
Tal vez causó demasiada controversia. Yang Likun explicó más tarde en Twitter que no criticaba a OpenAI como empresa, sino que solo esperaba "corregir" la percepción del público y de los medios: ChatGPT es una innovación increíble que supera los productos de otras empresas.
En los últimos meses, Yang Likun siempre ha insistido en criticar a quienes exageran e incluso se jactan de las capacidades técnicas básicas que utiliza ChatGPT.
En su opinión, los sistemas de IA entrenados en grandes modelos de lenguaje todavía son muy limitados porque son puramente entrenamiento de texto y no pueden aprender la experiencia real de los humanos en el mundo real. Una vez dijo que la IA de hoy puede aprobar el examen de la barra de EE. UU., pero no puede usar un lavavajillas, mientras que un niño de 10 años puede "aprenderlo en 10 minutos".
La burbuja de ChatGPT puede estar a punto de estallar
Desde que se lanzó ChatGPT, más de 100 millones de personas en todo el mundo lo han usado, y muchas de ellas pagan $20 al mes por la suscripción a ChatGPT Plus. Sin embargo, muchos usuarios se han quejado recientemente en Internet de que GPT4 es peor que GPT3.5.
"Hace dos semanas, GPT4 era el mejor asistente de escritura del mundo, no hace mucho, se volvió muy mediocre", escribió un usuario, "Creo que redujeron la potencia de procesamiento o la hicieron menos inteligente".
Incluso si los investigadores de OpenAI salen a desmentir los rumores, diciendo que "el modelo grande es estático", no debilitará el rendimiento y no será del todo convincente.
Un dato reciente ha atraído una gran atención. Según los datos de SimilarWeb, el número de visitas de ChatGPT se disparó en los primeros tres meses de este año y se desaceleró en abril. La tasa de crecimiento mensual cayó del 55,8 % en marzo al 12,6 % y siguió disminuyendo en mayo. , quedando sólo el 2,8%. Según las previsiones, puede haber un número negativo en junio.
Los informes de investigación multinacionales muestran que la tasa de uso de ChatGPT no es tan alta como se esperaba, y al menos el 40% de las personas "no han oído hablar de él" o "no lo han usado". ChatGPT tampoco puede retener a los usuarios comunes que han perdido su frescura.
La precisión es una gran razón para rechazar a los usuarios. ChatGPT dice tonterías de manera seria, lo que no solo causa problemas innecesarios a los usuarios, sino que también limita los escenarios de aplicación de ChatGPT. Hasta el día de hoy, OpenAI no ha encontrado una solución efectiva.
Yang Likun dijo más de una vez que la IA generativa detrás de ChatGPT ha llegado a un callejón sin salida. Su afirmación puede no ser objetiva, pero a juzgar por la reacción del mercado de capitales, el gran modelo se está enfriando.
El analista de Bank of America, Michael Hartnett, escribió que la inteligencia artificial se encuentra actualmente en una "burbuja de bebé". El auge actual de la inteligencia artificial le recuerda a la burbuja de Internet de principios del siglo XXI. Advirtió que la burbuja de la inteligencia artificial puede estar a punto de estallar, citando a empresas y accionistas que reducen drásticamente sus participaciones a pesar del desempeño estelar de las acciones estadounidenses.
La crítica abierta de Yang Likun a ChatGPT está dirigida a muchas personas que observan la ola de IA con frialdad. Un internauta de Reddit cree que Yang Likun puede tener razón: "Sam Altman ha dejado en claro que GPT se enfrenta a una situación de rendimientos decrecientes y, en última instancia, necesita algo nuevo".
Al final del regaño, ¿solo el asno decide la posición?
Aunque ChatGPT ha expuesto muchos problemas, Yang Likun lo ha bombardeado públicamente repetidamente, lo que despertará el resentimiento de algunas personas después de mucho tiempo.
Un internauta de Reddit publicó que Yang Likun estaba corrigiendo el malentendido del público, pero hay que decir que no fue lo suficientemente generoso para el éxito de la noche a la mañana de los productos de la competencia y las nuevas empresas. Al final del día, la investigación de la IA "es inútil hasta que llega al final del túnel, y el 99 % de los trabajos de investigación son solo actualizaciones menores de la tecnología más avanzada" e "inventar el motor de combustión interna es tan tan importante como meterlo en un coche".
Después del debate de Munk, alguien le preguntó a Yang Likun en Twitter: "Dijiste en el debate que predijiste ChatGPT antes de que sucediera. ¿Realmente sabes que ChatGPT está por venir?".
Yang Likun respondió que Meta había lanzado dos robots de diálogo antes de ChatGPT, uno llamado BlenderBot 3 y el otro llamado Galactica. Sin embargo, cuando Galactica se puso en marcha, fue muy criticado por algunas respuestas falsas (ahora llamadas "alucinaciones"). Meta terminó derrotando a Galactica.
Lo que le molesta es que ChatGPT es una tontería como Galactica, pero el público elige ser tolerante.
En el campo de la IA, Yang Likun y Meta se despertaron temprano, pero se apresuraron a ver el último episodio. Ya en 2013, se unió a Meta para realizar investigaciones de inteligencia artificial. A lo largo de los años, su equipo ha aplicado la tecnología de inteligencia artificial a los productos sociales de la empresa, especialmente desde 2016, cuando Facebook se vio envuelto en una tormenta de noticias falsas. La tecnología de inteligencia artificial se usó para ayudar a la plataforma a controlar la información falsa.
Yang Likun insistió en que Meta y Google no lanzaron productos como ChatGPT primero, "no porque no puedan, sino porque no lo harán".
Para decirlo sin rodeos, las grandes empresas tienen más miedo de la opinión pública. Teniendo en cuenta que la IA generativa puede eludir los mecanismos de seguridad de Meta con relativa facilidad y puede usarse para difundir información falsa y dañina, a Meta le preocupa que la liberación de la IA generativa demasiado pronto empuje a la empresa al abismo de la opinión pública nuevamente.
Por un tiempo, estas preocupaciones nublaron la estrategia interna de IA de Meta. En 2022, al menos un tercio de los investigadores de IA tienen dudas sobre el futuro de la empresa en el campo de la IA, por lo que optan por dejar Meta. Después de que OpenAI lanzó ChatGPT en noviembre, más empleados se fueron.
El éxito de OpenAI obviamente estimuló a Yang Likun y Meta. En febrero de este año, Meta lanzó una tecnología modelo grande llamada LLaMA y abrió su código a personal específico, lo que permitió a los desarrolladores usar LLaMA para entrenar sus propios chatbots. El mes pasado, Meta lanzó el primer modelo de IA "humanoide" I-JEPA, que afirma ser más preciso y eficiente que la IA generativa. Como siempre, los documentos y códigos relacionados son de código abierto.
OpenAI eligió código cerrado. Yang Likun fue ojo por ojo nuevamente: "La apertura hará que la investigación progrese más rápido y habrá un ecosistema más dinámico donde todos pueden contribuir".
Zuckerberg elogió públicamente los avances de la compañía en inteligencia artificial no hace mucho. Pero no olvides que en febrero de este año, Zuckerberg llamó al 2023 el “Año de la Eficiencia”, Meta despidió a más de 11.000 empleados y cerró varios proyectos uno tras otro.
Es comprensible que Yang Likun presente quejas sobre productos de la competencia y defienda sus propios productos, pero la competencia empresarial depende en última instancia de los resultados, y la gente también espera con ansias la hoja de respuestas de Yang Likun, conocido como el "Padrino de la IA". finalmente entregará.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
¿Por qué este "Padrino AI" siempre bombardea ChatGPT?
Texto|Lin Weixin
Editor|Su Jianxun
Fuente丨Aparición inteligente
El 22 de junio, hora local de Toronto, Yang Likun, el "padrino de la IA" y científico jefe de IA de Meta, apareció en el Debate de Munk y bombardeó ChatGPT nuevamente: "Dentro de cinco años, nadie usará ChatGPT". realmente no entiende el mundo real, solo entrenamiento de texto puro, "y la mayor parte del conocimiento humano no tiene nada que ver con el texto o el lenguaje".
Esta audaz predicción inmediatamente atrajo mucha atención.
El debate de Munk al que asistió Yang Likun también tuvo como tema "la inteligencia artificial plantea una amenaza existencial". Durante el debate, Yang Likun insistió en que "la predicción de fatalidad que trae la inteligencia artificial no es más que un nuevo oscurantismo".
Yang Likun cree que lo que preocupa a la gente es que una vez que se encienda la futura IA, se hará cargo del mundo en unos minutos, "esto es ridículo". Este miedo a la IA tiene sus raíces en la psicología humana y no tiene evidencia científica por el momento.
En cuanto a la "teoría de una amenaza", la discusión en Silicon Valley ha sido acalorada y no se ha llegado a un consenso. Este debate es una continuación de este tema, y no despertó demasiado ruido en Internet. Curiosamente, el breve video de Yang Likun criticando a ChatGPT durante el debate se convirtió en un tema candente en las redes sociales nacionales.
Esta no es la primera vez que Yang Likun se queja de ChatGPT. En la conferencia Viva Tech en París a mediados de junio, Yang Likun creía que la IA como ChatGPT no es tan inteligente como un perro. En abril, dijo en una transmisión en vivo que ChatGPT no es una investigación y desarrollo real en el campo de la IA, "es un producto".
Sus dudas sobre ChatGPT parten primero de que no hay una innovación especial a nivel técnico, la razón es que otras empresas tienen tecnologías similares, OpenAI no es avanzado, pero "(la tecnología) está bien combinada".
Tal vez causó demasiada controversia. Yang Likun explicó más tarde en Twitter que no criticaba a OpenAI como empresa, sino que solo esperaba "corregir" la percepción del público y de los medios: ChatGPT es una innovación increíble que supera los productos de otras empresas.
En los últimos meses, Yang Likun siempre ha insistido en criticar a quienes exageran e incluso se jactan de las capacidades técnicas básicas que utiliza ChatGPT.
En su opinión, los sistemas de IA entrenados en grandes modelos de lenguaje todavía son muy limitados porque son puramente entrenamiento de texto y no pueden aprender la experiencia real de los humanos en el mundo real. Una vez dijo que la IA de hoy puede aprobar el examen de la barra de EE. UU., pero no puede usar un lavavajillas, mientras que un niño de 10 años puede "aprenderlo en 10 minutos".
La burbuja de ChatGPT puede estar a punto de estallar
Desde que se lanzó ChatGPT, más de 100 millones de personas en todo el mundo lo han usado, y muchas de ellas pagan $20 al mes por la suscripción a ChatGPT Plus. Sin embargo, muchos usuarios se han quejado recientemente en Internet de que GPT4 es peor que GPT3.5.
"Hace dos semanas, GPT4 era el mejor asistente de escritura del mundo, no hace mucho, se volvió muy mediocre", escribió un usuario, "Creo que redujeron la potencia de procesamiento o la hicieron menos inteligente".
Incluso si los investigadores de OpenAI salen a desmentir los rumores, diciendo que "el modelo grande es estático", no debilitará el rendimiento y no será del todo convincente.
Un dato reciente ha atraído una gran atención. Según los datos de SimilarWeb, el número de visitas de ChatGPT se disparó en los primeros tres meses de este año y se desaceleró en abril. La tasa de crecimiento mensual cayó del 55,8 % en marzo al 12,6 % y siguió disminuyendo en mayo. , quedando sólo el 2,8%. Según las previsiones, puede haber un número negativo en junio.
Los informes de investigación multinacionales muestran que la tasa de uso de ChatGPT no es tan alta como se esperaba, y al menos el 40% de las personas "no han oído hablar de él" o "no lo han usado". ChatGPT tampoco puede retener a los usuarios comunes que han perdido su frescura.
La precisión es una gran razón para rechazar a los usuarios. ChatGPT dice tonterías de manera seria, lo que no solo causa problemas innecesarios a los usuarios, sino que también limita los escenarios de aplicación de ChatGPT. Hasta el día de hoy, OpenAI no ha encontrado una solución efectiva.
Yang Likun dijo más de una vez que la IA generativa detrás de ChatGPT ha llegado a un callejón sin salida. Su afirmación puede no ser objetiva, pero a juzgar por la reacción del mercado de capitales, el gran modelo se está enfriando.
El analista de Bank of America, Michael Hartnett, escribió que la inteligencia artificial se encuentra actualmente en una "burbuja de bebé". El auge actual de la inteligencia artificial le recuerda a la burbuja de Internet de principios del siglo XXI. Advirtió que la burbuja de la inteligencia artificial puede estar a punto de estallar, citando a empresas y accionistas que reducen drásticamente sus participaciones a pesar del desempeño estelar de las acciones estadounidenses.
La crítica abierta de Yang Likun a ChatGPT está dirigida a muchas personas que observan la ola de IA con frialdad. Un internauta de Reddit cree que Yang Likun puede tener razón: "Sam Altman ha dejado en claro que GPT se enfrenta a una situación de rendimientos decrecientes y, en última instancia, necesita algo nuevo".
Al final del regaño, ¿solo el asno decide la posición?
Aunque ChatGPT ha expuesto muchos problemas, Yang Likun lo ha bombardeado públicamente repetidamente, lo que despertará el resentimiento de algunas personas después de mucho tiempo.
Un internauta de Reddit publicó que Yang Likun estaba corrigiendo el malentendido del público, pero hay que decir que no fue lo suficientemente generoso para el éxito de la noche a la mañana de los productos de la competencia y las nuevas empresas. Al final del día, la investigación de la IA "es inútil hasta que llega al final del túnel, y el 99 % de los trabajos de investigación son solo actualizaciones menores de la tecnología más avanzada" e "inventar el motor de combustión interna es tan tan importante como meterlo en un coche".
Después del debate de Munk, alguien le preguntó a Yang Likun en Twitter: "Dijiste en el debate que predijiste ChatGPT antes de que sucediera. ¿Realmente sabes que ChatGPT está por venir?".
Yang Likun respondió que Meta había lanzado dos robots de diálogo antes de ChatGPT, uno llamado BlenderBot 3 y el otro llamado Galactica. Sin embargo, cuando Galactica se puso en marcha, fue muy criticado por algunas respuestas falsas (ahora llamadas "alucinaciones"). Meta terminó derrotando a Galactica.
Lo que le molesta es que ChatGPT es una tontería como Galactica, pero el público elige ser tolerante.
En el campo de la IA, Yang Likun y Meta se despertaron temprano, pero se apresuraron a ver el último episodio. Ya en 2013, se unió a Meta para realizar investigaciones de inteligencia artificial. A lo largo de los años, su equipo ha aplicado la tecnología de inteligencia artificial a los productos sociales de la empresa, especialmente desde 2016, cuando Facebook se vio envuelto en una tormenta de noticias falsas. La tecnología de inteligencia artificial se usó para ayudar a la plataforma a controlar la información falsa.
Yang Likun insistió en que Meta y Google no lanzaron productos como ChatGPT primero, "no porque no puedan, sino porque no lo harán".
Para decirlo sin rodeos, las grandes empresas tienen más miedo de la opinión pública. Teniendo en cuenta que la IA generativa puede eludir los mecanismos de seguridad de Meta con relativa facilidad y puede usarse para difundir información falsa y dañina, a Meta le preocupa que la liberación de la IA generativa demasiado pronto empuje a la empresa al abismo de la opinión pública nuevamente.
Por un tiempo, estas preocupaciones nublaron la estrategia interna de IA de Meta. En 2022, al menos un tercio de los investigadores de IA tienen dudas sobre el futuro de la empresa en el campo de la IA, por lo que optan por dejar Meta. Después de que OpenAI lanzó ChatGPT en noviembre, más empleados se fueron.
El éxito de OpenAI obviamente estimuló a Yang Likun y Meta. En febrero de este año, Meta lanzó una tecnología modelo grande llamada LLaMA y abrió su código a personal específico, lo que permitió a los desarrolladores usar LLaMA para entrenar sus propios chatbots. El mes pasado, Meta lanzó el primer modelo de IA "humanoide" I-JEPA, que afirma ser más preciso y eficiente que la IA generativa. Como siempre, los documentos y códigos relacionados son de código abierto.
OpenAI eligió código cerrado. Yang Likun fue ojo por ojo nuevamente: "La apertura hará que la investigación progrese más rápido y habrá un ecosistema más dinámico donde todos pueden contribuir".
Zuckerberg elogió públicamente los avances de la compañía en inteligencia artificial no hace mucho. Pero no olvides que en febrero de este año, Zuckerberg llamó al 2023 el “Año de la Eficiencia”, Meta despidió a más de 11.000 empleados y cerró varios proyectos uno tras otro.
Es comprensible que Yang Likun presente quejas sobre productos de la competencia y defienda sus propios productos, pero la competencia empresarial depende en última instancia de los resultados, y la gente también espera con ansias la hoja de respuestas de Yang Likun, conocido como el "Padrino de la IA". finalmente entregará.