**OpenAI también está montando un burro para encontrar un caballo y quiere deshacerse de su dependencia de Nvidia lo antes posible. **
Según Reuters, OpenAI ha estado discutiendo varias soluciones desde al menos el año pasado, con la esperanza de resolver el problema de los chips caros y escasos. Entre ellos, los chips de desarrollo propio son una de las opciones, y esta opción aún no ha sido rechazada por completo.
Otra opción es adquirir directamente una empresa de chips. Personas familiarizadas con el asunto dijeron que OpenAI ya tiene posibles objetivos de adquisición y ha considerado realizar la debida diligencia sobre ellos. Sin embargo, el informe no logró identificar la empresa de chips específica.
**Casualmente, aparece otra noticia: Microsoft lanzará su primer chip "Athena" diseñado para IA en su conferencia anual de desarrolladores el próximo mes. **
Según The Information, citando a personas familiarizadas con el asunto, Athena se utilizará en servidores de centros de datos, diseñados para entrenar grandes modelos de lenguaje, etc., al mismo tiempo que admitirá la inferencia y puede proporcionar energía para todo el software de inteligencia artificial detrás de ChatGPT.
La nube se ha convertido en un importante campo de batalla para los modelos grandes, y los dos competidores de Microsoft en este campo, Google y Amazon, ya tienen sus propios chips de IA. El lanzamiento de Athena permitirá a Microsoft colmar sus carencias.
El progreso de Microsoft y OpenAI en temas de chips es bastante representativo: en términos de roles, fue la colaboración tripartita de Microsoft, OpenAI y NVIDIA la que hizo realidad ChatGPT, lo que a su vez desencadenó una nueva ola de AIGC global; en términos de tiempo, el próximo Este mes se cumple exactamente un año desde que se lanzó ChatGPT.
**El próximo foco de la competencia de modelos grandes parece ser "quién puede 'deshacerse' de NVIDIA primero". NVIDIA, que tiene el dominio en el campo de los chips, se ha convertido en un grillete que necesita ser liberado con urgencia. **
En 2016, OpenAI, que solo cumplió un año, dio la bienvenida a un invitado distinguido, el director ejecutivo de Nvidia, Jensen Huang. Él personalmente le dio a OpenAI la primera supercomputadora pequeña y liviana DGX-1. OpenAI puede completar los cálculos de un año en un mes con DGX-1.
Hoy en día, las personas que miran tardíamente la firma de Huang Renxun en DGX-1 "para el futuro de la informática y la humanidad" y exclaman los ojos feroces del "líder vestido de cuero".
En 2019, Microsoft se unió a OpenAI para construir una supercomputadora utilizando decenas de miles de GPU NVIDIA A100. De esta manera, OpenAI contribuyó con esfuerzos, Microsoft contribuyó con dinero y NVIDIA proporcionó infraestructura, utilizando una increíble potencia informática para respaldar la investigación y el desarrollo del gran modelo de OpenAI, y finalmente trabajó duro para lograr milagros.ChatGPT se lanzó en noviembre de 2022, sorprendiendo al mundo. .
OpenAI se ha convertido en una empresa estrella, Microsoft está luchando ferozmente con Google y otros con su estrategia de IA, y el valor de mercado de NVIDIA se ha disparado de más de 300 mil millones de dólares en noviembre del año pasado a más de un billón de dólares en la actualidad. Hay una locura por los modelos grandes en todo el mundo y, como "vendedor", NVIDIA no se preocupa por vender chips.
En julio de este año, el analista de investigación de Citi, Christopher Danely, señaló en un informe que Nvidia ocupará "al menos el 90%" del mercado de chips de IA.
** Sin embargo, en este juego de "tres victorias", quizás solo Huang Renxun esté completamente feliz. Para los "compradores de agua" representados por Microsoft y OpenAI, confiar en los chips de Nvidia tiene al menos dos problemas. **
El primer problema es que es caro. En cuanto a la supercomputadora construida para OpenAI, según Bloomberg, Microsoft gastó cientos de millones de dólares en el proyecto. Stacy Rasgon, analista de Bernstein Research, analizó que ChatGPT cuesta alrededor de 4 centavos por consulta. Si el volumen de consultas de ChatGPT creciera a una décima parte del tamaño de las búsquedas de Google, se necesitarían aproximadamente 48.1 mil millones de dólares en GPU y 16 mil millones de dólares adicionales en chips por año para seguir funcionando.
El segundo problema es la escasez. En junio de este año, el director ejecutivo de OpenAI, Sam Altman, dijo en una conferencia que la escasez de chips ha obstaculizado el desarrollo de ChatGPT. Ante las quejas de los clientes sobre la confiabilidad y velocidad de la API, Altman explicó que la mayoría de los problemas se deben a la escasez de chips.
La Nvidia H100, lanzada recientemente este año, es actualmente el chip de IA más popular, pero sólo puede satisfacer la mitad de la demanda del mercado. Nvidia H100 y A100 son producidas por TSMC. El presidente de TSMC, Liu Deyin, explicó el mes pasado que las limitaciones de suministro no se deben a la falta de chips físicos, sino a la capacidad limitada en los servicios avanzados de empaquetado de chips (CoWos), que es un paso clave en la fabricación. proceso.
**Liu Deyin también predice que la capacidad de producción técnica será suficiente para satisfacer la demanda de los clientes en un año y medio, lo que significa que la escasez de suministro de chips de IA podría aliviarse para finales de 2024. **
Si bien es posible que Athena no se lance hasta este año, Microsoft se ha estado preparando durante años. En 2019, cuando se gastaron cientos de millones de dólares para construir una supercomputadora para OpenAI, se lanzó el proyecto Athena de Microsoft. Según la noticia, Athena se construirá utilizando el proceso de 5 nm de TSMC, comparando directamente con Nvidia A100, y se espera que reduzca el costo por chip en un tercio.
**Para Nvidia, el egoísmo de Microsoft y OpenAI es una señal roja. **
Microsoft es uno de los clientes más importantes de NVIDIA, e incluso ha habido noticias de "redondear" la capacidad de producción anual del H100. OpenAI es la veleta más importante en el campo AIGC. La ambición de las dos empresas de desarrollar chips de desarrollo propio es una nube oscura sobre la cabeza de Nvidia.
Google fue la primera empresa en comprar GPU a gran escala para la informática de IA, pero luego desarrolló sus propios chips específicos de IA. La TPU (Unidad de procesamiento tensor) de primera generación se lanzó en 2016 y posteriormente se lanzó como la infraestructura de Google Cloud Google TPU en 2017. Google ha seguido iterando a lo largo de los años. En abril de este año, anunció los detalles de TPU v4, diciendo que era 1,7 veces más potente que el A100 de Nvidia.
Aunque Google todavía compra GPU Nvidia al por mayor, sus servicios en la nube ya utilizan sus propios TPU. En esta batalla de AIGC, la empresa de mapas de IA Midjourney y la empresa unicornio Anthropic, que tiene un competidor de ChatGPT, Cloude, no compraron chips de Nvidia para construir supercomputadoras como OpenAI, sino que utilizaron la potencia informática de Google.
Otro gigante tecnológico, Amazon, también actuó bastante temprano: adquirió la startup israelí de chips Annapurna Labs en 2015 para desarrollar chips personalizados para su infraestructura en la nube y tres años más tarde lanzó el chip de servidor basado en Arm Graviton. Posteriormente, Amazon lanzó Inferentia, Trainium, un chip centrado en la inteligencia artificial.
**El mes pasado, se informó que Amazon invertiría 4 mil millones de dólares en Anthropic. Como parte del acuerdo, Anthropic utilizará chips AWS Trainium e Inferentia para construir, entrenar e implementar sus futuros modelos básicos. **
Además, otros competidores de Nvidia también están lanzando ataques en el campo de los chips de IA. AMD, Intel, IBM, etc. están lanzando sucesivamente chips de IA en un intento de competir con los productos de Nvidia. En junio de este año, AMD lanzó Instinct MI300, que compara directamente NVIDIA H100 y es un acelerador específico para AIGC. El número de transistores integrados alcanza los 153 mil millones, cifra superior a los 80 mil millones del H100, el mayor chip de AMD desde su lanzamiento. AMD incluso utiliza la estrategia de ser compatible con CUDA de NVIDIA para reducir el umbral de migración para los clientes.
Es innegable que Nvidia todavía tiene casi un monopolio en el mercado de chips de IA: ningún competidor puede sacudir su posición y ningún gigante tecnológico puede deshacerse por completo de su dependencia de él.
Pero "reducir el control de Nvidia" parece haberse convertido en un consenso y los desafíos externos se suceden uno tras otro. La noticia de que Microsoft y OpenAI están desarrollando chips de desarrollo propio es una nueva ola. ¿Podrá Nvidia mantenerse firme?
Referencias:
Heart of the Machine: "Amazon acaba de invertir 4 mil millones de dólares, Google y otros invertirán otros 2 mil millones y la valoración de Anthropic se está disparando".
Sina Technology: "La escasez de chips de IA está arrastrando a la baja los ingresos de las empresas de tecnología. Se dice que los envíos de Nvidia H100 se triplicarán al menos el próximo año".
CSDN: "¡Después de gastar cientos de millones de dólares y decenas de miles de GPU Nvidia, Microsoft revela el pasado de supercomputadora detrás de la construcción de ChatGPT!" 》
Wall Street Insights: "¡Deja a un lado tu orgullo!" Cómo Microsoft está apostando fuerte por OpenAI》
Jiemian News: "Ha aparecido el chip de IA de desarrollo propio de Microsoft, "Athena", con el objetivo de romper el monopolio de la potencia informática de Nvidia"
Instituto de Investigación Yuanchuan: "Una grieta en el imperio NVIDIA"
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Quién puede “deshacerse” de Nvidia primero?
Fuente original: Lista del alfabeto
Autor: Bi Andi
**OpenAI también está montando un burro para encontrar un caballo y quiere deshacerse de su dependencia de Nvidia lo antes posible. **
Según Reuters, OpenAI ha estado discutiendo varias soluciones desde al menos el año pasado, con la esperanza de resolver el problema de los chips caros y escasos. Entre ellos, los chips de desarrollo propio son una de las opciones, y esta opción aún no ha sido rechazada por completo.
Otra opción es adquirir directamente una empresa de chips. Personas familiarizadas con el asunto dijeron que OpenAI ya tiene posibles objetivos de adquisición y ha considerado realizar la debida diligencia sobre ellos. Sin embargo, el informe no logró identificar la empresa de chips específica.
**Casualmente, aparece otra noticia: Microsoft lanzará su primer chip "Athena" diseñado para IA en su conferencia anual de desarrolladores el próximo mes. **
La nube se ha convertido en un importante campo de batalla para los modelos grandes, y los dos competidores de Microsoft en este campo, Google y Amazon, ya tienen sus propios chips de IA. El lanzamiento de Athena permitirá a Microsoft colmar sus carencias.
El progreso de Microsoft y OpenAI en temas de chips es bastante representativo: en términos de roles, fue la colaboración tripartita de Microsoft, OpenAI y NVIDIA la que hizo realidad ChatGPT, lo que a su vez desencadenó una nueva ola de AIGC global; en términos de tiempo, el próximo Este mes se cumple exactamente un año desde que se lanzó ChatGPT.
**El próximo foco de la competencia de modelos grandes parece ser "quién puede 'deshacerse' de NVIDIA primero". NVIDIA, que tiene el dominio en el campo de los chips, se ha convertido en un grillete que necesita ser liberado con urgencia. **
Hoy en día, las personas que miran tardíamente la firma de Huang Renxun en DGX-1 "para el futuro de la informática y la humanidad" y exclaman los ojos feroces del "líder vestido de cuero".
En 2019, Microsoft se unió a OpenAI para construir una supercomputadora utilizando decenas de miles de GPU NVIDIA A100. De esta manera, OpenAI contribuyó con esfuerzos, Microsoft contribuyó con dinero y NVIDIA proporcionó infraestructura, utilizando una increíble potencia informática para respaldar la investigación y el desarrollo del gran modelo de OpenAI, y finalmente trabajó duro para lograr milagros.ChatGPT se lanzó en noviembre de 2022, sorprendiendo al mundo. .
En julio de este año, el analista de investigación de Citi, Christopher Danely, señaló en un informe que Nvidia ocupará "al menos el 90%" del mercado de chips de IA.
** Sin embargo, en este juego de "tres victorias", quizás solo Huang Renxun esté completamente feliz. Para los "compradores de agua" representados por Microsoft y OpenAI, confiar en los chips de Nvidia tiene al menos dos problemas. **
El primer problema es que es caro. En cuanto a la supercomputadora construida para OpenAI, según Bloomberg, Microsoft gastó cientos de millones de dólares en el proyecto. Stacy Rasgon, analista de Bernstein Research, analizó que ChatGPT cuesta alrededor de 4 centavos por consulta. Si el volumen de consultas de ChatGPT creciera a una décima parte del tamaño de las búsquedas de Google, se necesitarían aproximadamente 48.1 mil millones de dólares en GPU y 16 mil millones de dólares adicionales en chips por año para seguir funcionando.
El segundo problema es la escasez. En junio de este año, el director ejecutivo de OpenAI, Sam Altman, dijo en una conferencia que la escasez de chips ha obstaculizado el desarrollo de ChatGPT. Ante las quejas de los clientes sobre la confiabilidad y velocidad de la API, Altman explicó que la mayoría de los problemas se deben a la escasez de chips.
La Nvidia H100, lanzada recientemente este año, es actualmente el chip de IA más popular, pero sólo puede satisfacer la mitad de la demanda del mercado. Nvidia H100 y A100 son producidas por TSMC. El presidente de TSMC, Liu Deyin, explicó el mes pasado que las limitaciones de suministro no se deben a la falta de chips físicos, sino a la capacidad limitada en los servicios avanzados de empaquetado de chips (CoWos), que es un paso clave en la fabricación. proceso.
**Liu Deyin también predice que la capacidad de producción técnica será suficiente para satisfacer la demanda de los clientes en un año y medio, lo que significa que la escasez de suministro de chips de IA podría aliviarse para finales de 2024. **
Si bien es posible que Athena no se lance hasta este año, Microsoft se ha estado preparando durante años. En 2019, cuando se gastaron cientos de millones de dólares para construir una supercomputadora para OpenAI, se lanzó el proyecto Athena de Microsoft. Según la noticia, Athena se construirá utilizando el proceso de 5 nm de TSMC, comparando directamente con Nvidia A100, y se espera que reduzca el costo por chip en un tercio.
Microsoft es uno de los clientes más importantes de NVIDIA, e incluso ha habido noticias de "redondear" la capacidad de producción anual del H100. OpenAI es la veleta más importante en el campo AIGC. La ambición de las dos empresas de desarrollar chips de desarrollo propio es una nube oscura sobre la cabeza de Nvidia.
Google fue la primera empresa en comprar GPU a gran escala para la informática de IA, pero luego desarrolló sus propios chips específicos de IA. La TPU (Unidad de procesamiento tensor) de primera generación se lanzó en 2016 y posteriormente se lanzó como la infraestructura de Google Cloud Google TPU en 2017. Google ha seguido iterando a lo largo de los años. En abril de este año, anunció los detalles de TPU v4, diciendo que era 1,7 veces más potente que el A100 de Nvidia.
Aunque Google todavía compra GPU Nvidia al por mayor, sus servicios en la nube ya utilizan sus propios TPU. En esta batalla de AIGC, la empresa de mapas de IA Midjourney y la empresa unicornio Anthropic, que tiene un competidor de ChatGPT, Cloude, no compraron chips de Nvidia para construir supercomputadoras como OpenAI, sino que utilizaron la potencia informática de Google.
Otro gigante tecnológico, Amazon, también actuó bastante temprano: adquirió la startup israelí de chips Annapurna Labs en 2015 para desarrollar chips personalizados para su infraestructura en la nube y tres años más tarde lanzó el chip de servidor basado en Arm Graviton. Posteriormente, Amazon lanzó Inferentia, Trainium, un chip centrado en la inteligencia artificial.
Además, otros competidores de Nvidia también están lanzando ataques en el campo de los chips de IA. AMD, Intel, IBM, etc. están lanzando sucesivamente chips de IA en un intento de competir con los productos de Nvidia. En junio de este año, AMD lanzó Instinct MI300, que compara directamente NVIDIA H100 y es un acelerador específico para AIGC. El número de transistores integrados alcanza los 153 mil millones, cifra superior a los 80 mil millones del H100, el mayor chip de AMD desde su lanzamiento. AMD incluso utiliza la estrategia de ser compatible con CUDA de NVIDIA para reducir el umbral de migración para los clientes.
Es innegable que Nvidia todavía tiene casi un monopolio en el mercado de chips de IA: ningún competidor puede sacudir su posición y ningún gigante tecnológico puede deshacerse por completo de su dependencia de él.
Pero "reducir el control de Nvidia" parece haberse convertido en un consenso y los desafíos externos se suceden uno tras otro. La noticia de que Microsoft y OpenAI están desarrollando chips de desarrollo propio es una nueva ola. ¿Podrá Nvidia mantenerse firme?
Referencias:
Heart of the Machine: "Amazon acaba de invertir 4 mil millones de dólares, Google y otros invertirán otros 2 mil millones y la valoración de Anthropic se está disparando".
Sina Technology: "La escasez de chips de IA está arrastrando a la baja los ingresos de las empresas de tecnología. Se dice que los envíos de Nvidia H100 se triplicarán al menos el próximo año".
CSDN: "¡Después de gastar cientos de millones de dólares y decenas de miles de GPU Nvidia, Microsoft revela el pasado de supercomputadora detrás de la construcción de ChatGPT!" 》
Wall Street Insights: "¡Deja a un lado tu orgullo!" Cómo Microsoft está apostando fuerte por OpenAI》
Jiemian News: "Ha aparecido el chip de IA de desarrollo propio de Microsoft, "Athena", con el objetivo de romper el monopolio de la potencia informática de Nvidia"
Instituto de Investigación Yuanchuan: "Una grieta en el imperio NVIDIA"