A medida que empeora la escasez de chips para entrenar modelos de inteligencia artificial, OpenAI, el desarrollador detrás de ChatGPT, está explorando la posibilidad de fabricar sus propios chips de IA y ha evaluado posibles objetivos de adquisición, según personas familiarizadas con el asunto. Al menos desde el año pasado, OpenAI ha discutido varias opciones para abordar la escasez de los costosos chips de IA de los que depende.
Esas opciones incluyen construir sus propios chips de IA, trabajar más estrechamente con otros fabricantes de chips, incluido Nvidia, y diversificar sus proveedores más allá de Nvidia (NVDA.O).
Actualmente, OpenAI, como la mayoría de sus competidores, se basa en hardware basado en GPU para desarrollar modelos como ChatGPT, GPT-4 y DALL-E 3. La capacidad de las GPU para realizar muchos cálculos en paralelo las hace ideales para entrenar los modelos más avanzados de la actualidad.
El director ejecutivo de OpenAI, Sam Altman, ha hecho de la obtención de más chips GPU una prioridad para la empresa. Se ha quejado públicamente de la escasez de GPU. El mercado de chips de IA está actualmente dominado por Nvidia, que controla más del 80% del mercado mundial de chips de IA.
El impulso para obtener más chips está ligado a dos problemas principales que Altman identificó: una escasez de procesadores avanzados para impulsar el software OpenAI y la cantidad "vertiginosa" de hardware necesaria para impulsar su trabajo y su costo.
Desde 2020, OpenAI ha desarrollado su tecnología de IA generativa en una supercomputadora masiva construida por uno de sus mayores patrocinadores, Microsoft, que utiliza 10.000 unidades de procesamiento de gráficos (GPU) Nvidia.
Pero el auge de la inteligencia artificial generativa (una ganancia inesperada para los fabricantes de GPU como Nvidia) ha ejercido una enorme presión sobre la cadena de suministro de GPU. Microsoft advirtió en su informe de resultados de verano que una escasez crítica de hardware de servidor necesario para ejecutar la inteligencia artificial podría provocar interrupciones del servicio. Según los informes, los chips de IA de mejor rendimiento de Nvidia están agotados hasta 2024.
Las GPU también son fundamentales para ejecutar y dar servicio a los modelos OpenAI; la empresa depende de clústeres de GPU en la nube para ejecutar las cargas de trabajo de los clientes. Pero son extremadamente costosos.
Ejecutar ChatGPT es muy costoso para OpenAI. El costo por consulta es de aproximadamente 4 centavos, según el análisis de Stacy Rasgon, analista de Bernstein. Si las consultas de ChatGPT crecieran a una décima parte del tamaño de la búsqueda de Google, esto requeriría inicialmente aproximadamente $48,1 mil millones de dólares en GPU y aproximadamente $16 mil millones de dólares en chips por año para seguir funcionando.
La competencia de IA generativa entra en la era de los chips personalizados
Desde el lanzamiento de ChatGPT el año pasado, la demanda de chips de IA dedicados se ha disparado. Entrenar y ejecutar las últimas tecnologías de IA generativa requiere chips o aceleradores de IA específicos. Nvidia es uno de los pocos fabricantes de chips que produce chips de IA útiles y domina el mercado.
El esfuerzo por desarrollar sus propios chips de IA colocaría a OpenAI entre un pequeño grupo de grandes empresas tecnológicas, como Google y Amazon, que han tratado de controlar el diseño de los chips subyacentes en los que se construyen.
No está claro si OpenAI seguirá adelante con sus planes de chips personalizados. Los veteranos de la industria dicen que hacerlo sería un movimiento estratégico importante y una inversión enorme que podría costar cientos de millones de dólares al año. Incluso si OpenAI dedica recursos a la tarea, el éxito no está garantizado.
Adquirir una empresa de chips podría acelerar el proceso de OpenAI de construir sus propios chips, como lo hizo Amazon con la adquisición de Annapurna Labs en 2015.
OpenAI ha considerado formas de realizar la debida diligencia sobre posibles objetivos de adquisición, según una persona familiarizada con el asunto. Sin embargo, todavía no es posible conocer la lista de empresas que OpenAI está revisando para su adquisición.
Incluso si OpenAI sigue adelante con sus planes de chips personalizados, incluidas adquisiciones, el trabajo podría llevar años, y OpenAI seguirá dependiendo de proveedores de chips comerciales como Nvidia y AMD.
Algunas grandes empresas tecnológicas llevan años fabricando sus propios procesadores, con un éxito limitado. El trabajo con chips personalizados de Meta ha sido problemático, lo que llevó a la compañía a desechar algunos de sus chips de inteligencia artificial, informó Reuters. Actualmente, Meta está desarrollando un chip más nuevo que cubrirá todo tipo de trabajo de IA.
Microsoft planea construir un nuevo chip de IA para el entrenamiento de modelos grandes
Microsoft (MSFT.O) planea presentar el primer chip de la compañía diseñado para inteligencia artificial en su conferencia anual de desarrolladores el próximo mes, dijo una persona familiarizada con el asunto, según The Information. La medida es la culminación de años de trabajo y podría ayudar a Microsoft a reducir su dependencia de los chips de inteligencia artificial diseñados por Nvidia Corp (NVDA.O). A medida que aumenta la demanda, estos chips han escaseado. El chip de Microsoft está diseñado para servidores de centros de datos que entrenan y ejecutan modelos de lenguaje grandes (LLM). Los servidores del centro de datos de Microsoft utilizan actualmente las GPU de Nvidia para impulsar el LLM avanzado para clientes de la nube, incluidos OpenAI e Intuit, además de admitir capacidades de inteligencia artificial en las aplicaciones de productividad de Microsoft.
Estos planes pueden marcar un mayor distanciamiento entre las dos empresas, OpenAI y Microsoft.
En el campo de los chips de IA coexisten oportunidades y desafíos. Incluso si OpenAI trabajara para llevar chips personalizados al mercado, tal esfuerzo probablemente llevaría años y costaría cientos de millones de dólares cada año. Queda por ver si los inversores de la startup, entre ellos Microsoft, están interesados en realizar una apuesta tan arriesgada. El potencial de OpenAI para avanzar en este espacio destaca el cambio más amplio de la industria hacia una mayor autosuficiencia y soluciones personalizadas. Los resultados aún están por verse, pero las implicaciones para el mundo de la inteligencia artificial son enormes.
Referencias:
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
¿Deshacerse de Nvidia? OpenAI y Microsoft han optado por desarrollar sus propios chips de IA
A medida que empeora la escasez de chips para entrenar modelos de inteligencia artificial, OpenAI, el desarrollador detrás de ChatGPT, está explorando la posibilidad de fabricar sus propios chips de IA y ha evaluado posibles objetivos de adquisición, según personas familiarizadas con el asunto. Al menos desde el año pasado, OpenAI ha discutido varias opciones para abordar la escasez de los costosos chips de IA de los que depende.
Esas opciones incluyen construir sus propios chips de IA, trabajar más estrechamente con otros fabricantes de chips, incluido Nvidia, y diversificar sus proveedores más allá de Nvidia (NVDA.O).
Actualmente, OpenAI, como la mayoría de sus competidores, se basa en hardware basado en GPU para desarrollar modelos como ChatGPT, GPT-4 y DALL-E 3. La capacidad de las GPU para realizar muchos cálculos en paralelo las hace ideales para entrenar los modelos más avanzados de la actualidad.
El director ejecutivo de OpenAI, Sam Altman, ha hecho de la obtención de más chips GPU una prioridad para la empresa. Se ha quejado públicamente de la escasez de GPU. El mercado de chips de IA está actualmente dominado por Nvidia, que controla más del 80% del mercado mundial de chips de IA.
El impulso para obtener más chips está ligado a dos problemas principales que Altman identificó: una escasez de procesadores avanzados para impulsar el software OpenAI y la cantidad "vertiginosa" de hardware necesaria para impulsar su trabajo y su costo.
Desde 2020, OpenAI ha desarrollado su tecnología de IA generativa en una supercomputadora masiva construida por uno de sus mayores patrocinadores, Microsoft, que utiliza 10.000 unidades de procesamiento de gráficos (GPU) Nvidia.
Pero el auge de la inteligencia artificial generativa (una ganancia inesperada para los fabricantes de GPU como Nvidia) ha ejercido una enorme presión sobre la cadena de suministro de GPU. Microsoft advirtió en su informe de resultados de verano que una escasez crítica de hardware de servidor necesario para ejecutar la inteligencia artificial podría provocar interrupciones del servicio. Según los informes, los chips de IA de mejor rendimiento de Nvidia están agotados hasta 2024.
Las GPU también son fundamentales para ejecutar y dar servicio a los modelos OpenAI; la empresa depende de clústeres de GPU en la nube para ejecutar las cargas de trabajo de los clientes. Pero son extremadamente costosos.
Ejecutar ChatGPT es muy costoso para OpenAI. El costo por consulta es de aproximadamente 4 centavos, según el análisis de Stacy Rasgon, analista de Bernstein. Si las consultas de ChatGPT crecieran a una décima parte del tamaño de la búsqueda de Google, esto requeriría inicialmente aproximadamente $48,1 mil millones de dólares en GPU y aproximadamente $16 mil millones de dólares en chips por año para seguir funcionando.
La competencia de IA generativa entra en la era de los chips personalizados
Desde el lanzamiento de ChatGPT el año pasado, la demanda de chips de IA dedicados se ha disparado. Entrenar y ejecutar las últimas tecnologías de IA generativa requiere chips o aceleradores de IA específicos. Nvidia es uno de los pocos fabricantes de chips que produce chips de IA útiles y domina el mercado.
El esfuerzo por desarrollar sus propios chips de IA colocaría a OpenAI entre un pequeño grupo de grandes empresas tecnológicas, como Google y Amazon, que han tratado de controlar el diseño de los chips subyacentes en los que se construyen.
No está claro si OpenAI seguirá adelante con sus planes de chips personalizados. Los veteranos de la industria dicen que hacerlo sería un movimiento estratégico importante y una inversión enorme que podría costar cientos de millones de dólares al año. Incluso si OpenAI dedica recursos a la tarea, el éxito no está garantizado.
Adquirir una empresa de chips podría acelerar el proceso de OpenAI de construir sus propios chips, como lo hizo Amazon con la adquisición de Annapurna Labs en 2015.
OpenAI ha considerado formas de realizar la debida diligencia sobre posibles objetivos de adquisición, según una persona familiarizada con el asunto. Sin embargo, todavía no es posible conocer la lista de empresas que OpenAI está revisando para su adquisición.
Incluso si OpenAI sigue adelante con sus planes de chips personalizados, incluidas adquisiciones, el trabajo podría llevar años, y OpenAI seguirá dependiendo de proveedores de chips comerciales como Nvidia y AMD.
Algunas grandes empresas tecnológicas llevan años fabricando sus propios procesadores, con un éxito limitado. El trabajo con chips personalizados de Meta ha sido problemático, lo que llevó a la compañía a desechar algunos de sus chips de inteligencia artificial, informó Reuters. Actualmente, Meta está desarrollando un chip más nuevo que cubrirá todo tipo de trabajo de IA.
Microsoft planea construir un nuevo chip de IA para el entrenamiento de modelos grandes
Microsoft (MSFT.O) planea presentar el primer chip de la compañía diseñado para inteligencia artificial en su conferencia anual de desarrolladores el próximo mes, dijo una persona familiarizada con el asunto, según The Information. La medida es la culminación de años de trabajo y podría ayudar a Microsoft a reducir su dependencia de los chips de inteligencia artificial diseñados por Nvidia Corp (NVDA.O). A medida que aumenta la demanda, estos chips han escaseado. El chip de Microsoft está diseñado para servidores de centros de datos que entrenan y ejecutan modelos de lenguaje grandes (LLM). Los servidores del centro de datos de Microsoft utilizan actualmente las GPU de Nvidia para impulsar el LLM avanzado para clientes de la nube, incluidos OpenAI e Intuit, además de admitir capacidades de inteligencia artificial en las aplicaciones de productividad de Microsoft.
Estos planes pueden marcar un mayor distanciamiento entre las dos empresas, OpenAI y Microsoft.
En el campo de los chips de IA coexisten oportunidades y desafíos. Incluso si OpenAI trabajara para llevar chips personalizados al mercado, tal esfuerzo probablemente llevaría años y costaría cientos de millones de dólares cada año. Queda por ver si los inversores de la startup, entre ellos Microsoft, están interesados en realizar una apuesta tan arriesgada. El potencial de OpenAI para avanzar en este espacio destaca el cambio más amplio de la industria hacia una mayor autosuficiencia y soluciones personalizadas. Los resultados aún están por verse, pero las implicaciones para el mundo de la inteligencia artificial son enormes.
Referencias: