"Corre por comida, o corre para que otros no te coman. En cualquier caso, sigue corriendo".
Este es el mensaje del CEO de Nvidia, Huang Renxun, a los graduados en su discurso en la Universidad Nacional de Taiwán este año. Por supuesto, también es una interpretación de la mentalidad de este imperio de capitalización de mercado de billones de dólares creado por Huang Renxun.
En 2023, Nvidia en fuga se encontró con la IA generativa, que Huang Renxun llamó muchas veces "el momento del iPhone de la IA". En este momento, Huang Renxun puso su mirada en la oportunidad de convertirse en el cazador en lugar de la presa: Yun.
Parece que Nvidia no debería tener la motivación para hacer la nube, no solo porque los proveedores de servicios en la nube son clientes importantes de Nvidia y compran miles de millones de dólares en GPU de Nvidia cada año, sino también porque este asunto parece no tener ninguna posibilidad de ganar.
El mercado actual de la computación en la nube está firmemente controlado por los tres gigantes de la nube Amazon AWS, Microsoft Azure y Google Cloud. Según datos de Statista, en 2022 la cuota de mercado de AWS será del 32 %, la de Azure del 23 % y la de Google Cloud del 10 %, y la cuota de mercado combinada de las tres empresas alcanzará el 65 %.
No es que no hayamos visto un retador. En los últimos diez años, empresas conocidas como VMware, Dell y Hewlett-Packard querían hacerse con una parte del mercado de la computación en la nube, pero todas fracasaron sin excepción.
Sin embargo, así como cada revolución tecnológica produce nuevos creadores de tendencias, esta ola de IA generativa, el fabricante de chips Nvidia comenzó a probar el mercado de la computación en la nube paso a paso:
**En el primer paso, en la conferencia GTC del 21 de marzo de este año, NVIDIA lanzó DGX Cloud. **Como se puede ver en el nombre, este es un producto en la nube. Los clientes pueden obtener directamente los productos y servicios de IA de Nvidia en la nube o en los centros de datos locales alquilándolos mensualmente;
**El segundo paso es invertir en los competidores de los tres gigantes de la nube. **Nvidia ha invertido sucesivamente en CoreWeave y Lambda Labs, dos pequeños y medianos proveedores de servicios en la nube en los Estados Unidos, y les ha asignado los escasos chips de GPU. ¿Qué tan exagerada es esta "preferencia"? En un momento en que los núcleos de GPU son difíciles de encontrar, CoreWeave pudo obtener 2300 millones de USD en financiamiento de deuda al hipotecar sus abundantes GPU, especialmente el H100.
Aunque recién comienza, el diseño del negocio de la nube representa el contraataque de Nvidia contra los gigantes de la nube.
Como todos sabemos, Google, Amazon y Microsoft han lanzado internamente proyectos de chips de IA de desarrollo propio: la serie TPU de Google, la serie Inferentia y Trainium de Amazon y el chip Athena de Microsoft que se expuso este año. Los tres gigantes de la nube tienen suficientes recursos y motivación para desarrollar chips de inteligencia artificial para reducir el "impuesto GPU" de Nvidia.
Nvidia es muy consciente de esto. Huang Renxun dijo sin rodeos en la conferencia telefónica del informe de ganancias del último trimestre que "hemos estado prestando atención a la competencia y siempre hemos tenido competencia".
Huang Renxun no puede evitar la expansión de los tres principales proveedores de servicios en la nube, pero quizás la mejor defensa sea la ofensiva, y el método de contraataque de Nvidia es ir directamente a la nube.
Con las dos cartas de triunfo de A100 y H100 en la mano, durante un largo período de tiempo, estos dos chips son la mejor opción para el entrenamiento y el razonamiento de modelos a gran escala, y ninguno de ellos, Nvidia tiene la oportunidad de convertirse en un verdadero líder en el mercado de la computación en la nube.
Una batalla abierta y secreta en torno a los chips y la computación en la nube se está desarrollando lentamente entre los cuatro gigantes tecnológicos con la capitalización de mercado de los cinco principales a nivel mundial.
1. Casi se cae antes del amanecer
Aquellos que están familiarizados con Nvidia sabrán lo hermosa que es Nvidia hoy y lo miserable que era Nvidia el año pasado.
Los negocios principales de Nvidia incluyen centros de datos, juegos, visualización profesional y automóviles. En el segundo trimestre de 2020, el negocio de centros de datos de Nvidia superó a los juegos por primera vez, convirtiéndose en la mayor fuente de ingresos de Nvidia.
En la reunión del informe financiero del cuarto trimestre de 2022 (correspondiente al año natural de noviembre de 2021 a enero de 2022), Nvidia entregó un sólido informe financiero del cuarto trimestre y su negocio de centros de datos aumentó un 71 % año con año. Huang Renxun dijo con optimismo en ese momento: "La plataforma informática de Nvidia marcó el comienzo de una extraordinaria demanda en el mercado". Sin embargo, una semana después, estalló el conflicto entre Rusia y Ucrania, lo que interrumpió la cadena de suministro de materias primas clave. Junto con el impacto de la epidemia, la tasa de crecimiento del negocio del centro de datos de Nvidia continuará desacelerándose a lo largo de 2022.
En el informe financiero del cuarto trimestre de 2023 publicado en febrero de este año, la tasa de crecimiento de los centros de datos de NVIDIA fue solo del 11 %, un mínimo histórico, y la primera vez desde 2020 que la cadena ha disminuido.
En 2022, el precio de las acciones de Nvidia también se reducirá a la mitad. Por supuesto, ha vuelto a subir hoy, y el nacimiento de ChatGPT salvó a Nvidia.
Nota: Nvidia publicará su informe financiero 2024Q2 el miércoles (23 de agosto), correspondiente a mayo-julio de 2023.
Entre las muchas razones de la disminución del crecimiento empresarial, la reducción de la demanda de los principales clientes es la más vigilante. En el informe financiero del cuarto trimestre de 2023, la directora financiera de Nvidia, Colette Kress, anunció una cifra: aproximadamente el 40 % de los 15 000 millones de dólares estadounidenses en ingresos del sector de centros de datos en el año fiscal 2023 (alrededor de 6 000 millones de dólares estadounidenses) proviene de centros de datos de hiperescala y servicios en la nube. proveedores
Pero si solo miras el cuarto trimestre, eso es solo un cuarto. Los desarrolladores de centros de datos de hiperescala y los proveedores de servicios en la nube están reduciendo drásticamente el gasto en GPU.
Además de la disminución objetiva de la demanda, el plan de chips de IA de desarrollo propio de los tres gigantes de la nube está erosionando poco a poco la cuota de mercado de NVIDIA GPU.
Google lanzó el chip TPU con IA de desarrollo propio de primera generación en 2016, y cinco años después, el 19 de mayo de 2021, lanzó el TPU v4 de cuarta generación. En un informe de investigación publicado este año, Google dijo que había ensamblado 4000 TPU v4 para construir una supercomputadora que funcionaba 1,7 veces más rápido y de manera más eficiente que una máquina equivalente impulsada por una GPU Nvidia A100, 1,9 veces más alta.
Amazon también tiene una tradición de chips de desarrollo propio, no solo para Nvidia, sino para todos los fabricantes de chips. En la actualidad, Amazon ha lanzado cuatro series de chips de desarrollo propio: la serie de chips de red Nitro, la serie de chips de servidor Graviton, la serie de chips de razonamiento AI Inferentia, la serie de chips de entrenamiento AI Trainium. Entre ellos, los dos últimos chips de IA compiten con las GPU de NVIDIA.
A pesar de su entrada tardía, Microsoft "llegó tarde". El 18 de abril de este año, según The Information, desde 2019, Microsoft ha estado desarrollando en secreto chips de inteligencia artificial, cuyo nombre en código interno es "Athena" (Athena), cientos de empleados están trabajando en el proyecto Athena, Microsoft ha invertido alrededor de 2 mil millones de dólares. . Algunos empleados de Microsoft y OpenAI han podido obtener chips para probar el rendimiento en los últimos modelos de lenguaje grande, como GPT-4.
Los proveedores de servicios en la nube tienen que pagar una gran cantidad del "impuesto Nvidia" cada año por la compra de GPU, especialmente después del estallido de la IA generativa.
En febrero de este año, New Street Research hizo una estimación: el motor de búsqueda Bing basado en ChatGPT necesita 8 GPU para responder a las preguntas de los usuarios en un segundo. A este ritmo, Microsoft necesitaría más de 20 000 servidores con 8 GPU para implementar los modelos en Bing para cada usuario, lo que le costaría a Microsoft $4 mil millones. A la escala de Google, que maneja de 8 a 9 mil millones de consultas por día, costaría $80 mil millones.
Los chips de IA de desarrollo propio de los proveedores de servicios en la nube no se venderán externamente y no competirán directamente con Nvidia. Sin embargo, al implementar chips de desarrollo propio en lugar de GPU en los centros de datos, los costos se pueden reducir de manera efectiva. Por ejemplo, Google ha implementado cientos de supercomputadoras TPU v4 en su servicio en la nube.
Los tres principales proveedores de servicios en la nube tienen suficientes recursos y motivación para desarrollar sus propios chips, lo que se ve como una grieta en el imperio de Nvidia. Nvidia es muy consciente de esto, pero parece que no hay mejor manera.
Hasta la aparición de ChatGPT, Nvidia, que estaba siendo presionada por los proveedores de servicios en la nube paso a paso, vio un punto de inflexión para el contraataque. Dado que los proveedores de servicios en la nube pueden fabricar chips, ¿no puede Nvidia crear nubes en la era de la IA?
** 2. ¿Nvidia tiene la oportunidad de hacer la nube? **
Nvidia es actualmente el mayor beneficiario de la revolución de la IA generativa, y Huang Renxun siempre ha hablado sobre el "momento iPhone de la IA" este año. La explosiva demanda de IA generativa ha convertido a GPU en una moneda fuerte.Algunas personas simplemente dicen que "GPU es el nuevo dólar".
De la GPU a la nube, ¿Nvidia realmente tiene alguna posibilidad?
La capacitación y el razonamiento de la IA generativa se llevan a cabo principalmente en la nube, y los proveedores de servicios en la nube que brindan infraestructura de IA serán uno de los mayores beneficiarios de la ola de IA generativa. Según los datos estimados por la firma de capital de riesgo A16Z de Silicon Valley, entre el 10 % y el 20 % de los ingresos totales generados por la IA generativa eventualmente fluye hacia los proveedores de servicios en la nube.
Sin embargo, este proceso no será rápido. El CEO de Amazon, Andy Jassy, dijo en la llamada de ganancias del segundo trimestre de 2023: "La IA generativa sin duda cambiará la experiencia de casi todos los clientes. Pero aún es demasiado pronto y la mayoría de las empresas todavía están considerando cómo lograr este objetivo. Es un maratón a un ritmo etapa muy temprana".
La esencia de los servicios en la nube es virtualizar los recursos de hardware en el centro de datos y luego arrendarlos al mercado. Casi el 100 % de los servidores en los centros de datos tradicionales se basan en CPU Intel y AMD. La CPU es como un "generalista con el cerebro más fuerte", que proporciona capacidades de "computación general": sistemas operativos de procesamiento, software del sistema y el programa de aplicación. tiene tareas de programa tales como programación de instrucciones complejas, bucles, bifurcaciones, juicio lógico y ejecución.
Pero las CPU no son buenas para el procesamiento de datos a gran escala y la computación paralela, que es lo que necesita la inteligencia artificial y las GPU de Nvidia son buenas. GPU es como un "experto en computación violenta", que se especializa en procesamiento de imágenes, aprendizaje profundo y capacitación, razonamiento y otras tareas actuales de modelos grandes. Huang Renxun llamó a esta capacidad de computación paralela masiva "computación acelerada".
En 2012, Jeff Hinton, el padre del aprendizaje profundo, y sus aprendices intentaron entrenar el modelo de red neuronal convolucional AlexNet en GPU NVIDIA por primera vez y ganaron la competencia de reconocimiento de imágenes de un solo golpe. Este incidente dio lugar a la explosión del aprendizaje profundo en los próximos diez años.Toda la industria de la inteligencia artificial, incluida la propia Nvidia, se dio cuenta del potencial de la GPU para la computación acelerada.
Los engranajes de la fortuna de Nvidia comenzaron a girar. Desde entonces, Huang Renxun ha gritado "la ley de Moore está muerta" en muchas ocasiones. Él cree que la era de la expansión de la CPU ha terminado, al igual que el aumento de diez veces en el rendimiento al mismo costo cada cinco años. Será reemplazado por GPU, y Huang Renxun inventó especialmente una "Ley de Huang": la GPU promoverá el rendimiento de la IA al doble año tras año.
Durante los diez años de 2012 a 2022, podemos llamarlo computación acelerada de 0 a 1, y la inteligencia artificial ha aterrizado en industrias específicas y escenarios específicos como el reconocimiento de imágenes. Sin embargo, la demanda de IA en este período aún no es lo suficientemente grande.La firma de investigación Aletheia predice que la tasa actual de penetración en el mercado de los servidores de IA es inferior al 5%. Esto está lejos de ser suficiente para hacer realidad el sueño de computación acelerada de Huang Renxun.
Hasta el nacimiento de ChatGPT en noviembre de 2022, apareció el "momento AI iPhone". Esto puede verse como el comienzo de la ampliación de la computación acelerada de 1 a 10.
Ingresos generativos de IA (imagen a través de Bloomberg)
Huang Renxun cree que la combinación de computación acelerada e IA generativa cambiará los métodos de computación en los últimos 60 años. A medida que las empresas se apresuran a aplicar la IA generativa a cada producto, servicio y proceso comercial, la infraestructura global del centro de datos de un billón de dólares pasará de la informática de uso general a la informática acelerada, y la reinvención del centro de datos resultante seguramente creará una gran oportunidad de mercado.
En la conferencia telefónica sobre ganancias del último trimestre, Huang Renxun prometió: "Estamos en el primer año de una inteligencia de centro de datos de una década".
Huang Renxun dijo que la computación acelerada es un desafío completo. Debe integrar todo el software, todas las bibliotecas de marcos y todos los algoritmos para la ingeniería. Estas tareas no son solo para un chip, sino para todo el centro de datos. Un centro de datos es una supercomputadora. Para lograr el mejor rendimiento, es necesario optimizar la pila completa de sistemas operativos de red, motores de computación distribuida, dispositivos de red, conmutadores y arquitecturas de computación.
Por ejemplo, el centro de datos de computación general utiliza principalmente Ethernet para conectar todos los servidores sin transmisión de datos a gran escala; el centro de datos de computación acelerada propuesto por Nvidia utiliza una tecnología llamada Infinite Band para la conexión, que tiene un rendimiento de datos extremadamente alto.
La optimización sistemática también permite que los centros de datos informáticos acelerados tengan una mayor eficiencia y costos más bajos que los centros de datos tradicionales.
Huang Renxun planteó una pregunta en SIGGRAPH, la conferencia anual de gráficos por computadora celebrada en agosto de este año: "¿Qué puedo comprar por $ 100 millones?" Huang Renxun se preguntó y respondió: "En el pasado, $ 100 millones podían comprar un centro de datos compuesto por 8.800 CPU x86. , el consumo de energía es de 5MW; hoy, 100 millones de dólares estadounidenses pueden comprar un centro de datos Iso-Budget compuesto por 2500 GH200, el consumo de energía es de 3MW, el rendimiento de razonamiento de la IA es 12 veces mayor que el de los datos de la CPU centro mencionado anteriormente, y la eficiencia energética es 20 veces".
Bajo el mismo rendimiento de razonamiento de IA, el costo de un centro de datos de GPU es solo 1/12 del costo de un centro de datos de CPU. “Cuanto más compras, más ahorras.” Este es el manifiesto de Huang Renxun para su Centro de datos de computación acelerada.
Hasta ahora, Nvidia ha construido cinco centros de datos y ha ayudado a clientes de todo el mundo a construir sus propios centros de datos. Además, un centro de datos tradicional puede tardar meses o incluso un año en pasar de la entrega a la operación, pero en Nvidia. Este tiempo es en semanas. "La experiencia del equipo en esta área es notable", dijo Huang.
Para los tres gigantes de la nube, la transición de los centros de datos informáticos de propósito general a los centros de datos informáticos acelerados no será rápida. No se trata solo de tecnología y capacidades, sino también de la toma de decisiones y los procesos de empresas tan gigantes.
Esto le da a Nvidia la oportunidad de hacer la nube. Dar un paso adelante del centro de datos a la nube es solo una cuestión de rutina, y Nvidia ya lo está intentando.
** 3. Oscuridad Chencang **
En el informe financiero del cuarto trimestre de 2023 con la tasa de crecimiento más baja del negocio del centro de datos, Nvidia también anunció un nuevo producto: DGX Cloud. En la conferencia GTC un mes después, se lanzó oficialmente DGX Cloud.
Como puede verse por el nombre, este es un producto de servicio en la nube. ¿Nvidia va a entrar en el mercado de la computación en la nube?
Veamos primero qué es DGX. DGX es la primera supercomputadora lanzada por Nvidia en 2017, a la que Huang Renxun llamó "un centro de datos en un chasis".
El DGX de primera generación integraba 8 GPU (Tesla P100) y 4 unidades de estado sólido, y utilizaba la tecnología de conexión NVIDIA NVlink. En términos de capacitación de aprendizaje profundo, el rendimiento de un solo DGX es equivalente a 250 servidores x86 ordinarios. Por supuesto, también es caro, a $129,000 por una sola unidad.
Después de la reunión, Huang Renxun presentó el primer DGX-1 a Elon Musk. Musk es el cofundador de OpenAI. OpenAI comenzó a partir de esta supercomputadora y construyó paso a paso el ChatGPT actual.
Hoy en día, la supercomputadora DGX se ha desarrollado hasta la quinta generación. Las primeras cuatro generaciones son DGX P100, DGX A100, DGX H100 y la última DGX GH200.
La DGX Cloud lanzada por Nvidia es la versión en la nube de la supercomputadora lanzada anteriormente.Una instancia de DGX Cloud (una computadora virtual en un servidor en la nube) está configurada con 8 A100 o H100.
Sin embargo, el precio de DGX Cloud no es barato, 36.999 dólares al mes, unos 264.000 RMB. A modo de comparación, la instancia de Microsoft Azure ND96asr con 8 A100 y sus especificaciones equivalentes cuestan 19 854 dólares al mes, que es solo la mitad de DGX Cloud.
¿Por qué Nvidia se atreve a poner un precio tan alto? La respuesta es que DGX Cloud es una solución llave en mano que integra software y hardware. **Nvidia ya no se anuncia a sí misma como una empresa de chips de GPU, sino que se posiciona como una empresa de plataformas informáticas. **
Además de los recursos de hardware, DGX Cloud también ha lanzado dos plataformas de software de soporte. Una es NVIDIA AI Foundations, que ayuda a las empresas a crear modelos personalizados, incluidos modelos de lenguaje, visión y biomédicos; la otra es NVIDIA AI Enterprise, que contiene 4000 modelos diferentes. Un marco de IA que ayuda a las empresas a usarlo de forma inmediata. Los productos de IA de Nvidia son similares a MaaS lanzados por proveedores de servicios en la nube nacionales como Alibaba Cloud.
Jensen Huang es optimista acerca de estas nuevas fuentes de ingresos de software y espera que el campo de la IA generativa crezca de una porción de "un solo dígito" de los ingresos totales de la empresa a una porción "considerable" en el próximo año. "Estamos entusiasmados con la expansión del nuevo modelo de negocios", dijo Huang Renxun.
El lanzamiento de DGX Cloud ha formado objetivamente una cierta relación competitiva con los proveedores de servicios en la nube, pero Nvidia todavía quiere continuar manteniendo una estrecha cooperación con los proveedores de servicios en la nube. Actualmente, Nvidia no crea una infraestructura de nube completa desde cero, pero aloja DGX Cloud en las plataformas de nube de varios proveedores de servicios de nube.
Nvidia vende instalaciones de hardware básico a proveedores de la nube, luego les compra recursos de computación en la nube y finalmente vende servicios en la nube a clientes empresariales y retiene todos los ingresos. Los clientes pueden acceder a la supercomputadora de IA de Nvidia solo a través de un navegador para usar los productos de IA y los servicios modelo de IA de Nvidia.
Sin embargo, ¿lo comprarán los proveedores de servicios en la nube?
En este sentido, Huang Renxun explicó: "La cooperación entre los servicios en la nube de NVIDIA y los proveedores de servicios en la nube será una situación beneficiosa para todos. Las dos partes crearán nuevas aplicaciones y desarrollarán nuevos mercados de manera conjunta". Huang Renxun dijo que, idealmente, los clientes comprarán NVIDIA DGX La relación entre la nube y la nube del proveedor de servicios en la nube es de 1:9.
Oracle es el primer proveedor de servicios en la nube en anunciar una asociación con Nvidia. El gigante del software ha estado llevando a cabo urgentemente la transformación de la nube en los últimos años, por lo que tiene suficiente motivación para formar una alianza con Nvidia para dar un giro en el mercado de la computación en la nube. Nvidia también está trabajando con Microsoft Azure, Google Cloud y otras plataformas en la nube, que también se espera que se lancen pronto.
** Las ilusiones de Nvidia son ruidosas, pero no todos los proveedores de servicios en la nube aceptarán la solicitud de Nvidia. **AWS se negó a cooperar con Nvidia en productos DGX Cloud.
Según Reuters, Dave Brown, vicepresidente de Amazon Elastic Cloud Computing, dijo: "NVIDIA se puso en contacto con nosotros y estudiamos el modelo comercial. Pero para AWS, esto no tiene mucho sentido". servidores confiables Experiencia a largo plazo con la experiencia existente en la cadena de suministro.
AWS comenzó a comprar el chip H100 de Nvidia en marzo de este año, pero solo como parte de su sistema de desarrollo propio. AWS también está considerando utilizar el último chip de inteligencia artificial de AMD, el MI300, pero aún debe tomar una decisión final.
Ante un mercado emergente de IA generativa, la distribución de beneficios entre Nvidia y los proveedores de servicios en la nube seguirá cambiando. Pero está bastante claro que Nvidia ha movido el queso del proveedor de servicios en la nube.
4. Drenar desde abajo
El lanzamiento de DGX Cloud es solo el primer paso, y la participación de Nvidia en el mercado de la computación en la nube aún se está profundizando. En este paso, Nvidia optó por no acabar en persona, sino que optó por apoyar a los competidores de los tres gigantes de la nube.
Este año, surgió un proveedor de nube pequeño y mediano llamado CoreWeave, que se convirtió en un proveedor de servicios en la nube que es más popular que los tres gigantes de la nube. **CoreWeave afirma ser el único proveedor de servicios en la nube del mundo que puede "proporcionar Nvidia H100 a gran escala". **
Según las estimaciones del sitio web GPU Utils, la cantidad de H100 que CoreWeave ordenó a Nvidia es de aproximadamente 35,000-40,000. En comparación, la supercomputadora A3 lanzada por Google en mayo de este año tiene alrededor de 26 000 H100, la instancia de máquina virtual EC2 P5 lanzada por Amazon AWS en julio se basa en 20 000 H100 y la máquina virtual Azure ND H100v5 lanzada por Microsoft en agosto, Contiene solo 8 piezas de H100. Sin embargo, Microsoft posee alrededor de 285.000 A100.
¿Cuál es el origen de CoreWeave? La compañía, establecida en 2017, inicialmente se dedicó principalmente al negocio de minería de criptomonedas Ethereum, y en 2018 se convirtió en el mayor minero de Ethereum en América del Norte. En ese momento, CoreWeave implementó más de 50 000 GPU, proporcionando más del 1 % de la potencia informática de la red Ethereum.
Además de la minería, CoreWeave también ha comenzado a tratar de servir a algunos clientes empresariales, como inteligencia artificial, medios de entretenimiento y química computacional. En 2019, CoreWeave pasó por completo de las GPU de nivel de consumidor a las GPU de nivel empresarial de Nvidia, porque las GPU de nivel empresarial pueden funcionar las 24 horas del día, lo que aumenta la utilización de la GPU a casi el 100 %.
En 2021, CoreWeave lanzó oficialmente la plataforma en la nube GPU basada en Nvidia. En el tercer trimestre de 2022, con la fusión de Ethereum, la era de la minería de tarjetas gráficas a gran escala ha terminado, CoreWeave se ha transformado por completo en un proveedor de servicios en la nube y anunció en noviembre de este año que se ha convertido en el primer lote de GPU que utilizan el súper chip NVIDIA HGX H100. Uno de los proveedores de servicios en la nube.
En comparación con los tres gigantes de Amazon, Microsoft y Google, CoreWeave no planea desarrollar su propio chip de IA, lo que ha sido muy apreciado por Nvidia.
En abril de 2023, Nvidia profundizó su cooperación con CoreWeave y, además de la cooperación empresarial, también invirtió en la ronda de financiación B1 de $221 millones de CoreWeave. Lo que es más importante, Nvidia ha proporcionado a CoreWeave un canal único para los escasos A100 y H100.
En una entrevista reciente con Bloomberg, Brannin McBee, cofundador y director de estrategia de CoreWeave, dijo que Nvidia se quedó sin chips este año y que los pedidos de CoreWeave también están programados para el segundo trimestre del próximo año.
CoreWeave probablemente tenga la reserva más grande de GPU Nvidia en el mundo. En el contexto de la actual escasez de GPU, los chips son incluso más valiosos que el capital, y CoreWeave ha creado un método de financiación innovador. En agosto de este año, CoreWeave aseguró $2.3 mil millones en financiamiento de deuda al hipotecar sus chips GPU. Anteriormente, la ronda B1 de financiamiento de capital de CoreWeave solo recibió $ 421 millones.
Con la alianza estratégica "nube + GPU" con Nvidia, el rendimiento de CoreWeave también se ha disparado.
Antes de este año, CoreWeave era una empresa poco conocida. Pero ahora, CoreWeave está preparado para ganar miles de millones de dólares a través de sus GPU. En una entrevista con VentureBeat, el cofundador y director de estrategia de CoreWeave, Brannin McBee, reveló que los ingresos de CoreWeave serán de $30 millones en 2022, alcanzarán los $500 millones este año y firmaron casi $2 mil millones en contratos el próximo año.
CoreWeave también anunció un nuevo centro de datos de $ 1.6 mil millones en Texas y planea expandirse a 14 centros de datos para fines de año. Actualmente, el unicornio estrella de IA, Inflection, está utilizando la nube de CoreWeave para construir un clúster de GPU de alrededor de 22 000 H100. La compañía anunció una nueva ronda de financiamiento de $1300 millones en julio de este año. Cabe mencionar que NVIDIA también se encuentra entre los inversores de Inflection.
CoreWeave es la primera empresa de computación en la nube en la que Nvidia ha invertido este año, pero no es la única.
Según The Information, Nvidia está a punto de llegar a un acuerdo de inversión con otro proveedor de servicios en la nube, Lambda Labs. Nvidia puede invertir US $ 300 millones y la valoración de Lambda Labs superará los US $ 1 mil millones. Lambda Labs afirma ser capaz de proporcionar recursos de potencia informática NVIDIA A100 y H100 al precio más bajo del mundo.
En la actualidad, con la asignación "razonable" de recursos de GPU, Nvidia se ha convertido en un comerciante en el mercado de la computación en la nube en el sentido real, y ha tomado el control del gigante de la nube desde la raíz: Microsoft es un buen caso.
Microsoft agregó un nuevo factor de riesgo a su informe de ganancias más reciente: "Los servicios podrían interrumpirse si no puede asegurar suficientes chips de inteligencia artificial para sus centros de datos".
Ante las enormes necesidades informáticas de IA, la carga de GPU de Microsoft es escasa e incluso tiene que buscar ayuda de sus competidores, proveedores de nube pequeños y medianos. Según CNBC, Microsoft "ha acordado gastar miles de millones de dólares en los próximos años para comprar la infraestructura de computación en la nube de la startup CoreWeave". Bajo el control de Nvidia, Microsoft tuvo que permitir que los proveedores de servicios en la nube pequeños y medianos como CoreWeave obtuvieran una diferencia de precio con la GPU.
Al invertir en proveedores de servicios en la nube pequeños y medianos, Nvidia ha puesto un pie en el campo de la computación en la nube. Aunque no hay ningún intento de construir una infraestructura en la nube y competir directamente con los gigantes de la nube, no nos sorprendería si Nvidia ingresa al mercado directamente mediante la adquisición de proveedores de servicios en la nube pequeños y medianos en el futuro.
Independientemente de si Nvidia finalmente entrará en el juego, se ha convertido en el jugador detrás de escena más grande en el mercado de la computación en la nube en la ola de la IA generativa.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Nvidia y los gigantes de la nube deben tener una batalla
Autor: Zhao Jian
Fuente: Jiazi Guangnian
"Corre por comida, o corre para que otros no te coman. En cualquier caso, sigue corriendo".
Este es el mensaje del CEO de Nvidia, Huang Renxun, a los graduados en su discurso en la Universidad Nacional de Taiwán este año. Por supuesto, también es una interpretación de la mentalidad de este imperio de capitalización de mercado de billones de dólares creado por Huang Renxun.
En 2023, Nvidia en fuga se encontró con la IA generativa, que Huang Renxun llamó muchas veces "el momento del iPhone de la IA". En este momento, Huang Renxun puso su mirada en la oportunidad de convertirse en el cazador en lugar de la presa: Yun.
Parece que Nvidia no debería tener la motivación para hacer la nube, no solo porque los proveedores de servicios en la nube son clientes importantes de Nvidia y compran miles de millones de dólares en GPU de Nvidia cada año, sino también porque este asunto parece no tener ninguna posibilidad de ganar.
El mercado actual de la computación en la nube está firmemente controlado por los tres gigantes de la nube Amazon AWS, Microsoft Azure y Google Cloud. Según datos de Statista, en 2022 la cuota de mercado de AWS será del 32 %, la de Azure del 23 % y la de Google Cloud del 10 %, y la cuota de mercado combinada de las tres empresas alcanzará el 65 %.
No es que no hayamos visto un retador. En los últimos diez años, empresas conocidas como VMware, Dell y Hewlett-Packard querían hacerse con una parte del mercado de la computación en la nube, pero todas fracasaron sin excepción.
Sin embargo, así como cada revolución tecnológica produce nuevos creadores de tendencias, esta ola de IA generativa, el fabricante de chips Nvidia comenzó a probar el mercado de la computación en la nube paso a paso:
**En el primer paso, en la conferencia GTC del 21 de marzo de este año, NVIDIA lanzó DGX Cloud. **Como se puede ver en el nombre, este es un producto en la nube. Los clientes pueden obtener directamente los productos y servicios de IA de Nvidia en la nube o en los centros de datos locales alquilándolos mensualmente;
**El segundo paso es invertir en los competidores de los tres gigantes de la nube. **Nvidia ha invertido sucesivamente en CoreWeave y Lambda Labs, dos pequeños y medianos proveedores de servicios en la nube en los Estados Unidos, y les ha asignado los escasos chips de GPU. ¿Qué tan exagerada es esta "preferencia"? En un momento en que los núcleos de GPU son difíciles de encontrar, CoreWeave pudo obtener 2300 millones de USD en financiamiento de deuda al hipotecar sus abundantes GPU, especialmente el H100.
Aunque recién comienza, el diseño del negocio de la nube representa el contraataque de Nvidia contra los gigantes de la nube.
Como todos sabemos, Google, Amazon y Microsoft han lanzado internamente proyectos de chips de IA de desarrollo propio: la serie TPU de Google, la serie Inferentia y Trainium de Amazon y el chip Athena de Microsoft que se expuso este año. Los tres gigantes de la nube tienen suficientes recursos y motivación para desarrollar chips de inteligencia artificial para reducir el "impuesto GPU" de Nvidia.
Nvidia es muy consciente de esto. Huang Renxun dijo sin rodeos en la conferencia telefónica del informe de ganancias del último trimestre que "hemos estado prestando atención a la competencia y siempre hemos tenido competencia".
Huang Renxun no puede evitar la expansión de los tres principales proveedores de servicios en la nube, pero quizás la mejor defensa sea la ofensiva, y el método de contraataque de Nvidia es ir directamente a la nube.
Con las dos cartas de triunfo de A100 y H100 en la mano, durante un largo período de tiempo, estos dos chips son la mejor opción para el entrenamiento y el razonamiento de modelos a gran escala, y ninguno de ellos, Nvidia tiene la oportunidad de convertirse en un verdadero líder en el mercado de la computación en la nube.
Una batalla abierta y secreta en torno a los chips y la computación en la nube se está desarrollando lentamente entre los cuatro gigantes tecnológicos con la capitalización de mercado de los cinco principales a nivel mundial.
1. Casi se cae antes del amanecer
Aquellos que están familiarizados con Nvidia sabrán lo hermosa que es Nvidia hoy y lo miserable que era Nvidia el año pasado.
Los negocios principales de Nvidia incluyen centros de datos, juegos, visualización profesional y automóviles. En el segundo trimestre de 2020, el negocio de centros de datos de Nvidia superó a los juegos por primera vez, convirtiéndose en la mayor fuente de ingresos de Nvidia.
En la reunión del informe financiero del cuarto trimestre de 2022 (correspondiente al año natural de noviembre de 2021 a enero de 2022), Nvidia entregó un sólido informe financiero del cuarto trimestre y su negocio de centros de datos aumentó un 71 % año con año. Huang Renxun dijo con optimismo en ese momento: "La plataforma informática de Nvidia marcó el comienzo de una extraordinaria demanda en el mercado". Sin embargo, una semana después, estalló el conflicto entre Rusia y Ucrania, lo que interrumpió la cadena de suministro de materias primas clave. Junto con el impacto de la epidemia, la tasa de crecimiento del negocio del centro de datos de Nvidia continuará desacelerándose a lo largo de 2022.
En el informe financiero del cuarto trimestre de 2023 publicado en febrero de este año, la tasa de crecimiento de los centros de datos de NVIDIA fue solo del 11 %, un mínimo histórico, y la primera vez desde 2020 que la cadena ha disminuido.
En 2022, el precio de las acciones de Nvidia también se reducirá a la mitad. Por supuesto, ha vuelto a subir hoy, y el nacimiento de ChatGPT salvó a Nvidia.
Entre las muchas razones de la disminución del crecimiento empresarial, la reducción de la demanda de los principales clientes es la más vigilante. En el informe financiero del cuarto trimestre de 2023, la directora financiera de Nvidia, Colette Kress, anunció una cifra: aproximadamente el 40 % de los 15 000 millones de dólares estadounidenses en ingresos del sector de centros de datos en el año fiscal 2023 (alrededor de 6 000 millones de dólares estadounidenses) proviene de centros de datos de hiperescala y servicios en la nube. proveedores
Pero si solo miras el cuarto trimestre, eso es solo un cuarto. Los desarrolladores de centros de datos de hiperescala y los proveedores de servicios en la nube están reduciendo drásticamente el gasto en GPU.
Además de la disminución objetiva de la demanda, el plan de chips de IA de desarrollo propio de los tres gigantes de la nube está erosionando poco a poco la cuota de mercado de NVIDIA GPU.
Google lanzó el chip TPU con IA de desarrollo propio de primera generación en 2016, y cinco años después, el 19 de mayo de 2021, lanzó el TPU v4 de cuarta generación. En un informe de investigación publicado este año, Google dijo que había ensamblado 4000 TPU v4 para construir una supercomputadora que funcionaba 1,7 veces más rápido y de manera más eficiente que una máquina equivalente impulsada por una GPU Nvidia A100, 1,9 veces más alta.
Amazon también tiene una tradición de chips de desarrollo propio, no solo para Nvidia, sino para todos los fabricantes de chips. En la actualidad, Amazon ha lanzado cuatro series de chips de desarrollo propio: la serie de chips de red Nitro, la serie de chips de servidor Graviton, la serie de chips de razonamiento AI Inferentia, la serie de chips de entrenamiento AI Trainium. Entre ellos, los dos últimos chips de IA compiten con las GPU de NVIDIA.
A pesar de su entrada tardía, Microsoft "llegó tarde". El 18 de abril de este año, según The Information, desde 2019, Microsoft ha estado desarrollando en secreto chips de inteligencia artificial, cuyo nombre en código interno es "Athena" (Athena), cientos de empleados están trabajando en el proyecto Athena, Microsoft ha invertido alrededor de 2 mil millones de dólares. . Algunos empleados de Microsoft y OpenAI han podido obtener chips para probar el rendimiento en los últimos modelos de lenguaje grande, como GPT-4.
Los proveedores de servicios en la nube tienen que pagar una gran cantidad del "impuesto Nvidia" cada año por la compra de GPU, especialmente después del estallido de la IA generativa.
En febrero de este año, New Street Research hizo una estimación: el motor de búsqueda Bing basado en ChatGPT necesita 8 GPU para responder a las preguntas de los usuarios en un segundo. A este ritmo, Microsoft necesitaría más de 20 000 servidores con 8 GPU para implementar los modelos en Bing para cada usuario, lo que le costaría a Microsoft $4 mil millones. A la escala de Google, que maneja de 8 a 9 mil millones de consultas por día, costaría $80 mil millones.
Los chips de IA de desarrollo propio de los proveedores de servicios en la nube no se venderán externamente y no competirán directamente con Nvidia. Sin embargo, al implementar chips de desarrollo propio en lugar de GPU en los centros de datos, los costos se pueden reducir de manera efectiva. Por ejemplo, Google ha implementado cientos de supercomputadoras TPU v4 en su servicio en la nube.
Los tres principales proveedores de servicios en la nube tienen suficientes recursos y motivación para desarrollar sus propios chips, lo que se ve como una grieta en el imperio de Nvidia. Nvidia es muy consciente de esto, pero parece que no hay mejor manera.
Hasta la aparición de ChatGPT, Nvidia, que estaba siendo presionada por los proveedores de servicios en la nube paso a paso, vio un punto de inflexión para el contraataque. Dado que los proveedores de servicios en la nube pueden fabricar chips, ¿no puede Nvidia crear nubes en la era de la IA?
** 2. ¿Nvidia tiene la oportunidad de hacer la nube? **
Nvidia es actualmente el mayor beneficiario de la revolución de la IA generativa, y Huang Renxun siempre ha hablado sobre el "momento iPhone de la IA" este año. La explosiva demanda de IA generativa ha convertido a GPU en una moneda fuerte.Algunas personas simplemente dicen que "GPU es el nuevo dólar".
De la GPU a la nube, ¿Nvidia realmente tiene alguna posibilidad?
La capacitación y el razonamiento de la IA generativa se llevan a cabo principalmente en la nube, y los proveedores de servicios en la nube que brindan infraestructura de IA serán uno de los mayores beneficiarios de la ola de IA generativa. Según los datos estimados por la firma de capital de riesgo A16Z de Silicon Valley, entre el 10 % y el 20 % de los ingresos totales generados por la IA generativa eventualmente fluye hacia los proveedores de servicios en la nube.
Sin embargo, este proceso no será rápido. El CEO de Amazon, Andy Jassy, dijo en la llamada de ganancias del segundo trimestre de 2023: "La IA generativa sin duda cambiará la experiencia de casi todos los clientes. Pero aún es demasiado pronto y la mayoría de las empresas todavía están considerando cómo lograr este objetivo. Es un maratón a un ritmo etapa muy temprana".
La esencia de los servicios en la nube es virtualizar los recursos de hardware en el centro de datos y luego arrendarlos al mercado. Casi el 100 % de los servidores en los centros de datos tradicionales se basan en CPU Intel y AMD. La CPU es como un "generalista con el cerebro más fuerte", que proporciona capacidades de "computación general": sistemas operativos de procesamiento, software del sistema y el programa de aplicación. tiene tareas de programa tales como programación de instrucciones complejas, bucles, bifurcaciones, juicio lógico y ejecución.
Pero las CPU no son buenas para el procesamiento de datos a gran escala y la computación paralela, que es lo que necesita la inteligencia artificial y las GPU de Nvidia son buenas. GPU es como un "experto en computación violenta", que se especializa en procesamiento de imágenes, aprendizaje profundo y capacitación, razonamiento y otras tareas actuales de modelos grandes. Huang Renxun llamó a esta capacidad de computación paralela masiva "computación acelerada".
En 2012, Jeff Hinton, el padre del aprendizaje profundo, y sus aprendices intentaron entrenar el modelo de red neuronal convolucional AlexNet en GPU NVIDIA por primera vez y ganaron la competencia de reconocimiento de imágenes de un solo golpe. Este incidente dio lugar a la explosión del aprendizaje profundo en los próximos diez años.Toda la industria de la inteligencia artificial, incluida la propia Nvidia, se dio cuenta del potencial de la GPU para la computación acelerada.
Los engranajes de la fortuna de Nvidia comenzaron a girar. Desde entonces, Huang Renxun ha gritado "la ley de Moore está muerta" en muchas ocasiones. Él cree que la era de la expansión de la CPU ha terminado, al igual que el aumento de diez veces en el rendimiento al mismo costo cada cinco años. Será reemplazado por GPU, y Huang Renxun inventó especialmente una "Ley de Huang": la GPU promoverá el rendimiento de la IA al doble año tras año.
Durante los diez años de 2012 a 2022, podemos llamarlo computación acelerada de 0 a 1, y la inteligencia artificial ha aterrizado en industrias específicas y escenarios específicos como el reconocimiento de imágenes. Sin embargo, la demanda de IA en este período aún no es lo suficientemente grande.La firma de investigación Aletheia predice que la tasa actual de penetración en el mercado de los servidores de IA es inferior al 5%. Esto está lejos de ser suficiente para hacer realidad el sueño de computación acelerada de Huang Renxun.
Hasta el nacimiento de ChatGPT en noviembre de 2022, apareció el "momento AI iPhone". Esto puede verse como el comienzo de la ampliación de la computación acelerada de 1 a 10.
Huang Renxun cree que la combinación de computación acelerada e IA generativa cambiará los métodos de computación en los últimos 60 años. A medida que las empresas se apresuran a aplicar la IA generativa a cada producto, servicio y proceso comercial, la infraestructura global del centro de datos de un billón de dólares pasará de la informática de uso general a la informática acelerada, y la reinvención del centro de datos resultante seguramente creará una gran oportunidad de mercado.
En la conferencia telefónica sobre ganancias del último trimestre, Huang Renxun prometió: "Estamos en el primer año de una inteligencia de centro de datos de una década".
Huang Renxun dijo que la computación acelerada es un desafío completo. Debe integrar todo el software, todas las bibliotecas de marcos y todos los algoritmos para la ingeniería. Estas tareas no son solo para un chip, sino para todo el centro de datos. Un centro de datos es una supercomputadora. Para lograr el mejor rendimiento, es necesario optimizar la pila completa de sistemas operativos de red, motores de computación distribuida, dispositivos de red, conmutadores y arquitecturas de computación.
Por ejemplo, el centro de datos de computación general utiliza principalmente Ethernet para conectar todos los servidores sin transmisión de datos a gran escala; el centro de datos de computación acelerada propuesto por Nvidia utiliza una tecnología llamada Infinite Band para la conexión, que tiene un rendimiento de datos extremadamente alto.
La optimización sistemática también permite que los centros de datos informáticos acelerados tengan una mayor eficiencia y costos más bajos que los centros de datos tradicionales.
Huang Renxun planteó una pregunta en SIGGRAPH, la conferencia anual de gráficos por computadora celebrada en agosto de este año: "¿Qué puedo comprar por $ 100 millones?" Huang Renxun se preguntó y respondió: "En el pasado, $ 100 millones podían comprar un centro de datos compuesto por 8.800 CPU x86. , el consumo de energía es de 5MW; hoy, 100 millones de dólares estadounidenses pueden comprar un centro de datos Iso-Budget compuesto por 2500 GH200, el consumo de energía es de 3MW, el rendimiento de razonamiento de la IA es 12 veces mayor que el de los datos de la CPU centro mencionado anteriormente, y la eficiencia energética es 20 veces".
Bajo el mismo rendimiento de razonamiento de IA, el costo de un centro de datos de GPU es solo 1/12 del costo de un centro de datos de CPU. “Cuanto más compras, más ahorras.” Este es el manifiesto de Huang Renxun para su Centro de datos de computación acelerada.
Hasta ahora, Nvidia ha construido cinco centros de datos y ha ayudado a clientes de todo el mundo a construir sus propios centros de datos. Además, un centro de datos tradicional puede tardar meses o incluso un año en pasar de la entrega a la operación, pero en Nvidia. Este tiempo es en semanas. "La experiencia del equipo en esta área es notable", dijo Huang.
Para los tres gigantes de la nube, la transición de los centros de datos informáticos de propósito general a los centros de datos informáticos acelerados no será rápida. No se trata solo de tecnología y capacidades, sino también de la toma de decisiones y los procesos de empresas tan gigantes.
Esto le da a Nvidia la oportunidad de hacer la nube. Dar un paso adelante del centro de datos a la nube es solo una cuestión de rutina, y Nvidia ya lo está intentando.
** 3. Oscuridad Chencang **
En el informe financiero del cuarto trimestre de 2023 con la tasa de crecimiento más baja del negocio del centro de datos, Nvidia también anunció un nuevo producto: DGX Cloud. En la conferencia GTC un mes después, se lanzó oficialmente DGX Cloud.
Como puede verse por el nombre, este es un producto de servicio en la nube. ¿Nvidia va a entrar en el mercado de la computación en la nube?
Veamos primero qué es DGX. DGX es la primera supercomputadora lanzada por Nvidia en 2017, a la que Huang Renxun llamó "un centro de datos en un chasis".
El DGX de primera generación integraba 8 GPU (Tesla P100) y 4 unidades de estado sólido, y utilizaba la tecnología de conexión NVIDIA NVlink. En términos de capacitación de aprendizaje profundo, el rendimiento de un solo DGX es equivalente a 250 servidores x86 ordinarios. Por supuesto, también es caro, a $129,000 por una sola unidad.
Después de la reunión, Huang Renxun presentó el primer DGX-1 a Elon Musk. Musk es el cofundador de OpenAI. OpenAI comenzó a partir de esta supercomputadora y construyó paso a paso el ChatGPT actual.
Hoy en día, la supercomputadora DGX se ha desarrollado hasta la quinta generación. Las primeras cuatro generaciones son DGX P100, DGX A100, DGX H100 y la última DGX GH200.
La DGX Cloud lanzada por Nvidia es la versión en la nube de la supercomputadora lanzada anteriormente.Una instancia de DGX Cloud (una computadora virtual en un servidor en la nube) está configurada con 8 A100 o H100.
Sin embargo, el precio de DGX Cloud no es barato, 36.999 dólares al mes, unos 264.000 RMB. A modo de comparación, la instancia de Microsoft Azure ND96asr con 8 A100 y sus especificaciones equivalentes cuestan 19 854 dólares al mes, que es solo la mitad de DGX Cloud.
¿Por qué Nvidia se atreve a poner un precio tan alto? La respuesta es que DGX Cloud es una solución llave en mano que integra software y hardware. **Nvidia ya no se anuncia a sí misma como una empresa de chips de GPU, sino que se posiciona como una empresa de plataformas informáticas. **
Además de los recursos de hardware, DGX Cloud también ha lanzado dos plataformas de software de soporte. Una es NVIDIA AI Foundations, que ayuda a las empresas a crear modelos personalizados, incluidos modelos de lenguaje, visión y biomédicos; la otra es NVIDIA AI Enterprise, que contiene 4000 modelos diferentes. Un marco de IA que ayuda a las empresas a usarlo de forma inmediata. Los productos de IA de Nvidia son similares a MaaS lanzados por proveedores de servicios en la nube nacionales como Alibaba Cloud.
Jensen Huang es optimista acerca de estas nuevas fuentes de ingresos de software y espera que el campo de la IA generativa crezca de una porción de "un solo dígito" de los ingresos totales de la empresa a una porción "considerable" en el próximo año. "Estamos entusiasmados con la expansión del nuevo modelo de negocios", dijo Huang Renxun.
El lanzamiento de DGX Cloud ha formado objetivamente una cierta relación competitiva con los proveedores de servicios en la nube, pero Nvidia todavía quiere continuar manteniendo una estrecha cooperación con los proveedores de servicios en la nube. Actualmente, Nvidia no crea una infraestructura de nube completa desde cero, pero aloja DGX Cloud en las plataformas de nube de varios proveedores de servicios de nube.
Nvidia vende instalaciones de hardware básico a proveedores de la nube, luego les compra recursos de computación en la nube y finalmente vende servicios en la nube a clientes empresariales y retiene todos los ingresos. Los clientes pueden acceder a la supercomputadora de IA de Nvidia solo a través de un navegador para usar los productos de IA y los servicios modelo de IA de Nvidia.
Sin embargo, ¿lo comprarán los proveedores de servicios en la nube?
En este sentido, Huang Renxun explicó: "La cooperación entre los servicios en la nube de NVIDIA y los proveedores de servicios en la nube será una situación beneficiosa para todos. Las dos partes crearán nuevas aplicaciones y desarrollarán nuevos mercados de manera conjunta". Huang Renxun dijo que, idealmente, los clientes comprarán NVIDIA DGX La relación entre la nube y la nube del proveedor de servicios en la nube es de 1:9.
Oracle es el primer proveedor de servicios en la nube en anunciar una asociación con Nvidia. El gigante del software ha estado llevando a cabo urgentemente la transformación de la nube en los últimos años, por lo que tiene suficiente motivación para formar una alianza con Nvidia para dar un giro en el mercado de la computación en la nube. Nvidia también está trabajando con Microsoft Azure, Google Cloud y otras plataformas en la nube, que también se espera que se lancen pronto.
** Las ilusiones de Nvidia son ruidosas, pero no todos los proveedores de servicios en la nube aceptarán la solicitud de Nvidia. **AWS se negó a cooperar con Nvidia en productos DGX Cloud.
Según Reuters, Dave Brown, vicepresidente de Amazon Elastic Cloud Computing, dijo: "NVIDIA se puso en contacto con nosotros y estudiamos el modelo comercial. Pero para AWS, esto no tiene mucho sentido". servidores confiables Experiencia a largo plazo con la experiencia existente en la cadena de suministro.
AWS comenzó a comprar el chip H100 de Nvidia en marzo de este año, pero solo como parte de su sistema de desarrollo propio. AWS también está considerando utilizar el último chip de inteligencia artificial de AMD, el MI300, pero aún debe tomar una decisión final.
Ante un mercado emergente de IA generativa, la distribución de beneficios entre Nvidia y los proveedores de servicios en la nube seguirá cambiando. Pero está bastante claro que Nvidia ha movido el queso del proveedor de servicios en la nube.
4. Drenar desde abajo
El lanzamiento de DGX Cloud es solo el primer paso, y la participación de Nvidia en el mercado de la computación en la nube aún se está profundizando. En este paso, Nvidia optó por no acabar en persona, sino que optó por apoyar a los competidores de los tres gigantes de la nube.
Este año, surgió un proveedor de nube pequeño y mediano llamado CoreWeave, que se convirtió en un proveedor de servicios en la nube que es más popular que los tres gigantes de la nube. **CoreWeave afirma ser el único proveedor de servicios en la nube del mundo que puede "proporcionar Nvidia H100 a gran escala". **
Según las estimaciones del sitio web GPU Utils, la cantidad de H100 que CoreWeave ordenó a Nvidia es de aproximadamente 35,000-40,000. En comparación, la supercomputadora A3 lanzada por Google en mayo de este año tiene alrededor de 26 000 H100, la instancia de máquina virtual EC2 P5 lanzada por Amazon AWS en julio se basa en 20 000 H100 y la máquina virtual Azure ND H100v5 lanzada por Microsoft en agosto, Contiene solo 8 piezas de H100. Sin embargo, Microsoft posee alrededor de 285.000 A100.
Además de la minería, CoreWeave también ha comenzado a tratar de servir a algunos clientes empresariales, como inteligencia artificial, medios de entretenimiento y química computacional. En 2019, CoreWeave pasó por completo de las GPU de nivel de consumidor a las GPU de nivel empresarial de Nvidia, porque las GPU de nivel empresarial pueden funcionar las 24 horas del día, lo que aumenta la utilización de la GPU a casi el 100 %.
En 2021, CoreWeave lanzó oficialmente la plataforma en la nube GPU basada en Nvidia. En el tercer trimestre de 2022, con la fusión de Ethereum, la era de la minería de tarjetas gráficas a gran escala ha terminado, CoreWeave se ha transformado por completo en un proveedor de servicios en la nube y anunció en noviembre de este año que se ha convertido en el primer lote de GPU que utilizan el súper chip NVIDIA HGX H100. Uno de los proveedores de servicios en la nube.
En comparación con los tres gigantes de Amazon, Microsoft y Google, CoreWeave no planea desarrollar su propio chip de IA, lo que ha sido muy apreciado por Nvidia.
En abril de 2023, Nvidia profundizó su cooperación con CoreWeave y, además de la cooperación empresarial, también invirtió en la ronda de financiación B1 de $221 millones de CoreWeave. Lo que es más importante, Nvidia ha proporcionado a CoreWeave un canal único para los escasos A100 y H100.
En una entrevista reciente con Bloomberg, Brannin McBee, cofundador y director de estrategia de CoreWeave, dijo que Nvidia se quedó sin chips este año y que los pedidos de CoreWeave también están programados para el segundo trimestre del próximo año.
CoreWeave probablemente tenga la reserva más grande de GPU Nvidia en el mundo. En el contexto de la actual escasez de GPU, los chips son incluso más valiosos que el capital, y CoreWeave ha creado un método de financiación innovador. En agosto de este año, CoreWeave aseguró $2.3 mil millones en financiamiento de deuda al hipotecar sus chips GPU. Anteriormente, la ronda B1 de financiamiento de capital de CoreWeave solo recibió $ 421 millones.
Con la alianza estratégica "nube + GPU" con Nvidia, el rendimiento de CoreWeave también se ha disparado.
Antes de este año, CoreWeave era una empresa poco conocida. Pero ahora, CoreWeave está preparado para ganar miles de millones de dólares a través de sus GPU. En una entrevista con VentureBeat, el cofundador y director de estrategia de CoreWeave, Brannin McBee, reveló que los ingresos de CoreWeave serán de $30 millones en 2022, alcanzarán los $500 millones este año y firmaron casi $2 mil millones en contratos el próximo año.
CoreWeave también anunció un nuevo centro de datos de $ 1.6 mil millones en Texas y planea expandirse a 14 centros de datos para fines de año. Actualmente, el unicornio estrella de IA, Inflection, está utilizando la nube de CoreWeave para construir un clúster de GPU de alrededor de 22 000 H100. La compañía anunció una nueva ronda de financiamiento de $1300 millones en julio de este año. Cabe mencionar que NVIDIA también se encuentra entre los inversores de Inflection.
CoreWeave es la primera empresa de computación en la nube en la que Nvidia ha invertido este año, pero no es la única.
Según The Information, Nvidia está a punto de llegar a un acuerdo de inversión con otro proveedor de servicios en la nube, Lambda Labs. Nvidia puede invertir US $ 300 millones y la valoración de Lambda Labs superará los US $ 1 mil millones. Lambda Labs afirma ser capaz de proporcionar recursos de potencia informática NVIDIA A100 y H100 al precio más bajo del mundo.
En la actualidad, con la asignación "razonable" de recursos de GPU, Nvidia se ha convertido en un comerciante en el mercado de la computación en la nube en el sentido real, y ha tomado el control del gigante de la nube desde la raíz: Microsoft es un buen caso.
Microsoft agregó un nuevo factor de riesgo a su informe de ganancias más reciente: "Los servicios podrían interrumpirse si no puede asegurar suficientes chips de inteligencia artificial para sus centros de datos".
Ante las enormes necesidades informáticas de IA, la carga de GPU de Microsoft es escasa e incluso tiene que buscar ayuda de sus competidores, proveedores de nube pequeños y medianos. Según CNBC, Microsoft "ha acordado gastar miles de millones de dólares en los próximos años para comprar la infraestructura de computación en la nube de la startup CoreWeave". Bajo el control de Nvidia, Microsoft tuvo que permitir que los proveedores de servicios en la nube pequeños y medianos como CoreWeave obtuvieran una diferencia de precio con la GPU.
Al invertir en proveedores de servicios en la nube pequeños y medianos, Nvidia ha puesto un pie en el campo de la computación en la nube. Aunque no hay ningún intento de construir una infraestructura en la nube y competir directamente con los gigantes de la nube, no nos sorprendería si Nvidia ingresa al mercado directamente mediante la adquisición de proveedores de servicios en la nube pequeños y medianos en el futuro.
Independientemente de si Nvidia finalmente entrará en el juego, se ha convertido en el jugador detrás de escena más grande en el mercado de la computación en la nube en la ola de la IA generativa.