Con el ajuste del gasto en la nube en software empresarial de Internet, la desaceleración del crecimiento se ha convertido gradualmente en una nube oscura sobre las cabezas de los proveedores de la nube.
El nacimiento de ChatGPT rompió este cuello de botella y la IA remodelará el software. Clientes de proveedores de la nube: las empresas de software están incorporando activamente las capacidades de IA que ofrecen los grandes modelos en los flujos de trabajo existentes para completar la automatización de nivel superior.
Con el agotamiento gradual de los nuevos clientes de la nube, las empresas de software ya no van a la nube por ir a la nube, sino que se esfuerzan por utilizar la IA para mejorar la productividad. ** "Este es el mayor aumento en el mercado de la computación en la nube en los próximos diez años. La infraestructura de poder de computación es el beneficiario absoluto del gran modelo". ** Una persona en la industria de la computación en la nube que ha estado en la industria por más de diez años explicó a Geek Park.
Bajo tal perspectiva, varios de los principales gigantes de servicios en la nube en el extranjero (Microsoft, Amazon, Google y Oracle) hicieron cambios rápidamente. **En los últimos meses, los gigantes de la nube han gastado dinero real para desarrollar modelos a gran escala, inversiones estratégicas y chips de IA de desarrollo propio... La era de los modelos a gran escala está en ascenso y ya han apuntado una nueva generación de clientes de software de IA. **
El pasado está lejos de ser irrompible, el mercado de la nube se reorganiza rápidamente y los gigantes han abierto una nueva cortina de competencia.
Al fin y al cabo, el declive del hermano mayor en la era de Internet móvil es inminente. En unos pocos años, Nokia ha pasado del 70% de la cuota de mercado de telefonía móvil en su apogeo a que a nadie le importe. Es solo entre el pensamiento de tomar una decisión equivocada. En cuanto al modelo grande, la industria de la nube rápidamente llegó a un consenso: esta vez, la IA no es una variable pequeña. A juzgar por la rápida velocidad de desarrollo de la industria, es posible que los principales actores actuales también se queden atrás.
** Ha pasado la mitad de 2023, este artículo clasificará varios de los principales gigantes de la nube en el extranjero, ¿cuál es la clave de la competencia entre los proveedores de la nube hoy? **
01 Investigación y desarrollo de chips específicos de IA, no puedes dar toda tu "vida" a Nvidia
Después del advenimiento de la era de los modelos grandes, para los proveedores de servicios en la nube, el recurso más escaso en la actualidad es la potencia informática o chips de IA. **Invertir en la infraestructura subyacente: chips de aceleración de IA, también se ha convertido en el primer foco de competencia entre los proveedores de la nube en la actualidad. **
Se considera que la escasez y el alto costo son las principales razones por las que los proveedores de la nube aceleran los chips de desarrollo propio. Incluso figuras poderosas en el círculo tecnológico como Musk comentaron que "esta cosa (GPU de Nvidia) es más difícil de manejar que la medicina", y en secreto compraron 10,000 tarjetas de Nvidia para su compañía de IA X.AI, y también recibieron mucho capital inactivo. en Oráculo.
Este grado de escasez se refleja en el negocio de los gigantes de la nube, que se corresponde directamente con la pérdida de negocio provocada por el "cuello pegado". Incluso Microsoft, que es el primero en actuar primero, se ha visto expuesto a rumores de que, debido a la escasez de GPU, el equipo interno de I + D de IA implementa un sistema de racionamiento de GPU, se retrasan varios planes nuevos y los nuevos clientes tienen que hacer cola durante meses para ir a Azure.
Incluso las instituciones de capital de riesgo tienen que confiar en el inventario de chips de Nvidia para obtener proyectos. Por el bien de las cartas N, las fuerzas de todas las partes han llegado al punto en que "se usa todo".
** Otro nombre para la escasez es caro. **Teniendo en cuenta que el modelo grande requiere más de diez veces la potencia informática, la tarjeta solo será más cara. Recientemente, un inversionista le dijo a Geek Park: "A principios de año, la tarjeta única A100 costaba 80 000, pero ahora se vendió a 160 000, lo que todavía está fuera de alcance". Los gigantes de las nubes tendrán que pagar El "impuesto Nvidia" solo será una cifra astronómica.
Es difícil sentir que el "destino" está en manos de otros, y Microsoft, que es el más popular, tiene más voz. Hace un mes, The Information informó en exclusiva que Microsoft estableció un "Tiantuan" de 300 personas para acelerar el ritmo de los chips de IA de desarrollo propio. El chip de servidor con nombre en código Cascade podría lanzarse el próximo año.
No solo por el "cuello atascado", los chips de desarrollo propio de los fabricantes de la nube, sino también por otra capa de significado: la GPU no es necesariamente el chip más adecuado para ejecutar IA, y la versión de desarrollo propio puede optimizar tareas específicas de IA.
Es cierto que la mayoría de los modelos de IA avanzados actuales funcionan con GPU, porque las GPU son mejores para ejecutar cargas de trabajo de aprendizaje automático que los procesadores de propósito general. **Sin embargo, las GPU todavía se consideran chips de uso general, no plataformas de procesamiento verdaderamente nativas para la informática de IA. **Como señaló el Instituto de Investigación de Yuanchuan en "A Crack in the Nvidia Empire", las GPU no nacieron para entrenar redes neuronales. Cuanto más rápido se desarrolle la inteligencia artificial, más se expondrán estos problemas. Confiar en CUDA y varias tecnologías para "cambiar mágicamente" escena por escena es una opción, pero no es la solución óptima.
Amazon, Google y Microsoft han estado desarrollando chips conocidos como ASIC (circuitos integrados de aplicaciones específicas) que son más adecuados para la inteligencia artificial. The Information entrevistó a varios profesionales y analistas de la industria de chips y concluyó que las GPU de Nvidia ayudaron a entrenar el modelo detrás de ChatGPT, pero los ASIC generalmente realizan estas tareas más rápido y consumen menos energía.
Como se muestra en la figura anterior: Amazon, Microsoft y Google han resaltado la importancia de los chips de desarrollo propio y han desarrollado dos tipos de chips para el sector del centro de datos: chips informáticos estándar y chips dedicados a la formación y ejecución de máquinas. modelos de aprendizaje Estos modelos pueden impulsar chatbots como ChatGPT.
En la actualidad, Amazon y Google han desarrollado ASIC personalizados para productos internos clave y han proporcionado estos chips a los clientes a través de la nube. Desde 2019, Microsoft también ha estado trabajando en el desarrollo de chips ASIC personalizados para impulsar grandes modelos de lenguaje.
Algunos chips desarrollados por estos proveedores de la nube, como los chips de servidor Graviton de Amazon y los chips específicos de IA lanzados por Amazon y Google, ya son comparables en rendimiento a los chips de los fabricantes de chips tradicionales, según los datos de rendimiento publicados por los clientes de la nube y Microsoft. Google TPU v4 es entre 1,2 y 1,7 veces más rápido que Nvidia A100 y reduce el consumo de energía entre 1,3 y 1,9 veces.
02 Competencia de inversión estratégica: los gigantes gastan dinero para "comprar clientes"
Además de la investigación y el desarrollo de chips, el segundo punto clave en la competencia de varios de los principales gigantes de la nube en el extranjero es invertir en inversiones estratégicas extranjeras para captar clientes de IA y proyectos de IA. **
En comparación con el capital de riesgo, la inversión estratégica de los gigantes tiene una ventaja absoluta. La combinación de OpenAI y Microsoft sirve como un excelente ejemplo, abriendo un precedente para modelos a gran escala e inversión estratégica. Esto se debe a que las barreras de recursos requeridas para modelos grandes y aplicaciones relacionadas son extremadamente altas. Solo el dinero, el dinero limitado, no es suficiente para tomar proyectos de IA. Después de todo, Google, Microsoft, AWS, Oracle o Nvidia no solo pueden escribir cheques enormes, sino también proporcionar recursos escasos, como créditos en la nube y GPU.
Desde esta perspectiva, captar proyectos y captar clientes ocurre entre los gigantes de la nube, y no hay otros rivales. Están jugando un nuevo juego: buscan promesas de las empresas de IA de que utilizarán sus servicios en la nube en lugar de los de la competencia.
Microsoft ocupa el puesto de proveedor exclusivo de servicios en la nube de OpenAI.Mientras pagaba una enorme factura en la nube por OpenAI, Microsoft ha intercambiado una serie de derechos envidiables, como la prioridad de producto y equidad de OpenAI.
**Los rivales de Microsoft también se esfuerzan por ganarse a otros clientes de IA. **Estos proveedores de la nube ofrecen grandes descuentos y créditos a las empresas de inteligencia artificial para ganar su negocio. Los críticos han señalado que esto es similar a comprar clientes, aunque la práctica de tomar acciones de clientes actuales o futuros no es infrecuente en el mundo del software empresarial.
Oracle también ha ofrecido créditos informáticos por valor de cientos de miles de dólares como incentivo para que las nuevas empresas de inteligencia artificial alquilen servidores en la nube de Oracle, informó anteriormente The Information.
Google puede ser el más activo de estos principales proveedores de nube, ofreciendo a las nuevas empresas de IA una combinación de efectivo y créditos de Google Cloud a cambio de capital. A principios de este año, Google invirtió 400 millones de dólares en Anthropic, uno de los principales desafíos empresariales de OpenAI. Google Cloud dijo en febrero que se había convertido en el proveedor de nube "preferido" de Anthropic.
Recientemente, Google invirtió 100 millones de dólares estadounidenses en Runway, una empresa de IA en el campo de "Vensheng Video". Pero antes de eso, Amazon AWS promocionó a Runway como un cliente clave de inicio de IA. En marzo de este año, AWS y Runway anunciaron el establecimiento de una asociación estratégica a largo plazo, convirtiéndose en su "proveedor de nube preferido". Ahora, Runway parece ser uno de los "peones" en el duelo de Google con Amazon, porque también se espera que Runway alquile servidores en la nube de Google.
Anteriormente, Google Cloud también anunció el establecimiento de asociaciones con otras dos empresas populares de IA, a saber: Midjourney en el campo de gráficos de Vincent y el robot de chat App Character.ai, que anteriormente era un cliente clave en la nube de Oracle.
Es demasiado pronto para saber si estos acuerdos ayudarán a Google a ponerse al día con sus rivales más grandes de computación en la nube, AWS y Microsoft, pero Google Cloud se está recuperando.
De las 75 empresas de software (IA) en la base de datos de The Information, Google proporciona algunos servicios en la nube a al menos 17 empresas, más que cualquier otro proveedor de nube. Amazon no se queda atrás, con al menos 15 empresas que utilizan AWS para la computación en la nube. Microsoft y Oracle brindan servicios en la nube a seis empresas y cuatro empresas, respectivamente. Por supuesto, el uso de múltiples nubes también es un hábito en la industria, y al menos 12 de estas 75 empresas usan una combinación de múltiples proveedores de nubes.
03 modelo grande es la verdadera clave para ganar o perder
El poder de cómputo y la inversión en combate son el terreno elevado que debe disputarse en la etapa inicial de esta guerra en la nube. Pero a la larga, el gran modelo es la verdadera clave del éxito de la competencia en el mercado.
La capacidad de Microsoft para convertirse en líder se debe a la cooperación con OpenAI. Junto con las excelentes capacidades de ingeniería del equipo de Microsoft, GPT-4 se incorporó al "cubo familiar" de Microsoft en unos pocos meses. En los últimos seis meses, Microsoft aprovechó por primera vez el uso prioritario de los productos OpenAI y la reducción de precios de los productos de software empresarial para apoderarse de más mercados en la nube. Luego confíe en la actualización de la línea de productos a Microsoft 365 Copilot para aumentar el precio y obtener mayores ingresos.
Según la investigación de Yunqi Capital, el modelo subyacente de Microsoft se basa básicamente en OpenAI y, después de acceder al modelo grande, Microsoft comenzó a empaquetar y vender Teams, Power BI, Azure y otros productos de capa de aplicación a un precio más bajo.
La directora financiera de Microsoft, Amy Hood, dijo a los inversores en abril que OpenAI generará ingresos para Azure a medida que más personas comiencen a usar sus servicios.
Nuevos informes indican que Microsoft está cobrando a algunos clientes de Office 365 una prima del 40% para probar las capacidades de IA que automatizan tareas como escribir texto en documentos de Word y crear diapositivas de PowerPoint, y al menos 100 clientes han pagado una tarifa fija de hasta $100,000. Los datos muestran que dentro de un mes de su lanzamiento, Microsoft ganó más de $ 60 millones en ingresos de las capacidades de IA de Microsoft 365 Copilot.
**En marcado contraste con Microsoft, el otrora líder Amazon Cloud, un paso atrás en el gran modelo, enfrenta desafíos más severos hoy. **
AWS fue uno de los primeros desarrolladores de servicios en la nube de IA y ha estado en funcionamiento desde alrededor de 2016. Pero los clientes no encuentran que los servicios, que incluyen reconocimiento facial, conversión de texto a voz real y formas primitivas de chatbots para tareas como servicio al cliente, sean muy útiles. AWS también lanzó SagaMaker, una herramienta digital de IA para ingenieros en 2017, para ayudarlos a desarrollar y utilizar modelos de aprendizaje automático, que alguna vez se convirtió en el producto de IA más importante de AWS.
Sin embargo, en los años siguientes, los productos de IA de AWS no lograron mantenerse al día con la ola de modelos de lenguaje grande.Desde noviembre de 2021, Microsoft comenzó a vender productos de IA desarrollados en base a la serie de modelos GPT para uso de clientes empresariales. Al mismo tiempo, Google también se ha hecho con importantes startups de IA como clientes de la nube y ha vendido software patentado de IA a sus clientes de la nube. Incluso Oracle, el rezagado de la computación en la nube, tiene sus propias ventajas al proporcionar recursos informáticos a las nuevas empresas de IA.
AWS, con retraso, está tratando de ponerse al día. En abril, anunció un servicio en la nube que permite a los clientes utilizar modelos grandes de Stability, Anthropic y AI 21 Labs como base para sus propios productos. A cambio, AWS compartirá una parte de los ingresos con estos socios.
En la conferencia Google I/O de 2023, el CEO Sundar Pichai presentó el último progreso de IA de Google | Fuente de la imagen: sitio web oficial de Google
**Google se levantó temprano, pero se puso al día tarde. **Como fabricante importante con la acumulación más profunda en el campo de los modelos a gran escala, la reacción de Google después del lanzamiento de ChatGPT no es desagradable. Rápidamente lanzó el robot inteligente conversacional Bard y una nueva generación del modelo de lenguaje a gran escala PaLM 2. como respuesta Como resultado, la conferencia de prensa anuló directamente , La velocidad de lanzamiento del producto posterior no es ideal, lo que contrasta marcadamente con las sólidas capacidades de ingeniería de Microsoft.
**Lo último que vale la pena mencionar es que Oracle, que dejó de estar a la vanguardia del mercado de la nube muy pronto, inesperadamente tiene una tendencia a contraatacar en esta ola de aumento. **
Oracle, un rezagado durante mucho tiempo en el espacio de la nube, ha tenido un éxito sorprendente en el arrendamiento de servidores en la nube a nuevas empresas de IA de alto perfil que compiten con OpenAI. Eso se debe en parte a que Oracle Cloud puede ejecutar modelos complejos de aprendizaje automático de manera más económica que Amazon Web Services o Google Cloud, informó The Information.
El enfoque de Oracle Cloud para la carrera de IA parece ser similar al de AWS, que desarrolla su propio software de IA para vender a los clientes, pero también venderá acceso a software y productos de IA de código abierto de otros desarrolladores de IA.
Además, algunas personas familiarizadas con el asunto revelaron que Oracle ha comenzado a probar los productos de OpenAI para enriquecer su línea de productos para clientes finales, incluidos los recursos humanos y el software de gestión de la cadena de suministro, pero es más probable que Oracle desarrolle su propio software para este propósito. Las funciones ayudan a los clientes de Oracle a generar rápidamente descripciones de puestos y programar reuniones entre reclutadores y candidatos, aunque la empresa todavía está decidiendo qué productos mejorar primero.
Materiales de referencia:
"Una grieta en el imperio de Nvidia" | Instituto de Investigación de Yuanchuan
Gran fábrica y gran modelo: el negocio real es la última palabra | "Yunqi FutureScope"
La otra carrera de inteligencia artificial de Google y Microsoft: chips de servidor|La información
Crece el escepticismo sobre la estrategia de IA de AWS|La información
Google, Nvidia y Microsoft ofrecen lo que los capitalistas de riesgo no pueden: la información
Pro Weekly: la IA generativa estimula la demanda de la nube y la competencia|La información
Google invierte en pasarela de inicio de IA para arrebatarle negocio en la nube a AWS|La información
Microsoft está cobrando a algunos clientes de Office 365 un 40 % adicional para probar las funciones de IA|La noticia
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Microsoft, Google y Amazon inician la guerra de la nube en la era de los grandes modelos
Autor: Wan Chen Editor: Zheng Xuan
Con el ajuste del gasto en la nube en software empresarial de Internet, la desaceleración del crecimiento se ha convertido gradualmente en una nube oscura sobre las cabezas de los proveedores de la nube.
El nacimiento de ChatGPT rompió este cuello de botella y la IA remodelará el software. Clientes de proveedores de la nube: las empresas de software están incorporando activamente las capacidades de IA que ofrecen los grandes modelos en los flujos de trabajo existentes para completar la automatización de nivel superior.
Con el agotamiento gradual de los nuevos clientes de la nube, las empresas de software ya no van a la nube por ir a la nube, sino que se esfuerzan por utilizar la IA para mejorar la productividad. ** "Este es el mayor aumento en el mercado de la computación en la nube en los próximos diez años. La infraestructura de poder de computación es el beneficiario absoluto del gran modelo". ** Una persona en la industria de la computación en la nube que ha estado en la industria por más de diez años explicó a Geek Park.
Bajo tal perspectiva, varios de los principales gigantes de servicios en la nube en el extranjero (Microsoft, Amazon, Google y Oracle) hicieron cambios rápidamente. **En los últimos meses, los gigantes de la nube han gastado dinero real para desarrollar modelos a gran escala, inversiones estratégicas y chips de IA de desarrollo propio... La era de los modelos a gran escala está en ascenso y ya han apuntado una nueva generación de clientes de software de IA. **
El pasado está lejos de ser irrompible, el mercado de la nube se reorganiza rápidamente y los gigantes han abierto una nueva cortina de competencia.
Al fin y al cabo, el declive del hermano mayor en la era de Internet móvil es inminente. En unos pocos años, Nokia ha pasado del 70% de la cuota de mercado de telefonía móvil en su apogeo a que a nadie le importe. Es solo entre el pensamiento de tomar una decisión equivocada. En cuanto al modelo grande, la industria de la nube rápidamente llegó a un consenso: esta vez, la IA no es una variable pequeña. A juzgar por la rápida velocidad de desarrollo de la industria, es posible que los principales actores actuales también se queden atrás.
** Ha pasado la mitad de 2023, este artículo clasificará varios de los principales gigantes de la nube en el extranjero, ¿cuál es la clave de la competencia entre los proveedores de la nube hoy? **
01 Investigación y desarrollo de chips específicos de IA, no puedes dar toda tu "vida" a Nvidia
Después del advenimiento de la era de los modelos grandes, para los proveedores de servicios en la nube, el recurso más escaso en la actualidad es la potencia informática o chips de IA. **Invertir en la infraestructura subyacente: chips de aceleración de IA, también se ha convertido en el primer foco de competencia entre los proveedores de la nube en la actualidad. **
Se considera que la escasez y el alto costo son las principales razones por las que los proveedores de la nube aceleran los chips de desarrollo propio. Incluso figuras poderosas en el círculo tecnológico como Musk comentaron que "esta cosa (GPU de Nvidia) es más difícil de manejar que la medicina", y en secreto compraron 10,000 tarjetas de Nvidia para su compañía de IA X.AI, y también recibieron mucho capital inactivo. en Oráculo.
Este grado de escasez se refleja en el negocio de los gigantes de la nube, que se corresponde directamente con la pérdida de negocio provocada por el "cuello pegado". Incluso Microsoft, que es el primero en actuar primero, se ha visto expuesto a rumores de que, debido a la escasez de GPU, el equipo interno de I + D de IA implementa un sistema de racionamiento de GPU, se retrasan varios planes nuevos y los nuevos clientes tienen que hacer cola durante meses para ir a Azure.
Incluso las instituciones de capital de riesgo tienen que confiar en el inventario de chips de Nvidia para obtener proyectos. Por el bien de las cartas N, las fuerzas de todas las partes han llegado al punto en que "se usa todo".
** Otro nombre para la escasez es caro. **Teniendo en cuenta que el modelo grande requiere más de diez veces la potencia informática, la tarjeta solo será más cara. Recientemente, un inversionista le dijo a Geek Park: "A principios de año, la tarjeta única A100 costaba 80 000, pero ahora se vendió a 160 000, lo que todavía está fuera de alcance". Los gigantes de las nubes tendrán que pagar El "impuesto Nvidia" solo será una cifra astronómica.
Es difícil sentir que el "destino" está en manos de otros, y Microsoft, que es el más popular, tiene más voz. Hace un mes, The Information informó en exclusiva que Microsoft estableció un "Tiantuan" de 300 personas para acelerar el ritmo de los chips de IA de desarrollo propio. El chip de servidor con nombre en código Cascade podría lanzarse el próximo año.
No solo por el "cuello atascado", los chips de desarrollo propio de los fabricantes de la nube, sino también por otra capa de significado: la GPU no es necesariamente el chip más adecuado para ejecutar IA, y la versión de desarrollo propio puede optimizar tareas específicas de IA.
Es cierto que la mayoría de los modelos de IA avanzados actuales funcionan con GPU, porque las GPU son mejores para ejecutar cargas de trabajo de aprendizaje automático que los procesadores de propósito general. **Sin embargo, las GPU todavía se consideran chips de uso general, no plataformas de procesamiento verdaderamente nativas para la informática de IA. **Como señaló el Instituto de Investigación de Yuanchuan en "A Crack in the Nvidia Empire", las GPU no nacieron para entrenar redes neuronales. Cuanto más rápido se desarrolle la inteligencia artificial, más se expondrán estos problemas. Confiar en CUDA y varias tecnologías para "cambiar mágicamente" escena por escena es una opción, pero no es la solución óptima.
Amazon, Google y Microsoft han estado desarrollando chips conocidos como ASIC (circuitos integrados de aplicaciones específicas) que son más adecuados para la inteligencia artificial. The Information entrevistó a varios profesionales y analistas de la industria de chips y concluyó que las GPU de Nvidia ayudaron a entrenar el modelo detrás de ChatGPT, pero los ASIC generalmente realizan estas tareas más rápido y consumen menos energía.
En la actualidad, Amazon y Google han desarrollado ASIC personalizados para productos internos clave y han proporcionado estos chips a los clientes a través de la nube. Desde 2019, Microsoft también ha estado trabajando en el desarrollo de chips ASIC personalizados para impulsar grandes modelos de lenguaje.
Algunos chips desarrollados por estos proveedores de la nube, como los chips de servidor Graviton de Amazon y los chips específicos de IA lanzados por Amazon y Google, ya son comparables en rendimiento a los chips de los fabricantes de chips tradicionales, según los datos de rendimiento publicados por los clientes de la nube y Microsoft. Google TPU v4 es entre 1,2 y 1,7 veces más rápido que Nvidia A100 y reduce el consumo de energía entre 1,3 y 1,9 veces.
02 Competencia de inversión estratégica: los gigantes gastan dinero para "comprar clientes"
Además de la investigación y el desarrollo de chips, el segundo punto clave en la competencia de varios de los principales gigantes de la nube en el extranjero es invertir en inversiones estratégicas extranjeras para captar clientes de IA y proyectos de IA. **
En comparación con el capital de riesgo, la inversión estratégica de los gigantes tiene una ventaja absoluta. La combinación de OpenAI y Microsoft sirve como un excelente ejemplo, abriendo un precedente para modelos a gran escala e inversión estratégica. Esto se debe a que las barreras de recursos requeridas para modelos grandes y aplicaciones relacionadas son extremadamente altas. Solo el dinero, el dinero limitado, no es suficiente para tomar proyectos de IA. Después de todo, Google, Microsoft, AWS, Oracle o Nvidia no solo pueden escribir cheques enormes, sino también proporcionar recursos escasos, como créditos en la nube y GPU.
Desde esta perspectiva, captar proyectos y captar clientes ocurre entre los gigantes de la nube, y no hay otros rivales. Están jugando un nuevo juego: buscan promesas de las empresas de IA de que utilizarán sus servicios en la nube en lugar de los de la competencia.
Microsoft ocupa el puesto de proveedor exclusivo de servicios en la nube de OpenAI.Mientras pagaba una enorme factura en la nube por OpenAI, Microsoft ha intercambiado una serie de derechos envidiables, como la prioridad de producto y equidad de OpenAI.
**Los rivales de Microsoft también se esfuerzan por ganarse a otros clientes de IA. **Estos proveedores de la nube ofrecen grandes descuentos y créditos a las empresas de inteligencia artificial para ganar su negocio. Los críticos han señalado que esto es similar a comprar clientes, aunque la práctica de tomar acciones de clientes actuales o futuros no es infrecuente en el mundo del software empresarial.
Oracle también ha ofrecido créditos informáticos por valor de cientos de miles de dólares como incentivo para que las nuevas empresas de inteligencia artificial alquilen servidores en la nube de Oracle, informó anteriormente The Information.
Google puede ser el más activo de estos principales proveedores de nube, ofreciendo a las nuevas empresas de IA una combinación de efectivo y créditos de Google Cloud a cambio de capital. A principios de este año, Google invirtió 400 millones de dólares en Anthropic, uno de los principales desafíos empresariales de OpenAI. Google Cloud dijo en febrero que se había convertido en el proveedor de nube "preferido" de Anthropic.
Recientemente, Google invirtió 100 millones de dólares estadounidenses en Runway, una empresa de IA en el campo de "Vensheng Video". Pero antes de eso, Amazon AWS promocionó a Runway como un cliente clave de inicio de IA. En marzo de este año, AWS y Runway anunciaron el establecimiento de una asociación estratégica a largo plazo, convirtiéndose en su "proveedor de nube preferido". Ahora, Runway parece ser uno de los "peones" en el duelo de Google con Amazon, porque también se espera que Runway alquile servidores en la nube de Google.
Anteriormente, Google Cloud también anunció el establecimiento de asociaciones con otras dos empresas populares de IA, a saber: Midjourney en el campo de gráficos de Vincent y el robot de chat App Character.ai, que anteriormente era un cliente clave en la nube de Oracle.
Es demasiado pronto para saber si estos acuerdos ayudarán a Google a ponerse al día con sus rivales más grandes de computación en la nube, AWS y Microsoft, pero Google Cloud se está recuperando.
De las 75 empresas de software (IA) en la base de datos de The Information, Google proporciona algunos servicios en la nube a al menos 17 empresas, más que cualquier otro proveedor de nube. Amazon no se queda atrás, con al menos 15 empresas que utilizan AWS para la computación en la nube. Microsoft y Oracle brindan servicios en la nube a seis empresas y cuatro empresas, respectivamente. Por supuesto, el uso de múltiples nubes también es un hábito en la industria, y al menos 12 de estas 75 empresas usan una combinación de múltiples proveedores de nubes.
03 modelo grande es la verdadera clave para ganar o perder
El poder de cómputo y la inversión en combate son el terreno elevado que debe disputarse en la etapa inicial de esta guerra en la nube. Pero a la larga, el gran modelo es la verdadera clave del éxito de la competencia en el mercado.
La capacidad de Microsoft para convertirse en líder se debe a la cooperación con OpenAI. Junto con las excelentes capacidades de ingeniería del equipo de Microsoft, GPT-4 se incorporó al "cubo familiar" de Microsoft en unos pocos meses. En los últimos seis meses, Microsoft aprovechó por primera vez el uso prioritario de los productos OpenAI y la reducción de precios de los productos de software empresarial para apoderarse de más mercados en la nube. Luego confíe en la actualización de la línea de productos a Microsoft 365 Copilot para aumentar el precio y obtener mayores ingresos.
Según la investigación de Yunqi Capital, el modelo subyacente de Microsoft se basa básicamente en OpenAI y, después de acceder al modelo grande, Microsoft comenzó a empaquetar y vender Teams, Power BI, Azure y otros productos de capa de aplicación a un precio más bajo.
La directora financiera de Microsoft, Amy Hood, dijo a los inversores en abril que OpenAI generará ingresos para Azure a medida que más personas comiencen a usar sus servicios.
Nuevos informes indican que Microsoft está cobrando a algunos clientes de Office 365 una prima del 40% para probar las capacidades de IA que automatizan tareas como escribir texto en documentos de Word y crear diapositivas de PowerPoint, y al menos 100 clientes han pagado una tarifa fija de hasta $100,000. Los datos muestran que dentro de un mes de su lanzamiento, Microsoft ganó más de $ 60 millones en ingresos de las capacidades de IA de Microsoft 365 Copilot.
**En marcado contraste con Microsoft, el otrora líder Amazon Cloud, un paso atrás en el gran modelo, enfrenta desafíos más severos hoy. **
AWS fue uno de los primeros desarrolladores de servicios en la nube de IA y ha estado en funcionamiento desde alrededor de 2016. Pero los clientes no encuentran que los servicios, que incluyen reconocimiento facial, conversión de texto a voz real y formas primitivas de chatbots para tareas como servicio al cliente, sean muy útiles. AWS también lanzó SagaMaker, una herramienta digital de IA para ingenieros en 2017, para ayudarlos a desarrollar y utilizar modelos de aprendizaje automático, que alguna vez se convirtió en el producto de IA más importante de AWS.
Sin embargo, en los años siguientes, los productos de IA de AWS no lograron mantenerse al día con la ola de modelos de lenguaje grande.Desde noviembre de 2021, Microsoft comenzó a vender productos de IA desarrollados en base a la serie de modelos GPT para uso de clientes empresariales. Al mismo tiempo, Google también se ha hecho con importantes startups de IA como clientes de la nube y ha vendido software patentado de IA a sus clientes de la nube. Incluso Oracle, el rezagado de la computación en la nube, tiene sus propias ventajas al proporcionar recursos informáticos a las nuevas empresas de IA.
AWS, con retraso, está tratando de ponerse al día. En abril, anunció un servicio en la nube que permite a los clientes utilizar modelos grandes de Stability, Anthropic y AI 21 Labs como base para sus propios productos. A cambio, AWS compartirá una parte de los ingresos con estos socios.
**Google se levantó temprano, pero se puso al día tarde. **Como fabricante importante con la acumulación más profunda en el campo de los modelos a gran escala, la reacción de Google después del lanzamiento de ChatGPT no es desagradable. Rápidamente lanzó el robot inteligente conversacional Bard y una nueva generación del modelo de lenguaje a gran escala PaLM 2. como respuesta Como resultado, la conferencia de prensa anuló directamente , La velocidad de lanzamiento del producto posterior no es ideal, lo que contrasta marcadamente con las sólidas capacidades de ingeniería de Microsoft.
**Lo último que vale la pena mencionar es que Oracle, que dejó de estar a la vanguardia del mercado de la nube muy pronto, inesperadamente tiene una tendencia a contraatacar en esta ola de aumento. **
Oracle, un rezagado durante mucho tiempo en el espacio de la nube, ha tenido un éxito sorprendente en el arrendamiento de servidores en la nube a nuevas empresas de IA de alto perfil que compiten con OpenAI. Eso se debe en parte a que Oracle Cloud puede ejecutar modelos complejos de aprendizaje automático de manera más económica que Amazon Web Services o Google Cloud, informó The Information.
El enfoque de Oracle Cloud para la carrera de IA parece ser similar al de AWS, que desarrolla su propio software de IA para vender a los clientes, pero también venderá acceso a software y productos de IA de código abierto de otros desarrolladores de IA.
Además, algunas personas familiarizadas con el asunto revelaron que Oracle ha comenzado a probar los productos de OpenAI para enriquecer su línea de productos para clientes finales, incluidos los recursos humanos y el software de gestión de la cadena de suministro, pero es más probable que Oracle desarrolle su propio software para este propósito. Las funciones ayudan a los clientes de Oracle a generar rápidamente descripciones de puestos y programar reuniones entre reclutadores y candidatos, aunque la empresa todavía está decidiendo qué productos mejorar primero.
Materiales de referencia:
"Una grieta en el imperio de Nvidia" | Instituto de Investigación de Yuanchuan
Gran fábrica y gran modelo: el negocio real es la última palabra | "Yunqi FutureScope"
La otra carrera de inteligencia artificial de Google y Microsoft: chips de servidor|La información
Crece el escepticismo sobre la estrategia de IA de AWS|La información
Google, Nvidia y Microsoft ofrecen lo que los capitalistas de riesgo no pueden: la información
Pro Weekly: la IA generativa estimula la demanda de la nube y la competencia|La información
Google invierte en pasarela de inicio de IA para arrebatarle negocio en la nube a AWS|La información
Microsoft está cobrando a algunos clientes de Office 365 un 40 % adicional para probar las funciones de IA|La noticia