¡28 mil millones! Amazon invirtió en OpenAI, su mayor enemigo

Fuente de la imagen: Generada por IA ilimitada

En la tarde del 25 de septiembre, Amazon anunció en el sitio web oficial de la compañía que invertiría hasta $4 mil millones en la gran empresa modelo Anthropic, famosa por su chatbot Claude que compara ChatGPT.

Las empresas de computación en la nube han invertido mucho en grandes empresas modelo. Microsoft tuvo un buen comienzo en febrero de este año, adquiriendo OpenAI, un importante cliente de la nube Azure de Microsoft, y el uso prioritario de ChatGPT por 10 mil millones de dólares. Ahora parece que este acuerdo es un beneficio seguro para Microsoft: desde este año, el valor de mercado de Microsoft ha aumentado un 40%.

Pero ahora, medio año después, la relación entre upstream y downstream en el campo de los modelos grandes se está volviendo complicada. Amazon Investment Anthropic no se trata sólo de "fijar" clientes para AWS , ni siquiera es necesariamente para modelos grandes.

Los detalles oficiales de la cooperación muestran: Anthropic utilizará chips AWS Trainium e Inferentia para construir, entrenar e implementar sus futuros modelos básicos. Además, las dos empresas también colaborarán en el desarrollo de futuras tecnologías Trainium e Inferentia. Vale la pena señalar que AWS Trainium es un chip de capacitación de ML (aprendizaje automático) personalizado lanzado por AWS a fines de 2020, y el chip Inferentia es un chip de inferencia de aprendizaje automático de alto rendimiento lanzado por AWS en 2019.

Al invertir en Anthropic para profundizar la cooperación, Amazon pretende acelerar el desarrollo de chips de IA de desarrollo propio.

Hace unos días, The Information dio la noticia en exclusiva de que NVIDIA quiere "cobrar una tarifa de gestión" a los tres principales proveedores de la nube: NVIDIA quiere alquilar servidores NVIDIA a los proveedores de la nube para poder proporcionar aplicaciones de IA a los usuarios de IA a través de nube en lugar de servidores o chips. Estas aplicaciones, que proporcionan servicios directamente, también incluyen a los tres principales proveedores de nube.

Sin embargo, sólo Amazon rechazó la oferta.

Ahora parece que la razón de Amazon para rechazar a Nvidia es encontrar formas de acelerar la actualización de sus chips de IA de desarrollo propio. En la era de los modelos grandes, la principal competitividad de Amazon para estabilizar su posición número uno en el mercado de la computación en la nube reside en sus chips de IA.

01 La primera plataforma en la nube entra en acción, el mayor enemigo de OpenAI

Para esta cooperación, Amazon dijo que invertirá inicialmente 1.250 millones de dólares para comprar una participación minoritaria en Anthropic. Como parte del acuerdo, Amazon dijo que tenía la opción de aumentar su inversión en Anthropic a 4 mil millones de dólares.

Como parte de la colaboración ampliada:

  • Anthropic utilizará chips AWS Trainium e Inferentia para construir, entrenar e implementar sus futuros modelos fundamentales, beneficiándose del precio, el rendimiento, la escala y la seguridad de AWS. Las dos empresas también colaborarán en futuras tecnologías Trainium e Inferentia.
  • AWS se convertirá en el principal proveedor de nube de Anthropic para cargas de trabajo de misión crítica, incluida la investigación de seguridad y el desarrollo futuro de modelos fundamentales. Anthropic planea ejecutar la mayoría de sus cargas de trabajo en AWS, proporcionando a Anthropic tecnología avanzada del proveedor de nube líder en el mundo.
  • Anthropic ha asumido un compromiso a largo plazo para brindar a los clientes de AWS en todo el mundo acceso a sus modelos básicos de próxima generación a través de Amazon Bedrock, un servicio totalmente administrado de AWS que brinda acceso seguro a los mejores modelos básicos de la industria. Además, Anthropic brindará a los clientes de AWS la capacidad única de acceso temprano a capacidades de personalización y ajuste de modelos.
  • Los desarrolladores e ingenieros de Amazon podrán construir con modelos Anthropic a través de Amazon Bedrock, para que puedan incorporar capacidades de IA generativa en su trabajo, mejorar las aplicaciones existentes y crear nuevas experiencias para los clientes en todos los negocios de Amazon.

Las empresas no revelaron la valoración de la inversión de Amazon en Anthropic.

Anthropic fue fundada por los ex empleados de OpenAI Daniela Amodei y Dario Amodei, quienes son los principales desarrolladores de OpenAI GPT2 y GPT3. Actualmente, Anthropic cuenta con uno de los chatbots más populares, Claude.

Anthropic, un rival del fabricante de ChatGPT OpenAI, recibió una inversión de 400 millones de dólares de Google a principios de este año y fue valorado en más de 4 mil millones de dólares después de una ronda de financiación de Spark Capital en marzo.

**02 ¿Qué quiere hacer Amazon? **

Invirtiendo hasta 4.000 millones de dólares en Anthropic: ¿qué quiere hacer exactamente Amazon?

Una razón obvia es "captar" clientes. Como los mayores clientes de la computación en la nube (en el futuro), los grandes fabricantes de modelos y las empresas de aplicaciones de inteligencia artificial se han convertido en un campo de batalla para los principales fabricantes de la nube.

Desde este año, Google, Microsoft, AWS, Oracle y Nvidia han hecho tácita y unánimemente una cosa: "atrapar" clientes a través de inversiones estratégicas (pagar dinero para comprar clientes), aunque esta operación es financieramente controvertida.

Pero, de hecho, Anthropic ha sido cliente de AWS desde 2021. AWS ha profundizado su cooperación con Anthropic a través de 4 mil millones de dólares, con el objetivo de lograr derechos de cooperación más profundos: modelos grandes y, lo más importante, chips de IA de desarrollo propio* *.

En otras palabras, al invertir estratégicamente esta matrícula, Amazon aprende a construir modelos grandes. También desarrolló chips de IA** que podrían incluso subvertir las GPU de NVIDIA mediante discusiones con oponentes que compiten contra OpenAI. Después de todo, las GPU no están diseñadas para entrenar redes neuronales. Depender de CUDA y varias tecnologías para "modificar mágicamente" escena por escena es una opción, pero no es la solución óptima.

El discurso del CEO de Amazon, Andy Jassy, lo confirmó: "Creemos que podemos ayudar a mejorar muchas experiencias de los clientes a corto y largo plazo a través de una cooperación más profunda".

La experiencia del cliente a corto y largo plazo corresponde a los grandes modelos y chips de IA de desarrollo propio de Amazon.

Añadió además: "Los clientes están muy entusiasmados con Amazon Bedrock, el nuevo servicio administrado de AWS que permite a las empresas crear aplicaciones de IA generativas utilizando una variedad de modelos subyacentes, y AWS Trainium, el chip de entrenamiento de IA de AWS. El chip de entrenamiento de IA de AWS y nuestra cooperación con Anthropic debería ayudar a los clientes a obtener más valor de estas dos funciones”.

De hecho, en la primera mitad del año, Amazon lanzó su propio modelo grande Titan y anunció al cliente típico de este modelo grande, sin embargo, unos días después, este cliente típico se aprovechó y reveló a los medios que el modelo grande de Amazon No fue fácil de usar.

Se puede ver que Amazon no está completamente preparado para modelos grandes de desarrollo propio. Por lo tanto, Amazon recurrió al mercado para promover vigorosamente la plataforma de modelos grandes Amazon Bedrock, donde los clientes pueden recurrir a los servicios de otros fabricantes de modelos grandes convencionales, incluido Anthropic.

Por otro lado, Amazon necesita estabilizar sus fundamentos en computación en la nube.

En la era de los grandes modelos, la computación en la nube enfrenta diferentes cargas de trabajo y necesita explorar nuevas tecnologías para lograr capacidades de razonamiento más rápidas. En este sentido, Amazon es realmente pionero. Los chips y servidores de centros de datos de desarrollo propio alguna vez fueron considerados "una de las cosas más importantes" que AWS había hecho para "diferenciarse de Microsoft y Google". Sus servidores tienen velocidades más altas y ahorran energía.

En términos de chips y servidores propietarios de IA, Amazon también es el primero entre los tres principales proveedores de nube (Microsoft Cloud, Google Cloud). Sin embargo, el progreso y el rendimiento de sus chips de IA no se han publicado por separado, sino que se agrupan en servidores y se proporcionan a los clientes a través de servicios en la nube. Por lo tanto, los clientes perciben directamente sólo el rendimiento de la computación en la nube, no el rendimiento de los chips que contiene.

Ahora, Amazon necesita comprender qué cargas de trabajo son más adecuadas para qué procesadores, y trabajar con Anthropic es una forma de hacerlo.

Actualmente, de las 69 empresas de la base de datos de IA generativa de The Information, 32 utilizan Amazon, 26 utilizan Google y 13 utilizan Microsoft como proveedor de nube. Por supuesto, algunas empresas utilizan varios proveedores de nube.

En la era de los grandes modelos, la cooperación y la competencia en la computación en la nube, los grandes modelos y las aplicaciones de IA se están volviendo más complejas. La industria de la computación en la nube, que no ha experimentado cambios importantes durante mucho tiempo, finalmente ha marcado el comienzo de una oportunidad de cambio.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)