1 Con Microsoft y Google a la cabeza en el campo de la inteligencia artificial generativa, Amazon también se está poniendo al día. Se informa que la compañía ha diseñado en secreto dos chips en Austin, Texas, para entrenar y acelerar la inteligencia artificial generativa. .
2 Dos chips personalizados desarrollados por Amazon, Inentia y Trainium, ofrecen a los clientes de AWS de Amazon Cloud Services una alternativa a las GPU Nvidia, cada vez más difíciles de adquirir, para entrenar modelos de lenguaje grandes.
3 El dominio de AWS en la computación en la nube es una gran ventaja para Amazon. AWS es el proveedor de computación en la nube más grande del mundo y representará el 40 % del mercado en 2022.
4 Los analistas creen que los chips personalizados de Amazon podrían darle una ventaja en inteligencia artificial generativa a largo plazo.
En dos pequeñas habitaciones en un edificio de oficinas anodino en Austin, Texas, varios empleados de Amazon están diseñando dos tipos de microchips para entrenar y acelerar la inteligencia artificial generativa. Los dos chips personalizados, cuyo nombre en código es Inentia y Trainium, ofrecen a los clientes de Amazon Web Services una alternativa a los procesadores de gráficos Nvidia para entrenar modelos de lenguaje grandes. En este momento, se está volviendo más difícil y costoso obtener los procesadores gráficos de Nvidia.
"Todo el mundo quiere más chips para IA generativa, ya sean procesadores gráficos o diseños propios de Amazon", dijo el director general de AWS, Adam Selipsky, en una entrevista en junio. clientes esta capacidad que todos quieren”.
Otras empresas, sin embargo, se movieron más rápido, invirtieron más dinero y tomaron prestado del auge de la IA. Cuando OpenAI lanzó ChatGPT en noviembre pasado, Microsoft llamó mucho la atención por albergar el explosivo chatbot de IA. Según los informes, Microsoft invirtió $ 13 mil millones en OpenAI. Microsoft agregó rápidamente modelos de inteligencia artificial generativa a sus propios productos y los integró en Bing en febrero.
Ese mismo mes, Google lanzó su propio modelo de lenguaje grande, Bard, y luego invirtió $300 millones en el competidor de OpenAI, Anthropic.
No fue hasta abril de este año que Amazon anunció su propio modelo de lenguaje grande, Titan, y al mismo tiempo lanzó un servicio llamado Bedrock para ayudar a los desarrolladores a utilizar la inteligencia artificial generativa para mejorar las capacidades del software.
"Amazon no está acostumbrado a perseguir mercados, está acostumbrado a crearlos”, dijo Chirag Dekate, vicepresidente y analista de Gartner. "Creo que por primera vez en mucho tiempo, están viendo que estaba en desventaja y ahora estoy tratando de ponerme al día".
Meta también lanzó recientemente su propio modelo de lenguaje grande Llama 2, un competidor de ChatGPT de código abierto que ahora está disponible para probar en la nube pública de Microsoft Azure.
Chip representa "Diferenciación verdadera"
A la larga, los chips personalizados de Amazon podrían darle una ventaja en inteligencia artificial generativa, dijo Decatur. “Creo que la verdadera diferencia son las capacidades técnicas que tienen, porque Microsoft no tiene Trainium ni Interentia”, explicó.
Imagen: AWS comenzó a producir el chip personalizado Nitro en 2013, que actualmente es el chip más grande de AWS
En 2013, AWS comenzó silenciosamente a producir chips personalizados con una pieza de hardware especializada llamada Nitro. Amazon reveló que Nitro es actualmente el chip de AWS con mayor capacidad y hay al menos uno en cada servidor de AWS, con un uso total de más de 20 millones.
En 2015, Amazon adquirió Annapurna Labs, una empresa de chips israelí. Luego, en 2018, Amazon lanzó Graviton, un chip de servidor basado en la arquitectura Arm del diseñador de chips británico, un competidor de las CPU x86 de gigantes como AMD y Nvidia.
"Los chips Arm podrían representar hasta el 10% de las ventas totales de servidores, y una parte significativa de eso provendrá de Amazon”, dijo Stacy Rasgon, analista sénior de Bernstein Research. Entonces, en el lado de la CPU, han hecho un buen trabajo. buen trabajo."
También en 2018, Amazon presentó chips enfocados en inteligencia artificial. Hace dos años, Google lanzó su primera Unidad de Procesador Tensor (TPU). Microsoft aún no ha anunciado Athena, el chip de inteligencia artificial que está desarrollando con AMD.
Amazon tiene un laboratorio en un chip en Austin, Texas, donde desarrolla y prueba Trainium e Inferentia. Matt Wood, vicepresidente de productos de la compañía, explicó lo que hacen los dos chips.
Él dijo: "El aprendizaje automático se divide en estas dos etapas diferentes. Por lo tanto, debe entrenar modelos de aprendizaje automático y luego realizar inferencias en estos modelos entrenados. En comparación con otras formas de entrenar modelos de aprendizaje automático en AWS, Tradium in The price/ la relación de rendimiento se ha mejorado en aproximadamente un 50 %”.
Trainium debuta en 2021, luego del lanzamiento de Interentia de segunda generación en 2019. Interentia permite a los clientes "proporcionar inferencia de aprendizaje automático de bajo costo, alto rendimiento y baja latencia, que son todas las predicciones que obtiene cuando alimenta una señal en un modelo de IA generativo, todo eso se procesa y luego obtiene un respuesta", dijo Wood. "
Por ahora, sin embargo, las GPU de Nvidia siguen siendo el rey indiscutible cuando se trata de modelos de entrenamiento. En julio, AWS presentó un nuevo hardware de aceleración de IA basado en H100 de Nvidia.
"En los últimos 15 años, Nvidia ha construido un enorme ecosistema de software en torno a sus chips que ninguna otra empresa tiene. En este momento, el mayor ganador en IA es Nvidia", dijo Rasgon.
Imagen: los chips personalizados de Amazon, de izquierda a derecha son Inferentia, Trainium y Graviton
Amazon tiene la ventaja de la computación en la nube
Sin embargo, el dominio de AWS en la computación en la nube es una gran ventaja para Amazon.
"Amazon no necesita atención adicional, la compañía ya tiene una base instalada en la nube muy sólida. Todo lo que necesitan hacer es descubrir cómo usar la inteligencia artificial generativa para hacer que los actuales movimientos de creación de valor se expandan".
Al elegir la inteligencia artificial generativa entre Amazon, Google y Microsoft, millones de clientes de AWS pueden sentirse atraídos por Amazon porque ya están familiarizados con Amazon y ejecutan otras aplicaciones y almacenan datos allí.
"Es una cuestión de velocidad”, explicó Mai-Lan Tomsen Bukovec, vicepresidente de tecnología de AWS. "Cuán rápido estas empresas pueden desarrollar estas aplicaciones generativas de inteligencia artificial, depende de ellas comenzar primero con los datos en AWS e impulsarlos con las herramientas informáticas y de aprendizaje automático que proporcionamos".
Según los datos proporcionados por Gartner, AWS es el proveedor de computación en la nube más grande del mundo y representará el 40% del mercado en 2022. Aunque las ganancias operativas de Amazon han disminuido año tras año durante tres trimestres consecutivos, AWS todavía representó el 70 % de las ganancias operativas de $7700 millones de Amazon en el segundo trimestre. AWS históricamente ha tenido márgenes operativos mucho más altos que Google Cloud.
Además, AWS tiene una cartera creciente de herramientas para desarrolladores centradas en la inteligencia artificial generativa. Swami Sivasubramanian, vicepresidente de bases de datos, análisis y aprendizaje automático de AWS, dijo: "Retrocedamos el reloj, incluso antes de ChatGPT. No es como si sucediera después de eso. De repente, se nos ocurrió un plan a toda prisa. porque no se puede diseñar un nuevo chip tan rápido, y mucho menos construir un servicio básico en dos o tres meses”.
Bedrock brinda a los clientes de AWS acceso a grandes modelos de lenguaje desarrollados por Anthropic, Stability AI, AI21 Labs y Amazon Titan. "No creemos que un modelo domine el mundo, queremos que nuestros clientes tengan modelos de última generación de múltiples proveedores porque elegirán la herramienta correcta para el trabajo correcto", dijo Sivasubramanian.
En la imagen: en el AWS Chip Lab en Austin, Texas, los empleados de Amazon están desarrollando chips de inteligencia artificial personalizados
Una de las últimas ofertas de IA de Amazon es AWS HealthScribe, un servicio lanzado en julio para ayudar a los médicos a utilizar la inteligencia artificial generativa para redactar resúmenes de las visitas de los pacientes. Amazon también tiene un centro de aprendizaje automático, SageMaker, que proporciona algoritmos, modelos y otros servicios.
Otra herramienta importante es CodeWhisperer, que según Amazon permite a los desarrolladores completar tareas un promedio de un 57 por ciento más rápido. El año pasado, Microsoft también informó que su herramienta de codificación, GitHub Copilot, había aumentado la productividad.
En junio de este año, AWS anunció el establecimiento de un centro de innovación de inteligencia artificial generativa por $100 millones. El CEO de AWS, Selipsky, dijo: "Tenemos muchos clientes que desean tecnología de inteligencia artificial generativa, pero no necesariamente saben lo que esto significa para ellos en el contexto de su propio negocio. Por lo tanto, presentaremos soluciones Arquitectos de soluciones, ingenieros, estrategas, y científicos de datos, trabajando con ellos uno a uno".
El CEO Jassy dirigió personalmente al equipo para construir un modelo de lenguaje grande
Si bien hasta ahora AWS se ha centrado principalmente en desarrollar herramientas en lugar de crear un competidor de ChatGPT, un correo electrónico interno filtrado recientemente reveló que el CEO de Amazon, Andy Jassy, está supervisando directamente un nuevo equipo central, que también está creando modelos escalables de lenguaje grande.
Durante la llamada de ganancias del segundo trimestre, Jassy dijo que una "parte sustancial" del negocio de AWS ahora está impulsada por la inteligencia artificial y los más de 20 servicios de aprendizaje automático que admite, cuyos clientes incluyen Philips, 3M, Old Mutual y HSBC.
La explosión de la inteligencia artificial ha traído consigo una serie de preocupaciones de seguridad, con empresas preocupadas por los empleados que ingresan información patentada en los datos de capacitación utilizados por los modelos públicos de lenguaje grande.
"No puedo decirle con cuántas empresas de Fortune 500 he hablado que han deshabilitado ChatGPT”, dijo Selipsky, CEO de AWS. Cualquier cosa que haga, sea cual sea el modelo que use, estará en su propio entorno de nube privada virtual aislada. Estará encriptado, tendrá los mismos controles de acceso de AWS".
Por ahora, Amazon solo está acelerando su impulso hacia la IA generativa, afirmando que "más de 100 000" clientes utilizan actualmente el aprendizaje automático en AWS. Si bien eso es una fracción de los millones de clientes de AWS, los analistas dicen que eso podría cambiar.
"No vemos empresas que digan: Oh, espera, Microsoft ya es líder en IA generativa, salgamos, cambiemos nuestra estrategia de infraestructura, migre todo a Microsoft. Si ya es cliente de Amazon, es probable que explore la El ecosistema amazónico en términos más generales". (Texto / Jinlu)
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Haciendo todo lo posible para construir chips AWS personalizados Amazon está persiguiendo a Microsoft y Google en IA generativa
Concentrarse en
En dos pequeñas habitaciones en un edificio de oficinas anodino en Austin, Texas, varios empleados de Amazon están diseñando dos tipos de microchips para entrenar y acelerar la inteligencia artificial generativa. Los dos chips personalizados, cuyo nombre en código es Inentia y Trainium, ofrecen a los clientes de Amazon Web Services una alternativa a los procesadores de gráficos Nvidia para entrenar modelos de lenguaje grandes. En este momento, se está volviendo más difícil y costoso obtener los procesadores gráficos de Nvidia.
"Todo el mundo quiere más chips para IA generativa, ya sean procesadores gráficos o diseños propios de Amazon", dijo el director general de AWS, Adam Selipsky, en una entrevista en junio. clientes esta capacidad que todos quieren”.
Otras empresas, sin embargo, se movieron más rápido, invirtieron más dinero y tomaron prestado del auge de la IA. Cuando OpenAI lanzó ChatGPT en noviembre pasado, Microsoft llamó mucho la atención por albergar el explosivo chatbot de IA. Según los informes, Microsoft invirtió $ 13 mil millones en OpenAI. Microsoft agregó rápidamente modelos de inteligencia artificial generativa a sus propios productos y los integró en Bing en febrero.
Ese mismo mes, Google lanzó su propio modelo de lenguaje grande, Bard, y luego invirtió $300 millones en el competidor de OpenAI, Anthropic.
No fue hasta abril de este año que Amazon anunció su propio modelo de lenguaje grande, Titan, y al mismo tiempo lanzó un servicio llamado Bedrock para ayudar a los desarrolladores a utilizar la inteligencia artificial generativa para mejorar las capacidades del software.
"Amazon no está acostumbrado a perseguir mercados, está acostumbrado a crearlos”, dijo Chirag Dekate, vicepresidente y analista de Gartner. "Creo que por primera vez en mucho tiempo, están viendo que estaba en desventaja y ahora estoy tratando de ponerme al día".
Meta también lanzó recientemente su propio modelo de lenguaje grande Llama 2, un competidor de ChatGPT de código abierto que ahora está disponible para probar en la nube pública de Microsoft Azure.
Chip representa "Diferenciación verdadera"
A la larga, los chips personalizados de Amazon podrían darle una ventaja en inteligencia artificial generativa, dijo Decatur. “Creo que la verdadera diferencia son las capacidades técnicas que tienen, porque Microsoft no tiene Trainium ni Interentia”, explicó.
En 2013, AWS comenzó silenciosamente a producir chips personalizados con una pieza de hardware especializada llamada Nitro. Amazon reveló que Nitro es actualmente el chip de AWS con mayor capacidad y hay al menos uno en cada servidor de AWS, con un uso total de más de 20 millones.
En 2015, Amazon adquirió Annapurna Labs, una empresa de chips israelí. Luego, en 2018, Amazon lanzó Graviton, un chip de servidor basado en la arquitectura Arm del diseñador de chips británico, un competidor de las CPU x86 de gigantes como AMD y Nvidia.
"Los chips Arm podrían representar hasta el 10% de las ventas totales de servidores, y una parte significativa de eso provendrá de Amazon”, dijo Stacy Rasgon, analista sénior de Bernstein Research. Entonces, en el lado de la CPU, han hecho un buen trabajo. buen trabajo."
También en 2018, Amazon presentó chips enfocados en inteligencia artificial. Hace dos años, Google lanzó su primera Unidad de Procesador Tensor (TPU). Microsoft aún no ha anunciado Athena, el chip de inteligencia artificial que está desarrollando con AMD.
Amazon tiene un laboratorio en un chip en Austin, Texas, donde desarrolla y prueba Trainium e Inferentia. Matt Wood, vicepresidente de productos de la compañía, explicó lo que hacen los dos chips.
Él dijo: "El aprendizaje automático se divide en estas dos etapas diferentes. Por lo tanto, debe entrenar modelos de aprendizaje automático y luego realizar inferencias en estos modelos entrenados. En comparación con otras formas de entrenar modelos de aprendizaje automático en AWS, Tradium in The price/ la relación de rendimiento se ha mejorado en aproximadamente un 50 %”.
Trainium debuta en 2021, luego del lanzamiento de Interentia de segunda generación en 2019. Interentia permite a los clientes "proporcionar inferencia de aprendizaje automático de bajo costo, alto rendimiento y baja latencia, que son todas las predicciones que obtiene cuando alimenta una señal en un modelo de IA generativo, todo eso se procesa y luego obtiene un respuesta", dijo Wood. "
Por ahora, sin embargo, las GPU de Nvidia siguen siendo el rey indiscutible cuando se trata de modelos de entrenamiento. En julio, AWS presentó un nuevo hardware de aceleración de IA basado en H100 de Nvidia.
"En los últimos 15 años, Nvidia ha construido un enorme ecosistema de software en torno a sus chips que ninguna otra empresa tiene. En este momento, el mayor ganador en IA es Nvidia", dijo Rasgon.
Amazon tiene la ventaja de la computación en la nube
Sin embargo, el dominio de AWS en la computación en la nube es una gran ventaja para Amazon.
"Amazon no necesita atención adicional, la compañía ya tiene una base instalada en la nube muy sólida. Todo lo que necesitan hacer es descubrir cómo usar la inteligencia artificial generativa para hacer que los actuales movimientos de creación de valor se expandan".
Al elegir la inteligencia artificial generativa entre Amazon, Google y Microsoft, millones de clientes de AWS pueden sentirse atraídos por Amazon porque ya están familiarizados con Amazon y ejecutan otras aplicaciones y almacenan datos allí.
"Es una cuestión de velocidad”, explicó Mai-Lan Tomsen Bukovec, vicepresidente de tecnología de AWS. "Cuán rápido estas empresas pueden desarrollar estas aplicaciones generativas de inteligencia artificial, depende de ellas comenzar primero con los datos en AWS e impulsarlos con las herramientas informáticas y de aprendizaje automático que proporcionamos".
Según los datos proporcionados por Gartner, AWS es el proveedor de computación en la nube más grande del mundo y representará el 40% del mercado en 2022. Aunque las ganancias operativas de Amazon han disminuido año tras año durante tres trimestres consecutivos, AWS todavía representó el 70 % de las ganancias operativas de $7700 millones de Amazon en el segundo trimestre. AWS históricamente ha tenido márgenes operativos mucho más altos que Google Cloud.
Además, AWS tiene una cartera creciente de herramientas para desarrolladores centradas en la inteligencia artificial generativa. Swami Sivasubramanian, vicepresidente de bases de datos, análisis y aprendizaje automático de AWS, dijo: "Retrocedamos el reloj, incluso antes de ChatGPT. No es como si sucediera después de eso. De repente, se nos ocurrió un plan a toda prisa. porque no se puede diseñar un nuevo chip tan rápido, y mucho menos construir un servicio básico en dos o tres meses”.
Bedrock brinda a los clientes de AWS acceso a grandes modelos de lenguaje desarrollados por Anthropic, Stability AI, AI21 Labs y Amazon Titan. "No creemos que un modelo domine el mundo, queremos que nuestros clientes tengan modelos de última generación de múltiples proveedores porque elegirán la herramienta correcta para el trabajo correcto", dijo Sivasubramanian.
Una de las últimas ofertas de IA de Amazon es AWS HealthScribe, un servicio lanzado en julio para ayudar a los médicos a utilizar la inteligencia artificial generativa para redactar resúmenes de las visitas de los pacientes. Amazon también tiene un centro de aprendizaje automático, SageMaker, que proporciona algoritmos, modelos y otros servicios.
Otra herramienta importante es CodeWhisperer, que según Amazon permite a los desarrolladores completar tareas un promedio de un 57 por ciento más rápido. El año pasado, Microsoft también informó que su herramienta de codificación, GitHub Copilot, había aumentado la productividad.
En junio de este año, AWS anunció el establecimiento de un centro de innovación de inteligencia artificial generativa por $100 millones. El CEO de AWS, Selipsky, dijo: "Tenemos muchos clientes que desean tecnología de inteligencia artificial generativa, pero no necesariamente saben lo que esto significa para ellos en el contexto de su propio negocio. Por lo tanto, presentaremos soluciones Arquitectos de soluciones, ingenieros, estrategas, y científicos de datos, trabajando con ellos uno a uno".
El CEO Jassy dirigió personalmente al equipo para construir un modelo de lenguaje grande
Si bien hasta ahora AWS se ha centrado principalmente en desarrollar herramientas en lugar de crear un competidor de ChatGPT, un correo electrónico interno filtrado recientemente reveló que el CEO de Amazon, Andy Jassy, está supervisando directamente un nuevo equipo central, que también está creando modelos escalables de lenguaje grande.
Durante la llamada de ganancias del segundo trimestre, Jassy dijo que una "parte sustancial" del negocio de AWS ahora está impulsada por la inteligencia artificial y los más de 20 servicios de aprendizaje automático que admite, cuyos clientes incluyen Philips, 3M, Old Mutual y HSBC.
La explosión de la inteligencia artificial ha traído consigo una serie de preocupaciones de seguridad, con empresas preocupadas por los empleados que ingresan información patentada en los datos de capacitación utilizados por los modelos públicos de lenguaje grande.
"No puedo decirle con cuántas empresas de Fortune 500 he hablado que han deshabilitado ChatGPT”, dijo Selipsky, CEO de AWS. Cualquier cosa que haga, sea cual sea el modelo que use, estará en su propio entorno de nube privada virtual aislada. Estará encriptado, tendrá los mismos controles de acceso de AWS".
Por ahora, Amazon solo está acelerando su impulso hacia la IA generativa, afirmando que "más de 100 000" clientes utilizan actualmente el aprendizaje automático en AWS. Si bien eso es una fracción de los millones de clientes de AWS, los analistas dicen que eso podría cambiar.
"No vemos empresas que digan: Oh, espera, Microsoft ya es líder en IA generativa, salgamos, cambiemos nuestra estrategia de infraestructura, migre todo a Microsoft. Si ya es cliente de Amazon, es probable que explore la El ecosistema amazónico en términos más generales". (Texto / Jinlu)