NVIDIA: Empire Rift uno por uno

Fuente original: Decode

Fuente de la imagen: Generado por Unbounded AI

A menudo existe la ilusión de que las CPU de Intel se venden bien y se las atribuye a una empresa de hardware exitosa, cuando en realidad, el dominio de Intel sobre los procesadores de escritorio es la arquitectura X86, que nació en 1978.

La misma ilusión se encuentra en Nvidia.

La razón por la que NVIDIA puede monopolizar el mercado de chips de entrenamiento de inteligencia artificial, la arquitectura CUDA es definitivamente uno de los héroes detrás de escena.

Esta arquitectura, nacida en 2006, ha estado involucrada en todas las áreas de la informática y casi se ha plasmado en la forma de NVIDIA. El 80% de la investigación en el sector aeroespacial, la investigación en biociencias, la simulación mecánica y de fluidos, y la exploración energética se lleva a cabo sobre la base de CUDA.

En el campo de la IA más candente, casi todos los grandes fabricantes se están preparando para el Plan B: Google, Amazon, Huawei, Microsoft, OpenAI, Baidu... Nadie quiere que su futuro esté en manos de otros.

La agencia de consultoría de servicios empresariales Dealroom.co publicado un conjunto de datos, en esta ola de calor de IA generativa, Estados Unidos ha obtenido el 89% de la inversión y financiación mundial, y en la inversión y financiación de chips de IA, la inversión y financiación de chips de IA de China ocupa el primer lugar en el mundo, más del doble que Estados Unidos.

Es decir, aunque hay muchas diferencias en los métodos y etapas de desarrollo de los grandes modelos de empresas chinas y estadounidenses, todos son particularmente consistentes en el control de la potencia de cómputo.

¿Por qué CUDA tiene esta magia? **

En 2003, con el fin de competir con Intel, que introdujo una CPU de 4 núcleos, NVIDIA comenzó a desarrollar una tecnología de arquitectura de dispositivos informáticos unificados, o CUDA.

La intención original de CUDA era agregar una interfaz de programación fácil de usar a la GPU, para que los desarrolladores no tuvieran que aprender lenguajes de sombreado complejos o primitivas de procesamiento de gráficos. La idea original de Nvidia era proporcionar a los desarrolladores de juegos una aplicación en el campo de la computación gráfica, que es lo que Huang llama "hacer que los gráficos sean programables".

Sin embargo, desde el lanzamiento de CUDA, no ha podido encontrar aplicaciones clave y carece de un importante servicio de atención al cliente. Y NVIDIA también tiene que gastar mucho dinero para desarrollar aplicaciones, mantener servicios y promover y comercializar, y en 2008 se encontró con una tormenta financiera, los ingresos de Nvidia cayeron bruscamente con las bajas ventas de tarjetas gráficas, y el precio de las acciones una vez cayó a solo $ 1.50, peor que el peor momento de AMD.

No fue hasta 2012 que dos estudiantes de Hinton utilizaron las GPU de NVIDIA para competir en la velocidad de reconocimiento de imágenes llamada ImageNet. Usaron la tarjeta gráfica GTX580 y entrenaron con tecnología CUDA, y los resultados fueron docenas de veces más rápidos que el segundo lugar, y la precisión fue más de un 10% mayor que la del segundo lugar.

No fue solo el modelo de ImageNet en sí lo que conmocionó a la industria. Esta red neuronal, que requirió 14 millones de imágenes y un total de 262 cuatrillones de operaciones de coma flotante, utilizó solo cuatro GTX 580 en una semana de entrenamiento. Como referencia, Google Cat utilizó 10 millones de imágenes, 16.000 CPU y 1.000 ordenadores.

Esta competencia no solo es un punto de inflexión histórico para la IA, sino que también abre un gran avance para NVIDIA. NVIDIA comenzó a cooperar con la industria para promover el ecosistema de IA, promover marcos de IA de código abierto y cooperar con Google, Facebook y otras empresas para promover el desarrollo de tecnologías de IA como TensorFlow.

Esto es equivalente a completar el segundo paso que, según Huang, "abrir la GPU para la programabilidad de todo tipo de cosas".

Cuando se descubrió el valor de la potencia de cálculo de las GPU, los grandes fabricantes también se dieron cuenta de repente de que CUDA, que NVIDIA había iterado y pavimentado durante varios años, se había convertido en un muro alto que la IA no podía evitar.

Para construir el ecosistema CUDA, NVIDIA proporciona a los desarrolladores una gran cantidad de bibliotecas y herramientas, como cuDNN, cuBLAS y TensorRT, etc., que son convenientes para que los desarrolladores realicen aprendizaje profundo, álgebra lineal y aceleración de inferencias y otras tareas. Además, NVIDIA ofrece una completa cadena de herramientas de desarrollo que incluye compiladores y optimizadores CUDA, lo que facilita la programación de GPU y la optimización del rendimiento para los desarrolladores.

Al mismo tiempo, NVIDIA también trabaja en estrecha colaboración con muchos marcos de aprendizaje profundo populares, como TensorFlow, PyTorch y MXNet, lo que proporciona a CUDA ventajas significativas en las tareas de aprendizaje profundo.

Esta dedicación a "ayudar al caballo y darle un paseo" permitió a NVIDIA duplicar el número de desarrolladores en el ecosistema CUDA en solo dos años y medio.

Durante la última década, NVIDIA ha promovido los cursos de enseñanza de CUDA a más de 350 universidades, con desarrolladores profesionales y expertos en dominios en la plataforma que han brindado un amplio soporte para las aplicaciones CUDA al compartir experiencias y responder preguntas difíciles.

Y lo que es más importante, NVIDIA sabe que el defecto del hardware como foso es que no hay adherencia para el usuario, por lo que combina el hardware con el software, el renderizado de la GPU para usar CUDA, la reducción de ruido de la IA para usar OptiX, la computación de conducción autónoma necesita CUDA...

Aunque NVIDIA actualmente monopoliza el 90% del mercado de potencia de cómputo de IA con GPU + NVlink + CUDA, hay más de una grieta en el imperio.

Grietas

Los fabricantes de IA han estado sufriendo de CUDA durante mucho tiempo, y no es alarmista.

La magia de CUDA es que está en la posición clave de la combinación de software y hardware, que es la piedra angular de todo el ecosistema de software, y es difícil que los competidores pasen por alto a CUDA para ser compatible con el ecosistema de NVIDIA; Para el hardware, el diseño de CUDA es básicamente una abstracción de software en forma de hardware NVIDIA, y básicamente cada concepto central corresponde al concepto de hardware de la GPU.

Entonces, para los competidores, solo quedan dos opciones:

1 Evite CUDA y reconstruya un ecosistema de software, lo que requiere enfrentar el enorme desafío de la adherencia del usuario de NVIDIA;

2 Compatible con CUDA, pero también se enfrentan a dos problemas, uno es que si su ruta de hardware es inconsistente con NVIDIA, entonces es posible lograr ineficiente e incómodo, y el otro es que CUDA seguirá la evolución de las características del hardware de NVIDIA, y la compatibilidad solo puede elegir seguir.

Pero para deshacerse del control de Nvidia, se han probado ambas opciones.

En 2016, AMD lanzó ROCm, un ecosistema de GPU basado en proyectos de código abierto, que proporciona herramientas HIP totalmente compatibles con CUDA, que es una forma de seguir la ruta.

Sin embargo, debido a la falta de recursos de la biblioteca de la cadena de herramientas y al alto costo de la compatibilidad de desarrollo e iteración, es difícil que el ecosistema ROCm crezca. En Github, más de 32.600 desarrolladores contribuyen al repositorio de paquetes CUDA, mientras que ROCm tiene menos de 600.

La dificultad de tomar la ruta CUDA compatible con NVIDIA es que su velocidad de iteración de actualización nunca puede mantenerse al día con CUDA y es difícil lograr una compatibilidad total:

Una iteración siempre es un paso más lenta: las GPU NVIDIA iteran rápidamente en microarquitecturas y conjuntos de instrucciones, y muchos lugares en la pila de software superior también tienen que realizar las actualizaciones de funciones correspondientes. Pero AMD no puede conocer la hoja de ruta de productos de NVIDIA, y las actualizaciones de software siempre serán un paso más lentas que las de NVIDIA. Por ejemplo, AMD acaba de anunciar la compatibilidad con CUDA11, pero NVIDIA ya ha lanzado CUDA12.

2 La dificultad en la compatibilidad total aumentará la carga de trabajo de los desarrolladores: El software grande como CUDA en sí mismo es muy complejo, y AMD necesita invertir mucha mano de obra y recursos materiales durante varios años o incluso más de una década para ponerse al día. Debido a que hay diferencias funcionales inevitables, si la compatibilidad no se hace bien, afectará el rendimiento (aunque el 99% son similares, pero resolver el 1% restante de las diferencias puede consumir el 99% del tiempo del desarrollador).

También hay empresas que optan por eludir CUDA, como Modular, que se fundó en enero de 2022.

La idea de Modular es mantener el listón lo más bajo posible, pero es más bien un ataque sorpresa. Propone un motor de IA "para mejorar el rendimiento de los modelos de inteligencia artificial" para resolver el problema de que "las pilas actuales de aplicaciones de IA a menudo se combinan con hardware y software específicos" a través de un enfoque "modular".

Para acompañar a este motor de IA, Modular también ha desarrollado el lenguaje de programación de código abierto Mojo. Puede pensar en él como un lenguaje de programación "creado para IA", Modular lo usa para desarrollar herramientas para integrarse en el motor de IA antes mencionado, al tiempo que se integra perfectamente con Python y reduce los costos de aprendizaje.

El problema con Modular, sin embargo, es que su visión de "herramientas de desarrollo para todas las plataformas" es demasiado idealista.

Aunque lleva el título de "más allá de Python" y está respaldado por la reputación de Chris Lattner, Mojo, como lenguaje nuevo, necesita ser probado por muchos desarrolladores en términos de promoción.

Los motores de IA se enfrentan a más problemas, no solo con los acuerdos con numerosas empresas de hardware, sino también con la compatibilidad entre plataformas. Todas estas son tareas que requieren mucho tiempo de pulido para completarse, y me temo que nadie sabrá en qué evolucionará Nvidia en ese momento.

Challenger Huawei

El 17 de octubre, Estados Unidos actualizó sus normas de control de exportaciones de chips de IA, impidiendo que empresas como NVIDIA exporten chips avanzados de IA a China. Según las últimas reglas, las exportaciones de chips de NVIDIA a China, incluidos A800 y H800, se verán afectadas.

Anteriormente, después de que se restringiera la exportación de los dos modelos de NVIDIA A100 y H100 a China, la "versión castrada" A800 y H800 exclusivamente para China se diseñaron para cumplir con las regulaciones. Intel también ha lanzado el chip de IA Gaudi2 para el mercado chino. Ahora parece que las empresas tendrán que ajustar su respuesta en el marco de la nueva ronda de prohibiciones de exportación.

En agosto de este año, el Mate60Pro equipado con el chip Kirin 9000S de desarrollo propio de Huawei salió repentinamente a la venta, lo que desencadenó instantáneamente una gran ola de opinión pública, haciendo que otra noticia casi al mismo tiempo se ahogara rápidamente.

Liu Qingfeng, presidente de iFLYTEK, hizo una rara declaración en un evento público, diciendo que la GPU de Huawei puede compararse con la NVIDIA A100, pero solo si Huawei envía un grupo de trabajo especial para optimizar el trabajo de iFLYTEK.

Tales declaraciones repentinas a menudo tienen intenciones profundas, y aunque no tienen la capacidad de predecirlo, su utilidad sigue siendo responder a la prohibición de los chips dos meses después.

La GPU de Huawei, la plataforma de software y hardware de pila completa de IA de Ascend, incluye 5 capas, que son el hardware de la serie Atlas, la arquitectura informática heterogénea, el marco de IA, la habilitación de aplicaciones y las aplicaciones industriales de abajo hacia arriba.

Básicamente, se puede entender que Huawei ha realizado un conjunto de reemplazos para NVIDIA, la capa de chip es Ascend 910 y Ascend 310, y la arquitectura de computación heterogénea (CANN) compara la capa de software central NVIDIA CUDA + CuDNN.

Por supuesto, la brecha no puede estar ausente, y algunos profesionales relevantes resumieron dos puntos:

1 El rendimiento de una sola tarjeta se queda atrás, y todavía hay una brecha entre Ascend 910 y A100, pero la victoria es que el precio es barato y la cantidad se puede apilar, y la brecha general no es grande después de alcanzar la escala del grupo;

2 Las desventajas ecológicas existen, pero Huawei también está tratando de ponerse al día, por ejemplo, a través de la cooperación entre la comunidad de PyTorch y Ascend, la versión 2.1 de PyTorch ha sido compatible de forma sincrónica con Ascend NPU, lo que significa que los desarrolladores pueden desarrollar directamente modelos basados en Ascend en PyTorch 2.1.

En la actualidad, Huawei Ascend ejecuta principalmente los propios productos de modelo grande de circuito cerrado de Huawei, y cualquier modelo público debe ser profundamente optimizado por Huawei para ejecutarse en la plataforma de Huawei, y esta parte del trabajo de optimización depende en gran medida de Huawei.

En el contexto actual, Ascender tiene un significado especial.

En mayo de este año, Zhang Dixuan, presidente del negocio de computación Ascend de Huawei, reveló que la plataforma básica de software y hardware "Ascend AI" se ha incubado y adaptado a más de 30 modelos grandes convencionales, y más de la mitad de los modelos grandes nativos de China se basan en la plataforma básica de software y hardware "Ascend AI", incluidas las series Pengcheng, Zidong y HUAWEI CLOUD Pangu. En agosto de este año, Baidu también anunció oficialmente la adaptación del Ascend AI con el modelo de remo volador + Wen Xin.

Y según una imagen que circula en Internet, el Centro de Supercomputación Inteligente de China es básicamente Ascend, excepto por lo no revelado, y se dice que después de la nueva ronda de restricciones de chips, el 30-40% de la capacidad de producción de chips de Huawei se reservará para el clúster Ascend, y el resto es Kirin.

Epílogo

En 2006, cuando NVIDIA estaba desplegando su gran narrativa, nadie pensó que CUDA sería un producto revolucionario, y Huang tuvo que persuadir a la junta directiva para que invirtiera $ 500 millones al año para apostar en un período de recuperación desconocido de más de 10 años, y los ingresos de NVIDIA fueron de solo $ 3 mil millones ese año.

Pero en todas las historias de negocios que utilizan la tecnología y la innovación como palabras clave, siempre hay personas que han logrado un gran éxito debido a su persistente adhesión a los objetivos a largo plazo, y NVIDIA y Huawei se encuentran entre las mejores.

Recursos

[1] La "hoz" de NVIDIA no es un chip de IA, un laboratorio basado en silicio

[2] Para convertirse en un "reemplazo de NVIDIA", los grandes fabricantes de modelos abrieron el libro y la pequeña mesa creó ropa

[3] Solo 1 año después de su creación, esta startup estrella de IA quiere desafiar a NVIDIA y magnesio kenet

[4] Una grieta en el imperio Nvidia, el Instituto de Investigación Enukawa

[5] Estados Unidos planea aumentar las exportaciones de chips a China, Huawei lidera el aumento de la producción nacional y West China Securities

[6] Informe en profundidad de la industria de AIGC (11): Spin-off de la potencia informática de Huawei: el segundo polo de la potencia informática global de la IA, West China Securities

[7] Informe especial de la industria de AIGC 2023: Cuatro rutas técnicas principales de chips de IA, Cambrian Copy NVIDIA, Shenwan Hongyuan

[8] Cómo CUDA logra NVIDIA: un gran avance en la IA y la comunidad de Tencent Cloud

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)