* "Las cosas principales son pesadas" El plan de investigación de la industria de semiconductores de Tencent Technology, esta edición de Core Tide IC y Tencent Technology, se centra en la explosión de modelos grandes, la formación de un nuevo patrón en el mercado global de potencia informática de chips, el diseño de Las empresas líderes y el crecimiento de la persecución de los fabricantes nacionales. *
Una ola de revolución de IA desencadenada accidentalmente por ChatGPT una vez más encendió el mercado de chips de IA.
"Los chips como el A800 y el H800 han cambiado de alrededor de 120 000 RMB a 250 000 o incluso a 300 000, o incluso a 500 000". Esta es una escena real en el círculo de distribución de chips nacionales. Los principales fabricantes nacionales, que se disparan vertiginosamente, quieren obtener chips en grandes cantidades. cantidades, y tienen que tener una "relación directa" con Huang Renxun.
Con el llamado "sin chip, sin IA", a medida que se dispara la demanda de poder de cómputo de modelos grandes, los chips, que son la base de la tecnología de IA, marcan el comienzo de importantes oportunidades comerciales. OpenAI predijo una vez que para lograr avances en la investigación científica de inteligencia artificial, los recursos informáticos necesarios para consumir se duplicarán cada 3 o 4 meses, y los fondos también deberán ir acompañados de un crecimiento exponencial "Ley de Moore".
El director financiero de Nvidia, Kress, dijo que la demanda actual del mercado de potencia informática de IA ha superado las expectativas de la empresa para los próximos trimestres y que hay demasiados pedidos que cumplir.
La ola de IA generativa ha hecho que Nvidia gane mucho dinero. Después de 14 años de cotización, Nvidia ha entrado con éxito en el club de capitalización de mercado de billones de dólares. Para lograr este objetivo, los gigantes de Silicon Valley como Apple tardaron 37 años, Microsoft 33 años, Amazon 21 años y Tesla fue el más rápido. , sólo tomó 11 años.
Esto también ha estimulado a las empresas de chips chinas a estar ansiosas por intentarlo. Las empresas de chips nacionales, como Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin, etc., tienen la ambición de una "versión china" de Nvidia y tratan para confiar en su propia investigación Empoderamiento del modelo doméstico a gran escala. Algunos grandes fabricantes también han comenzado a utilizar chips de IA de desarrollo propio para apoyar parte de las tareas de entrenamiento o razonamiento del modelo, como los chips Baidu Kunlun, Ali Hanguang 800...
Ante el mercado de un billón de dólares generado por el poder informático de la IA, ¿pueden las empresas nacionales disfrutar de esta ola de dividendos? ¿Cómo deberían los fabricantes de chips nacionales superar la "montaña" de Nvidia? Este es un problema del que ninguna empresa puede escapar.
01. El frenesí de la IA ha creado un valor de mercado de un billón de dólares Nvidia
Los hombres a los que les encanta usar ropa de cuero son los primeros en disfrutar de los dividendos de la IA.
A fines de 2022, después de que salió ChatGPT, rápidamente causó un frenesí de IA en todo el mundo. Entre ellas, Nvidia, que ha estado apostando por el futuro de la IA, se ha convertido en una de las empresas que más se ha beneficiado de la ola de ChatGPT. En la conferencia Nvidia GTC de este año, el fundador y CEO de Nvidia, Jen-Hsun Huang, reveló una nueva inteligencia artificial y tecnología de chips, y dijo que ha llegado el "momento iPhone" para la inteligencia artificial.
En la conferencia de prensa, Huang Renxun dijo que la implementación de modelos de lenguaje a gran escala similares a ChatGPT es una nueva carga de trabajo de razonamiento importante. Con el fin de respaldar el razonamiento del modelo de lenguaje a gran escala, Nvidia ha lanzado una serie de productos y servicios en torno a la IA. campo.Entre ellos, se adopta una nueva arquitectura.Y el chip H100 con un proceso más avanzado es el más llamativo.
Fuente: sitio web oficial de NVIDIA
Esta GPU es una H100 basada en la arquitectura NVIDIA Hopper, equipada con un motor Transformer diseñado para procesar y manejar modelos preentrenados similares a ChatGPT. Un servidor estándar con cuatro pares de H100 y NVLink de doble GPU puede acelerar el entrenamiento en un factor de 10 en comparación con HGX A100 para el procesamiento GPT-3.
"H100 puede reducir el costo de procesamiento de modelos de idiomas grandes en un orden de magnitud", dijo una vez Huang Renxun. Basado en el chip H100, Nvidia también ha construido la última supercomputadora DGX, equipada con 8 GPU H100, para que puedan conectarse para formar una GPU enorme, proporcionando un "modelo" para la construcción de la infraestructura de IA. La supercomputadora DGX se ha puesto completamente en producción.
Después de eso, los chips de GPU de alto rendimiento de Nvidia como A100, H100, A800 y H800 aumentaron sus precios en consecuencia, especialmente el chip insignia H100, que se vendió por más de 40 000 dólares estadounidenses en plataformas de comercio electrónico en el extranjero a mediados de abril, y algunos vendedores incluso lo valoraron en 6.5 Diez mil dólares estadounidenses.
Al mismo tiempo, los chips A800 y H800 específicos de China de Nvidia también han sido saqueados. "Es básicamente difícil para las empresas nacionales de modelos a gran escala obtener estos chips. La demanda en todo el mercado supera la demanda y la escasez es muy grave", dijo con franqueza Zhang Jue, fundador del proveedor de adquisición de componentes electrónicos "Guangxin Century". a Xinchao IC: "Este año, este tipo de chip GPU ha cambiado de alrededor de 120 000 RMB a 250 000 RMB o incluso 300 000 RMB, o incluso hasta 500 000 RMB".
No hay duda de que el liderazgo tecnológico de Nvidia en GPU de alto rendimiento y sus dos chips de IA, el A100 y el H100, son la fuerza impulsora central para modelos de lenguaje grande como ChatGPT.
Algunos profesionales de la computación en la nube creen que 10 000 chips Nvidia A100 son el umbral de potencia informática para un buen modelo de IA. La supercomputadora de IA que Microsoft construyó para OpenAI para entrenar sus modelos está equipada con 10,000 chips de GPU Nvidia. Coincidentemente, las principales empresas nacionales de Internet también han realizado grandes pedidos con Nvidia. Según un informe reciente de LatePost, Byte ha pedido más de mil millones de dólares en GPU de Nvidia este año. Otra gran empresa que no puede ser nombrada tiene un pedido de al menos más de mil millones de yuanes renminbi.
Lo que es aún más exagerado es que si estas empresas finalmente pueden tomar la tarjeta depende más de la relación comercial, especialmente si fue un cliente importante de Nvidia en el pasado. "Ya sea que hable con Nvidia de China o vaya a los Estados Unidos para hablar directamente con Lao Huang (Huang Renxun), hace la diferencia".
Como resultado, los datos financieros de Nvidia volvieron a subir a nuevos máximos. El 25 de mayo, Nvidia publicó su informe financiero del primer trimestre. Los ingresos del negocio del centro de datos donde se encuentran los chips de IA alcanzaron un récord, manteniendo una tasa de crecimiento interanual de más del 10%.
Huang Renxun reveló que toda la línea de productos del centro de datos ahora está en producción y que la oferta se está incrementando considerablemente para satisfacer el aumento de la demanda.
Una serie de buenas noticias impulsaron directamente el precio de las acciones de Nvidia cada vez más alto. En la noche del 30 de mayo, se abrió el mercado de valores de EE. UU. y el valor de mercado de Nvidia superó directamente el billón de dólares. El 19 de julio, el valor de mercado total de Nvidia se disparó en 175 mil millones de dólares estadounidenses de la noche a la mañana, lo que desencadenó nuevamente un auge de la inversión.
Según el sitio web de CompaniesMarketCap, el valor de mercado total de Nvidia ocupa el sexto lugar en el mundo, y también es la compañía de chips con el valor de mercado más alto en la actualidad, cerca de dos TSMC ($ 533,6 mil millones). año. Tengo que admitir que esta ola de frenesí de IA ha llenado la Nvidia de Huang Renxun.
02. Es imposible que Nvidia disfrute del frenesí de la potencia informática
"Nvidia no tendrá el monopolio de los chips de inferencia y entrenamiento a gran escala para siempre".
Esa fue la respuesta del director ejecutivo de Tesla, Elon Musk, a un tuit de Adam D'Angelo, director ejecutivo del sitio social de preguntas y respuestas y del mercado de conocimientos en línea Quora, quien escribió: "Una de las razones por las que se subestima el auge de la IA es la escasez de GPU/TPU". lo que condujo a varias restricciones en los lanzamientos de productos y la capacitación de modelos, pero ninguno de estos fue evidente. En cambio, vimos que el precio de las acciones de Nvidia se disparó. Una vez que la oferta satisfizo la demanda, las cosas se aceleraron".
Obviamente, Silicon Valley Iron Man no está de acuerdo con esto. También comentó: "También se están desarrollando muchos otros chips aceleradores de redes neuronales, y Nvidia no monopolizará el entrenamiento y el razonamiento a gran escala para siempre".
Se acerca una tormenta.
¿Qué tan grande es el mercado de poder de cómputo que puede impulsar el frenesí de la IA centrado en modelos grandes? Soochow Securities cree que la demanda de poder de cómputo de los modelos de IA continúa expandiéndose, abriendo la demanda del mercado de chips informáticos de alto rendimiento. Se estima que el tamaño del mercado de los chips de IA de mi país alcanzará los 178 mil millones de yuanes en 2025, y el La tasa de crecimiento anual compuesta de 2019 a 2025 alcanzará el 42,9 %. Desde la perspectiva del tamaño del mercado, los chips de IA están en su infancia, pero tienen un enorme potencial de crecimiento.
El chip AI es un concepto amplio, que generalmente se refiere a un módulo especialmente utilizado para procesar tareas informáticas en aplicaciones de inteligencia artificial.Es un hardware de tareas informáticas nacido en la era del rápido desarrollo de las aplicaciones de inteligencia artificial.Todos los chips para inteligencia artificial aplicaciones se llaman chips de IA. Hay tres rutas técnicas principales: de uso general (GPU), semipersonalizada (FPGA) y personalizada (ASIC).
Desde la perspectiva del entrenamiento de modelos a gran escala, el ajuste fino basado en escenarios y los escenarios de aplicaciones de inferencia, la potencia informática heterogénea proporcionada por los chips CPU+IA, las capacidades informáticas paralelas superiores y el alto ancho de banda de interconexión pueden respaldar la máxima eficiencia de la informática AI. y conviértase en una solución inteligente La corriente principal para la informática.
En términos de participación de mercado, según iResearch, para 2027, se espera que el mercado de chips de IA de China alcance los 216.400 millones de yuanes. Con la optimización de los modelos de IA implementada, la proporción de chips de razonamiento de IA aumentará día a día. En 2022, los chips de entrenamiento de IA y los chips de razonamiento de IA de China representarán el 47,2 % y el 52,8 %, respectivamente.
En la actualidad, hay tres tipos de jugadores en el campo de los chips de IA: uno son los antiguos gigantes de chips representados por Nvidia y AMD, con un rendimiento de producto sobresaliente, y el otro son los gigantes de la computación en la nube representados por Google, Baidu y Huawei. y desarrolló chips de IA, plataformas de aprendizaje profundo, etc. para respaldar el desarrollo de modelos grandes. Por ejemplo, Kunpeng Ascend, CANN y Mindspore de Huawei, Kunlun Core de Baidu, etc. Finalmente, hay algunos pequeños y hermosos chips unicornios de IA, como Cambrian, Biren Technology, Tianshu Zhixin, etc.
Si bien el estallido de modelos domésticos a gran escala puede causar una brecha en el poder de cómputo, es solo cuestión de tiempo antes de que los fabricantes de chips domésticos disfruten de los dividendos del reemplazo doméstico. Como desarrollador de chips de entrenamiento de IA, Cambrian, el "primer stock de chips de IA", una vez más ha atraído la atención del mercado y el precio de sus acciones ha seguido aumentando. El valor de mercado más reciente ha superado los 90 mil millones.
En la línea de productos en la nube, Cambricon ha lanzado cuatro generaciones de productos de chips: Siyuan 100 en 2018, Siyuan 270 en 2019, Siyuan 290 (vehículo) en 2020 y la serie Siyuan 370 lanzada en 2021. Se utiliza para respaldar tareas de procesamiento de inteligencia artificial. con un rápido crecimiento en complejidad y rendimiento de datos en escenarios de centros de datos y computación en la nube. Además, Cambrian también tiene un producto bajo investigación, Siyuan 590, que aún no ha sido lanzado. Además, para fines de 2022, la serie Siyuan 370 y el producto AIGC Baidu Flying Paddle completarán las pruebas de compatibilidad de Nivel II.
Sin embargo, aún no se ha recibido información precisa sobre si las empresas nacionales de modelos a gran escala han adoptado chips cámbricos. "En el campo de los chips de inteligencia artificial de alta gama, los fabricantes nacionales están en sus inicios y muchas cosas necesitan tiempo y dinero para verificar", reveló un ingeniero de chips senior. Incluso los chips de empresas como Huawei, Baidu y Haiguang Information tienen una clara brecha con los productos de Nvidia.
Alguien dijo una vez con franqueza que la brecha entre Nvidia y otros fabricantes de chips es la diferencia entre académicos y estudiantes de secundaria. Como dijo Huang Renxun, Nvidia "ha estado corriendo", y otros fabricantes de chips que quieren superar a los gigantes solo pueden correr salvajemente.
03. El "Juego de Tronos" detrás del gran modelo de IA
Además de Nvidia, AMD, otro gigante de GPU, también tomó medidas recientemente.
Recientemente, AMD lanzó la última tarjeta aceleradora. En el sitio de la conferencia donde AMD lanzó la última tarjeta aceleradora Instinct MI300X, se escribió una línea de palabras especialmente en el PPT, dedicada a modelos de lenguaje grande. Esto es considerado por la industria como una declaración directa de guerra contra Nvidia!
Se informa que la densidad de memoria de alto ancho de banda (HBM) de MI300X puede alcanzar hasta 2,4 veces la de Nvidia H100, y el ancho de banda de memoria de alto ancho de banda puede alcanzar hasta 1,6 veces la de H100. Obviamente, MI300X puede ejecutar una mayor Modelo AI que H100.
La serie MI300 donde se encuentra el MI300X es una serie de las últimas tarjetas aceleradoras de APU creadas por AMD para IA y HPC. Entre ellos, MI300A es el "modelo básico" y MI300X es el "modelo optimizado de modelo grande" con mayor rendimiento de hardware.
En la actualidad, se ha probado el MI300A y se estima que estará disponible para su compra pronto; se espera que la tarjeta dedicada a gran escala MI300X y la plataforma informática AMD Instinct que integra 8 MI300X se prueben en el tercer trimestre de este año, y se lanzará en el cuarto trimestre.
En los últimos años, en comparación con los grandes movimientos de Nvidia en el campo de la IA, las acciones de AMD parecen un poco lentas. Como dijo Eric Jang, CEO de DeepBrain AI, siente que AMD lo ha decepcionado en los últimos años y nada ha cambiado en los últimos cinco años. Especialmente durante el estallido de AIGC, si AMD no trabaja duro para mantenerse al día, la brecha solo se ampliará.
Con el lanzamiento de los productos de la serie MI300 de AMD, finalmente podemos ver a AMD y Nvidia luchando de frente.
Desafortunadamente, el mercado no parece estar comprando las nuevas tarjetas de AMD.
Durante esta conferencia de AMD, el precio de sus acciones no subió sino que cayó. En contraste, el precio de las acciones de Nvidia también ha subido una ola. El sentimiento del mercado no es difícil de entender, porque en el campo de la alta tecnología, especialmente en los mercados emergentes, se está convirtiendo en una lógica común en el mercado comercial seguir el ritmo de cada paso y mantener la fortaleza.
Pero, de hecho, después de un estudio cuidadoso de las razones, se puede encontrar que la razón principal por la que Nvidia monopoliza el mercado de chips de entrenamiento de inteligencia artificial es su ecología CUDA de desarrollo propio. Por lo tanto, si AMD MI300 quiere reemplazar a Nvidia, primero debe ser compatible con el ecosistema CUDA de Nvidia. AMD lanzó el ecosistema ROCm para este propósito y logró la compatibilidad total con CUDA a través de HIP, reduciendo así el costo conocido de los usuarios.
En este sentido, Murong Yi, un conocido bloguero de inversiones, cree que la dificultad de tomar la ruta compatible con NVIDIA CUDA es que su velocidad de iteración de actualización nunca puede seguir el ritmo de CUDA, y es difícil lograr la compatibilidad total, es decir. , por un lado, la iteración es siempre un paso más lenta. La GPU de Nvidia itera rápidamente en la microarquitectura y el conjunto de instrucciones, y se requieren actualizaciones de funciones correspondientes en muchos lugares en la pila de software superior, pero es imposible que AMD conozca la hoja de ruta del producto de Nvidia, y las actualizaciones de software siempre serán un paso más lento que Nvidia (por ejemplo, AMD acaba de anunciar soporte para CUDA11, pero Nvidia ha lanzado CUDA12); por otro lado, la dificultad de la compatibilidad total aumentará la carga de trabajo de los desarrolladores. La arquitectura de software a gran escala como CUDA es muy complicado, y AMD necesita invertir mucha mano de obra y recursos materiales, tardará años o incluso más de diez años en ponerse al día, porque inevitablemente habrá diferencias funcionales, y si la compatibilidad no se hace bien, afectará el desempeño. Por lo tanto, estas son también las razones clave por las que no todo el mundo lo compra.
Según las estimaciones de Khaveen Investments, la cuota de mercado de GPU del centro de datos de Nvidia alcanzará el 88 % en 2022, y AMD e Intel compartirán el resto.
Desde que OpenAI lanzó ChatGPT el año pasado, ha seguido fermentando una nueva ronda de revolución tecnológica. Se puede decir que ningún avance tecnológico ha llamado tanto la atención del mundo como ChatGPT durante muchos años.
Varias empresas de tecnología, instituciones de investigación científica y colegios y universidades nacionales y extranjeras están haciendo un seguimiento. En menos de medio año, han surgido muchas empresas de nueva creación para aplicaciones de modelos a gran escala, y la escala de financiación ha aumentado repetidamente. alcanzar nuevos máximos.
Según el bloguero wgang, Baidu, iFLYTEK, 4Paradigm, la Universidad de Tsinghua, Fudan y otras importantes fábricas nacionales, empresas emergentes e instituciones de investigación científica han lanzado sucesivamente modelos de productos a gran escala:
Fuente: Zhihu wgwang
Se puede ver que no solo en el campo general, sino también en escenarios específicos de la industria, especialmente en algunos campos con fuerte profesionalismo y alta densidad de conocimiento, las empresas de tecnología también están lanzando grandes modelos en campos verticales. Por ejemplo, Baijiayun (RTC), una empresa que cotiza en EE. UU., lanzó recientemente el producto AIGC "Market Easy" basado en su conocimiento de las necesidades de servicio de las empresas. Este es también el primer motor modelo GPT a gran escala adecuado para escenarios de producción de contenido. de los departamentos de marketing empresarial.
Algunos expertos de la industria dijeron con una sonrisa: "Los modelos domésticos a gran escala han formado una situación en la que grupos de modelos bailan salvajemente y cien modelos compiten. Se espera que haya más de 100 modelos a gran escala para el final de la año."
Sin embargo, el desarrollo de modelos grandes requiere el apoyo de tres factores importantes: algoritmos, poder de cómputo y datos. El poder de cómputo es un motor de energía importante para el entrenamiento de modelos grandes, y también es una barrera importante para el desarrollo de la industria de modelos grandes. en China.
La capacidad del chip afecta directamente el efecto y la velocidad del entrenamiento de alta computación. Como se mencionó anteriormente, a pesar de la aparición frecuente de modelos de productos domésticos a gran escala, a juzgar por los chips detrás de ellos, todas estas plataformas usan GPU Nvidia A100 y H100, o las GPU A800 y A800 de configuración reducida de Nvidia lanzadas especialmente después de la prohibición del año pasado. H800, el ancho de banda de estos dos procesadores es de aproximadamente 3/4 y aproximadamente la mitad de la versión original, evitando la limitación estándar de GPU de alto rendimiento.
En marzo de este año, Tencent tomó la delantera al anunciar que había usado el H800. Ya lo había usado en la nueva versión de los servicios informáticos de alto rendimiento lanzados por Tencent Cloud, y dijo que era la primera en China.
Alibaba Cloud también propuso internamente en mayo de este año que la "Batalla de computación inteligente" sería la batalla número uno de este año, y la cantidad de GPU se ha convertido en un indicador importante de esta batalla.
Además, Shangtang también anunció que se han implementado casi 30 000 GPU en su clúster de computación de "dispositivos grandes de IA", de los cuales 10 000 son Nvidia A100. Byte y Meituan asignan directamente GPU de otros equipos comerciales de la empresa para la capacitación de modelos grandes. Algunos fabricantes incluso han estado buscando varios productos de máquinas completas que puedan eliminar el A100 en el mercado desde la segunda mitad de 2022, con el único objetivo de obtener chips de GPU. "Hay demasiadas máquinas y no hay suficientes lugares para almacenarlas".
Se entiende que las empresas de tecnología líderes nacionales han invertido mucho en inteligencia artificial y computación en la nube. En el pasado, la acumulación de A100 ha alcanzado decenas de miles.
Al mismo tiempo, las principales empresas de tecnología de China aún participan en una nueva ronda de competencia de adquisiciones.
Según un proveedor de servicios en la nube, las grandes empresas como Byte y Alibaba negocian principalmente las compras directamente con la fábrica original de Nvidia, y es difícil para los agentes y los mercados de segunda mano satisfacer sus enormes necesidades.
Como se mencionó anteriormente, ByteDance ha pedido más de mil millones de dólares en productos de GPU de Nvidia este año. El volumen de compra de Byte solo este año está cerca de las ventas totales de GPU comerciales vendidas por Nvidia en China el año pasado. Según los informes, hay otra gran empresa con un pedido de al menos más de mil millones de yuanes.
Se puede ver que las grandes empresas de tecnología de China son muy urgentes para comprar GPU.
No solo las empresas nacionales, sino también los principales clientes extranjeros tienen una demanda muy fuerte de chips A100/H100 de Nvidia. Según las estadísticas, Baidu, que primero comenzó a probar productos similares a ChatGPT, tiene un gasto de capital anual de entre 800 y 2 mil millones de dólares desde 2020, y el de Alibaba entre 6 y 8 mil millones de dólares. Durante el mismo período, Amazon, Meta, Google y Microsoft, las cuatro empresas tecnológicas estadounidenses que construyeron sus propios centros de datos, tuvieron gastos de capital anuales de al menos 15.000 millones de dólares estadounidenses.
En la actualidad, la visibilidad de los pedidos de Nvidia ha llegado a 2024 y los chips de gama alta son escasos. Con el calendario de producción actual, ni siquiera el A800/H800 se entregará hasta finales de este año o el próximo. En el corto plazo, desde la perspectiva de su popularidad, lo único que afecta las ventas de GPU de gama alta de Nvidia puede ser la capacidad de producción de TSMC.
04. Detrás de la "loca" Nvidia, ¿los chips domésticos son insuficientes tanto en hardware como en software?
A juzgar por el suministro de chips de productos de modelos a gran escala, actualmente no hay sustitutos para A100, H100 y las versiones reducidas de A800 y H800 suministradas especialmente a China en términos de entrenamiento de modelos a gran escala de IA.
Entonces, ¿por qué en esta ronda de auge de GPT, Nvidia tomó la delantera y se desempeñó bien?
Zhang Gaonan, socio gerente de Huaying Capital, dijo que, por un lado, se debe a que Nvidia tiene el diseño más antiguo y su estructura de micronúcleo también ha evolucionado y mejorado de generación en generación. Ahora bien, ya sea en términos de simultaneidad, velocidad de bus o soporte maduro de microkernel para la transformación de matriz, sus capacidades ya son muy eficientes, incluida la provisión de una plataforma informática CUDA muy completa al mismo tiempo, que de hecho se ha convertido en un potencial estándar de la industria para algoritmos de aprendizaje profundo Las instalaciones de apoyo de toda la cadena industrial también son muy completas, y las barreras de competencia integrales y la profundidad del foso son extremadamente altas.
En resumen, la insustituibilidad actual de la GPU Nvidia proviene del mecanismo de entrenamiento de los modelos grandes. Sus pasos principales son el entrenamiento previo y el ajuste fino. El primero es sentar las bases, lo que equivale a recibir educación general para graduarse de la universidad. ; este último está optimizado para escenarios y tareas específicas para mejorar el rendimiento laboral.
Entonces, ¿los chips de GPU domésticos pueden soportar los requisitos de potencia informática de los modelos grandes?
En las aplicaciones prácticas, la demanda de poder de cómputo del modelo grande se divide en dos etapas: una es el proceso de entrenamiento del modelo grande ChatGPT y la otra es el proceso de razonamiento para comercializar el modelo. Es decir, el entrenamiento de IA es para hacer modelos, y el razonamiento de IA es para usar modelos, y el entrenamiento requiere un mayor rendimiento del chip.
En base a esto, continúan surgiendo empresas nacionales de chips de IA, lanzando productos al mercado uno tras otro. Empresas como Suiyuan Technology, Biren Technology, Tianshu Zhixin y Cambrian han lanzado sus propios productos de GPU en la nube, y los indicadores de rendimiento teóricos no son débiles. El chip DCU "Shensu No. 1" de Haiguang Information tiene un ecosistema de software y hardware relativamente completo y es compatible con la arquitectura CUDA. Y las grandes empresas de Internet como Tencent, Baidu y Ali también se están desplegando vigorosamente en el campo de los chips de IA a través de la inversión y la incubación.
Entre ellos, el entrenamiento de modelos a gran escala necesita procesar información de gran granularidad, lo que requiere una mayor precisión y velocidad informática para los chips de entrenamiento en la nube. En la actualidad, la mayoría de las GPU domésticas no tienen la capacidad de admitir el entrenamiento de modelos a gran escala. Es adecuado para el trabajo de inferencia en la nube que no requiere una granularidad de información tan alta.
* Los productos de IA y los circuitos integrados de ondas centrales de aplicaciones de algunas empresas relacionadas nacionales se clasifican de acuerdo con la información pública *
En marzo de este año, Baidu Li Yanhong declaró públicamente que el chip Kunlun ahora es muy adecuado para el razonamiento de modelos grandes y será adecuado para el entrenamiento en el futuro.
Zou Wei, vicepresidente de Tianshu Zhixin, también le dijo a Xinchao IC que todavía existe una cierta brecha entre los chips domésticos y los últimos productos de Nvidia, pero en términos de cálculos de inferencia, los chips domésticos pueden lograr el mismo rendimiento que los productos principales y con la aplicación. de inteligencia artificial Popularidad, la demanda del mercado de chips de razonamiento acelerará el crecimiento, y con la expansión de la demanda, los chips domésticos también tendrán un mercado más grande.
Otra persona de la industria que no quiso ser nombrada dijo: "Los productos de GPU de propósito general nacionales tienen una brecha con los productos emblemáticos internacionales para cumplir con el entrenamiento de modelos a gran escala, pero no es irreparable. Es solo que la industria tiene no está diseñado en la dirección de modelos a gran escala en la definición del producto ".
En la actualidad, los profesionales de la industria están realizando exploraciones y esfuerzos relevantes, como pensar si la potencia informática de los chips se puede mejorar a través de chipsets y empaques avanzados. En la actualidad, las empresas nacionales de GPU están desarrollando y diseñando chips en el campo de los modelos grandes.
Desde la perspectiva del capital, Zhang Gaonan, socio gerente de Huaying Capital, le dijo a Xinchao IC que Huaying ha prestado mucha atención a la infraestructura de potencia informática durante mucho tiempo, ya sea GPU, DPU o computación híbrida fotoeléctrica más avanzada, computación cuántica. , hay investigación y diseño dirigidos. En general, se enfoca en la infraestructura informática de propósito general, como FPGA y computación perimetral. Por el contrario, en la actualidad, muchos chips de potencia informática en torno al aprendizaje profundo, algoritmos especiales, optimización de la potencia informática local, etc., no son el centro de su consideración.
De hecho, además de la brecha en el rendimiento del hardware, el ecosistema de software también es una deficiencia de los fabricantes nacionales de chips de IA.
El chip debe adaptarse a múltiples niveles, como el sistema de hardware, la cadena de herramientas, el compilador, etc., y necesita una gran capacidad de adaptación. De lo contrario, este chip puede ejecutar el 90 % de la potencia informática en una escena, pero solo puede ejecutar el 90 % en otra. Se agotó el 80 % del escenario de rendimiento.
Como se mencionó anteriormente, Nvidia tiene ventajas obvias en este sentido. Ya en 2006, Nvidia lanzó la plataforma informática CUDA, que es un motor de software informático paralelo. El marco CUDA integra una gran cantidad de códigos necesarios para invocar la potencia informática de la GPU. Los ingenieros pueden usar estos códigos directamente sin escribirlos uno por uno. Los desarrolladores pueden usar CUDA para realizar entrenamiento y razonamiento de IA de manera más eficiente y hacer un mejor uso de la potencia informática de la GPU. Hoy en día, CUDA se ha convertido en una infraestructura de IA, y los principales marcos, bibliotecas y herramientas de IA se desarrollan en base a CUDA.
Sin este conjunto de lenguajes de codificación, será extremadamente difícil para los ingenieros de software darse cuenta del valor del hardware.
Si las GPU y los chips de IA que no sean Nvidia quieren acceder a CUDA, deben proporcionar su propio software de adaptación. Según expertos de la industria, me puse en contacto con un fabricante de GPU que no es de NVIDIA. Aunque sus cotizaciones de chips y servicios son más bajas que las de NVIDIA y prometen brindar servicios más oportunos, los costos generales de capacitación y desarrollo del uso de su GPU serán más altos que los de NVIDIA. la incertidumbre de los resultados y el tiempo de desarrollo.
Aunque las GPU de Nvidia son caras, en realidad son las más baratas de usar. Para las empresas que tienen la intención de aprovechar la oportunidad de los modelos a gran escala, el dinero a menudo no es un problema y el tiempo es un recurso más preciado.Todos deben obtener suficiente potencia informática avanzada lo antes posible para garantizar la ventaja de ser los primeros en moverse.
Por lo tanto, para los proveedores de chips nacionales, incluso si un producto con una potencia informática comparable puede apilarse apilando chips, es más difícil para los clientes aceptar la adaptación y compatibilidad del software. Además, desde la perspectiva de la operación del servidor, los gastos de la placa base, los cargos de electricidad, los gastos operativos y cuestiones como el consumo de energía y la disipación de calor que deben tenerse en cuenta aumentarán en gran medida los costos operativos del centro de datos.
Debido a que los recursos de potencia informática a menudo deben presentarse en forma de agrupación, los centros de datos suelen estar más dispuestos a utilizar el mismo chip o chips de la misma empresa para reducir la dificultad de la agrupación de potencia informática.
La liberación del poder de cómputo requiere una cooperación compleja de software y hardware para convertir el poder de cómputo teórico del chip en poder de cómputo efectivo. Para los clientes, no es fácil usar chips de inteligencia artificial domésticos. El reemplazo de los chips de inteligencia artificial en la nube requiere ciertos costos y riesgos de migración, a menos que el nuevo producto tenga ventajas de rendimiento o pueda generar problemas que otros no pueden resolver en cierta dimensión. De lo contrario, la voluntad de clientes a reemplazar es muy baja.
Como el único proveedor de GPU que realmente puede procesar ChatGPT, Nvidia es el merecido "rey de la potencia informática de la IA". Hace seis años, Huang Renxun entregó personalmente la primera supercomputadora equipada con el chip A100 a OpenAI, ayudó a este último a crear ChatGPT y se convirtió en el líder de la era de la IA.
Sin embargo, desde que Estados Unidos implementó controles de exportación el año pasado, a Nvidia se le prohibió exportar dos de sus chips GPU más avanzados, el H100 y el A100, a China. Sin duda, esto es un golpe para las empresas de aplicaciones posteriores.
Desde la perspectiva de la seguridad y el autocontrol, esto también brinda una nueva ventana de oportunidad para las empresas nacionales de chips. Aunque los chips nacionales son inferiores a los gigantes de la industria como Nvidia y AMD en términos de rendimiento y ecología del software, impulsados por relaciones comerciales internacionales complejas y factores geopolíticos, la "sustitución nacional" se ha convertido en el tema principal del desarrollo de la industria nacional de semiconductores.
05. Conclusión
Cada aumento en el poder de cómputo desencadenará una ola de cambios tecnológicos e industriales: las CPU llevan a la humanidad a la era de la PC, los chips móviles desencadenan una ola de Internet móvil y los chips de IA rompen el cuello de botella de poder de cómputo de décadas en la IA industria.
Hoy ha llegado el "momento iPhone con IA", y es posible que el camino hacia la próxima era ya esté frente a nosotros.
Aunque los campos de los chips de IA y los sistemas de software en estos centros de datos todavía están dominados por fabricantes extranjeros, la puerta del mercado para la "localización del poder de cómputo" puede estar abriéndose ahora.
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Carnaval de computación, ¿quién es la "versión china" de Nvidia?
**Fuente: **Core Tide IC
Texto: Wang Yike Diez Callejones
Editor: Su Yang Xubai
Una ola de revolución de IA desencadenada accidentalmente por ChatGPT una vez más encendió el mercado de chips de IA.
"Los chips como el A800 y el H800 han cambiado de alrededor de 120 000 RMB a 250 000 o incluso a 300 000, o incluso a 500 000". Esta es una escena real en el círculo de distribución de chips nacionales. Los principales fabricantes nacionales, que se disparan vertiginosamente, quieren obtener chips en grandes cantidades. cantidades, y tienen que tener una "relación directa" con Huang Renxun.
Con el llamado "sin chip, sin IA", a medida que se dispara la demanda de poder de cómputo de modelos grandes, los chips, que son la base de la tecnología de IA, marcan el comienzo de importantes oportunidades comerciales. OpenAI predijo una vez que para lograr avances en la investigación científica de inteligencia artificial, los recursos informáticos necesarios para consumir se duplicarán cada 3 o 4 meses, y los fondos también deberán ir acompañados de un crecimiento exponencial "Ley de Moore".
El director financiero de Nvidia, Kress, dijo que la demanda actual del mercado de potencia informática de IA ha superado las expectativas de la empresa para los próximos trimestres y que hay demasiados pedidos que cumplir.
La ola de IA generativa ha hecho que Nvidia gane mucho dinero. Después de 14 años de cotización, Nvidia ha entrado con éxito en el club de capitalización de mercado de billones de dólares. Para lograr este objetivo, los gigantes de Silicon Valley como Apple tardaron 37 años, Microsoft 33 años, Amazon 21 años y Tesla fue el más rápido. , sólo tomó 11 años.
Esto también ha estimulado a las empresas de chips chinas a estar ansiosas por intentarlo. Las empresas de chips nacionales, como Haiguang Information, Cambrian, Loongson Zhongke, Biren Technology, Tianshu Zhixin, etc., tienen la ambición de una "versión china" de Nvidia y tratan para confiar en su propia investigación Empoderamiento del modelo doméstico a gran escala. Algunos grandes fabricantes también han comenzado a utilizar chips de IA de desarrollo propio para apoyar parte de las tareas de entrenamiento o razonamiento del modelo, como los chips Baidu Kunlun, Ali Hanguang 800...
Ante el mercado de un billón de dólares generado por el poder informático de la IA, ¿pueden las empresas nacionales disfrutar de esta ola de dividendos? ¿Cómo deberían los fabricantes de chips nacionales superar la "montaña" de Nvidia? Este es un problema del que ninguna empresa puede escapar.
01. El frenesí de la IA ha creado un valor de mercado de un billón de dólares Nvidia
Los hombres a los que les encanta usar ropa de cuero son los primeros en disfrutar de los dividendos de la IA.
A fines de 2022, después de que salió ChatGPT, rápidamente causó un frenesí de IA en todo el mundo. Entre ellas, Nvidia, que ha estado apostando por el futuro de la IA, se ha convertido en una de las empresas que más se ha beneficiado de la ola de ChatGPT. En la conferencia Nvidia GTC de este año, el fundador y CEO de Nvidia, Jen-Hsun Huang, reveló una nueva inteligencia artificial y tecnología de chips, y dijo que ha llegado el "momento iPhone" para la inteligencia artificial.
En la conferencia de prensa, Huang Renxun dijo que la implementación de modelos de lenguaje a gran escala similares a ChatGPT es una nueva carga de trabajo de razonamiento importante. Con el fin de respaldar el razonamiento del modelo de lenguaje a gran escala, Nvidia ha lanzado una serie de productos y servicios en torno a la IA. campo.Entre ellos, se adopta una nueva arquitectura.Y el chip H100 con un proceso más avanzado es el más llamativo.
Esta GPU es una H100 basada en la arquitectura NVIDIA Hopper, equipada con un motor Transformer diseñado para procesar y manejar modelos preentrenados similares a ChatGPT. Un servidor estándar con cuatro pares de H100 y NVLink de doble GPU puede acelerar el entrenamiento en un factor de 10 en comparación con HGX A100 para el procesamiento GPT-3.
"H100 puede reducir el costo de procesamiento de modelos de idiomas grandes en un orden de magnitud", dijo una vez Huang Renxun. Basado en el chip H100, Nvidia también ha construido la última supercomputadora DGX, equipada con 8 GPU H100, para que puedan conectarse para formar una GPU enorme, proporcionando un "modelo" para la construcción de la infraestructura de IA. La supercomputadora DGX se ha puesto completamente en producción.
Después de eso, los chips de GPU de alto rendimiento de Nvidia como A100, H100, A800 y H800 aumentaron sus precios en consecuencia, especialmente el chip insignia H100, que se vendió por más de 40 000 dólares estadounidenses en plataformas de comercio electrónico en el extranjero a mediados de abril, y algunos vendedores incluso lo valoraron en 6.5 Diez mil dólares estadounidenses.
Al mismo tiempo, los chips A800 y H800 específicos de China de Nvidia también han sido saqueados. "Es básicamente difícil para las empresas nacionales de modelos a gran escala obtener estos chips. La demanda en todo el mercado supera la demanda y la escasez es muy grave", dijo con franqueza Zhang Jue, fundador del proveedor de adquisición de componentes electrónicos "Guangxin Century". a Xinchao IC: "Este año, este tipo de chip GPU ha cambiado de alrededor de 120 000 RMB a 250 000 RMB o incluso 300 000 RMB, o incluso hasta 500 000 RMB".
No hay duda de que el liderazgo tecnológico de Nvidia en GPU de alto rendimiento y sus dos chips de IA, el A100 y el H100, son la fuerza impulsora central para modelos de lenguaje grande como ChatGPT.
Algunos profesionales de la computación en la nube creen que 10 000 chips Nvidia A100 son el umbral de potencia informática para un buen modelo de IA. La supercomputadora de IA que Microsoft construyó para OpenAI para entrenar sus modelos está equipada con 10,000 chips de GPU Nvidia. Coincidentemente, las principales empresas nacionales de Internet también han realizado grandes pedidos con Nvidia. Según un informe reciente de LatePost, Byte ha pedido más de mil millones de dólares en GPU de Nvidia este año. Otra gran empresa que no puede ser nombrada tiene un pedido de al menos más de mil millones de yuanes renminbi.
Lo que es aún más exagerado es que si estas empresas finalmente pueden tomar la tarjeta depende más de la relación comercial, especialmente si fue un cliente importante de Nvidia en el pasado. "Ya sea que hable con Nvidia de China o vaya a los Estados Unidos para hablar directamente con Lao Huang (Huang Renxun), hace la diferencia".
Como resultado, los datos financieros de Nvidia volvieron a subir a nuevos máximos. El 25 de mayo, Nvidia publicó su informe financiero del primer trimestre. Los ingresos del negocio del centro de datos donde se encuentran los chips de IA alcanzaron un récord, manteniendo una tasa de crecimiento interanual de más del 10%.
Huang Renxun reveló que toda la línea de productos del centro de datos ahora está en producción y que la oferta se está incrementando considerablemente para satisfacer el aumento de la demanda.
Una serie de buenas noticias impulsaron directamente el precio de las acciones de Nvidia cada vez más alto. En la noche del 30 de mayo, se abrió el mercado de valores de EE. UU. y el valor de mercado de Nvidia superó directamente el billón de dólares. El 19 de julio, el valor de mercado total de Nvidia se disparó en 175 mil millones de dólares estadounidenses de la noche a la mañana, lo que desencadenó nuevamente un auge de la inversión.
Según el sitio web de CompaniesMarketCap, el valor de mercado total de Nvidia ocupa el sexto lugar en el mundo, y también es la compañía de chips con el valor de mercado más alto en la actualidad, cerca de dos TSMC ($ 533,6 mil millones). año. Tengo que admitir que esta ola de frenesí de IA ha llenado la Nvidia de Huang Renxun.
02. Es imposible que Nvidia disfrute del frenesí de la potencia informática
"Nvidia no tendrá el monopolio de los chips de inferencia y entrenamiento a gran escala para siempre".
Esa fue la respuesta del director ejecutivo de Tesla, Elon Musk, a un tuit de Adam D'Angelo, director ejecutivo del sitio social de preguntas y respuestas y del mercado de conocimientos en línea Quora, quien escribió: "Una de las razones por las que se subestima el auge de la IA es la escasez de GPU/TPU". lo que condujo a varias restricciones en los lanzamientos de productos y la capacitación de modelos, pero ninguno de estos fue evidente. En cambio, vimos que el precio de las acciones de Nvidia se disparó. Una vez que la oferta satisfizo la demanda, las cosas se aceleraron".
Se acerca una tormenta.
¿Qué tan grande es el mercado de poder de cómputo que puede impulsar el frenesí de la IA centrado en modelos grandes? Soochow Securities cree que la demanda de poder de cómputo de los modelos de IA continúa expandiéndose, abriendo la demanda del mercado de chips informáticos de alto rendimiento. Se estima que el tamaño del mercado de los chips de IA de mi país alcanzará los 178 mil millones de yuanes en 2025, y el La tasa de crecimiento anual compuesta de 2019 a 2025 alcanzará el 42,9 %. Desde la perspectiva del tamaño del mercado, los chips de IA están en su infancia, pero tienen un enorme potencial de crecimiento.
El chip AI es un concepto amplio, que generalmente se refiere a un módulo especialmente utilizado para procesar tareas informáticas en aplicaciones de inteligencia artificial.Es un hardware de tareas informáticas nacido en la era del rápido desarrollo de las aplicaciones de inteligencia artificial.Todos los chips para inteligencia artificial aplicaciones se llaman chips de IA. Hay tres rutas técnicas principales: de uso general (GPU), semipersonalizada (FPGA) y personalizada (ASIC).
Desde la perspectiva del entrenamiento de modelos a gran escala, el ajuste fino basado en escenarios y los escenarios de aplicaciones de inferencia, la potencia informática heterogénea proporcionada por los chips CPU+IA, las capacidades informáticas paralelas superiores y el alto ancho de banda de interconexión pueden respaldar la máxima eficiencia de la informática AI. y conviértase en una solución inteligente La corriente principal para la informática.
En términos de participación de mercado, según iResearch, para 2027, se espera que el mercado de chips de IA de China alcance los 216.400 millones de yuanes. Con la optimización de los modelos de IA implementada, la proporción de chips de razonamiento de IA aumentará día a día. En 2022, los chips de entrenamiento de IA y los chips de razonamiento de IA de China representarán el 47,2 % y el 52,8 %, respectivamente.
Si bien el estallido de modelos domésticos a gran escala puede causar una brecha en el poder de cómputo, es solo cuestión de tiempo antes de que los fabricantes de chips domésticos disfruten de los dividendos del reemplazo doméstico. Como desarrollador de chips de entrenamiento de IA, Cambrian, el "primer stock de chips de IA", una vez más ha atraído la atención del mercado y el precio de sus acciones ha seguido aumentando. El valor de mercado más reciente ha superado los 90 mil millones.
En la línea de productos en la nube, Cambricon ha lanzado cuatro generaciones de productos de chips: Siyuan 100 en 2018, Siyuan 270 en 2019, Siyuan 290 (vehículo) en 2020 y la serie Siyuan 370 lanzada en 2021. Se utiliza para respaldar tareas de procesamiento de inteligencia artificial. con un rápido crecimiento en complejidad y rendimiento de datos en escenarios de centros de datos y computación en la nube. Además, Cambrian también tiene un producto bajo investigación, Siyuan 590, que aún no ha sido lanzado. Además, para fines de 2022, la serie Siyuan 370 y el producto AIGC Baidu Flying Paddle completarán las pruebas de compatibilidad de Nivel II.
Sin embargo, aún no se ha recibido información precisa sobre si las empresas nacionales de modelos a gran escala han adoptado chips cámbricos. "En el campo de los chips de inteligencia artificial de alta gama, los fabricantes nacionales están en sus inicios y muchas cosas necesitan tiempo y dinero para verificar", reveló un ingeniero de chips senior. Incluso los chips de empresas como Huawei, Baidu y Haiguang Information tienen una clara brecha con los productos de Nvidia.
Alguien dijo una vez con franqueza que la brecha entre Nvidia y otros fabricantes de chips es la diferencia entre académicos y estudiantes de secundaria. Como dijo Huang Renxun, Nvidia "ha estado corriendo", y otros fabricantes de chips que quieren superar a los gigantes solo pueden correr salvajemente.
03. El "Juego de Tronos" detrás del gran modelo de IA
Además de Nvidia, AMD, otro gigante de GPU, también tomó medidas recientemente.
Recientemente, AMD lanzó la última tarjeta aceleradora. En el sitio de la conferencia donde AMD lanzó la última tarjeta aceleradora Instinct MI300X, se escribió una línea de palabras especialmente en el PPT, dedicada a modelos de lenguaje grande. Esto es considerado por la industria como una declaración directa de guerra contra Nvidia!
La serie MI300 donde se encuentra el MI300X es una serie de las últimas tarjetas aceleradoras de APU creadas por AMD para IA y HPC. Entre ellos, MI300A es el "modelo básico" y MI300X es el "modelo optimizado de modelo grande" con mayor rendimiento de hardware.
En la actualidad, se ha probado el MI300A y se estima que estará disponible para su compra pronto; se espera que la tarjeta dedicada a gran escala MI300X y la plataforma informática AMD Instinct que integra 8 MI300X se prueben en el tercer trimestre de este año, y se lanzará en el cuarto trimestre.
En los últimos años, en comparación con los grandes movimientos de Nvidia en el campo de la IA, las acciones de AMD parecen un poco lentas. Como dijo Eric Jang, CEO de DeepBrain AI, siente que AMD lo ha decepcionado en los últimos años y nada ha cambiado en los últimos cinco años. Especialmente durante el estallido de AIGC, si AMD no trabaja duro para mantenerse al día, la brecha solo se ampliará.
Con el lanzamiento de los productos de la serie MI300 de AMD, finalmente podemos ver a AMD y Nvidia luchando de frente.
Durante esta conferencia de AMD, el precio de sus acciones no subió sino que cayó. En contraste, el precio de las acciones de Nvidia también ha subido una ola. El sentimiento del mercado no es difícil de entender, porque en el campo de la alta tecnología, especialmente en los mercados emergentes, se está convirtiendo en una lógica común en el mercado comercial seguir el ritmo de cada paso y mantener la fortaleza.
Pero, de hecho, después de un estudio cuidadoso de las razones, se puede encontrar que la razón principal por la que Nvidia monopoliza el mercado de chips de entrenamiento de inteligencia artificial es su ecología CUDA de desarrollo propio. Por lo tanto, si AMD MI300 quiere reemplazar a Nvidia, primero debe ser compatible con el ecosistema CUDA de Nvidia. AMD lanzó el ecosistema ROCm para este propósito y logró la compatibilidad total con CUDA a través de HIP, reduciendo así el costo conocido de los usuarios.
En este sentido, Murong Yi, un conocido bloguero de inversiones, cree que la dificultad de tomar la ruta compatible con NVIDIA CUDA es que su velocidad de iteración de actualización nunca puede seguir el ritmo de CUDA, y es difícil lograr la compatibilidad total, es decir. , por un lado, la iteración es siempre un paso más lenta. La GPU de Nvidia itera rápidamente en la microarquitectura y el conjunto de instrucciones, y se requieren actualizaciones de funciones correspondientes en muchos lugares en la pila de software superior, pero es imposible que AMD conozca la hoja de ruta del producto de Nvidia, y las actualizaciones de software siempre serán un paso más lento que Nvidia (por ejemplo, AMD acaba de anunciar soporte para CUDA11, pero Nvidia ha lanzado CUDA12); por otro lado, la dificultad de la compatibilidad total aumentará la carga de trabajo de los desarrolladores. La arquitectura de software a gran escala como CUDA es muy complicado, y AMD necesita invertir mucha mano de obra y recursos materiales, tardará años o incluso más de diez años en ponerse al día, porque inevitablemente habrá diferencias funcionales, y si la compatibilidad no se hace bien, afectará el desempeño. Por lo tanto, estas son también las razones clave por las que no todo el mundo lo compra.
Según las estimaciones de Khaveen Investments, la cuota de mercado de GPU del centro de datos de Nvidia alcanzará el 88 % en 2022, y AMD e Intel compartirán el resto.
Desde que OpenAI lanzó ChatGPT el año pasado, ha seguido fermentando una nueva ronda de revolución tecnológica. Se puede decir que ningún avance tecnológico ha llamado tanto la atención del mundo como ChatGPT durante muchos años.
Varias empresas de tecnología, instituciones de investigación científica y colegios y universidades nacionales y extranjeras están haciendo un seguimiento. En menos de medio año, han surgido muchas empresas de nueva creación para aplicaciones de modelos a gran escala, y la escala de financiación ha aumentado repetidamente. alcanzar nuevos máximos.
Según el bloguero wgang, Baidu, iFLYTEK, 4Paradigm, la Universidad de Tsinghua, Fudan y otras importantes fábricas nacionales, empresas emergentes e instituciones de investigación científica han lanzado sucesivamente modelos de productos a gran escala:
Se puede ver que no solo en el campo general, sino también en escenarios específicos de la industria, especialmente en algunos campos con fuerte profesionalismo y alta densidad de conocimiento, las empresas de tecnología también están lanzando grandes modelos en campos verticales. Por ejemplo, Baijiayun (RTC), una empresa que cotiza en EE. UU., lanzó recientemente el producto AIGC "Market Easy" basado en su conocimiento de las necesidades de servicio de las empresas. Este es también el primer motor modelo GPT a gran escala adecuado para escenarios de producción de contenido. de los departamentos de marketing empresarial.
Algunos expertos de la industria dijeron con una sonrisa: "Los modelos domésticos a gran escala han formado una situación en la que grupos de modelos bailan salvajemente y cien modelos compiten. Se espera que haya más de 100 modelos a gran escala para el final de la año."
Sin embargo, el desarrollo de modelos grandes requiere el apoyo de tres factores importantes: algoritmos, poder de cómputo y datos. El poder de cómputo es un motor de energía importante para el entrenamiento de modelos grandes, y también es una barrera importante para el desarrollo de la industria de modelos grandes. en China.
La capacidad del chip afecta directamente el efecto y la velocidad del entrenamiento de alta computación. Como se mencionó anteriormente, a pesar de la aparición frecuente de modelos de productos domésticos a gran escala, a juzgar por los chips detrás de ellos, todas estas plataformas usan GPU Nvidia A100 y H100, o las GPU A800 y A800 de configuración reducida de Nvidia lanzadas especialmente después de la prohibición del año pasado. H800, el ancho de banda de estos dos procesadores es de aproximadamente 3/4 y aproximadamente la mitad de la versión original, evitando la limitación estándar de GPU de alto rendimiento.
En marzo de este año, Tencent tomó la delantera al anunciar que había usado el H800. Ya lo había usado en la nueva versión de los servicios informáticos de alto rendimiento lanzados por Tencent Cloud, y dijo que era la primera en China.
Alibaba Cloud también propuso internamente en mayo de este año que la "Batalla de computación inteligente" sería la batalla número uno de este año, y la cantidad de GPU se ha convertido en un indicador importante de esta batalla.
Además, Shangtang también anunció que se han implementado casi 30 000 GPU en su clúster de computación de "dispositivos grandes de IA", de los cuales 10 000 son Nvidia A100. Byte y Meituan asignan directamente GPU de otros equipos comerciales de la empresa para la capacitación de modelos grandes. Algunos fabricantes incluso han estado buscando varios productos de máquinas completas que puedan eliminar el A100 en el mercado desde la segunda mitad de 2022, con el único objetivo de obtener chips de GPU. "Hay demasiadas máquinas y no hay suficientes lugares para almacenarlas".
Se entiende que las empresas de tecnología líderes nacionales han invertido mucho en inteligencia artificial y computación en la nube. En el pasado, la acumulación de A100 ha alcanzado decenas de miles.
Al mismo tiempo, las principales empresas de tecnología de China aún participan en una nueva ronda de competencia de adquisiciones.
Según un proveedor de servicios en la nube, las grandes empresas como Byte y Alibaba negocian principalmente las compras directamente con la fábrica original de Nvidia, y es difícil para los agentes y los mercados de segunda mano satisfacer sus enormes necesidades.
Como se mencionó anteriormente, ByteDance ha pedido más de mil millones de dólares en productos de GPU de Nvidia este año. El volumen de compra de Byte solo este año está cerca de las ventas totales de GPU comerciales vendidas por Nvidia en China el año pasado. Según los informes, hay otra gran empresa con un pedido de al menos más de mil millones de yuanes.
Se puede ver que las grandes empresas de tecnología de China son muy urgentes para comprar GPU.
No solo las empresas nacionales, sino también los principales clientes extranjeros tienen una demanda muy fuerte de chips A100/H100 de Nvidia. Según las estadísticas, Baidu, que primero comenzó a probar productos similares a ChatGPT, tiene un gasto de capital anual de entre 800 y 2 mil millones de dólares desde 2020, y el de Alibaba entre 6 y 8 mil millones de dólares. Durante el mismo período, Amazon, Meta, Google y Microsoft, las cuatro empresas tecnológicas estadounidenses que construyeron sus propios centros de datos, tuvieron gastos de capital anuales de al menos 15.000 millones de dólares estadounidenses.
En la actualidad, la visibilidad de los pedidos de Nvidia ha llegado a 2024 y los chips de gama alta son escasos. Con el calendario de producción actual, ni siquiera el A800/H800 se entregará hasta finales de este año o el próximo. En el corto plazo, desde la perspectiva de su popularidad, lo único que afecta las ventas de GPU de gama alta de Nvidia puede ser la capacidad de producción de TSMC.
04. Detrás de la "loca" Nvidia, ¿los chips domésticos son insuficientes tanto en hardware como en software?
A juzgar por el suministro de chips de productos de modelos a gran escala, actualmente no hay sustitutos para A100, H100 y las versiones reducidas de A800 y H800 suministradas especialmente a China en términos de entrenamiento de modelos a gran escala de IA.
Entonces, ¿por qué en esta ronda de auge de GPT, Nvidia tomó la delantera y se desempeñó bien?
Zhang Gaonan, socio gerente de Huaying Capital, dijo que, por un lado, se debe a que Nvidia tiene el diseño más antiguo y su estructura de micronúcleo también ha evolucionado y mejorado de generación en generación. Ahora bien, ya sea en términos de simultaneidad, velocidad de bus o soporte maduro de microkernel para la transformación de matriz, sus capacidades ya son muy eficientes, incluida la provisión de una plataforma informática CUDA muy completa al mismo tiempo, que de hecho se ha convertido en un potencial estándar de la industria para algoritmos de aprendizaje profundo Las instalaciones de apoyo de toda la cadena industrial también son muy completas, y las barreras de competencia integrales y la profundidad del foso son extremadamente altas.
En resumen, la insustituibilidad actual de la GPU Nvidia proviene del mecanismo de entrenamiento de los modelos grandes. Sus pasos principales son el entrenamiento previo y el ajuste fino. El primero es sentar las bases, lo que equivale a recibir educación general para graduarse de la universidad. ; este último está optimizado para escenarios y tareas específicas para mejorar el rendimiento laboral.
Entonces, ¿los chips de GPU domésticos pueden soportar los requisitos de potencia informática de los modelos grandes?
En las aplicaciones prácticas, la demanda de poder de cómputo del modelo grande se divide en dos etapas: una es el proceso de entrenamiento del modelo grande ChatGPT y la otra es el proceso de razonamiento para comercializar el modelo. Es decir, el entrenamiento de IA es para hacer modelos, y el razonamiento de IA es para usar modelos, y el entrenamiento requiere un mayor rendimiento del chip.
En base a esto, continúan surgiendo empresas nacionales de chips de IA, lanzando productos al mercado uno tras otro. Empresas como Suiyuan Technology, Biren Technology, Tianshu Zhixin y Cambrian han lanzado sus propios productos de GPU en la nube, y los indicadores de rendimiento teóricos no son débiles. El chip DCU "Shensu No. 1" de Haiguang Information tiene un ecosistema de software y hardware relativamente completo y es compatible con la arquitectura CUDA. Y las grandes empresas de Internet como Tencent, Baidu y Ali también se están desplegando vigorosamente en el campo de los chips de IA a través de la inversión y la incubación.
Entre ellos, el entrenamiento de modelos a gran escala necesita procesar información de gran granularidad, lo que requiere una mayor precisión y velocidad informática para los chips de entrenamiento en la nube. En la actualidad, la mayoría de las GPU domésticas no tienen la capacidad de admitir el entrenamiento de modelos a gran escala. Es adecuado para el trabajo de inferencia en la nube que no requiere una granularidad de información tan alta.
En marzo de este año, Baidu Li Yanhong declaró públicamente que el chip Kunlun ahora es muy adecuado para el razonamiento de modelos grandes y será adecuado para el entrenamiento en el futuro.
Zou Wei, vicepresidente de Tianshu Zhixin, también le dijo a Xinchao IC que todavía existe una cierta brecha entre los chips domésticos y los últimos productos de Nvidia, pero en términos de cálculos de inferencia, los chips domésticos pueden lograr el mismo rendimiento que los productos principales y con la aplicación. de inteligencia artificial Popularidad, la demanda del mercado de chips de razonamiento acelerará el crecimiento, y con la expansión de la demanda, los chips domésticos también tendrán un mercado más grande.
Otra persona de la industria que no quiso ser nombrada dijo: "Los productos de GPU de propósito general nacionales tienen una brecha con los productos emblemáticos internacionales para cumplir con el entrenamiento de modelos a gran escala, pero no es irreparable. Es solo que la industria tiene no está diseñado en la dirección de modelos a gran escala en la definición del producto ".
En la actualidad, los profesionales de la industria están realizando exploraciones y esfuerzos relevantes, como pensar si la potencia informática de los chips se puede mejorar a través de chipsets y empaques avanzados. En la actualidad, las empresas nacionales de GPU están desarrollando y diseñando chips en el campo de los modelos grandes.
Desde la perspectiva del capital, Zhang Gaonan, socio gerente de Huaying Capital, le dijo a Xinchao IC que Huaying ha prestado mucha atención a la infraestructura de potencia informática durante mucho tiempo, ya sea GPU, DPU o computación híbrida fotoeléctrica más avanzada, computación cuántica. , hay investigación y diseño dirigidos. En general, se enfoca en la infraestructura informática de propósito general, como FPGA y computación perimetral. Por el contrario, en la actualidad, muchos chips de potencia informática en torno al aprendizaje profundo, algoritmos especiales, optimización de la potencia informática local, etc., no son el centro de su consideración.
De hecho, además de la brecha en el rendimiento del hardware, el ecosistema de software también es una deficiencia de los fabricantes nacionales de chips de IA.
El chip debe adaptarse a múltiples niveles, como el sistema de hardware, la cadena de herramientas, el compilador, etc., y necesita una gran capacidad de adaptación. De lo contrario, este chip puede ejecutar el 90 % de la potencia informática en una escena, pero solo puede ejecutar el 90 % en otra. Se agotó el 80 % del escenario de rendimiento.
Como se mencionó anteriormente, Nvidia tiene ventajas obvias en este sentido. Ya en 2006, Nvidia lanzó la plataforma informática CUDA, que es un motor de software informático paralelo. El marco CUDA integra una gran cantidad de códigos necesarios para invocar la potencia informática de la GPU. Los ingenieros pueden usar estos códigos directamente sin escribirlos uno por uno. Los desarrolladores pueden usar CUDA para realizar entrenamiento y razonamiento de IA de manera más eficiente y hacer un mejor uso de la potencia informática de la GPU. Hoy en día, CUDA se ha convertido en una infraestructura de IA, y los principales marcos, bibliotecas y herramientas de IA se desarrollan en base a CUDA.
Sin este conjunto de lenguajes de codificación, será extremadamente difícil para los ingenieros de software darse cuenta del valor del hardware.
Si las GPU y los chips de IA que no sean Nvidia quieren acceder a CUDA, deben proporcionar su propio software de adaptación. Según expertos de la industria, me puse en contacto con un fabricante de GPU que no es de NVIDIA. Aunque sus cotizaciones de chips y servicios son más bajas que las de NVIDIA y prometen brindar servicios más oportunos, los costos generales de capacitación y desarrollo del uso de su GPU serán más altos que los de NVIDIA. la incertidumbre de los resultados y el tiempo de desarrollo.
Aunque las GPU de Nvidia son caras, en realidad son las más baratas de usar. Para las empresas que tienen la intención de aprovechar la oportunidad de los modelos a gran escala, el dinero a menudo no es un problema y el tiempo es un recurso más preciado.Todos deben obtener suficiente potencia informática avanzada lo antes posible para garantizar la ventaja de ser los primeros en moverse.
Por lo tanto, para los proveedores de chips nacionales, incluso si un producto con una potencia informática comparable puede apilarse apilando chips, es más difícil para los clientes aceptar la adaptación y compatibilidad del software. Además, desde la perspectiva de la operación del servidor, los gastos de la placa base, los cargos de electricidad, los gastos operativos y cuestiones como el consumo de energía y la disipación de calor que deben tenerse en cuenta aumentarán en gran medida los costos operativos del centro de datos.
Debido a que los recursos de potencia informática a menudo deben presentarse en forma de agrupación, los centros de datos suelen estar más dispuestos a utilizar el mismo chip o chips de la misma empresa para reducir la dificultad de la agrupación de potencia informática.
La liberación del poder de cómputo requiere una cooperación compleja de software y hardware para convertir el poder de cómputo teórico del chip en poder de cómputo efectivo. Para los clientes, no es fácil usar chips de inteligencia artificial domésticos. El reemplazo de los chips de inteligencia artificial en la nube requiere ciertos costos y riesgos de migración, a menos que el nuevo producto tenga ventajas de rendimiento o pueda generar problemas que otros no pueden resolver en cierta dimensión. De lo contrario, la voluntad de clientes a reemplazar es muy baja.
Como el único proveedor de GPU que realmente puede procesar ChatGPT, Nvidia es el merecido "rey de la potencia informática de la IA". Hace seis años, Huang Renxun entregó personalmente la primera supercomputadora equipada con el chip A100 a OpenAI, ayudó a este último a crear ChatGPT y se convirtió en el líder de la era de la IA.
Sin embargo, desde que Estados Unidos implementó controles de exportación el año pasado, a Nvidia se le prohibió exportar dos de sus chips GPU más avanzados, el H100 y el A100, a China. Sin duda, esto es un golpe para las empresas de aplicaciones posteriores.
Desde la perspectiva de la seguridad y el autocontrol, esto también brinda una nueva ventana de oportunidad para las empresas nacionales de chips. Aunque los chips nacionales son inferiores a los gigantes de la industria como Nvidia y AMD en términos de rendimiento y ecología del software, impulsados por relaciones comerciales internacionales complejas y factores geopolíticos, la "sustitución nacional" se ha convertido en el tema principal del desarrollo de la industria nacional de semiconductores.
05. Conclusión
Cada aumento en el poder de cómputo desencadenará una ola de cambios tecnológicos e industriales: las CPU llevan a la humanidad a la era de la PC, los chips móviles desencadenan una ola de Internet móvil y los chips de IA rompen el cuello de botella de poder de cómputo de décadas en la IA industria.
Hoy ha llegado el "momento iPhone con IA", y es posible que el camino hacia la próxima era ya esté frente a nosotros.
Aunque los campos de los chips de IA y los sistemas de software en estos centros de datos todavía están dominados por fabricantes extranjeros, la puerta del mercado para la "localización del poder de cómputo" puede estar abriéndose ahora.