Fuente: Perspectivas de Si Rui, autor | Renee, editor | Sun Yue
En 2023, las instituciones de inversión y los accionistas están haciendo tres preguntas mortales a las empresas que cotizan en bolsa en el campo de los chips de IA:
¿Ya hiciste un chip integrado de almacenamiento y cálculo?
(Fuente de los inversores que hacen preguntas a Montage Technology: Tonghuashun Finance)
¿Cómo es el progreso del chip integrado de computación de memoria?
(Los inversores preguntan a Dongxin comparte la fuente de la pregunta: Tonghuashun Finance)
¿Cuál es la perspectiva del almacenamiento integrado y los chips informáticos?
(Fuente de las preguntas de los inversores a las acciones de Hengshuo: Tonghuashun Finance)
La serie de preguntas anterior significa que la integración de almacenamiento y cálculo ya no "se queda" en los círculos académicos e industriales, y parece ser popular en el mercado secundario: los accionistas y las casas de bolsa están trabajando horas extras para compensar la integración de almacenamiento y cálculo, por lo que los fabricantes de chips tradicionales de Desde principios de 2023, el diseño de la integración de almacenamiento y computación ha sido "torturado".
**Una pregunta natural es ¿por qué la integración de depósito y cálculo de repente se ha vuelto tan popular? **
Huawei, que lanzó el nuevo producto de almacenamiento OceanStor A310 el 14 de julio, dio su propia respuesta. Zhou Yuefeng, presidente de la línea de productos de almacenamiento de datos de Huawei, dijo que existen muchos problemas de datos en el entrenamiento y el razonamiento de modelos grandes de propósito general y modelos grandes de la industria: recopilación lenta de datos masivos entre dominios, baja eficiencia de interacción de datos en el preprocesamiento y capacitación y seguridad de flujo de datos difícil.
El gran modelo de IA trae nuevos desafíos para el almacenamiento. Por ejemplo, la estabilidad es peor que la de la IA tradicional. Al mismo tiempo, hay mucho trabajo de preprocesamiento y preparación de datos. Es necesario usar computación cercana a la memoria (una tipo de integración de almacenamiento y computación) para resolver el problema. Abordar este problema sistemáticamente. **
Entonces, ¿cuánto es la "gran cantidad de datos" aquí? Según el cálculo de Cirui Insight, ChatGPT tiene actualmente 100 millones de usuarios diarios y si el 5% de las personas hace preguntas cada segundo a la misma hora todos los días, consumirá la generación de energía de la presa de las Tres Gargantas durante casi un año. **
En otras palabras, los modelos grandes demandan frenéticamente poder de cómputo, y las soluciones emergentes representadas por la integración del almacenamiento y la computación pueden resolver muchos desafíos que plantean los modelos grandes. De hecho, además de imponer requisitos estrictos a la potencia informática, el modelo grande también les da a los fabricantes de chips de IA "mucha azúcar para comer".
Este artículo intenta explorar, en el contexto del modelo grande, ¿qué beneficios se otorgan a los fabricantes de chips de IA? ¿Cuál es el patrón futuro de los fabricantes integrados de almacenamiento e informática que han sido "despedidos" por ChatGPT?
"La fortuna y la desgracia dependen una de la otra" Fabricantes de chips de IA
**Los vientos de las maquetas siguen soplando, y las discusiones sobre las maquetas todavía están en pleno apogeo. **
A principios de agosto, en el subforo de la Conferencia de Inteligencia Artificial de la Federación de Informática de China (CCF): "Ver a Kunlun en las fronteras AI Modelo a gran escala de la frontera de potencia informática", los expertos y académicos acordaron que en la era de los modelos a gran escala , el poder de cómputo inteligente de última generación se ha vuelto "escaso". Activos", cómo hacer un buen uso de los recursos de poder de cómputo y maximizar sus beneficios se ha convertido en un desafío que todos los participantes deben enfrentar.
En cuanto a la cantidad de poder de cómputo exigido solo por GPT-3, en circunstancias conservadoras, la Presa de las Tres Gargantas necesita "trabajar" toda la noche para satisfacer:
Suponiendo que hay 100 millones de personas en línea al mismo tiempo, el 5 % de ellos hace preguntas cada segundo a la misma hora todos los días, cada uno ocupa 30 fichas, y se necesitan 15,3 millones de chips H100 para proporcionar su potencia informática de inferencia; y la potencia El consumo de energía de cada H100 es de 750 W Aproximadamente, si funciona durante 10 horas al día, el consumo de energía anual del centro de datos donde se ubican estos chips H100 alcanzará los 84 mil millones de kWh, mientras que la generación de energía anual de la Presa de las Tres Gargantas es 88,2 mil millones de kWh.
Lo que hace que los fabricantes de chips de IA estén aún más ansiosos es que este es solo el consumo de energía de un gran modelo ChatGPT en la etapa de inferencia.
**Como resultado, una serie de soluciones emergentes han sido excavadas por los fabricantes: **Almacenamiento y cálculo integrado, chiplet, HBM, etc. Entre ellos, debido a que la integración del almacenamiento y la computación derribó el muro de almacenamiento bajo la arquitectura tradicional de von Neumann, en realidad logró una reducción de costos y una mejora de la eficiencia, convirtiéndose en el "Ziweixing" de este año.
(Fuente de la foto: "Informe de la industria de chips de gran potencia informática de IA: cientos de acorazados, los innovadores primero" de Cirui Insights)
**Además de la aparición de soluciones emergentes que han dado un respiro a los fabricantes de chips de IA, el gran modelo también trae buenas noticias para los fabricantes de chips, especialmente para los fabricantes de chips de nueva creación: la importancia de la ecología del software está disminuyendo. **
Cuando la tecnología no estaba lo suficientemente madura en los primeros días, los investigadores solo podían comenzar resolviendo un problema específico y nacieron pequeños modelos con menos de un millón de parámetros. Por ejemplo, DeepMind, una empresa de inteligencia artificial propiedad de Google, permite que AlphaGO lleve a cabo un "aprendizaje" especial sobre los pasos de ajedrez de millones de jugadores profesionales humanos.
Después de que haya más modelos pequeños, el problema del hardware como la adaptación del chip es inminente. Por lo tanto, cuando Nvidia lanzó el CUDA ecológico unificado, GPU+CUDA ganó rápidamente el reconocimiento de la comunidad informática y se convirtió en la configuración estándar para el desarrollo de inteligencia artificial.
Los grandes modelos que están surgiendo uno tras otro hoy en día tienen capacidades multimodales, pueden manejar texto, imágenes, programación y otros temas, y también pueden cubrir múltiples campos verticales como oficina, educación y atención médica. Esto también significa que adaptarse a la ecología dominante no es la única opción: cuando la demanda de chips para modelos grandes se dispara, los fabricantes de chips solo pueden adaptarse a 1 o 2 modelos grandes y pueden completar el desarrollo de múltiples modelos pequeños. en el pasado Orden. **
En otras palabras, la aparición de ChatGPT brinda a los fabricantes de chips de nueva creación la oportunidad de adelantar en las curvas. Esto significa que la estructura del mercado de chips de IA sufrirá cambios tremendos: los chips de IA ya no son un espectáculo de un solo hombre de fabricantes individuales, sino un juego grupal de múltiples innovadores. **
**Cuando la potencia informática se convierte en un bien escaso y la adaptación a la ecología dominante ya no es imprescindible, la integración del almacenamiento y la informática difícilmente puede ocultar su luz. **En este momento, si invertir o no, y cuánto invertir, se ha convertido en el segundo problema que enfrentan los fabricantes de chips de IA. **
En este sentido, La respuesta que ha dado el gigante de los chips NVIDIA durante muchos años es ser valiente en innovación e invertir mucho dinero:
Todo fabricante de I+D de una tecnología emergente sin duda se enfrentará a problemas en varios niveles, como obstáculos de exploración técnica y desacuerdos de los fabricantes intermedios. En la etapa inicial, quien prediga primero la tendencia de desarrollo futuro, tome el coraje de dar los pasos de exploración y establezca recursos razonables para intentarlo, aprovechará la oportunidad.
Cuando la ola de centros de datos aún no ha llegado de manera abrumadora, y el entrenamiento de inteligencia artificial sigue siendo un campo de nicho, Nvidia ha invertido mucho en el desarrollo de GPU de computación de uso general y software de programación unificado CUDA, y es un buen trabajo para Nvidia- plataformas informáticas.
En ese momento, hacer programable la GPU era una opción "inútil y deficitaria": no sé si se puede duplicar el rendimiento, pero se duplicará el desarrollo del producto. Por esta razón, ningún cliente está dispuesto a pagar por ello. Sin embargo, Nvidia, que predijo que un procesador de gráficos de función única no es una solución a largo plazo, decidió aplicar CUDA a todas las líneas de productos.
En una entrevista entre Xindongxi y el Dr. Lai Junjie, director sénior de Ingeniería y Soluciones de Nvidia China, Lai Junjie dijo: "Para la visión de la plataforma informática, Huang Renxun movilizó rápidamente una gran cantidad de recursos de Nvidia hacia arriba y hacia abajo a principios días."
Previsión + gran inversión, en 2012, Nvidia ganó la recompensa del innovador: en 2012, el rendimiento informático del algoritmo de aprendizaje profundo causó sensación en el círculo académico. Como herramienta de productividad de alta informática, más versátil y fácil de usar, GPU+CUDA rápidamente se hizo popular La comunidad informática se ha convertido en la "configuración estándar" para el desarrollo de la inteligencia artificial.
En el viaje de los chips de IA con gran poder de cómputo, el chip todo en uno para almacenamiento y computación ha iniciado su propio "período dorado". **
No técnico, financieramente rico, no ingrese
Al ver los diversos beneficios de la integración del almacenamiento y la computación, en esta etapa, el campo de jugadores que integran chips de almacenamiento y computación está creciendo.
(Fuente de la foto: "Informe de la industria de chips de gran potencia informática de IA: cientos de acorazados, los innovadores primero" de Cirui Insights)
Según las estadísticas incompletas de CIRUI Insight, desde 2019, la mayoría de los nuevos fabricantes de chips de IA tienen almacenamiento y computación integrados: hay 20 nuevos fabricantes de chips de IA en 2019-2021, y 10 de ellos eligen la ruta de integración de depósito y cálculo.
Todo esto muestra que la integración de almacenamiento y computación se convertirá en una estrella en ascenso después de GPGPU, ASIC y otras arquitecturas. ** Y esta nueva estrella, no todos pueden elegirla. **
Dada la circunstancia de que los círculos académicos, los círculos industriales y el capital son unánimemente optimistas sobre la integración del almacenamiento y la computación, la fuerte fortaleza técnica del país, el sólido grupo de talentos y el control preciso sobre la aceptación de los costos de migración son la clave para las empresas emergentes. para mantener su competitividad en la industria Tres barreras que se interponen frente a nuevos jugadores. **
** La fuerza técnica sólida es siempre la montaña más alta en el campo de las fichas. **
El primero es la integración de almacenamiento y computación, que involucra todo el proceso de fabricación de chips: desde el dispositivo más bajo, hasta el diseño de circuitos, diseño de arquitectura, cadena de herramientas, y luego hasta la investigación y el desarrollo de la capa de software; todo el cuerpo”: Al realizar los cambios correspondientes en cada capa, también se debe considerar el grado de adaptación entre cada capa.
**Veámoslo capa por capa, qué tipo de problemas técnicos hay cuando se fabrica un chip integrado de computación de memoria. **
En primer lugar, en términos de selección de dispositivos, los fabricantes están "caminando sobre hielo delgado": el diseño de la memoria determina la tasa de rendimiento del chip, y una vez que la dirección es incorrecta, es posible que el chip no se produzca en masa.
El segundo es el nivel de diseño del circuito. Una vez que el dispositivo está disponible a nivel de circuito, debe usarse para el diseño de circuito de la matriz de almacenamiento. En la actualidad, en el diseño de circuitos, no existe una guía de herramientas EDA para el cálculo en memoria, y debe hacerse manualmente, lo que sin duda aumenta en gran medida la dificultad de operación.
Inmediatamente después de haber circuitos a nivel arquitectónico, es necesario diseñar la capa arquitectónica. Cada circuito es un módulo de computación básico, y toda la arquitectura se compone de diferentes módulos.El diseño del módulo integrado de computación de memoria determina la relación de eficiencia energética del chip. Los circuitos analógicos se verán perturbados por el ruido y los chips encontrarán muchos problemas cuando se vean afectados por el ruido.
En este caso, se requiere que los arquitectos de chips comprendan completamente las características del proceso de la computación analógica en memoria y, al mismo tiempo, diseñen la arquitectura de acuerdo con estas características. Sobre esta base, también se debe considerar la adaptabilidad entre la arquitectura y el desarrollo de software. . Una vez que se completa el diseño de la arquitectura a nivel de software, se debe desarrollar la cadena de herramientas correspondiente.
(Fuente de la foto: "Informe de la industria de chips de gran potencia informática de IA: cientos de acorazados, los innovadores primero" de Cirui Insights)
Dado que el modelo original de integración de almacenamiento e informática es diferente del modelo de la arquitectura tradicional, el compilador debe adaptarse a una arquitectura de integración de almacenamiento e informática completamente diferente para garantizar que todas las unidades informáticas se puedan asignar al hardware y funcionen sin problemas.
**Una cadena técnica completa probará la capacidad de cada eslabón de dispositivo, diseño de circuito, diseño de arquitectura, cadena de herramientas y desarrollo de capa de software, y coordinará la capacidad de adaptación de cada eslabón, que es una batalla prolongada que consume tiempo, esfuerzo y dinero. **
** Al mismo tiempo, de acuerdo con el proceso de operación de los enlaces anteriores, se puede ver que el chip integrado de computación de memoria necesita urgentemente diseñadores de circuitos y arquitectos de chips experimentados. **
Dada la particularidad de la integración de almacenamiento y cálculo, las empresas que puedan integrar almacenamiento y cálculo deben tener las siguientes dos características en cuanto a reservas de personal:
El líder necesita tener suficiente coraje. Debe haber una idea clara en la elección de la selección del dispositivo (RRAM, SRAM, etc.) y el modo de cómputo (Von Neumann tradicional, almacenamiento y computación integrados, etc.). Esto se debe a que, como tecnología subversiva e innovadora, la integración de almacenamiento y cálculo no tiene quien la dirija, y el costo de prueba y error es extremadamente alto. Los fundadores de empresas que pueden lograr la comercialización a menudo tienen una gran experiencia en la industria, grandes fabricantes y antecedentes académicos, y pueden liderar al equipo para completar rápidamente iteraciones de productos.
En el equipo central, es necesario equipar talentos experimentados en todos los niveles de tecnología. Por ejemplo, el arquitecto, que es el núcleo del equipo. Los arquitectos deben tener una comprensión y un conocimiento profundos de las herramientas de hardware y software subyacentes, y ser capaces de realizar la arquitectura informática y de almacenamiento en el concepto a través de la tecnología y, finalmente, lograr el aterrizaje del producto;
Además, según el informe qubit, faltan talentos de alto nivel en el diseño de circuitos en China, especialmente en el campo de los circuitos híbridos. La computación en memoria implica una gran cantidad de diseños de circuitos analógicos. En comparación con el diseño de circuitos digitales que enfatiza el trabajo en equipo, el diseño de circuitos analógicos requiere diseñadores individuales que estén extremadamente familiarizados con el proceso, el diseño, el diseño, el modelo pdk y el empaque.
Y esta serie de talentos y tecnologías debe tener el efecto de aterrizaje como el objetivo final: la producción de primera clase es la fuerza productiva principal. **Durante la entrega, lo que el cliente considera no es solo la tecnología integrada de computación y almacenamiento, sino también si los indicadores de rendimiento del SoC integrado de computación y almacenamiento, como el índice de eficiencia energética, el índice de eficiencia de área y la facilidad de uso, son suficientes en comparación con productos anteriores La mejora y, lo que es más importante, si el costo de migración está dentro del rango aceptable.
Si elegir un nuevo chip para mejorar el rendimiento del algoritmo requiere volver a aprender un sistema de programación, y el costo de mano de obra de la migración del modelo es más alto que el costo de comprar una nueva GPU, lo más probable es que los clientes no opten por usar un nuevo chip.
** Por lo tanto, si la integración de depósito y cálculo puede minimizar el costo de migración durante el proceso de aterrizaje es un factor clave para los clientes al elegir productos. **
En el contexto de los modelos a gran escala, el chip integrado de memoria y computación se está convirtiendo en una estrella en ascenso en la pista de chips en virtud de su bajo consumo de energía pero su alta relación de eficiencia energética. Hoy en día, el mercado integrado de depósitos y cálculos todavía se encuentra en la etapa de "Xiaohe está recién emergiendo".
** Sin embargo, no podemos negar que los jugadores integrados de almacenamiento y cálculo ya han construido tres muros altos, y aquellos con una gran fuerza técnica y sólidas reservas de talento no deberían entrar. **
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
En 2023, a las empresas de chips de IA se les preguntará tres veces seguidas
Fuente: Perspectivas de Si Rui, autor | Renee, editor | Sun Yue
En 2023, las instituciones de inversión y los accionistas están haciendo tres preguntas mortales a las empresas que cotizan en bolsa en el campo de los chips de IA:
¿Ya hiciste un chip integrado de almacenamiento y cálculo?
¿Cómo es el progreso del chip integrado de computación de memoria?
¿Cuál es la perspectiva del almacenamiento integrado y los chips informáticos?
La serie de preguntas anterior significa que la integración de almacenamiento y cálculo ya no "se queda" en los círculos académicos e industriales, y parece ser popular en el mercado secundario: los accionistas y las casas de bolsa están trabajando horas extras para compensar la integración de almacenamiento y cálculo, por lo que los fabricantes de chips tradicionales de Desde principios de 2023, el diseño de la integración de almacenamiento y computación ha sido "torturado".
**Una pregunta natural es ¿por qué la integración de depósito y cálculo de repente se ha vuelto tan popular? **
Huawei, que lanzó el nuevo producto de almacenamiento OceanStor A310 el 14 de julio, dio su propia respuesta. Zhou Yuefeng, presidente de la línea de productos de almacenamiento de datos de Huawei, dijo que existen muchos problemas de datos en el entrenamiento y el razonamiento de modelos grandes de propósito general y modelos grandes de la industria: recopilación lenta de datos masivos entre dominios, baja eficiencia de interacción de datos en el preprocesamiento y capacitación y seguridad de flujo de datos difícil.
El gran modelo de IA trae nuevos desafíos para el almacenamiento. Por ejemplo, la estabilidad es peor que la de la IA tradicional. Al mismo tiempo, hay mucho trabajo de preprocesamiento y preparación de datos. Es necesario usar computación cercana a la memoria (una tipo de integración de almacenamiento y computación) para resolver el problema. Abordar este problema sistemáticamente. **
Entonces, ¿cuánto es la "gran cantidad de datos" aquí? Según el cálculo de Cirui Insight, ChatGPT tiene actualmente 100 millones de usuarios diarios y si el 5% de las personas hace preguntas cada segundo a la misma hora todos los días, consumirá la generación de energía de la presa de las Tres Gargantas durante casi un año. **
En otras palabras, los modelos grandes demandan frenéticamente poder de cómputo, y las soluciones emergentes representadas por la integración del almacenamiento y la computación pueden resolver muchos desafíos que plantean los modelos grandes. De hecho, además de imponer requisitos estrictos a la potencia informática, el modelo grande también les da a los fabricantes de chips de IA "mucha azúcar para comer".
Este artículo intenta explorar, en el contexto del modelo grande, ¿qué beneficios se otorgan a los fabricantes de chips de IA? ¿Cuál es el patrón futuro de los fabricantes integrados de almacenamiento e informática que han sido "despedidos" por ChatGPT?
"La fortuna y la desgracia dependen una de la otra" Fabricantes de chips de IA
**Los vientos de las maquetas siguen soplando, y las discusiones sobre las maquetas todavía están en pleno apogeo. **
A principios de agosto, en el subforo de la Conferencia de Inteligencia Artificial de la Federación de Informática de China (CCF): "Ver a Kunlun en las fronteras AI Modelo a gran escala de la frontera de potencia informática", los expertos y académicos acordaron que en la era de los modelos a gran escala , el poder de cómputo inteligente de última generación se ha vuelto "escaso". Activos", cómo hacer un buen uso de los recursos de poder de cómputo y maximizar sus beneficios se ha convertido en un desafío que todos los participantes deben enfrentar.
En cuanto a la cantidad de poder de cómputo exigido solo por GPT-3, en circunstancias conservadoras, la Presa de las Tres Gargantas necesita "trabajar" toda la noche para satisfacer:
Lo que hace que los fabricantes de chips de IA estén aún más ansiosos es que este es solo el consumo de energía de un gran modelo ChatGPT en la etapa de inferencia.
**Como resultado, una serie de soluciones emergentes han sido excavadas por los fabricantes: **Almacenamiento y cálculo integrado, chiplet, HBM, etc. Entre ellos, debido a que la integración del almacenamiento y la computación derribó el muro de almacenamiento bajo la arquitectura tradicional de von Neumann, en realidad logró una reducción de costos y una mejora de la eficiencia, convirtiéndose en el "Ziweixing" de este año.
**Además de la aparición de soluciones emergentes que han dado un respiro a los fabricantes de chips de IA, el gran modelo también trae buenas noticias para los fabricantes de chips, especialmente para los fabricantes de chips de nueva creación: la importancia de la ecología del software está disminuyendo. **
Cuando la tecnología no estaba lo suficientemente madura en los primeros días, los investigadores solo podían comenzar resolviendo un problema específico y nacieron pequeños modelos con menos de un millón de parámetros. Por ejemplo, DeepMind, una empresa de inteligencia artificial propiedad de Google, permite que AlphaGO lleve a cabo un "aprendizaje" especial sobre los pasos de ajedrez de millones de jugadores profesionales humanos.
Después de que haya más modelos pequeños, el problema del hardware como la adaptación del chip es inminente. Por lo tanto, cuando Nvidia lanzó el CUDA ecológico unificado, GPU+CUDA ganó rápidamente el reconocimiento de la comunidad informática y se convirtió en la configuración estándar para el desarrollo de inteligencia artificial.
Los grandes modelos que están surgiendo uno tras otro hoy en día tienen capacidades multimodales, pueden manejar texto, imágenes, programación y otros temas, y también pueden cubrir múltiples campos verticales como oficina, educación y atención médica. Esto también significa que adaptarse a la ecología dominante no es la única opción: cuando la demanda de chips para modelos grandes se dispara, los fabricantes de chips solo pueden adaptarse a 1 o 2 modelos grandes y pueden completar el desarrollo de múltiples modelos pequeños. en el pasado Orden. **
En otras palabras, la aparición de ChatGPT brinda a los fabricantes de chips de nueva creación la oportunidad de adelantar en las curvas. Esto significa que la estructura del mercado de chips de IA sufrirá cambios tremendos: los chips de IA ya no son un espectáculo de un solo hombre de fabricantes individuales, sino un juego grupal de múltiples innovadores. **
**Cuando la potencia informática se convierte en un bien escaso y la adaptación a la ecología dominante ya no es imprescindible, la integración del almacenamiento y la informática difícilmente puede ocultar su luz. **En este momento, si invertir o no, y cuánto invertir, se ha convertido en el segundo problema que enfrentan los fabricantes de chips de IA. **
En este sentido, La respuesta que ha dado el gigante de los chips NVIDIA durante muchos años es ser valiente en innovación e invertir mucho dinero:
Todo fabricante de I+D de una tecnología emergente sin duda se enfrentará a problemas en varios niveles, como obstáculos de exploración técnica y desacuerdos de los fabricantes intermedios. En la etapa inicial, quien prediga primero la tendencia de desarrollo futuro, tome el coraje de dar los pasos de exploración y establezca recursos razonables para intentarlo, aprovechará la oportunidad.
Cuando la ola de centros de datos aún no ha llegado de manera abrumadora, y el entrenamiento de inteligencia artificial sigue siendo un campo de nicho, Nvidia ha invertido mucho en el desarrollo de GPU de computación de uso general y software de programación unificado CUDA, y es un buen trabajo para Nvidia- plataformas informáticas.
En ese momento, hacer programable la GPU era una opción "inútil y deficitaria": no sé si se puede duplicar el rendimiento, pero se duplicará el desarrollo del producto. Por esta razón, ningún cliente está dispuesto a pagar por ello. Sin embargo, Nvidia, que predijo que un procesador de gráficos de función única no es una solución a largo plazo, decidió aplicar CUDA a todas las líneas de productos.
En una entrevista entre Xindongxi y el Dr. Lai Junjie, director sénior de Ingeniería y Soluciones de Nvidia China, Lai Junjie dijo: "Para la visión de la plataforma informática, Huang Renxun movilizó rápidamente una gran cantidad de recursos de Nvidia hacia arriba y hacia abajo a principios días."
Previsión + gran inversión, en 2012, Nvidia ganó la recompensa del innovador: en 2012, el rendimiento informático del algoritmo de aprendizaje profundo causó sensación en el círculo académico. Como herramienta de productividad de alta informática, más versátil y fácil de usar, GPU+CUDA rápidamente se hizo popular La comunidad informática se ha convertido en la "configuración estándar" para el desarrollo de la inteligencia artificial.
En el viaje de los chips de IA con gran poder de cómputo, el chip todo en uno para almacenamiento y computación ha iniciado su propio "período dorado". **
No técnico, financieramente rico, no ingrese
Al ver los diversos beneficios de la integración del almacenamiento y la computación, en esta etapa, el campo de jugadores que integran chips de almacenamiento y computación está creciendo.
Según las estadísticas incompletas de CIRUI Insight, desde 2019, la mayoría de los nuevos fabricantes de chips de IA tienen almacenamiento y computación integrados: hay 20 nuevos fabricantes de chips de IA en 2019-2021, y 10 de ellos eligen la ruta de integración de depósito y cálculo.
Todo esto muestra que la integración de almacenamiento y computación se convertirá en una estrella en ascenso después de GPGPU, ASIC y otras arquitecturas. ** Y esta nueva estrella, no todos pueden elegirla. **
Dada la circunstancia de que los círculos académicos, los círculos industriales y el capital son unánimemente optimistas sobre la integración del almacenamiento y la computación, la fuerte fortaleza técnica del país, el sólido grupo de talentos y el control preciso sobre la aceptación de los costos de migración son la clave para las empresas emergentes. para mantener su competitividad en la industria Tres barreras que se interponen frente a nuevos jugadores. **
** La fuerza técnica sólida es siempre la montaña más alta en el campo de las fichas. **
El primero es la integración de almacenamiento y computación, que involucra todo el proceso de fabricación de chips: desde el dispositivo más bajo, hasta el diseño de circuitos, diseño de arquitectura, cadena de herramientas, y luego hasta la investigación y el desarrollo de la capa de software; todo el cuerpo”: Al realizar los cambios correspondientes en cada capa, también se debe considerar el grado de adaptación entre cada capa.
**Veámoslo capa por capa, qué tipo de problemas técnicos hay cuando se fabrica un chip integrado de computación de memoria. **
En primer lugar, en términos de selección de dispositivos, los fabricantes están "caminando sobre hielo delgado": el diseño de la memoria determina la tasa de rendimiento del chip, y una vez que la dirección es incorrecta, es posible que el chip no se produzca en masa.
El segundo es el nivel de diseño del circuito. Una vez que el dispositivo está disponible a nivel de circuito, debe usarse para el diseño de circuito de la matriz de almacenamiento. En la actualidad, en el diseño de circuitos, no existe una guía de herramientas EDA para el cálculo en memoria, y debe hacerse manualmente, lo que sin duda aumenta en gran medida la dificultad de operación.
Inmediatamente después de haber circuitos a nivel arquitectónico, es necesario diseñar la capa arquitectónica. Cada circuito es un módulo de computación básico, y toda la arquitectura se compone de diferentes módulos.El diseño del módulo integrado de computación de memoria determina la relación de eficiencia energética del chip. Los circuitos analógicos se verán perturbados por el ruido y los chips encontrarán muchos problemas cuando se vean afectados por el ruido.
En este caso, se requiere que los arquitectos de chips comprendan completamente las características del proceso de la computación analógica en memoria y, al mismo tiempo, diseñen la arquitectura de acuerdo con estas características. Sobre esta base, también se debe considerar la adaptabilidad entre la arquitectura y el desarrollo de software. . Una vez que se completa el diseño de la arquitectura a nivel de software, se debe desarrollar la cadena de herramientas correspondiente.
Dado que el modelo original de integración de almacenamiento e informática es diferente del modelo de la arquitectura tradicional, el compilador debe adaptarse a una arquitectura de integración de almacenamiento e informática completamente diferente para garantizar que todas las unidades informáticas se puedan asignar al hardware y funcionen sin problemas.
**Una cadena técnica completa probará la capacidad de cada eslabón de dispositivo, diseño de circuito, diseño de arquitectura, cadena de herramientas y desarrollo de capa de software, y coordinará la capacidad de adaptación de cada eslabón, que es una batalla prolongada que consume tiempo, esfuerzo y dinero. **
** Al mismo tiempo, de acuerdo con el proceso de operación de los enlaces anteriores, se puede ver que el chip integrado de computación de memoria necesita urgentemente diseñadores de circuitos y arquitectos de chips experimentados. **
Dada la particularidad de la integración de almacenamiento y cálculo, las empresas que puedan integrar almacenamiento y cálculo deben tener las siguientes dos características en cuanto a reservas de personal:
El líder necesita tener suficiente coraje. Debe haber una idea clara en la elección de la selección del dispositivo (RRAM, SRAM, etc.) y el modo de cómputo (Von Neumann tradicional, almacenamiento y computación integrados, etc.). Esto se debe a que, como tecnología subversiva e innovadora, la integración de almacenamiento y cálculo no tiene quien la dirija, y el costo de prueba y error es extremadamente alto. Los fundadores de empresas que pueden lograr la comercialización a menudo tienen una gran experiencia en la industria, grandes fabricantes y antecedentes académicos, y pueden liderar al equipo para completar rápidamente iteraciones de productos.
En el equipo central, es necesario equipar talentos experimentados en todos los niveles de tecnología. Por ejemplo, el arquitecto, que es el núcleo del equipo. Los arquitectos deben tener una comprensión y un conocimiento profundos de las herramientas de hardware y software subyacentes, y ser capaces de realizar la arquitectura informática y de almacenamiento en el concepto a través de la tecnología y, finalmente, lograr el aterrizaje del producto;
Además, según el informe qubit, faltan talentos de alto nivel en el diseño de circuitos en China, especialmente en el campo de los circuitos híbridos. La computación en memoria implica una gran cantidad de diseños de circuitos analógicos. En comparación con el diseño de circuitos digitales que enfatiza el trabajo en equipo, el diseño de circuitos analógicos requiere diseñadores individuales que estén extremadamente familiarizados con el proceso, el diseño, el diseño, el modelo pdk y el empaque.
Y esta serie de talentos y tecnologías debe tener el efecto de aterrizaje como el objetivo final: la producción de primera clase es la fuerza productiva principal. **Durante la entrega, lo que el cliente considera no es solo la tecnología integrada de computación y almacenamiento, sino también si los indicadores de rendimiento del SoC integrado de computación y almacenamiento, como el índice de eficiencia energética, el índice de eficiencia de área y la facilidad de uso, son suficientes en comparación con productos anteriores La mejora y, lo que es más importante, si el costo de migración está dentro del rango aceptable.
Si elegir un nuevo chip para mejorar el rendimiento del algoritmo requiere volver a aprender un sistema de programación, y el costo de mano de obra de la migración del modelo es más alto que el costo de comprar una nueva GPU, lo más probable es que los clientes no opten por usar un nuevo chip.
** Por lo tanto, si la integración de depósito y cálculo puede minimizar el costo de migración durante el proceso de aterrizaje es un factor clave para los clientes al elegir productos. **
En el contexto de los modelos a gran escala, el chip integrado de memoria y computación se está convirtiendo en una estrella en ascenso en la pista de chips en virtud de su bajo consumo de energía pero su alta relación de eficiencia energética. Hoy en día, el mercado integrado de depósitos y cálculos todavía se encuentra en la etapa de "Xiaohe está recién emergiendo".
** Sin embargo, no podemos negar que los jugadores integrados de almacenamiento y cálculo ya han construido tres muros altos, y aquellos con una gran fuerza técnica y sólidas reservas de talento no deberían entrar. **