Involucrados en el gran modelo, la nueva narrativa de los fabricantes de móviles

Autor|Wu Jingjing

Editar|Castañas

Fuente: Jiazi Guangnian

El modelo grande de Xiaomi hizo su debut público durante el discurso anual de 2023 de Lei Jun.

Lei Jun mencionó que, a diferencia de muchas plataformas de Internet, la dirección de avance clave del modelo grande de Xiaomi es el peso ligero y la implementación local, que puede funcionar sin problemas en el lado del teléfono móvil.

Dijo que en la actualidad, el modelo MiLM1.3B con una escala de 1.300 millones de parámetros se ha ejecutado en teléfonos móviles y el efecto es comparable a los resultados de modelos grandes con 6.000 millones de parámetros en computación en la nube. En la boleta de calificaciones que publicó, el modelo grande de extremo a lado de Xiaomi se desempeñó mejor que el modelo ChatGLM2-6B de Zhipu AI en varios temas de la evaluación china CMMLU, y la brecha de puntuación con el modelo grande Baichuan-13B de Baichuan Intelligent fue alrededor de unos 5 minutos.

(Fuente: Xiaomi)

Anteriormente, el modelo de lenguaje de entrenamiento previo a gran escala MiLM-6B/1.3B desarrollado por Xiaomi aterrizó en GitHub, la plataforma de alojamiento de código, y ocupó el décimo lugar en la lista C-general, ocupando el primer lugar en la misma magnitud de parámetro y clasificado primero en el punto de referencia del modelo grande chino "CMMLU", "MiLM-6B" ocupó el primer lugar.

Por supuesto, dado que las dimensiones de estas listas de prueba son todas públicas, no es difícil para muchas empresas modelo a gran escala calificar de acuerdo con las tareas de prueba.Por lo tanto, estos resultados de evaluación solo pueden usarse como referencia y no significan que los resultados son absolutamente excelentes.

Al mismo tiempo, Lei Jun también anunció que Xiao Ai, como el primer negocio de aplicaciones del modelo grande de Xiaomi, se sometió a una nueva actualización y abrió oficialmente la prueba de invitación.

Este es el logro del modelo a gran escala realizado por Xiaomi en cuatro meses desde el anuncio del nuevo equipo de modelos a gran escala en abril de este año.

¿Qué nuevo pensamiento aporta la práctica de Xiaomi a la implementación de modelos grandes? ¿Qué significa para los fabricantes de teléfonos móviles que confían en las iteraciones de nuevas tecnologías?

1. Xiaomi no fabrica modelos grandes de uso general y el equipo central tiene unas 30 personas

Xiaomi pertenece a la escuela racional en la ruta de los modelos a gran escala-** no persigue la escala de parámetros y no hace modelos a gran escala de uso general. **

Anteriormente en la conferencia telefónica sobre ganancias, Lu Weibing, presidente de Xiaomi Group, dijo que Xiaomi adoptará activamente modelos a gran escala, y la dirección es integrar profundamente productos y negocios, y no fabricará modelos a gran escala de uso general como OpenAI. .

Según los informes anteriores de Shenran, el Dr. Wang Bin, director del Laboratorio de IA del Grupo Xiaomi, dijo una vez que Xiaomi no lanzará un producto similar a ChatGPT por sí solo, y que el modelo grande de desarrollo propio eventualmente será presentado por el producto, y el gobierno correspondiente invertirá decenas de millones a nivel de RMB. **

Dijo: "Para los modelos grandes, pertenecemos a la escuela racional. Xiaomi tiene ventajas en los escenarios de aplicación, y lo que vemos es una gran oportunidad para la combinación de modelos y escenarios grandes".

Reveló que antes del nacimiento de ChatGPT, Xiaomi había realizado investigación y desarrollo internos y la aplicación de modelos grandes. En ese momento, utilizaba capacitación previa + supervisión de tareas posteriores y ajuste fino para llevar a cabo un diálogo hombre-máquina, con una escala de parámetros. de 2.800 millones a 3.000 millones. Esto se logra principalmente a través del ajuste fino de los datos de diálogo sobre la base del modelo base preentrenado, no del modelo grande de propósito general como se le llama ahora.

Según información pública, el actual jefe del equipo de modelos grandes de Xiaomi es Luan Jian, experto en la dirección de voz de IA, reportando a Wang Bin, vicepresidente del comité técnico y director del laboratorio de IA. Todo el equipo de modelos grandes tiene unas 30 personas.

Luan Jian solía ser el científico jefe de voz y líder del equipo de voz del robot de voz inteligente "Microsoft Xiaoice", investigador en el Instituto de Investigación de Toshiba (China) y científico de voz sénior en la Academia de Ingeniería de Microsoft (China). Después de unirse a Xiaomi, Luan Jian estuvo a cargo de la generación de voz, NLP y otros equipos sucesivamente, y la implementación de tecnologías relacionadas en productos como Xiao Ai. Wang Bin se unió a Xiaomi en 2018 y ha estado a cargo del laboratorio de IA desde 2019. Antes de unirse a Xiaomi, fue investigador y supervisor de doctorado en el Instituto de Ingeniería de la Información de la Academia de Ciencias de China Tiene casi 30 años de investigación experiencia en los campos de recuperación de información y procesamiento de lenguaje natural.

El modelo a gran escala también se basa en el equipo de IA detrás de Xiaomi. Lei Jun dijo que después de 7 años y 6 expansiones, el equipo de IA de Xiaomi tiene más de 3,000 personas, cubriendo CV, NLP, imágenes de IA, conducción autónoma, robótica y otros. campos. .

(Fuente: Xiaomi)

2. Google, Qualcomm y Huawei han entrado en el juego uno tras otro

Además de Xiaomi, hacer que los modelos grandes funcionen en teléfonos móviles es el objetivo clave actual de muchas empresas de tecnología.

Las empresas de tecnología están imaginando la posibilidad de modelos grandes: no importa que lo que abras sea WPS, documentos de grafito o correos electrónicos, siempre que ingreses comandos como escribir, el teléfono móvil puede llamar a las capacidades locales para generar un artículo completo o un correo electrónico. En el teléfono móvil, todas las aplicaciones pueden llamar al modelo local a gran escala en cualquier momento para ayudar a lidiar con el trabajo y resolver problemas de la vida. La interacción entre las personas y varias aplicaciones en el teléfono móvil ya no son clics frecuentes, pero se pueden llamar de manera inteligente. por voz

Muchas empresas están tratando de comprimir el tamaño del modelo, haciéndolo más práctico y económico para ejecutar modelos grandes localmente en teléfonos móviles. En la conferencia Google I/O en mayo de este año, cuando Google lanzó PaLM2, se dividió en cuatro especificaciones según el tamaño, de pequeño a grande en el orden de Gecko, Otter, Bison y Unicorn.Entre ellos, el Gecko más pequeño puede ejecutar en teléfonos móviles Y es rápido, puede procesar 20 tokens por segundo, aproximadamente equivalente a 16 o 17 palabras, y también puede admitir teléfonos móviles para ejecutarse sin conexión. Pero en ese momento, Google no dijo en qué teléfono se usaría el modelo.

De momento, es Qualcomm quien ha dado con resultados concretos. En el 2023MWC de marzo de este año, Qualcomm ejecutó Stable Diffusion, un modelo gráfico de Wensheng con más de mil millones de parámetros, en un teléfono inteligente equipado con Snapdragon 8 de segunda generación. En la demostración, el personal usó Stable Diffusion para generar imágenes en un teléfono Android sin conexión a Internet y todo el proceso tomó 15 segundos.

En CVPR, la principal conferencia de académicos de visión por computadora en junio, Qualcomm demostró el modelo ControlNet ejecutándose en un teléfono Android con una escala de 1500 millones de parámetros, y el tiempo de dibujo fue de solo 11,26 segundos. Ziad Asghar, vicepresidente sénior de gestión de productos y director de IA de Qualcomm, dijo: **Técnicamente, lleva menos de un mes trasladar estos modelos grandes con más de mil millones de parámetros a los teléfonos móviles. **

La acción más reciente es que Qualcomm anunció la cooperación con Meta para explorar aplicaciones y aplicaciones basadas en el modelo Llama 2 en teléfonos inteligentes, PC, dispositivos de visualización montados en la cabeza AR/VR, automóviles y otros dispositivos basados en el chip Qualcomm Snapdragon sin red. Atender. Según Qualcomm, en comparación con LLM basado en la nube, la ejecución local de modelos de lenguaje a gran escala como Llama 2 en el dispositivo no solo tiene un costo más bajo y un mejor rendimiento, sino que tampoco necesita conectarse a servicios en línea**, y el servicio es más personalizada y eficiente, segura y privada.

Apple, que no ha anunciado oficialmente ninguna acción de modelo a gran escala, también está explorando el aterrizaje de modelos a gran escala en el lado del dispositivo. Según el informe de "Financial Times", Apple está contratando ingenieros e investigadores para comprimir grandes modelos de lenguaje para que puedan ejecutarse de manera eficiente en el iPhone y el iPad, y el equipo principalmente responsable es el de Inteligencia de Máquinas y Diseño Neural ( MENTE) equipo.

En la actualidad, en Github, un popular proyecto MLC LLM de modelo de código abierto puede admitir la implementación local. Resuelve las limitaciones de memoria mediante la planificación cuidadosa de la asignación y la compresión activa de los parámetros del modelo, y puede ejecutar modelos de IA en varios dispositivos de hardware, como el iPhone. El proyecto fue desarrollado conjuntamente por el profesor asistente de CMU, el CTO de OctoML Chen Tianqi y otros investigadores.El equipo utiliza la tecnología de compilación de aprendizaje automático (MLC) como base para implementar modelos de IA de manera eficiente. Menos de dos días después de que MLC-LLM se pusiera en línea, la cantidad de estrellas en GitHub se acercó a 1000. Alguien probó ejecutar localmente un modelo de idioma grande en el modo avión del iPhone.

A diferencia de los extranjeros Google y Qualcomm, que enfatizan que los modelos grandes se pueden implementar localmente en el lado del dispositivo y se pueden ejecutar sin conexión, los fabricantes nacionales de teléfonos móviles actualmente dan prioridad a la implementación de modelos grandes en asistentes de voz de teléfonos móviles o funciones de búsqueda de imágenes existentes. esta actualización es para llamar a Más capacidades en la nube para usar modelos grandes.

Esta vez, Xiaomi usó el modelo grande en el asistente de voz Xiao Ai. Sin embargo, dado que la información relevante sobre el modelo grande de extremo a extremo de Xiaomi no se ha revelado, es imposible juzgar con precisión la ruta de desarrollo del modelo grande de Xiaomi en el futuro. A juzgar por la dirección del despliegue local y el peso ligero que enfatizó Lei Jun, Xiaomi puede intentar ejecutar el modelo grande sin conexión en el teléfono móvil en el futuro.

Huawei también está tratando de implementar modelos a gran escala en teléfonos móviles, pero el enfoque sigue estando en asistentes de voz para teléfonos móviles y escenas de búsqueda de imágenes. A principios de abril, en el teléfono móvil P60 recientemente lanzado por Huawei, detrás de la nueva función de búsqueda inteligente de imágenes estaba la tecnología de modelo multimodal a gran escala, y el modelo se miniaturizó en el lado del teléfono móvil durante el proceso. Recientemente, el asistente inteligente de terminal recientemente actualizado de Huawei, Xiaoyi, también ha optimizado la experiencia en función del modelo grande, y puede recomendar restaurantes de acuerdo con las indicaciones de voz y realizar nuevas funciones, como resúmenes.

OPPO y vivo también están haciendo esfuerzos en esta dirección. El 13 de agosto, OPPO anunció que el nuevo Xiaobu Assistant basado en AndesGPT pronto comenzará a experimentar. Se puede ver en los datos que después de que Xiaobu Assistant integre las capacidades de modelos grandes, será más eficaz en el diálogo y la redacción publicitaria, se potenciará la capacidad de redacción y otros aspectos. AndesGPT es un modelo generativo de lenguaje grande basado en una arquitectura de nube híbrida creada por OPPO Andes Intelligent Cloud Team.

Para los fabricantes de teléfonos móviles, ya sea que se trate de una implementación local o invocando las capacidades de la nube, los modelos grandes son una nueva oportunidad que no se puede perder para los teléfonos móviles.

**3. El modelo grande se ejecuta en el teléfono móvil, ¿dónde está el problema clave? **

No es una tarea fácil hacer que un modelo grande funcione en un teléfono móvil.

El poder de cómputo es el problema principal. Usar el modelo grande en el teléfono móvil requiere no solo llamar a la potencia de cómputo de la nube sino también a la potencia de cómputo del dispositivo terminal.Debido al gran consumo de recursos del modelo grande, cada llamada significa un alto costo. El presidente de Alphabet, John Hennessy, mencionó una vez que el costo de búsqueda de usar un modelo de lenguaje grande es 10 veces más alto que el costo de búsqueda de palabras clave anterior. El año pasado, Google tuvo 3,3 billones de consultas de búsqueda, con un costo de aproximadamente una quinta parte de un centavo cada una. Los analistas de Wall Street predicen que si Google usa grandes modelos de lenguaje para manejar la mitad de sus consultas de búsqueda, cada una de las cuales brinda una respuesta de aproximadamente 50 palabras**, Google podría enfrentar un aumento de $6 mil millones en gastos para 2024. **

(Fuente: Reuters)

La ejecución de modelos grandes en el teléfono móvil enfrenta problemas de costos similares, como se menciona en el informe "La IA híbrida es el futuro de la IA" publicado por Qualcomm, al igual que la informática tradicional ha evolucionado de un mainframe y un cliente a una combinación de terminales en la nube y en el borde. Del mismo modo, ejecutar un modelo grande en el lado de la terminal también requiere una arquitectura de IA híbrida para permitir que las cargas de trabajo de IA se distribuyan y coordinen entre la nube y las terminales de borde,** lo que permite a los fabricantes de teléfonos móviles utilizar la potencia informática de las terminales de borde. para reducir costos. Es por esta consideración de costos que los modelos grandes se pueden implementar localmente.

Además, como las pertenencias personales de todos, el teléfono móvil es el lugar donde se generan los datos, y una gran cantidad de datos privados también se almacenan localmente. Si se puede realizar el despliegue local, brindará protección a las personas en términos de seguridad y privacidad. .

Esto trae a colación el segundo problema: si desea utilizar más capacidades finales para ejecutar modelos grandes, ¿cómo puede hacer que el consumo de energía del teléfono móvil sea muy bajo y, al mismo tiempo, hacer que el modelo sea más eficaz?

Qualcomm afirmó una vez que la capacidad clave para implementar modelos grandes en dispositivos locales, como teléfonos móviles, radica en la optimización de hardware y software de IA de pila completa de Qualcomm, incluido el kit de herramientas de mejora de modelos de IA de Qualcomm (AIMET), el motor de IA de Qualcomm y las tecnologías relacionadas con Qualcomm, como la pila de software de IA puede comprimir el volumen del modelo, acelerar el razonamiento y reducir el tiempo de ejecución y el consumo de energía. Hou Jilei, vicepresidente global de Qualcomm y jefe de investigación de IA de Qualcomm, mencionó una vez que una parte importante de la investigación y el desarrollo de IA de alta eficiencia de Qualcomm es la investigación de eficiencia general del modelo. El propósito es reducir el modelo de IA en múltiples direcciones. para que pueda ejecutarse eficientemente en el hardware.

La compresión de un solo modelo no es una dificultad pequeña. Parte de la compresión del modelo provocará pérdidas en el rendimiento de los modelos grandes, y existen algunos métodos técnicos que pueden lograr una compresión sin pérdidas, todo lo cual requiere intentos de ingeniería en diferentes direcciones con la ayuda de varias herramientas.

Estas capacidades clave de software y hardware son un gran desafío para los fabricantes de teléfonos móviles. Hoy en día, muchos fabricantes de teléfonos móviles han dado el primer paso para ejecutar modelos grandes en teléfonos móviles. A continuación, cómo hacer que un mejor modelo grande caiga en cada teléfono móvil de manera más económica y eficiente es un paso más difícil y más crítico.

La aventura acaba de empezar.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)