Haz un buen uso de los modelos pequeños y marca una gran diferencia.
Fuente original: Machine Energy
Fuente de la imagen: Generado por Unbounded AI
El uso de la IA está cada vez más extendido y no se limita al uso de la misma por parte de los individuos. También se está volviendo cada vez más popular en las empresas el uso de la IA para mejorar los flujos de trabajo y avanzar en el trabajo. Pero hay que mencionar que los más potentes suelen ser modelos más grandes, lo que causará dificultades en la implementación empresarial. Silvio Saese escribió sobre sus pensamientos sobre este problema, ** los modelos no son más grandes es mejor, los modelos pequeños pueden manejar mejor el contenido del trabajo. **
La siguiente es la traducción y disposición del texto original por el corazón de la máquina sin cambiar el significado original.
Dirección original:
En los últimos meses, he escrito mucho sobre lo que llamo LAM (Large Action Model), una variante más activa y autónoma de LLM. No solo genera contenido como texto o imágenes, sino que puede completar tareas completas e incluso participar en flujos de trabajo, ya sea con personas o por su cuenta. Este año, en Dreamforce 2023, con el lanzamiento del Einstein Copilot, esa visión dio un gran paso hacia la realidad. Einstein Copilot, el asistente conversacional de IA de Salesforce, se implementará en toda la plataforma Salesforce y estará listo para integrarse en casi todo lo que hacen los clientes.
Einstein Copilot: Un vistazo al futuro de la IA generativa
Es difícil no impresionar con el Einstein Copilot listo para usar. Fue diseñado desde cero para ser productivo de manera segura al ayudar a los usuarios en casi todos los tipos de flujos de trabajo. Puede manejar preguntas publicadas en lenguaje natural y proporcionar respuestas relevantes y confiables extraídas de datos patentados que están seguros por la empresa. Esta es una imagen clara de hacia dónde creo que se dirige la IA en la empresa: una interfaz única y confiable diseñada en torno a la interacción cotidiana entre humanos y computadoras y capaz de ayudar con una variedad de tareas. Demuestra el poder de la IA para garantizar que la tecnología satisfaga las necesidades de las empresas, y no tengo ninguna duda de que también cambiará la forma en que trabajan los clientes. Y LAM, a medida que evolucione en flexibilidad y funcionalidad, llevará esta fuerza ya muy poderosa al siguiente nivel.
Hacer que los modelos de IA generativa sean "pequeños y grandes"
Recientemente, muchos de los temas de la IA generativa han girado en torno a la escala del modelo y la arquitectura del modelo que impulsan el LLM y el LAM. A medida que empresas como OpenAI continúan superando los límites de escala, con un número de parámetros que supera con creces los 100 mil millones, no es difícil concluir que cuanto más grande, mejor. De hecho, los modelos grandes a menudo se jactan de que su rendimiento es difícil o imposible de lograr de otra manera. Y a medida que aumenta el tamaño del modelo, surge un comportamiento increíblemente complejo, lo que sugiere que las estrategias a mayor escala pueden aportar beneficios significativos.
Cómo los modelos de reducción estratégica pueden traer enormes beneficios
Si bien los modelos más grandes continúan dominando los titulares, perseguir modelos más grandes no es la mejor estrategia. Lo más obvio es que los modelos más grandes ahora son computacionalmente costosos y muchas empresas están fuera de su alcance. E incluso aquellas empresas que pueden permitirse el lujo de implementarlos deben reconocer que la producción de alta calidad que prometen puede ser extremadamente lenta. Además, todavía nos enfrentamos a problemas con la confianza, la seguridad, la nocividad y las reclamaciones de propiedad, como los derechos de autor, todos ellos derivados de los conjuntos de datos masivos de origen global en los que se basan los modelos de hiperescala.
Estas carencias hacen que los modelos pequeños sean cada vez más atractivos en muchos ámbitos. Son relativamente rentables y se pueden ajustar a velocidades increíbles. Hoy en día, los LLM especialmente diseñados pueden incluso ejecutarse completamente en el borde en algunos casos, incluidos los dispositivos móviles de los usuarios finales. Y debido a que requieren menos capacitación, los clientes pueden asumir un papel de administración más activo en la preparación de sus conjuntos de datos. En este punto, se pueden realizar grandes mejoras en términos de calidad, seguridad e incluso estado legal del contenido contenido en el conjunto de datos.
Al centrarse en áreas más estrechas, la calidad de la salida de los modelos pequeños también puede estar a la par con sus "hermanos mayores". Los modelos como ChatGPT están diseñados esencialmente para todos, ayudando con la tarea, las recetas para la cena, respondiendo preguntas sobre ciencia, tecnología, historia y cultura pop. Por el contrario, la IA generativa para empresas puede y debe centrarse en áreas problemáticas más pequeñas y relevantes. Esto es claramente beneficioso para todos: significa reducir las barreras de entrada sin comprometer la calidad de la producción. **
Cómo la orquestación de modelos pequeños ofrece un gran potencial
Incluso los modelos pequeños pueden proporcionar grandes soluciones, solo tenemos que pensar de manera diferente sobre la escala. En lugar de hacer que el modelo en sí sea más grande, entrelaze varios modelos para servir a un objetivo de nivel superior. ** Cada modelo está diseñado con un objetivo específico en mente y entrenado en un conjunto de datos cuidadosamente seleccionado, rigurosamente examinado y patentado. ¿Qué pasaría si los agentes de IA como Einstein Copilot pudieran combinarse o coordinarse, al igual que varios humanos podrían hacer más trabajo en equipo que como individuos? Por ejemplo, un restaurante, que es una organización que solo se puede lograr mediante el trabajo en equipo, cada miembro tiene sus propias habilidades y áreas de enfoque: los camareros son responsables de ordenar, los chefs son responsables de preparar la comida, los recepcionistas son responsables de manejar las reservas y los pedidos, y los conductores son responsables de entregar la comida. Entonces, ¿cómo se vería LAM cuando se organizara de manera similar?
Últimamente he estado pensando en la orquestación, y creo que es una de las tecnologías más emocionantes, pero también la más práctica, para traer agentes útiles y autónomos de una manera segura y eficiente. Y lo que es más importante, la orquestación significa que incluso las soluciones más ambiciosas son transparentes y conocidas por los creadores y las personas que trabajan junto a ellos. Tenga en cuenta que, en este caso, la escala no proviene de redes neuronales cada vez más grandes, sino de componentes independientes y bien definidos que están organizados de manera que tengan sentido para los humanos. Por ejemplo, en lugar de entrenar un modelo gigante para registrar las notas de las reuniones con los clientes, extraer inferencias de los resultados, actualizar los registros de CRM correspondientes y, a continuación, enviar información de seguimiento, asigne cada una de estas tareas a un modelo entrenado por separado.
De hecho, he pasado la mayor parte de mi carrera de investigación en robótica, y no puedo evitar mirar más allá, imaginando que tal coreografía se puede hacer en un espacio del mundo real. En fábricas, oficinas, hospitales e incluso restaurantes, las maquetas trabajan codo con codo con los humanos para realizar una variedad de tareas. Suena elevado y distante, pero en este momento, el potencial de orquestación es enorme.
Hablemos de sus beneficios. En primer lugar, la orquestación nos ahorra la dificultad de ensamblar un conjunto de datos lo suficientemente grande y hacer que un único modelo sea tan flexible como para resolver las dificultades de los agentes entre dominios, y también elimina el riesgo de poner una gran cantidad de datos muy diferentes en un solo conjunto de entrenamiento. ** Además, cada modelo puede ser ajustado aún más por RLHF. Por lo tanto, en este sistema, cada componente es muy especializado y se utiliza para completar los pasos críticos pero manejables en una tarea más grande.
Cuando surgen problemas, ya sea durante la puesta en marcha o la producción, los problemas se pueden identificar más fácilmente a través de un modelo único y dedicado para comprenderlos y resolverlos mejor. Incluso los fallos graves pueden gestionarse de forma modular más robusta. Y varios modelos trabajan juntos, las fallas son más fáciles de controlar y aislar, y hay más oportunidades de continuidad cuando falla un solo componente.
El Art Nouveau para la IA generativa: diseño en múltiples modelos
Y lo que es más importante, eleva la creación de modelos de IA empresarial de una tarea puramente técnica a una tarea de modelado de procesos empresariales en términos que las partes interesadas humanas puedan entender. Al igual que un buen gerente desglosaría un problema para que un equipo lo resuelva, un orquestador de IA tendría la capacidad de desglosar un problema en una serie de modelos especialmente diseñados.
Lo que es particularmente emocionante de esta visión es que apunta a una nueva habilidad, incluso se podría llamar un arte emergente, y espero verla evolucionar en la empresa. Los expertos en orquestación de LAM pensarán a un alto nivel, tratando las necesidades de la empresa como un negocio, no solo como una plataforma tecnológica, y utilizarán esta información para dividir las tareas grandes y significativas en una serie de tareas más pequeñas que serán resueltas por los "equipos" de LAM.
Su trabajo entrelaza la infraestructura, la ciencia de datos y el diseño de interfaces hombre-máquina. El primero garantiza que estos equipos de modelos puedan implementarse de forma segura y eficiente, mientras que el segundo se esfuerza por recopilar conjuntos de datos únicos para resolver problemas más pequeños y menos ambiguos. En otras palabras, los expertos en orquestación pueden convertirse en las nuevas caras de la IA empresarial, centrándose menos en los detalles de las redes neuronales y más en cómo construir sistemas robustos y robustos.
De hecho, lo que espero en última instancia es que esta habilidad no sea rara ni exclusiva, sino más bien generalizada, convirtiendo la orquestación de LAM en una solución potente y personalizada que jugará un papel cada vez más importante en nuestra vida profesional. A medida que emerge el mercado, la barrera de entrada puede reducirse aún más, brindando al mundo una solución de orquestación LAM similar a un copiloto que simplemente impulsa la IA generativa a una escala increíble.
Algunos utilizarán esta solución de mercado directamente, haciendo realidad la orquestación de LAM. Otros los tratarán como módulos y los combinarán con otros módulos para formar soluciones de varios tamaños según sus necesidades. Pero en cualquier caso, lo que más me entusiasma es que la IA generativa está formada no tanto por un pequeño grupo de tecnólogos de élite como por la creatividad y la visión de profesionales de diversos campos.
De hecho, mi visión para el futuro del trabajo es un mundo en el que la IA apoye las habilidades humanas y nos permita pensar a un nivel superior, simplificando todo lo que hacemos al tiempo que conservamos la creatividad, el estilo y la perspectiva que nos distinguen.
Resumen
La realización de cualquier nueva visión es gradual, y LAM no es una excepción. Sin embargo, los últimos años han demostrado que cada paso del camino será transformador. Desde sus inicios, LLM ha mostrado un potencial poco común para la disrupción y la innovación. Los agentes de asistencia como el copiloto de Einstein llevan esta barra al siguiente nivel con una interfaz intuitiva, sólidas funciones de confianza y seguridad, y una integración perfecta con los sistemas de copiloto tradicionales.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Orquestación de modelos pequeños, para que 1 + 1_2, el trabajo empresarial sea más flexible y eficiente
Fuente original: Machine Energy
El uso de la IA está cada vez más extendido y no se limita al uso de la misma por parte de los individuos. También se está volviendo cada vez más popular en las empresas el uso de la IA para mejorar los flujos de trabajo y avanzar en el trabajo. Pero hay que mencionar que los más potentes suelen ser modelos más grandes, lo que causará dificultades en la implementación empresarial. Silvio Saese escribió sobre sus pensamientos sobre este problema, ** los modelos no son más grandes es mejor, los modelos pequeños pueden manejar mejor el contenido del trabajo. **
La siguiente es la traducción y disposición del texto original por el corazón de la máquina sin cambiar el significado original.
En los últimos meses, he escrito mucho sobre lo que llamo LAM (Large Action Model), una variante más activa y autónoma de LLM. No solo genera contenido como texto o imágenes, sino que puede completar tareas completas e incluso participar en flujos de trabajo, ya sea con personas o por su cuenta. Este año, en Dreamforce 2023, con el lanzamiento del Einstein Copilot, esa visión dio un gran paso hacia la realidad. Einstein Copilot, el asistente conversacional de IA de Salesforce, se implementará en toda la plataforma Salesforce y estará listo para integrarse en casi todo lo que hacen los clientes.
Einstein Copilot: Un vistazo al futuro de la IA generativa
Es difícil no impresionar con el Einstein Copilot listo para usar. Fue diseñado desde cero para ser productivo de manera segura al ayudar a los usuarios en casi todos los tipos de flujos de trabajo. Puede manejar preguntas publicadas en lenguaje natural y proporcionar respuestas relevantes y confiables extraídas de datos patentados que están seguros por la empresa. Esta es una imagen clara de hacia dónde creo que se dirige la IA en la empresa: una interfaz única y confiable diseñada en torno a la interacción cotidiana entre humanos y computadoras y capaz de ayudar con una variedad de tareas. Demuestra el poder de la IA para garantizar que la tecnología satisfaga las necesidades de las empresas, y no tengo ninguna duda de que también cambiará la forma en que trabajan los clientes. Y LAM, a medida que evolucione en flexibilidad y funcionalidad, llevará esta fuerza ya muy poderosa al siguiente nivel.
Hacer que los modelos de IA generativa sean "pequeños y grandes"
Recientemente, muchos de los temas de la IA generativa han girado en torno a la escala del modelo y la arquitectura del modelo que impulsan el LLM y el LAM. A medida que empresas como OpenAI continúan superando los límites de escala, con un número de parámetros que supera con creces los 100 mil millones, no es difícil concluir que cuanto más grande, mejor. De hecho, los modelos grandes a menudo se jactan de que su rendimiento es difícil o imposible de lograr de otra manera. Y a medida que aumenta el tamaño del modelo, surge un comportamiento increíblemente complejo, lo que sugiere que las estrategias a mayor escala pueden aportar beneficios significativos.
Cómo los modelos de reducción estratégica pueden traer enormes beneficios
Si bien los modelos más grandes continúan dominando los titulares, perseguir modelos más grandes no es la mejor estrategia. Lo más obvio es que los modelos más grandes ahora son computacionalmente costosos y muchas empresas están fuera de su alcance. E incluso aquellas empresas que pueden permitirse el lujo de implementarlos deben reconocer que la producción de alta calidad que prometen puede ser extremadamente lenta. Además, todavía nos enfrentamos a problemas con la confianza, la seguridad, la nocividad y las reclamaciones de propiedad, como los derechos de autor, todos ellos derivados de los conjuntos de datos masivos de origen global en los que se basan los modelos de hiperescala.
Estas carencias hacen que los modelos pequeños sean cada vez más atractivos en muchos ámbitos. Son relativamente rentables y se pueden ajustar a velocidades increíbles. Hoy en día, los LLM especialmente diseñados pueden incluso ejecutarse completamente en el borde en algunos casos, incluidos los dispositivos móviles de los usuarios finales. Y debido a que requieren menos capacitación, los clientes pueden asumir un papel de administración más activo en la preparación de sus conjuntos de datos. En este punto, se pueden realizar grandes mejoras en términos de calidad, seguridad e incluso estado legal del contenido contenido en el conjunto de datos.
Al centrarse en áreas más estrechas, la calidad de la salida de los modelos pequeños también puede estar a la par con sus "hermanos mayores". Los modelos como ChatGPT están diseñados esencialmente para todos, ayudando con la tarea, las recetas para la cena, respondiendo preguntas sobre ciencia, tecnología, historia y cultura pop. Por el contrario, la IA generativa para empresas puede y debe centrarse en áreas problemáticas más pequeñas y relevantes. Esto es claramente beneficioso para todos: significa reducir las barreras de entrada sin comprometer la calidad de la producción. **
Cómo la orquestación de modelos pequeños ofrece un gran potencial
Incluso los modelos pequeños pueden proporcionar grandes soluciones, solo tenemos que pensar de manera diferente sobre la escala. En lugar de hacer que el modelo en sí sea más grande, entrelaze varios modelos para servir a un objetivo de nivel superior. ** Cada modelo está diseñado con un objetivo específico en mente y entrenado en un conjunto de datos cuidadosamente seleccionado, rigurosamente examinado y patentado. ¿Qué pasaría si los agentes de IA como Einstein Copilot pudieran combinarse o coordinarse, al igual que varios humanos podrían hacer más trabajo en equipo que como individuos? Por ejemplo, un restaurante, que es una organización que solo se puede lograr mediante el trabajo en equipo, cada miembro tiene sus propias habilidades y áreas de enfoque: los camareros son responsables de ordenar, los chefs son responsables de preparar la comida, los recepcionistas son responsables de manejar las reservas y los pedidos, y los conductores son responsables de entregar la comida. Entonces, ¿cómo se vería LAM cuando se organizara de manera similar?
Últimamente he estado pensando en la orquestación, y creo que es una de las tecnologías más emocionantes, pero también la más práctica, para traer agentes útiles y autónomos de una manera segura y eficiente. Y lo que es más importante, la orquestación significa que incluso las soluciones más ambiciosas son transparentes y conocidas por los creadores y las personas que trabajan junto a ellos. Tenga en cuenta que, en este caso, la escala no proviene de redes neuronales cada vez más grandes, sino de componentes independientes y bien definidos que están organizados de manera que tengan sentido para los humanos. Por ejemplo, en lugar de entrenar un modelo gigante para registrar las notas de las reuniones con los clientes, extraer inferencias de los resultados, actualizar los registros de CRM correspondientes y, a continuación, enviar información de seguimiento, asigne cada una de estas tareas a un modelo entrenado por separado.
De hecho, he pasado la mayor parte de mi carrera de investigación en robótica, y no puedo evitar mirar más allá, imaginando que tal coreografía se puede hacer en un espacio del mundo real. En fábricas, oficinas, hospitales e incluso restaurantes, las maquetas trabajan codo con codo con los humanos para realizar una variedad de tareas. Suena elevado y distante, pero en este momento, el potencial de orquestación es enorme.
Hablemos de sus beneficios. En primer lugar, la orquestación nos ahorra la dificultad de ensamblar un conjunto de datos lo suficientemente grande y hacer que un único modelo sea tan flexible como para resolver las dificultades de los agentes entre dominios, y también elimina el riesgo de poner una gran cantidad de datos muy diferentes en un solo conjunto de entrenamiento. ** Además, cada modelo puede ser ajustado aún más por RLHF. Por lo tanto, en este sistema, cada componente es muy especializado y se utiliza para completar los pasos críticos pero manejables en una tarea más grande.
Cuando surgen problemas, ya sea durante la puesta en marcha o la producción, los problemas se pueden identificar más fácilmente a través de un modelo único y dedicado para comprenderlos y resolverlos mejor. Incluso los fallos graves pueden gestionarse de forma modular más robusta. Y varios modelos trabajan juntos, las fallas son más fáciles de controlar y aislar, y hay más oportunidades de continuidad cuando falla un solo componente.
El Art Nouveau para la IA generativa: diseño en múltiples modelos
Y lo que es más importante, eleva la creación de modelos de IA empresarial de una tarea puramente técnica a una tarea de modelado de procesos empresariales en términos que las partes interesadas humanas puedan entender. Al igual que un buen gerente desglosaría un problema para que un equipo lo resuelva, un orquestador de IA tendría la capacidad de desglosar un problema en una serie de modelos especialmente diseñados.
Lo que es particularmente emocionante de esta visión es que apunta a una nueva habilidad, incluso se podría llamar un arte emergente, y espero verla evolucionar en la empresa. Los expertos en orquestación de LAM pensarán a un alto nivel, tratando las necesidades de la empresa como un negocio, no solo como una plataforma tecnológica, y utilizarán esta información para dividir las tareas grandes y significativas en una serie de tareas más pequeñas que serán resueltas por los "equipos" de LAM.
Su trabajo entrelaza la infraestructura, la ciencia de datos y el diseño de interfaces hombre-máquina. El primero garantiza que estos equipos de modelos puedan implementarse de forma segura y eficiente, mientras que el segundo se esfuerza por recopilar conjuntos de datos únicos para resolver problemas más pequeños y menos ambiguos. En otras palabras, los expertos en orquestación pueden convertirse en las nuevas caras de la IA empresarial, centrándose menos en los detalles de las redes neuronales y más en cómo construir sistemas robustos y robustos.
De hecho, lo que espero en última instancia es que esta habilidad no sea rara ni exclusiva, sino más bien generalizada, convirtiendo la orquestación de LAM en una solución potente y personalizada que jugará un papel cada vez más importante en nuestra vida profesional. A medida que emerge el mercado, la barrera de entrada puede reducirse aún más, brindando al mundo una solución de orquestación LAM similar a un copiloto que simplemente impulsa la IA generativa a una escala increíble.
Algunos utilizarán esta solución de mercado directamente, haciendo realidad la orquestación de LAM. Otros los tratarán como módulos y los combinarán con otros módulos para formar soluciones de varios tamaños según sus necesidades. Pero en cualquier caso, lo que más me entusiasma es que la IA generativa está formada no tanto por un pequeño grupo de tecnólogos de élite como por la creatividad y la visión de profesionales de diversos campos.
De hecho, mi visión para el futuro del trabajo es un mundo en el que la IA apoye las habilidades humanas y nos permita pensar a un nivel superior, simplificando todo lo que hacemos al tiempo que conservamos la creatividad, el estilo y la perspectiva que nos distinguen.
Resumen
La realización de cualquier nueva visión es gradual, y LAM no es una excepción. Sin embargo, los últimos años han demostrado que cada paso del camino será transformador. Desde sus inicios, LLM ha mostrado un potencial poco común para la disrupción y la innovación. Los agentes de asistencia como el copiloto de Einstein llevan esta barra al siguiente nivel con una interfaz intuitiva, sólidas funciones de confianza y seguridad, y una integración perfecta con los sistemas de copiloto tradicionales.