La función Agentes de Amazon Bedrock permitirá a las empresas crear aplicaciones de IA que puedan automatizar tareas específicas, como hacer reservas en restaurantes, en lugar de solo obtener recomendaciones sobre dónde comer.
"Muchas personas están tan enfocadas en estos modelos y el tamaño de los modelos, pero creo que lo que realmente importa es cómo crear aplicaciones con ellos, y esa es una gran razón por la que lanzamos la función Agentes hoy".
El 26 de julio, hora local, Swami Sivasubramanian, vicepresidente global de Amazon Cloud Technology Database, Data Analysis and Machine Learning, habló en la Cumbre de Nueva York.
En la Cumbre de Nueva York, una de las cumbres anuales de Amazon Web Services (AWS), varios anuncios se centraron en la inteligencia artificial generativa. "Esta tecnología ha llegado a un punto de inflexión", dijo Swami Sivasubramanian, vicepresidente global de bases de datos de tecnología en la nube, análisis de datos y aprendizaje automático de Amazon.
El 26 de julio, hora del este, en la Cumbre de Nueva York, AWS lanzó la función Agentes (agentes) de Amazon Bedrock, un servicio de inteligencia artificial generativa, para ayudar a los modelos básicos a completar tareas complejas. "Esto permitirá a las empresas crear aplicaciones de IA que puedan automatizar tareas específicas, como hacer reservas en restaurantes, en lugar de simplemente obtener recomendaciones sobre dónde comer", dijo Sivasubramanian.
Además, AWS también ha lanzado nuevas herramientas de inteligencia artificial, incluida la disponibilidad oficial del asistente de programación Amazon CodeWhisperer, Amazon HealthScribe, un nuevo servicio médico inteligente para generar registros clínicos después de las visitas de los pacientes, y Amazon Entity Resolution, un servicio de análisis. Al mismo tiempo, anunció que las instancias P5 de Amazon EC2 para aplicaciones informáticas de alto rendimiento y IA generativa acelerada están disponibles oficialmente.
Vasi Philomin, vicepresidente global de IA generativa en Amazon Cloud Technology, compartió con The Paper que, entre todos los lanzamientos, lo que más le preocupa y lo que más le enorgullece es la función de los agentes". Mucha gente se enfoca tanto en estos modelos y el tamaño de los modelos, pero creo que lo que es realmente importante es cómo creas aplicaciones a partir de ellos, y esa es una gran razón por la que lanzamos la función Agentes hoy".
Competencia de agentes de IA
Los modelos de IA generativa como GPT-4 de OpenAI o Llama 2 de Meta son poderosos, pero en realidad no pueden automatizar ciertas tareas para el usuario sin ayuda adicional, como complementos.
Amazon Bedrock ofrece una forma de crear aplicaciones de IA generativas a través de modelos preentrenados de empresas emergentes, así como de la propia tecnología de nube de Amazon, sin invertir en servidores. La función Agentes de Amazon Bedrock permite a las empresas utilizar sus propios datos para enseñar modelos subyacentes y luego crear otras aplicaciones para completar tareas. El desarrollador puede elegir qué modelo base usar, proporcionar algunas instrucciones y elegir qué datos lee el modelo.
Esto es similar al sistema de complementos recientemente introducido por OpenAI para GPT-4 y ChatGPT, que amplía las capacidades de los modelos al permitirles aprovechar API y bases de datos de terceros. De hecho, recientemente ha habido una tendencia hacia los modelos generativos "personalizados", con nuevas empresas como las herramientas de creación de inteligencia artificial contextual para aumentar los modelos con datos empresariales.
Por ejemplo, una empresa de viajes puede usar la inteligencia artificial generativa para proporcionar recomendaciones de viaje, luego crear otro agente (Agentes) para recibir el historial de viajes y los intereses del usuario, luego usar un agente para encontrar horarios de vuelos y finalmente crear un agente para Reservar el viaje seleccionado. vuelo.
AWS no es el único entusiasta de los agentes. En abril, el CEO de Meta, Mark Zuckerberg (Mark Zuckerberg), también les dijo a los inversionistas que tenían la oportunidad de llevar agentes de inteligencia artificial (Agentes) "a miles de millones de personas de una manera útil y significativa". En julio, el director ejecutivo de OpenAI, Sam Altman, se sumergió en los agentes de IA y cómo podrían implementarse mejor en una entrevista con The Atlantic.
Reuters informó en julio que la carrera por los agentes de inteligencia artificial "autónomos" (Agents) está arrasando en Silicon Valley. Cita una startup, Inflection AI, que recaudó $ 1.3 mil millones en fondos a fines de junio. Según sus fundadores en un podcast, la compañía está desarrollando un asistente personal que, según dice, puede actuar como mentor o manejar tareas como obtener créditos de vuelo y hoteles después de retrasos en los viajes.
El 26 de julio, Sivasubramanian dijo en una entrevista con los medios que clientes como Sony (SONY), Ryanair (Ryanair) y Sun Life (Sun Life) han probado Amazon Bedrock. Sivasubramanian dijo que Amazon Bedrock estará disponible para todos los clientes "pronto". Se negó a decir cuándo, y agregó que la compañía apunta a abordar primero la asignación de costos y el control corporativo.
El servicio Amazon Bedrock se lanzó en abril, cuando Amazon Bedrock ofreció Amazon Titan (modelo base propio de AWS), así como modelos creados por stable.ai, AI21Labs y Anthropic.
Esta vez, en la cumbre de Nueva York, AWS anunció la incorporación de Cohere como proveedor de modelo básico, uniéndose al chatbot de modelo básico más reciente de Anthropic y Stability AI. El modelo de generación de texto de comando de Cohere está capacitado para seguir las indicaciones del usuario y devolver resúmenes, transcripciones y conversaciones, y la herramienta también puede extraer información y responder preguntas.
La plataforma AWS puede llamar al chip Nvidia H100
En la cumbre de Nueva York, AWS también presentó instancias P5 de Amazon EC2 con tecnología del chip H100 de Nvidia. En cierto modo, este es un hito importante en la cooperación de más de diez años entre AWS y Nvidia.
Una de las características notables de la GPU H100 es la optimización de Transformer, una tecnología clave empleada en modelos de lenguaje grandes. Las instancias Amazon EC2 P5 ofrecen 8 GPU NVIDIA H100 con 640 GB de memoria de GPU de gran ancho de banda, procesadores AMD EPYC de tercera generación, 2 TB de memoria del sistema y 30 TB de almacenamiento NVMe local para acelerar la IA generativa y las aplicaciones informáticas de alto rendimiento.
Amazon EC2 P5 reduce el tiempo de capacitación hasta 6 veces (de días a horas) en comparación con las instancias basadas en GPU de la generación anterior. Según AWS, este aumento de rendimiento reducirá los costos de capacitación en un 40 % en comparación con la generación anterior.
De hecho, desde el lanzamiento del primer chip Amazon Nitro en 2013, AWS es el primer proveedor de la nube en pisar chips de desarrollo propio. Ya tiene tres líneas de productos de chips de red, chips de servidor y autoaprendizaje de inteligencia artificial. fichas desarrolladas. A principios de 2023, se lanza Amazon Inferentia 2 especialmente diseñado (que puede admitir la inferencia distribuida a través de conexiones directas de ultra alta velocidad entre chips), que admite hasta 175 mil millones de parámetros, lo que lo convierte en un fuerte competidor para la inferencia de modelos a gran escala.
Con respecto a si le preocupaba que proporcionar el chip H100 de Nvidia reduciría el atractivo del chip de desarrollo propio de AWS, Ferromin respondió a Pengpai Technology ("Damos la bienvenida a la competencia. El hardware mejorará cada pocos años. Esta es la norma. Un gran problema, ¿verdad? ahora es que la IA generativa es bastante costosa, por lo que nadie la está poniendo realmente en cargas de trabajo de producción, todos todavía están en la etapa experimental. Una vez que realmente la pongan en cargas de trabajo de producción, se darán cuenta de que se genera el 90% del costo por eso. El mejor de los casos es que no pierdes dinero en cada llamada, en realidad ganas dinero. Para lograr esto, creo que necesitamos competir".
Ver originales
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
La nube de Amazon lanza la función de agente de IA, lo que convierte a la IA en un asistente en lugar de solo un chat
Fuente: El Papel
Reportero Shao Wen
La función Agentes de Amazon Bedrock permitirá a las empresas crear aplicaciones de IA que puedan automatizar tareas específicas, como hacer reservas en restaurantes, en lugar de solo obtener recomendaciones sobre dónde comer.
"Muchas personas están tan enfocadas en estos modelos y el tamaño de los modelos, pero creo que lo que realmente importa es cómo crear aplicaciones con ellos, y esa es una gran razón por la que lanzamos la función Agentes hoy".
En la Cumbre de Nueva York, una de las cumbres anuales de Amazon Web Services (AWS), varios anuncios se centraron en la inteligencia artificial generativa. "Esta tecnología ha llegado a un punto de inflexión", dijo Swami Sivasubramanian, vicepresidente global de bases de datos de tecnología en la nube, análisis de datos y aprendizaje automático de Amazon.
El 26 de julio, hora del este, en la Cumbre de Nueva York, AWS lanzó la función Agentes (agentes) de Amazon Bedrock, un servicio de inteligencia artificial generativa, para ayudar a los modelos básicos a completar tareas complejas. "Esto permitirá a las empresas crear aplicaciones de IA que puedan automatizar tareas específicas, como hacer reservas en restaurantes, en lugar de simplemente obtener recomendaciones sobre dónde comer", dijo Sivasubramanian.
Además, AWS también ha lanzado nuevas herramientas de inteligencia artificial, incluida la disponibilidad oficial del asistente de programación Amazon CodeWhisperer, Amazon HealthScribe, un nuevo servicio médico inteligente para generar registros clínicos después de las visitas de los pacientes, y Amazon Entity Resolution, un servicio de análisis. Al mismo tiempo, anunció que las instancias P5 de Amazon EC2 para aplicaciones informáticas de alto rendimiento y IA generativa acelerada están disponibles oficialmente.
Vasi Philomin, vicepresidente global de IA generativa en Amazon Cloud Technology, compartió con The Paper que, entre todos los lanzamientos, lo que más le preocupa y lo que más le enorgullece es la función de los agentes". Mucha gente se enfoca tanto en estos modelos y el tamaño de los modelos, pero creo que lo que es realmente importante es cómo creas aplicaciones a partir de ellos, y esa es una gran razón por la que lanzamos la función Agentes hoy".
Competencia de agentes de IA
Los modelos de IA generativa como GPT-4 de OpenAI o Llama 2 de Meta son poderosos, pero en realidad no pueden automatizar ciertas tareas para el usuario sin ayuda adicional, como complementos.
Amazon Bedrock ofrece una forma de crear aplicaciones de IA generativas a través de modelos preentrenados de empresas emergentes, así como de la propia tecnología de nube de Amazon, sin invertir en servidores. La función Agentes de Amazon Bedrock permite a las empresas utilizar sus propios datos para enseñar modelos subyacentes y luego crear otras aplicaciones para completar tareas. El desarrollador puede elegir qué modelo base usar, proporcionar algunas instrucciones y elegir qué datos lee el modelo.
Esto es similar al sistema de complementos recientemente introducido por OpenAI para GPT-4 y ChatGPT, que amplía las capacidades de los modelos al permitirles aprovechar API y bases de datos de terceros. De hecho, recientemente ha habido una tendencia hacia los modelos generativos "personalizados", con nuevas empresas como las herramientas de creación de inteligencia artificial contextual para aumentar los modelos con datos empresariales.
Por ejemplo, una empresa de viajes puede usar la inteligencia artificial generativa para proporcionar recomendaciones de viaje, luego crear otro agente (Agentes) para recibir el historial de viajes y los intereses del usuario, luego usar un agente para encontrar horarios de vuelos y finalmente crear un agente para Reservar el viaje seleccionado. vuelo.
AWS no es el único entusiasta de los agentes. En abril, el CEO de Meta, Mark Zuckerberg (Mark Zuckerberg), también les dijo a los inversionistas que tenían la oportunidad de llevar agentes de inteligencia artificial (Agentes) "a miles de millones de personas de una manera útil y significativa". En julio, el director ejecutivo de OpenAI, Sam Altman, se sumergió en los agentes de IA y cómo podrían implementarse mejor en una entrevista con The Atlantic.
Reuters informó en julio que la carrera por los agentes de inteligencia artificial "autónomos" (Agents) está arrasando en Silicon Valley. Cita una startup, Inflection AI, que recaudó $ 1.3 mil millones en fondos a fines de junio. Según sus fundadores en un podcast, la compañía está desarrollando un asistente personal que, según dice, puede actuar como mentor o manejar tareas como obtener créditos de vuelo y hoteles después de retrasos en los viajes.
El 26 de julio, Sivasubramanian dijo en una entrevista con los medios que clientes como Sony (SONY), Ryanair (Ryanair) y Sun Life (Sun Life) han probado Amazon Bedrock. Sivasubramanian dijo que Amazon Bedrock estará disponible para todos los clientes "pronto". Se negó a decir cuándo, y agregó que la compañía apunta a abordar primero la asignación de costos y el control corporativo.
El servicio Amazon Bedrock se lanzó en abril, cuando Amazon Bedrock ofreció Amazon Titan (modelo base propio de AWS), así como modelos creados por stable.ai, AI21Labs y Anthropic.
Esta vez, en la cumbre de Nueva York, AWS anunció la incorporación de Cohere como proveedor de modelo básico, uniéndose al chatbot de modelo básico más reciente de Anthropic y Stability AI. El modelo de generación de texto de comando de Cohere está capacitado para seguir las indicaciones del usuario y devolver resúmenes, transcripciones y conversaciones, y la herramienta también puede extraer información y responder preguntas.
La plataforma AWS puede llamar al chip Nvidia H100
En la cumbre de Nueva York, AWS también presentó instancias P5 de Amazon EC2 con tecnología del chip H100 de Nvidia. En cierto modo, este es un hito importante en la cooperación de más de diez años entre AWS y Nvidia.
Una de las características notables de la GPU H100 es la optimización de Transformer, una tecnología clave empleada en modelos de lenguaje grandes. Las instancias Amazon EC2 P5 ofrecen 8 GPU NVIDIA H100 con 640 GB de memoria de GPU de gran ancho de banda, procesadores AMD EPYC de tercera generación, 2 TB de memoria del sistema y 30 TB de almacenamiento NVMe local para acelerar la IA generativa y las aplicaciones informáticas de alto rendimiento.
Amazon EC2 P5 reduce el tiempo de capacitación hasta 6 veces (de días a horas) en comparación con las instancias basadas en GPU de la generación anterior. Según AWS, este aumento de rendimiento reducirá los costos de capacitación en un 40 % en comparación con la generación anterior.
De hecho, desde el lanzamiento del primer chip Amazon Nitro en 2013, AWS es el primer proveedor de la nube en pisar chips de desarrollo propio. Ya tiene tres líneas de productos de chips de red, chips de servidor y autoaprendizaje de inteligencia artificial. fichas desarrolladas. A principios de 2023, se lanza Amazon Inferentia 2 especialmente diseñado (que puede admitir la inferencia distribuida a través de conexiones directas de ultra alta velocidad entre chips), que admite hasta 175 mil millones de parámetros, lo que lo convierte en un fuerte competidor para la inferencia de modelos a gran escala.
Con respecto a si le preocupaba que proporcionar el chip H100 de Nvidia reduciría el atractivo del chip de desarrollo propio de AWS, Ferromin respondió a Pengpai Technology ("Damos la bienvenida a la competencia. El hardware mejorará cada pocos años. Esta es la norma. Un gran problema, ¿verdad? ahora es que la IA generativa es bastante costosa, por lo que nadie la está poniendo realmente en cargas de trabajo de producción, todos todavía están en la etapa experimental. Una vez que realmente la pongan en cargas de trabajo de producción, se darán cuenta de que se genera el 90% del costo por eso. El mejor de los casos es que no pierdes dinero en cada llamada, en realidad ganas dinero. Para lograr esto, creo que necesitamos competir".