O recurso Agentes da Amazon Bedrock permitirá que as empresas criem aplicativos de IA que podem automatizar tarefas específicas, como fazer reservas em restaurantes, em vez de apenas obter recomendações sobre onde comer.
"Muitas pessoas estão tão focadas nesses modelos e no tamanho dos modelos, mas acho que o que realmente importa é como construir aplicativos com eles, e esse é um grande motivo pelo qual estamos lançando o recurso Agents hoje."
Em 26 de julho, horário local, Swami Sivasubramanian, vice-presidente global de banco de dados de tecnologia em nuvem da Amazon, análise de dados e aprendizado de máquina, falou no New York Summit.
No New York Summit, um dos encontros anuais da Amazon Web Services (AWS), vários anúncios centraram-se na inteligência artificial generativa. “Esta tecnologia atingiu um ponto crítico”, disse Swami Sivasubramanian, vice-presidente global de bancos de dados de tecnologia em nuvem, análise de dados e aprendizado de máquina da Amazon.
Em 26 de julho, horário do leste, no New York Summit, a AWS lançou a função Agents (agentes) do Amazon Bedrock, um serviço generativo de IA, para ajudar modelos básicos a concluir tarefas complexas. “Isso permitirá que as empresas criem aplicativos de IA que podem automatizar tarefas específicas, como fazer reservas em restaurantes, em vez de apenas obter recomendações sobre onde comer”, disse Sivasubramanian.
Além disso, a AWS também lançou novas ferramentas de inteligência artificial, incluindo a disponibilização oficial do assistente de programação Amazon CodeWhisperer, Amazon HealthScribe, um novo serviço médico inteligente para geração de registros clínicos após visitas de pacientes, e Amazon Entity Resolution, um serviço de análise. Ao mesmo tempo, anunciou que as instâncias P5 do Amazon EC2 para IA generativa acelerada e aplicativos de computação de alto desempenho estão oficialmente disponíveis.
Vasi Philomin, vice-presidente global de IA generativa da Amazon Cloud Technology, compartilhou com o The Paper que, entre todos os lançamentos, o que mais o preocupa e o deixa mais orgulhoso é a função de Agentes. o tamanho dos modelos, mas acho que o que realmente importa é como você cria aplicativos a partir deles, e esse é um grande motivo pelo qual estamos lançando o recurso Agents hoje."
Competição de agente de IA
Modelos de IA generativa, como o GPT-4 da OpenAI ou o Llama 2 da Meta, são poderosos, mas não podem realmente automatizar certas tarefas para o usuário sem ajuda adicional, como plug-ins.
O Amazon Bedrock oferece uma maneira de criar aplicativos de IA generativos por meio de modelos pré-treinados de startups, bem como da própria tecnologia de nuvem da Amazon, sem investir em servidores. O recurso Agentes da Amazon Bedrock permite que as empresas usem seus próprios dados para ensinar modelos subjacentes e, em seguida, criar outros aplicativos para concluir tarefas. O desenvolvedor pode escolher qual modelo base usar, fornecer algumas instruções e escolher quais dados o modelo lê.
Isso é semelhante ao sistema de plug-in introduzido recentemente pela OpenAI para GPT-4 e ChatGPT, que estende os recursos dos modelos, permitindo que eles aproveitem APIs e bancos de dados de terceiros. Na verdade, recentemente houve uma tendência para modelos generativos "personalizados", com startups como ferramentas de construção de IA contextual para aumentar modelos com dados corporativos.
Por exemplo, uma empresa de viagens pode usar inteligência artificial generativa para fornecer recomendações de viagens, depois criar outro agente (Agentes) para receber o histórico e os interesses de viagens do usuário, usar um agente para encontrar horários de voos e, finalmente, criar um agente para reservar o seu selecionado voo.
A AWS não é a única entusiasmada com os Agentes. Em abril, o CEO da Meta, Mark Zuckerberg (Mark Zuckerberg), também disse aos investidores que eles têm a oportunidade de trazer agentes de inteligência artificial (agentes) "para bilhões de pessoas de maneira útil e significativa". Em julho, o CEO da OpenAI, Sam Altman, mergulhou nos agentes de IA e como eles podem ser melhor implementados em uma entrevista ao The Atlantic.
A Reuters informou em julho que a corrida por agentes de inteligência artificial "autônomos" (Agents) está varrendo o Vale do Silício. Ele cita uma startup, a Inflection AI, que levantou US$ 1,3 bilhão em financiamento no final de junho. De acordo com seus fundadores em um podcast, a empresa está desenvolvendo um assistente pessoal que, segundo ela, pode atuar como mentor ou lidar com tarefas como ganhar créditos de voo e hotéis após atrasos nas viagens.
Em 26 de julho, Sivasubramanian disse em entrevista à mídia que clientes como Sony (SONY), Ryanair (Ryanair) e Sun Life (Sun Life) experimentaram o Amazon Bedrock. Sivasubramanian disse que o Amazon Bedrock estará disponível para todos os clientes "em breve". Ele se recusou a dizer quando, acrescentando que a empresa visa abordar a alocação de custos e o controle corporativo primeiro.
O serviço Amazon Bedrock foi lançado em abril, quando a Amazon Bedrock ofereceu o Amazon Titan (modelo base da própria AWS), bem como modelos criados por stable.ai, AI21Labs e Anthropic.
Desta vez, na cúpula de Nova York, a AWS anunciou a adição da Cohere como fornecedora de modelo básico, juntando-se ao mais recente chatbot de modelo básico da Anthropic and Stability AI. O modelo de geração de texto de comando do Cohere é treinado para seguir as solicitações do usuário e retornar resumos, transcrições e conversas, e a ferramenta também pode extrair informações e responder a perguntas.
A plataforma AWS pode chamar o chip Nvidia H100
Na cúpula de Nova York, a AWS também revelou as instâncias P5 do Amazon EC2 equipadas com o chip H100 da Nvidia. De certa forma, este é um marco importante na cooperação de mais de dez anos entre a AWS e a Nvidia.
Um dos recursos notáveis da GPU H100 é a otimização do Transformer, uma tecnologia chave empregada em modelos de linguagem grande. As instâncias P5 do Amazon EC2 oferecem 8 GPUs NVIDIA H100 com 640 GB de memória de GPU de alta largura de banda, processadores AMD EPYC de 3ª geração, 2 TB de memória do sistema e 30 TB de armazenamento NVMe local para acelerar a IA generativa e aplicativos de computação de alto desempenho.
O Amazon EC2 P5 reduz o tempo de treinamento em até 6x (de dias para horas) em comparação com as instâncias baseadas em GPU da geração anterior. Segundo a AWS, esse aumento de desempenho reduzirá os custos de treinamento em 40% em comparação com a geração anterior.
Na verdade, desde o lançamento do primeiro chip Amazon Nitro em 2013, a AWS é o primeiro fornecedor de nuvem a pisar em chips autodesenvolvidos. fichas desenvolvidas. No início de 2023, o Amazon Inferentia 2 desenvolvido especificamente (que pode oferecer suporte à inferência distribuída por meio de conexões diretas de velocidade ultra-alta entre chips) é lançado, suportando até 175 bilhões de parâmetros, tornando-o um forte candidato à inferência de modelo em grande escala.
Sobre se ele estava preocupado que fornecer o chip H100 da Nvidia reduziria a atratividade do chip autodesenvolvido da AWS, Ferromin respondeu à Pengpai Technology ("Congratulamo-nos com a concorrência. O hardware ficará melhor a cada poucos anos. Esta é a norma. Um grande problema certo agora é que a IA generativa é muito cara, e é por isso que ninguém a está realmente colocando em cargas de trabalho de produção, todos ainda estão no estágio experimental. Depois de realmente colocá-la em cargas de trabalho de produção, eles perceberão que 90% do custo é gerado por isso. O melhor cenário é que você não perde dinheiro em todas as chamadas, você realmente ganha dinheiro. Para conseguir isso, acho que precisamos competir.
Ver original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
A nuvem da Amazon lança a função de agente de IA, tornando a IA um assistente em vez de apenas um bate-papo
Fonte: O Papel See More
Repórter Shao Wen
O recurso Agentes da Amazon Bedrock permitirá que as empresas criem aplicativos de IA que podem automatizar tarefas específicas, como fazer reservas em restaurantes, em vez de apenas obter recomendações sobre onde comer.
"Muitas pessoas estão tão focadas nesses modelos e no tamanho dos modelos, mas acho que o que realmente importa é como construir aplicativos com eles, e esse é um grande motivo pelo qual estamos lançando o recurso Agents hoje."
No New York Summit, um dos encontros anuais da Amazon Web Services (AWS), vários anúncios centraram-se na inteligência artificial generativa. “Esta tecnologia atingiu um ponto crítico”, disse Swami Sivasubramanian, vice-presidente global de bancos de dados de tecnologia em nuvem, análise de dados e aprendizado de máquina da Amazon.
Em 26 de julho, horário do leste, no New York Summit, a AWS lançou a função Agents (agentes) do Amazon Bedrock, um serviço generativo de IA, para ajudar modelos básicos a concluir tarefas complexas. “Isso permitirá que as empresas criem aplicativos de IA que podem automatizar tarefas específicas, como fazer reservas em restaurantes, em vez de apenas obter recomendações sobre onde comer”, disse Sivasubramanian.
Além disso, a AWS também lançou novas ferramentas de inteligência artificial, incluindo a disponibilização oficial do assistente de programação Amazon CodeWhisperer, Amazon HealthScribe, um novo serviço médico inteligente para geração de registros clínicos após visitas de pacientes, e Amazon Entity Resolution, um serviço de análise. Ao mesmo tempo, anunciou que as instâncias P5 do Amazon EC2 para IA generativa acelerada e aplicativos de computação de alto desempenho estão oficialmente disponíveis.
Vasi Philomin, vice-presidente global de IA generativa da Amazon Cloud Technology, compartilhou com o The Paper que, entre todos os lançamentos, o que mais o preocupa e o deixa mais orgulhoso é a função de Agentes. o tamanho dos modelos, mas acho que o que realmente importa é como você cria aplicativos a partir deles, e esse é um grande motivo pelo qual estamos lançando o recurso Agents hoje."
Competição de agente de IA
Modelos de IA generativa, como o GPT-4 da OpenAI ou o Llama 2 da Meta, são poderosos, mas não podem realmente automatizar certas tarefas para o usuário sem ajuda adicional, como plug-ins.
O Amazon Bedrock oferece uma maneira de criar aplicativos de IA generativos por meio de modelos pré-treinados de startups, bem como da própria tecnologia de nuvem da Amazon, sem investir em servidores. O recurso Agentes da Amazon Bedrock permite que as empresas usem seus próprios dados para ensinar modelos subjacentes e, em seguida, criar outros aplicativos para concluir tarefas. O desenvolvedor pode escolher qual modelo base usar, fornecer algumas instruções e escolher quais dados o modelo lê.
Isso é semelhante ao sistema de plug-in introduzido recentemente pela OpenAI para GPT-4 e ChatGPT, que estende os recursos dos modelos, permitindo que eles aproveitem APIs e bancos de dados de terceiros. Na verdade, recentemente houve uma tendência para modelos generativos "personalizados", com startups como ferramentas de construção de IA contextual para aumentar modelos com dados corporativos.
Por exemplo, uma empresa de viagens pode usar inteligência artificial generativa para fornecer recomendações de viagens, depois criar outro agente (Agentes) para receber o histórico e os interesses de viagens do usuário, usar um agente para encontrar horários de voos e, finalmente, criar um agente para reservar o seu selecionado voo.
A AWS não é a única entusiasmada com os Agentes. Em abril, o CEO da Meta, Mark Zuckerberg (Mark Zuckerberg), também disse aos investidores que eles têm a oportunidade de trazer agentes de inteligência artificial (agentes) "para bilhões de pessoas de maneira útil e significativa". Em julho, o CEO da OpenAI, Sam Altman, mergulhou nos agentes de IA e como eles podem ser melhor implementados em uma entrevista ao The Atlantic.
A Reuters informou em julho que a corrida por agentes de inteligência artificial "autônomos" (Agents) está varrendo o Vale do Silício. Ele cita uma startup, a Inflection AI, que levantou US$ 1,3 bilhão em financiamento no final de junho. De acordo com seus fundadores em um podcast, a empresa está desenvolvendo um assistente pessoal que, segundo ela, pode atuar como mentor ou lidar com tarefas como ganhar créditos de voo e hotéis após atrasos nas viagens.
Em 26 de julho, Sivasubramanian disse em entrevista à mídia que clientes como Sony (SONY), Ryanair (Ryanair) e Sun Life (Sun Life) experimentaram o Amazon Bedrock. Sivasubramanian disse que o Amazon Bedrock estará disponível para todos os clientes "em breve". Ele se recusou a dizer quando, acrescentando que a empresa visa abordar a alocação de custos e o controle corporativo primeiro.
O serviço Amazon Bedrock foi lançado em abril, quando a Amazon Bedrock ofereceu o Amazon Titan (modelo base da própria AWS), bem como modelos criados por stable.ai, AI21Labs e Anthropic.
Desta vez, na cúpula de Nova York, a AWS anunciou a adição da Cohere como fornecedora de modelo básico, juntando-se ao mais recente chatbot de modelo básico da Anthropic and Stability AI. O modelo de geração de texto de comando do Cohere é treinado para seguir as solicitações do usuário e retornar resumos, transcrições e conversas, e a ferramenta também pode extrair informações e responder a perguntas.
A plataforma AWS pode chamar o chip Nvidia H100
Na cúpula de Nova York, a AWS também revelou as instâncias P5 do Amazon EC2 equipadas com o chip H100 da Nvidia. De certa forma, este é um marco importante na cooperação de mais de dez anos entre a AWS e a Nvidia.
Um dos recursos notáveis da GPU H100 é a otimização do Transformer, uma tecnologia chave empregada em modelos de linguagem grande. As instâncias P5 do Amazon EC2 oferecem 8 GPUs NVIDIA H100 com 640 GB de memória de GPU de alta largura de banda, processadores AMD EPYC de 3ª geração, 2 TB de memória do sistema e 30 TB de armazenamento NVMe local para acelerar a IA generativa e aplicativos de computação de alto desempenho.
O Amazon EC2 P5 reduz o tempo de treinamento em até 6x (de dias para horas) em comparação com as instâncias baseadas em GPU da geração anterior. Segundo a AWS, esse aumento de desempenho reduzirá os custos de treinamento em 40% em comparação com a geração anterior.
Na verdade, desde o lançamento do primeiro chip Amazon Nitro em 2013, a AWS é o primeiro fornecedor de nuvem a pisar em chips autodesenvolvidos. fichas desenvolvidas. No início de 2023, o Amazon Inferentia 2 desenvolvido especificamente (que pode oferecer suporte à inferência distribuída por meio de conexões diretas de velocidade ultra-alta entre chips) é lançado, suportando até 175 bilhões de parâmetros, tornando-o um forte candidato à inferência de modelo em grande escala.
Sobre se ele estava preocupado que fornecer o chip H100 da Nvidia reduziria a atratividade do chip autodesenvolvido da AWS, Ferromin respondeu à Pengpai Technology ("Congratulamo-nos com a concorrência. O hardware ficará melhor a cada poucos anos. Esta é a norma. Um grande problema certo agora é que a IA generativa é muito cara, e é por isso que ninguém a está realmente colocando em cargas de trabalho de produção, todos ainda estão no estágio experimental. Depois de realmente colocá-la em cargas de trabalho de produção, eles perceberão que 90% do custo é gerado por isso. O melhor cenário é que você não perde dinheiro em todas as chamadas, você realmente ganha dinheiro. Para conseguir isso, acho que precisamos competir.