Функція агентів Amazon Bedrock дозволить компаніям створювати програми штучного інтелекту, які можуть автоматизувати певні завдання, такі як бронювання столиків у ресторані, а не просто отримувати рекомендації щодо того, де поїсти.
«Багато людей так зосереджено на цих моделях і розмірі моделей, але я думаю, що справді важливо, як створювати програми з ними, і це є важливою причиною, чому ми випускаємо функцію агентів сьогодні».
26 липня за місцевим часом Свамі Сівасубраманян, глобальний віце-президент Amazon Cloud Technology Database, Data Analysis and Machine Learning, виступив на Нью-Йоркському саміті.
На Нью-Йоркському саміті, одному із щорічних самітів Amazon Web Services (AWS), кілька оголошень були зосереджені навколо генеративного штучного інтелекту. «Ця технологія досягла переломного моменту», — сказав Свамі Сівасубраманян, глобальний віце-президент Amazon з баз даних хмарних технологій, аналізу даних і машинного навчання.
26 липня за східним часом на Нью-йоркському саміті AWS запустила функцію Agents (агенти) Amazon Bedrock, генеративного AI-сервісу, щоб допомогти базовим моделям виконувати складні завдання. «Це дозволить компаніям створювати програми штучного інтелекту, які можуть автоматизувати конкретні завдання, такі як бронювання ресторану, а не просто отримувати рекомендації щодо того, де поїсти», — сказав Сівасубраманян.
Крім того, AWS також запустила нові інструменти штучного інтелекту, включно з офіційною доступністю помічника з програмування Amazon CodeWhisperer, Amazon HealthScribe, нової інтелектуальної медичної служби для створення клінічних записів після відвідувань пацієнтів, і служби аналізу Amazon Entity Resolution. У той же час було оголошено, що екземпляри Amazon EC2 P5 для прискореного генеративного штучного інтелекту та високопродуктивних обчислювальних програм офіційно доступні.
Васі Філомін, глобальний віце-президент відділу Generative AI в Amazon Cloud Technology, поділився з The Paper, що серед усіх випусків його найбільше хвилює та чим пишається функція агентів». Багато людей так сильно зосереджуються на цих моделях і розмір моделей, але я думаю, що справді важливо те, як ви створюєте програми з них, і це є важливою причиною, чому ми випускаємо функцію агентів сьогодні».
Змагання AI Agent
Генеративні моделі штучного інтелекту, такі як GPT-4 від OpenAI або Llama 2 від Meta, є потужними, але насправді вони не можуть автоматизувати певні завдання для користувача без додаткової допомоги, наприклад плагінів.
Amazon Bedrock пропонує спосіб створення генеративних програм штучного інтелекту за допомогою попередньо підготовлених моделей стартапів, а також самої хмарної технології Amazon, не інвестуючи в сервери. Функція агентів Amazon Bedrock дозволяє компаніям використовувати власні дані для навчання базовим моделям, а потім створювати інші програми для виконання завдань. Розробник може вибрати, яку базову модель використовувати, надати деякі інструкції та вибрати, які дані зчитує модель.
Це схоже на нещодавно представлену систему плагінів OpenAI для GPT-4 і ChatGPT, яка розширює можливості моделей, дозволяючи їм використовувати API і бази даних сторонніх розробників. Фактично, останнім часом спостерігається тенденція до «персоналізованих» генеративних моделей, коли такі стартапи, як інструменти створення контекстного штучного інтелекту, доповнюють моделі корпоративними даними.
Наприклад, туристична компанія може використовувати генеративний штучний інтелект для надання рекомендацій щодо подорожей, потім створити іншого агента (агентів), щоб отримувати історію подорожей і інтереси користувача, потім використовувати агента для пошуку розкладу рейсів і, нарешті, створити агента для бронювання вибраних вами місць. політ.
AWS не єдиний, хто захоплюється агентами. У квітні генеральний директор Meta Марк Цукерберг (Mark Zuckerberg) також повідомив інвесторам, що у них є можливість надати агентів штучного інтелекту (Agents) «мільярдам людей корисним і значущим способом». У липні генеральний директор OpenAI Сем Альтман в інтерв’ю The Atlantic поговорив про агентів штучного інтелекту та про те, як їх найкраще застосувати.
У липні агентство Reuters повідомило, що гонка за «автономними» агентами штучного інтелекту (Агенти) охоплює Кремнієву долину. Він цитує один стартап, Inflection AI, який наприкінці червня залучив 1,3 мільярда доларів фінансування. За словами її засновників у подкасті, компанія розробляє персонального помічника, який, за її словами, може виступати в ролі наставника або виконувати такі завдання, як отримання кредитів на авіаквитки та готелі після затримок у подорожі.
26 липня Сівасубраманян заявив в інтерв'ю ЗМІ, що такі клієнти, як Sony (SONY), Ryanair (Ryanair) і Sun Life (Sun Life), спробували Amazon Bedrock. Сівасубраманян сказав, що Amazon Bedrock «незабаром» стане доступним для всіх клієнтів. Він відмовився сказати, коли, додавши, що компанія насамперед прагне вирішити питання розподілу витрат і корпоративного контролю.
Сервіс Amazon Bedrock був запущений у квітні, коли Amazon Bedrock запропонував Amazon Titan (власну базову модель AWS), а також моделі, створені stable.ai, AI21Labs і Anthropic.
Цього разу на саміті в Нью-Йорку AWS оголосила про додавання Cohere як постачальника базової моделі, приєднавшись до останнього чат-бота базової моделі Anthropic and Stability AI. Модель генерації командного тексту Cohere навчена виконувати підказки користувача та повертати резюме, стенограми та розмови, а інструмент також може витягувати інформацію та відповідати на запитання.
Платформа AWS може викликати чіп Nvidia H100
На саміті в Нью-Йорку AWS також представила екземпляри Amazon EC2 P5 на базі чіпа Nvidia H100. У певному сенсі це важлива віха в більш ніж десятирічній співпраці AWS і Nvidia.
Однією з помітних особливостей графічного процесора H100 є оптимізація Transformer, ключової технології, яка використовується у великих мовних моделях. Екземпляри Amazon EC2 P5 пропонують 8 графічних процесорів NVIDIA H100 із 640 ГБ високошвидкісної пам’яті GPU, процесори AMD EPYC 3-го покоління, 2 ТБ системної пам’яті та 30 ТБ локального сховища NVMe для прискорення генеративного ШІ та високопродуктивних обчислювальних програм.
Amazon EC2 P5 скорочує час навчання до 6 разів (від днів до годин) порівняно з інсталяціями на основі GPU попереднього покоління. За даними AWS, це підвищення продуктивності зменшить витрати на навчання на 40% порівняно з попереднім поколінням.
Насправді, після запуску першого чіпа Amazon Nitro в 2013 році, AWS є першим хмарним постачальником чіпів власної розробки.Вона вже має три продуктові лінійки мережевих чіпів, чіпів для серверів і систем машинного навчання штучного інтелекту. розроблені мікросхеми. На початку 2023 року випущено спеціально створений Amazon Inferentia 2 (який може підтримувати розподілений логічний висновок через прямі надвисокошвидкісні з’єднання між мікросхемами), який підтримує до 175 мільярдів параметрів, що робить його сильним претендентом на широкомасштабні модельні висновки.
Щодо того, чи він хвилюється, що надання чіпа Nvidia H100 зменшить привабливість чіпа власної розробки AWS, Ферромін відповів Pengpai Technology: «Ми вітаємо конкуренцію. Апаратне забезпечення покращуватиметься кожні кілька років. Це норма. Правда, велика проблема. Зараз генеративний штучний інтелект є досить дорогим, тому ніхто насправді не використовує його у виробничих робочих навантаженнях, усі досі знаходяться на експериментальній стадії. Щойно вони справді впровадять його у виробничі робочі навантаження, вони зрозуміють, що 90% вартості генерується Найкращий сценарій полягає в тому, що ви не втрачаєте гроші під час кожного дзвінка, а насправді заробляєте гроші. Я вважаю, що для цього нам потрібно конкурувати».
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Хмара Amazon запускає функцію агента ШІ, роблячи ШІ помічником, а не просто чатом
Джерело: The Paper
Репортер Шао Вень
Функція агентів Amazon Bedrock дозволить компаніям створювати програми штучного інтелекту, які можуть автоматизувати певні завдання, такі як бронювання столиків у ресторані, а не просто отримувати рекомендації щодо того, де поїсти.
«Багато людей так зосереджено на цих моделях і розмірі моделей, але я думаю, що справді важливо, як створювати програми з ними, і це є важливою причиною, чому ми випускаємо функцію агентів сьогодні».
На Нью-Йоркському саміті, одному із щорічних самітів Amazon Web Services (AWS), кілька оголошень були зосереджені навколо генеративного штучного інтелекту. «Ця технологія досягла переломного моменту», — сказав Свамі Сівасубраманян, глобальний віце-президент Amazon з баз даних хмарних технологій, аналізу даних і машинного навчання.
26 липня за східним часом на Нью-йоркському саміті AWS запустила функцію Agents (агенти) Amazon Bedrock, генеративного AI-сервісу, щоб допомогти базовим моделям виконувати складні завдання. «Це дозволить компаніям створювати програми штучного інтелекту, які можуть автоматизувати конкретні завдання, такі як бронювання ресторану, а не просто отримувати рекомендації щодо того, де поїсти», — сказав Сівасубраманян.
Крім того, AWS також запустила нові інструменти штучного інтелекту, включно з офіційною доступністю помічника з програмування Amazon CodeWhisperer, Amazon HealthScribe, нової інтелектуальної медичної служби для створення клінічних записів після відвідувань пацієнтів, і служби аналізу Amazon Entity Resolution. У той же час було оголошено, що екземпляри Amazon EC2 P5 для прискореного генеративного штучного інтелекту та високопродуктивних обчислювальних програм офіційно доступні.
Васі Філомін, глобальний віце-президент відділу Generative AI в Amazon Cloud Technology, поділився з The Paper, що серед усіх випусків його найбільше хвилює та чим пишається функція агентів». Багато людей так сильно зосереджуються на цих моделях і розмір моделей, але я думаю, що справді важливо те, як ви створюєте програми з них, і це є важливою причиною, чому ми випускаємо функцію агентів сьогодні».
Змагання AI Agent
Генеративні моделі штучного інтелекту, такі як GPT-4 від OpenAI або Llama 2 від Meta, є потужними, але насправді вони не можуть автоматизувати певні завдання для користувача без додаткової допомоги, наприклад плагінів.
Amazon Bedrock пропонує спосіб створення генеративних програм штучного інтелекту за допомогою попередньо підготовлених моделей стартапів, а також самої хмарної технології Amazon, не інвестуючи в сервери. Функція агентів Amazon Bedrock дозволяє компаніям використовувати власні дані для навчання базовим моделям, а потім створювати інші програми для виконання завдань. Розробник може вибрати, яку базову модель використовувати, надати деякі інструкції та вибрати, які дані зчитує модель.
Це схоже на нещодавно представлену систему плагінів OpenAI для GPT-4 і ChatGPT, яка розширює можливості моделей, дозволяючи їм використовувати API і бази даних сторонніх розробників. Фактично, останнім часом спостерігається тенденція до «персоналізованих» генеративних моделей, коли такі стартапи, як інструменти створення контекстного штучного інтелекту, доповнюють моделі корпоративними даними.
Наприклад, туристична компанія може використовувати генеративний штучний інтелект для надання рекомендацій щодо подорожей, потім створити іншого агента (агентів), щоб отримувати історію подорожей і інтереси користувача, потім використовувати агента для пошуку розкладу рейсів і, нарешті, створити агента для бронювання вибраних вами місць. політ.
AWS не єдиний, хто захоплюється агентами. У квітні генеральний директор Meta Марк Цукерберг (Mark Zuckerberg) також повідомив інвесторам, що у них є можливість надати агентів штучного інтелекту (Agents) «мільярдам людей корисним і значущим способом». У липні генеральний директор OpenAI Сем Альтман в інтерв’ю The Atlantic поговорив про агентів штучного інтелекту та про те, як їх найкраще застосувати.
У липні агентство Reuters повідомило, що гонка за «автономними» агентами штучного інтелекту (Агенти) охоплює Кремнієву долину. Він цитує один стартап, Inflection AI, який наприкінці червня залучив 1,3 мільярда доларів фінансування. За словами її засновників у подкасті, компанія розробляє персонального помічника, який, за її словами, може виступати в ролі наставника або виконувати такі завдання, як отримання кредитів на авіаквитки та готелі після затримок у подорожі.
26 липня Сівасубраманян заявив в інтерв'ю ЗМІ, що такі клієнти, як Sony (SONY), Ryanair (Ryanair) і Sun Life (Sun Life), спробували Amazon Bedrock. Сівасубраманян сказав, що Amazon Bedrock «незабаром» стане доступним для всіх клієнтів. Він відмовився сказати, коли, додавши, що компанія насамперед прагне вирішити питання розподілу витрат і корпоративного контролю.
Сервіс Amazon Bedrock був запущений у квітні, коли Amazon Bedrock запропонував Amazon Titan (власну базову модель AWS), а також моделі, створені stable.ai, AI21Labs і Anthropic.
Цього разу на саміті в Нью-Йорку AWS оголосила про додавання Cohere як постачальника базової моделі, приєднавшись до останнього чат-бота базової моделі Anthropic and Stability AI. Модель генерації командного тексту Cohere навчена виконувати підказки користувача та повертати резюме, стенограми та розмови, а інструмент також може витягувати інформацію та відповідати на запитання.
Платформа AWS може викликати чіп Nvidia H100
На саміті в Нью-Йорку AWS також представила екземпляри Amazon EC2 P5 на базі чіпа Nvidia H100. У певному сенсі це важлива віха в більш ніж десятирічній співпраці AWS і Nvidia.
Однією з помітних особливостей графічного процесора H100 є оптимізація Transformer, ключової технології, яка використовується у великих мовних моделях. Екземпляри Amazon EC2 P5 пропонують 8 графічних процесорів NVIDIA H100 із 640 ГБ високошвидкісної пам’яті GPU, процесори AMD EPYC 3-го покоління, 2 ТБ системної пам’яті та 30 ТБ локального сховища NVMe для прискорення генеративного ШІ та високопродуктивних обчислювальних програм.
Amazon EC2 P5 скорочує час навчання до 6 разів (від днів до годин) порівняно з інсталяціями на основі GPU попереднього покоління. За даними AWS, це підвищення продуктивності зменшить витрати на навчання на 40% порівняно з попереднім поколінням.
Насправді, після запуску першого чіпа Amazon Nitro в 2013 році, AWS є першим хмарним постачальником чіпів власної розробки.Вона вже має три продуктові лінійки мережевих чіпів, чіпів для серверів і систем машинного навчання штучного інтелекту. розроблені мікросхеми. На початку 2023 року випущено спеціально створений Amazon Inferentia 2 (який може підтримувати розподілений логічний висновок через прямі надвисокошвидкісні з’єднання між мікросхемами), який підтримує до 175 мільярдів параметрів, що робить його сильним претендентом на широкомасштабні модельні висновки.
Щодо того, чи він хвилюється, що надання чіпа Nvidia H100 зменшить привабливість чіпа власної розробки AWS, Ферромін відповів Pengpai Technology: «Ми вітаємо конкуренцію. Апаратне забезпечення покращуватиметься кожні кілька років. Це норма. Правда, велика проблема. Зараз генеративний штучний інтелект є досить дорогим, тому ніхто насправді не використовує його у виробничих робочих навантаженнях, усі досі знаходяться на експериментальній стадії. Щойно вони справді впровадять його у виробничі робочі навантаження, вони зрозуміють, що 90% вартості генерується Найкращий сценарій полягає в тому, що ви не втрачаєте гроші під час кожного дзвінка, а насправді заробляєте гроші. Я вважаю, що для цього нам потрібно конкурувати».