1 В то время как Microsoft и Google лидируют в области генеративного искусственного интеллекта, Amazon также догоняет их.Сообщается, что компания тайно разработала два чипа в Остине, штат Техас, для обучения и ускорения генеративного искусственного интеллекта.
2 Две специальные микросхемы, разработанные Amazon, Inentia и Trainium, предлагают клиентам Amazon Cloud Services AWS альтернативу все более труднодоступным графическим процессорам Nvidia для обучения больших языковых моделей.
3 Доминирование AWS в области облачных вычислений является большим преимуществом для Amazon. AWS — крупнейший в мире поставщик облачных вычислений, на долю которого в 2022 году приходилось 40% рынка.
4 Аналитики считают, что специализированные чипы Amazon в долгосрочной перспективе могут дать компании преимущество в области генеративного искусственного интеллекта.
В двух небольших комнатах в неприметном офисном здании в Остине, штат Техас, несколько сотрудников Amazon проектируют два типа микрочипов для обучения и ускорения генеративного искусственного интеллекта. Два пользовательских чипа под кодовым названием Inentia и Trainium предлагают клиентам Amazon Web Services альтернативу графическим процессорам Nvidia для обучения больших языковых моделей. Сейчас становится все труднее и дороже приобретать графические процессоры Nvidia.
«Весь мир хочет больше чипов для генеративного ИИ, будь то графические процессоры или собственные разработки Amazon», — сказал в июньском интервью генеральный директор AWS Адам Селипски. клиентам эту возможность, которую все хотят».
Однако другие компании двигались быстрее, вливали больше денег и брали взаймы у бума ИИ. Когда OpenAI запустила ChatGPT в ноябре прошлого года, Microsoft привлекла много внимания за размещение взрывного чат-бота с искусственным интеллектом. Сообщается, что Microsoft инвестировала в OpenAI 13 миллиардов долларов. Microsoft быстро добавила генеративные модели искусственного интеллекта в свои продукты и интегрировала их в Bing в феврале.
В том же месяце Google запустила собственную большую языковую модель Bard, а позже инвестировала 300 миллионов долларов в Anthropic, конкурента OpenAI.
Только в апреле этого года Amazon анонсировала свою собственную большую языковую модель Titan и в то же время запустила сервис под названием Bedrock, чтобы помочь разработчикам использовать генеративный искусственный интеллект для расширения возможностей программного обеспечения.
«Amazon не привыкла гоняться за рынками, она привыкла их создавать, — сказал Чираг Декате, вице-президент и аналитик Gartner. теперь я пытаюсь наверстать упущенное».
Meta также недавно выпустила свою собственную модель большого языка Llama 2, конкурента ChatGPT с открытым исходным кодом, который теперь доступен для тестирования в публичном облаке Microsoft Azure.
Чип представляет «Истинное отличие»
По словам Декейтера, в долгосрочной перспективе специальные чипы Amazon могут дать ей преимущество в области генеративного искусственного интеллекта. «Я думаю, что реальная разница заключается в технических возможностях, которыми они обладают, потому что у Microsoft нет Trainium или Interentia», — пояснил он.
Изображение: AWS начала производить собственный чип Nitro в 2013 году, который в настоящее время является крупнейшим чипом AWS
Еще в 2013 году AWS незаметно начала производить нестандартные чипы с помощью специализированного оборудования под названием Nitro. Amazon сообщила, что в настоящее время Nitro является чипом AWS с наибольшей емкостью, и на каждом сервере AWS есть как минимум один чип с общим использованием более 20 миллионов.
В 2015 году Amazon приобрела Annapurna Labs, израильский стартап по производству микросхем. Затем в 2018 году Amazon выпустила Graviton, серверный чип, основанный на архитектуре Arm британского разработчика чипов, конкурента процессоров x86 от таких гигантов, как AMD и Nvidia.
«На чипы Arm может приходиться до 10 % от общего объема продаж серверов, и значительная часть этого объема будет поступать от Amazon, — говорит Стейси Расгон, старший аналитик Bernstein Research, — так что в отношении процессоров они сделали довольно много. хорошая работа."
Также в 2018 году Amazon представила чипы, ориентированные на искусственный интеллект. Два года назад Google выпустила свой первый Tensor Processor Unit (TPU). Microsoft еще не анонсировала Athena, чип искусственного интеллекта, который она разрабатывает вместе с AMD.
У Amazon есть лаборатория на чипе в Остине, штат Техас, где она разрабатывает и тестирует Trainium и Inferentia. Мэтт Вуд, вице-президент компании по продуктам, объяснил, что делают эти два чипа.
Он сказал: «Машинное обучение разделено на эти два разных этапа. Итак, вам нужно обучить модели машинного обучения, а затем выполнить вывод на этих обученных моделях. По сравнению с другими способами обучения моделей машинного обучения на AWS, Tradium в цене/ коэффициент производительности был улучшен примерно на 50%».
Trainium дебютирует в 2021 году после запуска Interentia второго поколения в 2019 году. Interentia позволяет клиентам «предоставлять недорогие, высокопроизводительные выводы машинного обучения с малой задержкой, то есть все прогнозы, которые вы получаете, когда вводите сигнал в генеративную модель ИИ, все это обрабатывается, а затем вы получаете ответ, — сказал Вуд.
Однако на данный момент графические процессоры Nvidia по-прежнему являются бесспорным королем, когда речь идет о моделях обучения. В июле AWS представила новое оборудование для ускорения ИИ на базе Nvidia H100.
«За последние 15 лет Nvidia построила вокруг своих чипов огромную программную экосистему, которой нет ни у одной другой компании. Прямо сейчас крупнейшим победителем в области ИИ является Nvidia», — сказал Расгон.
Изображение: изготовленные на заказ чипы Amazon, слева направо Inferentia, Trainium и Graviton
У Amazon есть преимущество облачных вычислений
Однако доминирование AWS в сфере облачных вычислений является большим преимуществом для Amazon.
«Amazon не нуждается в дополнительном внимании, у компании уже есть очень мощная облачная база. Все, что им нужно сделать, это выяснить, как использовать генеративный искусственный интеллект, чтобы сделать текущие клиенты расширяющимися в движения по созданию ценности».
При выборе генеративного искусственного интеллекта между Amazon, Google и Microsoft миллионы клиентов AWS могут быть привлечены к Amazon, потому что они уже знакомы с Amazon и запускают другие приложения и хранят там данные.
«Вопрос в скорости, — пояснил Май-Лан Томсен Буковец, вице-президент по технологиям AWS, — насколько быстро эти компании смогут разрабатывать приложения для генеративного ИИ. инструменты вычислений и машинного обучения, которые мы предоставляем».
Согласно данным, предоставленным Gartner, AWS является крупнейшим в мире поставщиком облачных вычислений, на долю которого в 2022 году приходилось 40% рынка. Хотя операционная прибыль Amazon снижалась по сравнению с аналогичным периодом прошлого года в течение трех кварталов подряд, на долю AWS по-прежнему приходилось 70% операционной прибыли Amazon в размере 7,7 млрд долларов США во втором квартале. Исторически у AWS была гораздо более высокая операционная прибыль, чем у Google Cloud.
Кроме того, у AWS есть растущий портфель инструментов для разработчиков, ориентированных на генеративный искусственный интеллект. Свами Сивасубраманиан, вице-президент AWS по базам данных, аналитике и машинному обучению, сказал: «Давайте повернем время вспять, даже до ChatGPT. Это не то, что было после этого. Мы внезапно в спешке придумали план, потому что вы не можете разработать новый чип так быстро, не говоря уже о том, чтобы создать базовую услугу за два-три месяца».
Bedrock предоставляет клиентам AWS доступ к большим языковым моделям, разработанным Anthropic, Stability AI, AI21 Labs и Amazon Titan. «Мы не верим, что одна модель будет править миром, мы хотим, чтобы у наших клиентов были самые современные модели от нескольких поставщиков, потому что они выберут правильный инструмент для правильной работы», — сказал Сивасубраманян.
На фото: в лаборатории AWS Chip Lab в Остине, штат Техас, сотрудники Amazon разрабатывают специальные чипы искусственного интеллекта
Одним из новейших предложений Amazon в области искусственного интеллекта является сервис AWS HealthScribe, запущенный в июле и помогающий врачам составлять отчеты о посещениях пациентов с помощью генеративного искусственного интеллекта. У Amazon также есть центр машинного обучения SageMaker, который предоставляет алгоритмы, модели и другие услуги.
Еще одним важным инструментом является CodeWhisperer, который, по словам Amazon, позволяет разработчикам выполнять задачи в среднем на 57% быстрее. В прошлом году Microsoft также сообщила, что ее инструмент кодирования GitHub Copilot повысил производительность.
В июне этого года AWS объявила о создании инновационного центра генеративного искусственного интеллекта стоимостью 100 миллионов долларов. Генеральный директор AWS Селипски сказал: «У нас есть много клиентов, которым нужна технология генеративного искусственного интеллекта, но они не обязательно знают, что это значит для них в контексте их собственного бизнеса. Поэтому мы представим решения архитекторам решений, инженерам, стратегам, и специалисты по данным, работающие с ними один на один».
Генеральный директор Ясси лично руководил командой по созданию большой языковой модели
Хотя до сих пор AWS сосредоточивалась в основном на разработке инструментов, а не на создании конкурента ChatGPT, недавно просочившаяся внутренняя электронная почта показала, что генеральный директор Amazon Энди Джасси непосредственно руководит новой центральной командой, которая также создает масштабируемые модели для больших языков.
Во время отчета о прибылях и убытках за второй квартал Ясси сказал, что «значительная часть» бизнеса AWS в настоящее время управляется искусственным интеллектом и более чем 20 сервисами машинного обучения, которые он поддерживает, клиентами которых являются Philips, 3M, Old Mutual и HSBC.
Взрыв искусственного интеллекта принес с собой множество проблем с безопасностью, поскольку компании беспокоятся о том, что сотрудники помещают конфиденциальную информацию в обучающие данные, используемые общедоступными моделями большого языка.
«Я не могу сказать вам, сколько компаний из списка Fortune 500, с которыми я разговаривал, отключили ChatGPT, — сказал Селипски, генеральный директор AWS, — Все, что вы делаете, какую бы модель вы ни использовали, будет происходить в вашей собственной изолированной виртуальной частной облачной среде. Он будет зашифрован, у него будет такой же контроль доступа AWS».
На данный момент Amazon только ускоряет продвижение генеративного ИИ, утверждая, что «более 100 000» клиентов в настоящее время используют машинное обучение на AWS. Хотя это небольшая часть миллионов клиентов AWS, аналитики говорят, что это может измениться.
«Мы не видим компаний, говорящих: «О, подождите, Microsoft уже лидирует в области генеративного ИИ, давайте начнем, давайте изменим нашу стратегию инфраструктуры, перенесем все в Microsoft. Если вы уже являетесь клиентом Amazon, вы, вероятно, изучите Экосистема Amazon в более широком смысле» (Текст/Цзинлу)
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Делая все возможное для создания собственных чипов AWS, Amazon гонится за Microsoft и Google в области генеративного ИИ
Сосредоточиться на
В двух небольших комнатах в неприметном офисном здании в Остине, штат Техас, несколько сотрудников Amazon проектируют два типа микрочипов для обучения и ускорения генеративного искусственного интеллекта. Два пользовательских чипа под кодовым названием Inentia и Trainium предлагают клиентам Amazon Web Services альтернативу графическим процессорам Nvidia для обучения больших языковых моделей. Сейчас становится все труднее и дороже приобретать графические процессоры Nvidia.
«Весь мир хочет больше чипов для генеративного ИИ, будь то графические процессоры или собственные разработки Amazon», — сказал в июньском интервью генеральный директор AWS Адам Селипски. клиентам эту возможность, которую все хотят».
Однако другие компании двигались быстрее, вливали больше денег и брали взаймы у бума ИИ. Когда OpenAI запустила ChatGPT в ноябре прошлого года, Microsoft привлекла много внимания за размещение взрывного чат-бота с искусственным интеллектом. Сообщается, что Microsoft инвестировала в OpenAI 13 миллиардов долларов. Microsoft быстро добавила генеративные модели искусственного интеллекта в свои продукты и интегрировала их в Bing в феврале.
В том же месяце Google запустила собственную большую языковую модель Bard, а позже инвестировала 300 миллионов долларов в Anthropic, конкурента OpenAI.
Только в апреле этого года Amazon анонсировала свою собственную большую языковую модель Titan и в то же время запустила сервис под названием Bedrock, чтобы помочь разработчикам использовать генеративный искусственный интеллект для расширения возможностей программного обеспечения.
«Amazon не привыкла гоняться за рынками, она привыкла их создавать, — сказал Чираг Декате, вице-президент и аналитик Gartner. теперь я пытаюсь наверстать упущенное».
Meta также недавно выпустила свою собственную модель большого языка Llama 2, конкурента ChatGPT с открытым исходным кодом, который теперь доступен для тестирования в публичном облаке Microsoft Azure.
Чип представляет «Истинное отличие»
По словам Декейтера, в долгосрочной перспективе специальные чипы Amazon могут дать ей преимущество в области генеративного искусственного интеллекта. «Я думаю, что реальная разница заключается в технических возможностях, которыми они обладают, потому что у Microsoft нет Trainium или Interentia», — пояснил он.
Еще в 2013 году AWS незаметно начала производить нестандартные чипы с помощью специализированного оборудования под названием Nitro. Amazon сообщила, что в настоящее время Nitro является чипом AWS с наибольшей емкостью, и на каждом сервере AWS есть как минимум один чип с общим использованием более 20 миллионов.
В 2015 году Amazon приобрела Annapurna Labs, израильский стартап по производству микросхем. Затем в 2018 году Amazon выпустила Graviton, серверный чип, основанный на архитектуре Arm британского разработчика чипов, конкурента процессоров x86 от таких гигантов, как AMD и Nvidia.
«На чипы Arm может приходиться до 10 % от общего объема продаж серверов, и значительная часть этого объема будет поступать от Amazon, — говорит Стейси Расгон, старший аналитик Bernstein Research, — так что в отношении процессоров они сделали довольно много. хорошая работа."
Также в 2018 году Amazon представила чипы, ориентированные на искусственный интеллект. Два года назад Google выпустила свой первый Tensor Processor Unit (TPU). Microsoft еще не анонсировала Athena, чип искусственного интеллекта, который она разрабатывает вместе с AMD.
У Amazon есть лаборатория на чипе в Остине, штат Техас, где она разрабатывает и тестирует Trainium и Inferentia. Мэтт Вуд, вице-президент компании по продуктам, объяснил, что делают эти два чипа.
Он сказал: «Машинное обучение разделено на эти два разных этапа. Итак, вам нужно обучить модели машинного обучения, а затем выполнить вывод на этих обученных моделях. По сравнению с другими способами обучения моделей машинного обучения на AWS, Tradium в цене/ коэффициент производительности был улучшен примерно на 50%».
Trainium дебютирует в 2021 году после запуска Interentia второго поколения в 2019 году. Interentia позволяет клиентам «предоставлять недорогие, высокопроизводительные выводы машинного обучения с малой задержкой, то есть все прогнозы, которые вы получаете, когда вводите сигнал в генеративную модель ИИ, все это обрабатывается, а затем вы получаете ответ, — сказал Вуд.
Однако на данный момент графические процессоры Nvidia по-прежнему являются бесспорным королем, когда речь идет о моделях обучения. В июле AWS представила новое оборудование для ускорения ИИ на базе Nvidia H100.
«За последние 15 лет Nvidia построила вокруг своих чипов огромную программную экосистему, которой нет ни у одной другой компании. Прямо сейчас крупнейшим победителем в области ИИ является Nvidia», — сказал Расгон.
У Amazon есть преимущество облачных вычислений
Однако доминирование AWS в сфере облачных вычислений является большим преимуществом для Amazon.
«Amazon не нуждается в дополнительном внимании, у компании уже есть очень мощная облачная база. Все, что им нужно сделать, это выяснить, как использовать генеративный искусственный интеллект, чтобы сделать текущие клиенты расширяющимися в движения по созданию ценности».
При выборе генеративного искусственного интеллекта между Amazon, Google и Microsoft миллионы клиентов AWS могут быть привлечены к Amazon, потому что они уже знакомы с Amazon и запускают другие приложения и хранят там данные.
«Вопрос в скорости, — пояснил Май-Лан Томсен Буковец, вице-президент по технологиям AWS, — насколько быстро эти компании смогут разрабатывать приложения для генеративного ИИ. инструменты вычислений и машинного обучения, которые мы предоставляем».
Согласно данным, предоставленным Gartner, AWS является крупнейшим в мире поставщиком облачных вычислений, на долю которого в 2022 году приходилось 40% рынка. Хотя операционная прибыль Amazon снижалась по сравнению с аналогичным периодом прошлого года в течение трех кварталов подряд, на долю AWS по-прежнему приходилось 70% операционной прибыли Amazon в размере 7,7 млрд долларов США во втором квартале. Исторически у AWS была гораздо более высокая операционная прибыль, чем у Google Cloud.
Кроме того, у AWS есть растущий портфель инструментов для разработчиков, ориентированных на генеративный искусственный интеллект. Свами Сивасубраманиан, вице-президент AWS по базам данных, аналитике и машинному обучению, сказал: «Давайте повернем время вспять, даже до ChatGPT. Это не то, что было после этого. Мы внезапно в спешке придумали план, потому что вы не можете разработать новый чип так быстро, не говоря уже о том, чтобы создать базовую услугу за два-три месяца».
Bedrock предоставляет клиентам AWS доступ к большим языковым моделям, разработанным Anthropic, Stability AI, AI21 Labs и Amazon Titan. «Мы не верим, что одна модель будет править миром, мы хотим, чтобы у наших клиентов были самые современные модели от нескольких поставщиков, потому что они выберут правильный инструмент для правильной работы», — сказал Сивасубраманян.
Одним из новейших предложений Amazon в области искусственного интеллекта является сервис AWS HealthScribe, запущенный в июле и помогающий врачам составлять отчеты о посещениях пациентов с помощью генеративного искусственного интеллекта. У Amazon также есть центр машинного обучения SageMaker, который предоставляет алгоритмы, модели и другие услуги.
Еще одним важным инструментом является CodeWhisperer, который, по словам Amazon, позволяет разработчикам выполнять задачи в среднем на 57% быстрее. В прошлом году Microsoft также сообщила, что ее инструмент кодирования GitHub Copilot повысил производительность.
В июне этого года AWS объявила о создании инновационного центра генеративного искусственного интеллекта стоимостью 100 миллионов долларов. Генеральный директор AWS Селипски сказал: «У нас есть много клиентов, которым нужна технология генеративного искусственного интеллекта, но они не обязательно знают, что это значит для них в контексте их собственного бизнеса. Поэтому мы представим решения архитекторам решений, инженерам, стратегам, и специалисты по данным, работающие с ними один на один».
Генеральный директор Ясси лично руководил командой по созданию большой языковой модели
Хотя до сих пор AWS сосредоточивалась в основном на разработке инструментов, а не на создании конкурента ChatGPT, недавно просочившаяся внутренняя электронная почта показала, что генеральный директор Amazon Энди Джасси непосредственно руководит новой центральной командой, которая также создает масштабируемые модели для больших языков.
Во время отчета о прибылях и убытках за второй квартал Ясси сказал, что «значительная часть» бизнеса AWS в настоящее время управляется искусственным интеллектом и более чем 20 сервисами машинного обучения, которые он поддерживает, клиентами которых являются Philips, 3M, Old Mutual и HSBC.
Взрыв искусственного интеллекта принес с собой множество проблем с безопасностью, поскольку компании беспокоятся о том, что сотрудники помещают конфиденциальную информацию в обучающие данные, используемые общедоступными моделями большого языка.
«Я не могу сказать вам, сколько компаний из списка Fortune 500, с которыми я разговаривал, отключили ChatGPT, — сказал Селипски, генеральный директор AWS, — Все, что вы делаете, какую бы модель вы ни использовали, будет происходить в вашей собственной изолированной виртуальной частной облачной среде. Он будет зашифрован, у него будет такой же контроль доступа AWS».
На данный момент Amazon только ускоряет продвижение генеративного ИИ, утверждая, что «более 100 000» клиентов в настоящее время используют машинное обучение на AWS. Хотя это небольшая часть миллионов клиентов AWS, аналитики говорят, что это может измениться.
«Мы не видим компаний, говорящих: «О, подождите, Microsoft уже лидирует в области генеративного ИИ, давайте начнем, давайте изменим нашу стратегию инфраструктуры, перенесем все в Microsoft. Если вы уже являетесь клиентом Amazon, вы, вероятно, изучите Экосистема Amazon в более широком смысле» (Текст/Цзинлу)