У другій половині дня 25 вересня Amazon оголосила на офіційному сайті компанії, що інвестує до 4 мільярдів доларів у велику модельну компанію Anthropic, яка відома своїм чат-ботом Claude, який тестує ChatGPT.
Компанії, що займаються хмарними обчисленнями, інвестували значні кошти у великі модельні компанії. Microsoft зробила хороший старт у лютому цього року, придбавши OpenAI, основного клієнта хмарного Azure Microsoft, і пріоритетне використання ChatGPT за 10 мільярдів доларів США. Тепер здається, що ця угода є впевненим прибутком для Microsoft.З цього року ринкова вартість Microsoft зросла на 40%.
Але зараз, через півроку, зв’язок між розробками та розробками у сфері великих моделей ускладнюється.Amazon InvestmentAnthropicце не просто «закріплення» клієнтів для AWS , це навіть не обов'язково для великих моделей.
Офіційні деталі співпраці показують: Anthropic використовуватиме чіпи AWS Trainium та Inferentia для створення, навчання та розгортання своїх майбутніх базових моделей. Крім того, дві компанії також співпрацюватимуть у розробці майбутніх технологій Trainium та Inferentia. Варто зазначити, що AWS Trainium — це налаштований навчальний чіп ML (машинне навчання), випущений AWS наприкінці 2020 року, а чіп Inferentia — це високопродуктивний чіп для логічного висновку машинного навчання, випущений AWS у 2019 році.
Інвестуючи в Anthropic для поглиблення співпраці, Amazon має намір пришвидшити розробку мікросхем ШІ власної розробки.
Кілька днів тому The Information ексклюзивно опублікував новину про те, що NVIDIA хоче «стягувати плату за обробку» з трьох основних постачальників хмарних технологій — NVIDIA хоче орендувати сервери NVIDIA у постачальників хмарних технологій, щоб вона могла надавати програми ШІ користувачам ШІ через хмара замість серверів чи чіпів. Безпосередньо надаючи послуги, ці програми також включають трьох основних постачальників хмари.
Однак лише Amazon відхилив пропозицію.
Тепер здається, що причина відмови Amazon від Nvidia полягає в тому, щоб знайти способи пришвидшити оновлення чіпів власної розробки AI. В епоху великих моделей основна конкурентоспроможність Amazon у стабілізації її позиції номер один на ринку хмарних обчислень полягає в його мікросхемах ШІ.
01 Перша хмарна платформа починає діяти, найбільший ворог OpenAI
Для цієї співпраці Amazon заявив, що спочатку інвестує 1,25 мільярда доларів США в купівлю міноритарної частки Anthropic. У рамках угоди Amazon заявив, що має можливість збільшити свої інвестиції в Anthropic до 4 мільярдів доларів.
В рамках розширеної співпраці:
Anthropic використовуватиме чіпи AWS Trainium і Inferentia для створення, навчання та розгортання своїх майбутніх базових моделей, виграючи від ціни, продуктивності, масштабу та безпеки AWS. Дві компанії також співпрацюватимуть над майбутніми технологіями Trainium та Inferentia.
AWS стане основним хмарним постачальником Anthropic для критично важливих робочих навантажень, включаючи дослідження безпеки та майбутню розробку базової моделі. Anthropic планує виконувати більшість своїх робочих навантажень на AWS, надаючи Anthropic передові технології від провідного світового постачальника хмарних технологій.
Anthropic взяла на себе довгострокове зобов’язання надавати клієнтам AWS у всьому світі доступ до своїх моделей основи нового покоління через Amazon Bedrock, повністю керований сервіс від AWS, який забезпечує безпечний доступ до найкращих моделей основи в галузі. Крім того, Anthropic надасть клієнтам AWS унікальну можливість раннього доступу до можливостей налаштування та тонкого налаштування моделі.
Розробники та інженери Amazon зможуть будувати за допомогою моделей Anthropic через Amazon Bedrock, тож вони зможуть використовувати генеративні можливості штучного інтелекту у своїй роботі, вдосконалювати існуючі програми та створювати нові умови для клієнтів у бізнесі Amazon.
Компанії не розкрили оцінку інвестицій Amazon в Anthropic.
Anthropic заснували колишні співробітники OpenAI Даніела Амодей і Даріо Амодей, які є основними розробниками OpenAI GPT2 і GPT3. Зараз у Anthropic є один із найпопулярніших чат-ботів Claude.
Конкурент із виробником ChatGPT OpenAI, Anthropic отримав 400 мільйонів доларів інвестицій від Google на початку цього року та був оцінений у понад 4 мільярди доларів після раунду фінансування від Spark Capital у березні.
**02 Що хоче зробити Amazon? **
Інвестування в Anthropic до $4 млрд. Що саме хоче зробити Amazon?
Очевидна причина — «захопити» клієнтів. Будучи найбільшими клієнтами хмарних обчислень (у майбутньому), великі виробники моделей і компанії, що займаються додатками штучного інтелекту, стали полем битви для великих виробників хмарних технологій.
З цього року Google, Microsoft, AWS, Oracle і Nvidia мовчазно й одностайно робили одну річ — «замикали» клієнтів за допомогою стратегічних інвестицій (платили гроші, щоб купувати клієнтів), хоча ця операція є фінансово суперечливою.
Але насправді Anthropic є клієнтом AWS з 2021 року. AWS поглибила співпрацю з Anthropic на 4 мільярди доларів США, прагнучи отримати глибші права на співпрацю: великі моделі та, що найважливіше, власно розроблені мікросхеми ШІ* *.
Іншими словами, стратегічно інвестуючи це навчання, Amazon навчиться створювати великі моделі. Він також розробив мікросхеми штучного інтелекту**, які можуть навіть підірвати графічні процесори NVIDIA через дискусії з опонентами, що конкурують з OpenAI. Зрештою, графічні процесори не призначені для навчання нейронних мереж. Покладатися на CUDA та різні технології для «магічної зміни» сцена за сценою — варіант, але це не оптимальне рішення.
Промова генерального директора Amazon Енді Джессі підтвердила це, сказавши: «Ми віримо, що можемо допомогти покращити багато короткострокових і довгострокових клієнтів завдяки поглибленій співпраці».
Короткостроковий і довгостроковий досвід клієнтів відповідає великим моделям Amazon і власно розробленим чіпам ШІ.
Крім того, він додав: «Клієнти в захваті від Amazon Bedrock, нового керованого сервісу AWS, який дозволяє компаніям створювати генеративні додатки штучного інтелекту за допомогою різноманітних базових моделей, і AWS Trainium, навчального чіпа штучного інтелекту AWS. Навчальний чіп AWS для штучного інтелекту та нашої співпраці з Anthropic має допомогти клієнтам отримати більше переваг від цих двох функцій».
Фактично, у першій половині року Amazon випустила власну велику модель Titan і оголосила про типового клієнта цієї великої моделі.Однак через кілька днів цей типовий клієнт кинувся на неї та розповів ЗМІ, що велика модель Amazon було непросто використовувати.
Видно, що Amazon не повністю готовий до великих моделей самостійної розробки. Тому Amazon звернувся до ринку, щоб активно просувати платформу великих моделей Amazon Bedrock, де клієнти можуть звертатися до послуг інших основних виробників великих моделей, зокрема Anthropic.
З іншого боку, Amazon має стабілізувати свої основи в хмарних обчисленнях.
В епоху великих моделей хмарні обчислення стикаються з різними робочими навантаженнями та потребують вивчення нових технологій для досягнення швидших можливостей міркування. У цьому відношенні Amazon фактично є піонером. Колись чіпи та сервери центрів обробки даних власної розробки вважалися «однією з найважливіших речей», які AWS зробила, щоб «відрізнитися від Microsoft і Google». Її сервери мають вищу швидкість і економлять енергію.
З точки зору власних чіпів і серверів штучного інтелекту, Amazon також є першим серед трьох основних постачальників хмарних технологій (Microsoft Cloud, Google Cloud). Однак дані про прогрес і продуктивність чіпів ШІ окремо не оприлюднюються. Натомість вони об’єднані в сервери та надаються клієнтам через хмарні сервіси. Тому клієнти безпосередньо сприймають лише продуктивність хмарних обчислень, а не продуктивність мікросхем у ньому.
Тепер Amazon має зрозуміти, які робочі навантаження найкраще підходять для яких процесорів, і робота з Anthropic є одним із способів зробити це.
Наразі з 69 компаній у базі даних The Information генеративної штучного інтелекту 32 використовують Amazon, 26 використовують Google, а 13 використовують Microsoft як хмарного провайдера. Звичайно, деякі компанії використовують кілька хмарних провайдерів.
В епоху великих моделей співпраця та конкуренція в хмарних обчисленнях, великих моделях і додатках ШІ стають складнішими. Галузь хмарних обчислень, яка довгий час не зазнавала серйозних змін, нарешті відкрила можливість для змін.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
28 мільярдів! Amazon інвестувала в OpenAI, свого найбільшого ворога
У другій половині дня 25 вересня Amazon оголосила на офіційному сайті компанії, що інвестує до 4 мільярдів доларів у велику модельну компанію Anthropic, яка відома своїм чат-ботом Claude, який тестує ChatGPT.
Компанії, що займаються хмарними обчисленнями, інвестували значні кошти у великі модельні компанії. Microsoft зробила хороший старт у лютому цього року, придбавши OpenAI, основного клієнта хмарного Azure Microsoft, і пріоритетне використання ChatGPT за 10 мільярдів доларів США. Тепер здається, що ця угода є впевненим прибутком для Microsoft.З цього року ринкова вартість Microsoft зросла на 40%.
Але зараз, через півроку, зв’язок між розробками та розробками у сфері великих моделей ускладнюється.Amazon Investment Anthropic це не просто «закріплення» клієнтів для AWS , це навіть не обов'язково для великих моделей.
Офіційні деталі співпраці показують: Anthropic використовуватиме чіпи AWS Trainium та Inferentia для створення, навчання та розгортання своїх майбутніх базових моделей. Крім того, дві компанії також співпрацюватимуть у розробці майбутніх технологій Trainium та Inferentia. Варто зазначити, що AWS Trainium — це налаштований навчальний чіп ML (машинне навчання), випущений AWS наприкінці 2020 року, а чіп Inferentia — це високопродуктивний чіп для логічного висновку машинного навчання, випущений AWS у 2019 році.
Інвестуючи в Anthropic для поглиблення співпраці, Amazon має намір пришвидшити розробку мікросхем ШІ власної розробки.
Кілька днів тому The Information ексклюзивно опублікував новину про те, що NVIDIA хоче «стягувати плату за обробку» з трьох основних постачальників хмарних технологій — NVIDIA хоче орендувати сервери NVIDIA у постачальників хмарних технологій, щоб вона могла надавати програми ШІ користувачам ШІ через хмара замість серверів чи чіпів. Безпосередньо надаючи послуги, ці програми також включають трьох основних постачальників хмари.
Однак лише Amazon відхилив пропозицію.
Тепер здається, що причина відмови Amazon від Nvidia полягає в тому, щоб знайти способи пришвидшити оновлення чіпів власної розробки AI. В епоху великих моделей основна конкурентоспроможність Amazon у стабілізації її позиції номер один на ринку хмарних обчислень полягає в його мікросхемах ШІ.
01 Перша хмарна платформа починає діяти, найбільший ворог OpenAI
Для цієї співпраці Amazon заявив, що спочатку інвестує 1,25 мільярда доларів США в купівлю міноритарної частки Anthropic. У рамках угоди Amazon заявив, що має можливість збільшити свої інвестиції в Anthropic до 4 мільярдів доларів.
В рамках розширеної співпраці:
Компанії не розкрили оцінку інвестицій Amazon в Anthropic.
Anthropic заснували колишні співробітники OpenAI Даніела Амодей і Даріо Амодей, які є основними розробниками OpenAI GPT2 і GPT3. Зараз у Anthropic є один із найпопулярніших чат-ботів Claude.
Конкурент із виробником ChatGPT OpenAI, Anthropic отримав 400 мільйонів доларів інвестицій від Google на початку цього року та був оцінений у понад 4 мільярди доларів після раунду фінансування від Spark Capital у березні.
**02 Що хоче зробити Amazon? **
Інвестування в Anthropic до $4 млрд. Що саме хоче зробити Amazon?
Очевидна причина — «захопити» клієнтів. Будучи найбільшими клієнтами хмарних обчислень (у майбутньому), великі виробники моделей і компанії, що займаються додатками штучного інтелекту, стали полем битви для великих виробників хмарних технологій.
З цього року Google, Microsoft, AWS, Oracle і Nvidia мовчазно й одностайно робили одну річ — «замикали» клієнтів за допомогою стратегічних інвестицій (платили гроші, щоб купувати клієнтів), хоча ця операція є фінансово суперечливою.
Але насправді Anthropic є клієнтом AWS з 2021 року. AWS поглибила співпрацю з Anthropic на 4 мільярди доларів США, прагнучи отримати глибші права на співпрацю: великі моделі та, що найважливіше, власно розроблені мікросхеми ШІ* *.
Іншими словами, стратегічно інвестуючи це навчання, Amazon навчиться створювати великі моделі. Він також розробив мікросхеми штучного інтелекту**, які можуть навіть підірвати графічні процесори NVIDIA через дискусії з опонентами, що конкурують з OpenAI. Зрештою, графічні процесори не призначені для навчання нейронних мереж. Покладатися на CUDA та різні технології для «магічної зміни» сцена за сценою — варіант, але це не оптимальне рішення.
Промова генерального директора Amazon Енді Джессі підтвердила це, сказавши: «Ми віримо, що можемо допомогти покращити багато короткострокових і довгострокових клієнтів завдяки поглибленій співпраці».
Короткостроковий і довгостроковий досвід клієнтів відповідає великим моделям Amazon і власно розробленим чіпам ШІ.
Крім того, він додав: «Клієнти в захваті від Amazon Bedrock, нового керованого сервісу AWS, який дозволяє компаніям створювати генеративні додатки штучного інтелекту за допомогою різноманітних базових моделей, і AWS Trainium, навчального чіпа штучного інтелекту AWS. Навчальний чіп AWS для штучного інтелекту та нашої співпраці з Anthropic має допомогти клієнтам отримати більше переваг від цих двох функцій».
Фактично, у першій половині року Amazon випустила власну велику модель Titan і оголосила про типового клієнта цієї великої моделі.Однак через кілька днів цей типовий клієнт кинувся на неї та розповів ЗМІ, що велика модель Amazon було непросто використовувати.
Видно, що Amazon не повністю готовий до великих моделей самостійної розробки. Тому Amazon звернувся до ринку, щоб активно просувати платформу великих моделей Amazon Bedrock, де клієнти можуть звертатися до послуг інших основних виробників великих моделей, зокрема Anthropic.
З іншого боку, Amazon має стабілізувати свої основи в хмарних обчисленнях.
В епоху великих моделей хмарні обчислення стикаються з різними робочими навантаженнями та потребують вивчення нових технологій для досягнення швидших можливостей міркування. У цьому відношенні Amazon фактично є піонером. Колись чіпи та сервери центрів обробки даних власної розробки вважалися «однією з найважливіших речей», які AWS зробила, щоб «відрізнитися від Microsoft і Google». Її сервери мають вищу швидкість і економлять енергію.
З точки зору власних чіпів і серверів штучного інтелекту, Amazon також є першим серед трьох основних постачальників хмарних технологій (Microsoft Cloud, Google Cloud). Однак дані про прогрес і продуктивність чіпів ШІ окремо не оприлюднюються. Натомість вони об’єднані в сервери та надаються клієнтам через хмарні сервіси. Тому клієнти безпосередньо сприймають лише продуктивність хмарних обчислень, а не продуктивність мікросхем у ньому.
Тепер Amazon має зрозуміти, які робочі навантаження найкраще підходять для яких процесорів, і робота з Anthropic є одним із способів зробити це.
Наразі з 69 компаній у базі даних The Information генеративної штучного інтелекту 32 використовують Amazon, 26 використовують Google, а 13 використовують Microsoft як хмарного провайдера. Звичайно, деякі компанії використовують кілька хмарних провайдерів.
В епоху великих моделей співпраця та конкуренція в хмарних обчисленнях, великих моделях і додатках ШІ стають складнішими. Галузь хмарних обчислень, яка довгий час не зазнавала серйозних змін, нарешті відкрила можливість для змін.