«Біжи за їжею або бігай, щоб тебе не з’їли інші. У будь-якому випадку продовжуй бігти».
Це послання генерального директора Nvidia Хуан Реньсюня до випускників у його промові в Національному університеті Тайваню цього року. Звичайно, це також інтерпретація ментальності цієї імперії ринкової капіталізації в трильйони доларів, створеної Хуан Реньсюнем.
У 2023 році Nvidia зіткнулася з генеративним штучним інтелектом, який Хуан Реньсюнь багато разів називав «моментом ШІ для iPhone». У цей момент Хуан Реньсюнь націлився на можливість стати мисливцем, а не здобиччю - Юнь.
Здається, у Nvidia не повинно бути мотивації створювати хмару не тільки тому, що постачальники хмарних послуг є важливими клієнтами Nvidia і щороку закуповують у Nvidia графічні процесори на мільярди доларів, а й тому, що ця справа, здається, не має шансів на перемогу.
Сьогоднішній ринок хмарних обчислень міцно контролюють три хмарні гіганти Amazon AWS, Microsoft Azure і Google Cloud. Згідно з даними Statista, у 2022 році частка ринку AWS становитиме 32%, Azure – 23%, а Google Cloud – 10%, загальна частка ринку трьох компаній досягне 65%.
Справа не в тому, що ми не бачили претендента. За останні десять років такі відомі компанії, як VMware, Dell і Hewlett-Packard, хотіли отримати частину ринку хмарних обчислень, але всі без винятку зазнали невдачі.
Однак так само, як кожна технологічна революція породжує нових законодавців моди, ця хвиля генеративного штучного інтелекту, виробник мікросхем Nvidia, почав тестувати ринок хмарних обчислень крок за кроком:
**На першому етапі, на конференції GTC 21 березня цього року, NVIDIA випустила DGX Cloud. **Як видно з назви, це хмарний продукт. Клієнти можуть безпосередньо отримувати продукти та послуги штучного інтелекту Nvidia в хмарі або локальних центрах обробки даних, орендуючи їх на місячній основі;
**Другий крок — інвестувати в конкурентів трьох хмарних гігантів. **Nvidia послідовно інвестувала в CoreWeave і Lambda Labs, двох малих і середніх постачальників хмарних послуг у Сполучених Штатах, і виділила їм дефіцитні чіпи GPU. Наскільки перебільшеною є ця «уподобання»? У той момент, коли ядра GPU важко знайти, CoreWeave змогла отримати боргове фінансування на суму 2,3 мільярда доларів США, заклавши свої численні GPU, особливо H100.
Незважаючи на те, що хмарний бізнес тільки почався, структура хмарного бізнесу є контратакою Nvidia проти хмарних гігантів.
Як ми всі знаємо, Google, Amazon і Microsoft послідовно запускали внутрішні проекти чіпів штучного інтелекту — серії TPU від Google, серії Inferentia і Trainium від Amazon і чіп Athena від Microsoft, який був представлений цього року. У трьох хмарних гігантів є достатні ресурси та мотивація самостійно розробляти мікросхеми AI, щоб зменшити «податок на GPU» Nvidia.
Nvidia це добре знає. Хуан Реньсюнь під час телефонної конференції звіту про прибутки за останній квартал прямо сказав, що «ми приділяли увагу конкуренції, і у нас завжди була конкуренція».
Huang Renxun не може запобігти розширенню трьох основних постачальників хмарних послуг, але, можливо, найкращим захистом є напад, і метод контратаки Nvidia полягає в тому, щоб перейти безпосередньо до хмари.
З двома козирями A100 і H100 в руках протягом тривалого періоду часу, ці два чіпи є найкращим вибором для масштабного навчання моделей і міркувань, і жоден з них, Nvidia не має можливості стати справжнім лідером у ринок хмарних обчислень Закулісний оператор.
Відкрита та таємна боротьба навколо чіпів і хмарних обчислень повільно розгортається між чотирма технологічними гігантами з першою п’ятіркою світової ринкової капіталізації.
1. Майже впав перед світанком
Ті, хто знайомі з Nvidia, знають, наскільки прекрасна Nvidia сьогодні, і якою жалюгідною була Nvidia минулого року.
Основний бізнес Nvidia включає центри обробки даних, ігри, професійну візуалізацію та автомобілі. У другому кварталі 2020 року бізнес центрів обробки даних Nvidia вперше перевершив ігри, ставши найбільшим джерелом доходу Nvidia.
Під час зустрічі з фінансовими звітами за 4 квартал 2022 року (що відповідає природному року з листопада 2021 по січень 2022) Nvidia представила вагомий фінансовий звіт за четвертий квартал, а її бізнес центрів обробки даних зріс на 71% порівняно з минулим роком. Тоді Хуан Реньсюнь оптимістично сказав: «Обчислювальна платформа Nvidia викликала надзвичайний ринковий попит.» Однак через тиждень спалахнув конфлікт між Росією та Україною, який порушив ланцюжок постачання ключової сировини. У поєднанні з впливом епідемії темпи зростання бізнесу центрів обробки даних Nvidia продовжуватимуть сповільнюватися протягом 2022 року.
У фінансовому звіті за 4 квартал 2023 року, опублікованому в лютому цього року, темпи зростання центрів обробки даних NVIDIA становили лише 11%, що є рекордно низьким показником, і це сталося вперше з 2020 року, коли мережа знизилася.
У 2022 році ціна акцій Nvidia також знизиться вдвічі. Звичайно, сьогодні він повернувся, і народження ChatGPT врятувало Nvidia.
Примітка. Nvidia опублікує свій фінансовий звіт за 2 квартал 2024 року в середу (23 серпня), що відповідає травню-липню 2023 року.
Серед багатьох причин зниження темпів зростання бізнесу найголовнішою є зниження попиту з боку основних клієнтів. У фінансовому звіті за 4 квартал 2023 року фінансовий директор Nvidia Колетт Кресс оголосила цифру: близько 40% із 15 мільярдів доларів США доходу сектору центрів обробки даних у 2023 фінансовому році (близько 6 мільярдів доларів США) надходять від гіпермасштабованих центрів обробки даних і хмарних служб. провайдерів.
Але якщо ви просто подивіться на четвертий квартал, то це лише квартал. Розробники гіпермасштабованих центрів обробки даних і постачальники хмарних послуг різко скорочують витрати на GPU.
На додаток до об’єктивного зниження попиту, власно розроблений план трьох хмарних гігантів щодо чіпів штучного інтелекту поступово зменшує частку ринку графічних процесорів NVIDIA.
У 2016 році Google випустив TPU першого покоління власної розробки, а через п’ять років, 19 травня 2021 року, випустив TPU четвертого покоління v4. У дослідницькому звіті, опублікованому цього року, Google стверджує, що об’єднав 4000 TPU v4 для створення суперкомп’ютера, який працював би в 1,7 рази швидше та ефективніше, ніж еквівалентна машина з графічним процесором Nvidia A100.
Amazon також має традицію самостійної розробки чіпів не лише для Nvidia, але й для всіх виробників чіпів. На даний момент Amazon випустила чотири серії чіпів власної розробки - мережевий чіп серії Nitro, серверний чіп серії Graviton, AI-чіп міркування серії Inferentia, AI-навчальний чіп Trainium. Серед них останні два чіпи AI конкурують з графічними процесорами NVIDIA.
Незважаючи на пізнє надходження, Microsoft «прибула із запізненням». 18 квітня цього року, згідно з The Information, з 2019 року Microsoft таємно розробляє мікросхеми AI під внутрішньою кодовою назвою «Athena» (Athena), сотні співробітників працюють над проектом Athena, Microsoft інвестувала близько 2 мільярдів доларів . Деяким співробітникам Microsoft і OpenAI вдалося отримати мікросхеми для перевірки продуктивності на останніх великих мовних моделях, таких як GPT-4.
Постачальникам хмарних послуг щороку доводиться платити велику суму «податку Nvidia» за купівлю графічних процесорів, особливо після спалаху генеративного ШІ.
У лютому цього року New Street Research підрахувала: пошуковій системі Bing на основі ChatGPT потрібно 8 графічних процесорів, щоб відповідати на запитання користувачів протягом однієї секунди. З такою швидкістю Microsoft знадобиться понад 20 000 серверів із 8 графічним процесором для розгортання моделей у Bing для кожного користувача, що коштуватиме Microsoft 4 мільярди доларів. У масштабі Google, який обробляє 8-9 мільярдів запитів на день, це коштувало б 80 мільярдів доларів.
Чіпи штучного інтелекту, розроблені постачальниками хмарних послуг, не продаватимуться сторонам і не будуть безпосередньо конкурувати з Nvidia. Однак, розгорнувши в центрах обробки даних чіпи власної розробки замість графічних процесорів, витрати можна ефективно скоротити. Наприклад, Google розгорнув сотні суперкомп’ютерів TPU v4 у своєму хмарному сервісі.
У трьох основних постачальників хмарних послуг є достатні ресурси та мотивація для розробки власних чіпів, що розглядається як тріщина в імперії Nvidia. Nvidia добре це знає, але, здається, кращого способу немає.
До появи ChatGPT Nvidia, яку крок за кроком тіснили постачальники хмарних послуг, побачила точку прориву для контратаки. Оскільки постачальники хмарних послуг можуть створювати мікросхеми, хіба Nvidia не може створювати хмари в епоху ШІ?
**2. Чи є у Nvidia шанс створити хмару? **
Наразі Nvidia є найбільшим бенефіціаром генеративної революції штучного інтелекту, і Хуан Реньсюнь завжди говорив про «момент штучного інтелекту на iPhone» цього року. Вибуховий попит на генеративний ШІ зробив GPU твердою валютою.Дехто просто каже, що «GPU — це новий долар».
Від графічного процесора до хмари, чи дійсно Nvidia має шанс?
Навчання та обґрунтування генеративного ШІ в основному проводяться в хмарі, і постачальники хмарних послуг, які надають інфраструктуру ШІ, будуть одними з найбільших бенефіціарів хвилі генеративного ШІ. Згідно з даними, підрахованими венчурною компанією Кремнієвої долини A16Z, від 10% до 20% загального доходу, отриманого від генеративного штучного інтелекту, зрештою надходить до постачальників хмарних послуг.
Однак цей процес не буде швидким. Генеральний директор Amazon Енді Джессі сказав під час телефонної розмови про прибутки за 2 квартал 2023 року: «Генеративний штучний інтелект, безсумнівно, змінить досвід роботи майже всіх клієнтів. Але ще занадто рано, і більшість компаній все ще думають, як досягти цієї мети. Ми це марафон дуже ранній стадії».
Суть хмарних сервісів полягає у віртуалізації апаратних ресурсів у центрі обробки даних і подальшій здачі їх на ринок. Майже 100% серверів у традиційних центрах обробки даних побудовані на базі процесорів Intel і AMD. ЦП схожий на «загального фахівця з найсильнішим мозком», який забезпечує «загальні обчислювальні» можливості — обробку операційних систем, системного програмного забезпечення та прикладної програми. має такі програмні завдання, як складне планування інструкцій, цикл, розгалуження, логічне судження та виконання.
Але центральні процесори погано справляються з великомасштабною обробкою даних і паралельними обчисленнями, чого потребує штучний інтелект, а графічні процесори Nvidia хороші. Графічний процесор схожий на «експерта з насильницьких обчислень», який спеціалізується на обробці зображень, глибокому навчанні та поточному навчанні великих моделей, міркуванні та інших завданнях. Хуан Реньсюнь назвав цю можливість масових паралельних обчислень «прискореними обчисленнями».
У 2012 році Джефф Хінтон, батько глибокого навчання, та його учні вперше спробували навчити модель згорткової нейронної мережі AlexNet на графічному процесорі NVIDIA та одним махом виграли змагання з розпізнавання зображень. Цей інцидент став причиною вибуху глибокого навчання в наступні десять років.Вся індустрія штучного інтелекту, включаючи саму Nvidia, усвідомили потенціал GPU для прискореного обчислення.
Шестерні долі Nvidia почали обертатися. Відтоді Хуан Реньсюнь неодноразово кричав: «Закон Мура помер». Він вважає, що ера розширення ЦП закінчилася, як і десятикратне збільшення продуктивності за тих самих витрат кожні п’ять років. На зміну йому прийде графічний процесор, і Хуан Реньсюнь спеціально винайшов «закон Хуанга» – графічний процесор буде сприяти подвоєнню продуктивності ШІ з кожним роком.
Протягом десяти років з 2012 по 2022 рік ми можемо назвати це прискореними обчисленнями від 0 до 1, і штучний інтелект приземлився в конкретних галузях і конкретних сценаріях, таких як розпізнавання зображень. Однак попит на штучний інтелект у цей період ще недостатньо великий.Дослідницька компанія Aletheia прогнозує, що поточний рівень проникнення серверів штучного інтелекту на ринок становить менше 5%. Цього далеко недостатньо, щоб реалізувати мрію Хуан Реньсюня про прискорені обчислення.
До моменту народження ChatGPT у листопаді 2022 року з’явився «момент AI iPhone». Це можна розглядати як початок розширення прискорених обчислень від 1 до 10.
Генеративний дохід від штучного інтелекту (ілюстрація Bloomberg)
Хуан Реньсюнь вважає, що поєднання прискорених обчислень і генеративного штучного інтелекту змінить методи обчислень за останні 60 років. Оскільки компанії намагаються застосувати генеративний штучний інтелект до кожного продукту, послуги та бізнес-процесу, глобальна інфраструктура центру обробки даних вартістю трильйони доларів перейде від обчислень загального призначення до прискорених обчислень, і в результаті переосмислення центру обробки даних, безумовно, створить величезні ринкові можливості.
Під час телефонної конференції про прибутки за останній квартал Хуан Реньсюнь пообіцяв: «Ми знаходимося в першому році десятирічної роботи центру обробки даних».
Хуан Реньсюнь сказав, що прискорені обчислення — це завдання повного стека. Воно має інтегрувати все програмне забезпечення, усі бібліотеки фреймворків і всі алгоритми для розробки. Ці завдання стосуються не лише чіпа, а й цілого центру обробки даних. Центр обробки даних — це суперкомп’ютер. Щоб досягти найкращої продуктивності, необхідно оптимізувати весь стек мережевих операційних систем, механізмів розподіленого обчислення, мережевих пристроїв, комутаторів і обчислювальних архітектур.
Наприклад, загальний обчислювальний центр обробки даних в основному використовує Ethernet для підключення всіх серверів без великомасштабної передачі даних; прискорений обчислювальний центр обробки даних, запропонований Nvidia, використовує технологію під назвою Infinite Band для підключення, яка має надзвичайно високу пропускну здатність даних.
Систематична оптимізація також дозволяє прискореним обчислювальним центрам обробки даних мати вищу ефективність і нижчі витрати, ніж традиційні центри обробки даних.
Хуан Реньсюнь підняв запитання на SIGGRAPH, щорічній конференції з комп’ютерної графіки, яка відбулася в серпні цього року: «Що я можу купити за 100 мільйонів доларів?» — запитав себе Хуан Реньсюнь і відповів: «У минулому за 100 мільйонів доларів можна було купити центр обробки даних, що складається з 8800 процесорів x86. Споживана потужність становить 5 МВт; сьогодні за 100 мільйонів доларів США можна придбати центр обробки даних Iso-Budget, що складається з 2500 GH200, споживана потужність становить 3 МВт, продуктивність AI у 12 разів перевищує дані ЦП. центр, згаданий вище, а енергоефективність у 20 разів».
За тієї самої продуктивності міркування штучного інтелекту вартість центру обробки даних GPU становить лише 1/12 вартості центру обробки даних CPU. «Чим більше ви купуєте, тим більше ви заощаджуєте», — це маніфест Хуан Реньсюня для його Центру прискорених обчислень.
Наразі Nvidia побудувала п’ять центрів обробки даних і допомогла клієнтам по всьому світу будувати власні центри обробки даних. Крім того, для традиційного центру обробки даних можуть знадобитися місяці або навіть рік, щоб перейти від доставки до роботи, але в Nvidia. Цей час у тижнях. «Досвід команди в цій галузі надзвичайний», — сказав Хуан.
Для трьох хмарних гігантів перехід від центрів обробки даних загального призначення до центрів обробки даних з прискореними обчисленнями не буде швидким. Йдеться не лише про технології та можливості, а й про процес прийняття рішень і процеси таких гігантських компаній.
Це дає Nvidia можливість створити хмару. Зробити крок вперед від центру обробки даних до хмари є лише само собою зрозумілим, і Nvidia вже намагається це зробити.
3. Darkness Chencang
У фінансовому звіті за четвертий квартал 2023 року з найнижчими темпами зростання бізнесу центрів обробки даних Nvidia також анонсувала новий продукт — DGX Cloud. На конференції GTC через місяць було офіційно представлено DGX Cloud.
Як видно з назви, це продукт хмарного сервісу. Чи збирається Nvidia вийти на ринок хмарних обчислень?
Давайте спочатку подивимося, що таке DGX. DGX — перший суперкомп’ютер, випущений Nvidia у 2017 році, який Хуан Реньсюнь назвав «центром обробки даних у шасі».
DGX першого покоління інтегрував 8 графічних процесорів (Tesla P100) і 4 твердотільні накопичувачі, а також використовував технологію підключення NVIDIA NVlink. З точки зору глибокого навчання, продуктивність одного DGX еквівалентна 250 звичайним серверам x86. Звичайно, це також дорого, 129 000 доларів за одну одиницю.
Після зустрічі Хуан Реньсюнь подарував Ілону Маску перший DGX-1. Маск є співзасновником OpenAI. OpenAI починався з цього суперкомп’ютера і крок за кроком створив сьогоднішній ChatGPT.
Сьогодні суперкомп’ютер DGX розроблено до п’ятого покоління, перші чотири покоління – це DGX P100, DGX A100, DGX H100 і останній DGX GH200.
DGX Cloud, випущений Nvidia, є хмарною версією раніше випущеного суперкомп’ютера.Примірник DGX Cloud (віртуальний комп’ютер у хмарному сервері) налаштований з 8 A100 або H100.
Однак ціна DGX Cloud недешева, 36 999 доларів на місяць, приблизно 264 000 юанів. Для порівняння: екземпляр Microsoft Azure ND96asr із 8 A100 та його еквівалентними специфікаціями коштує 19 854 доларів на місяць, що становить лише половину DGX Cloud.
Чому Nvidia наважується встановити таку високу ціну? Відповідь полягає в тому, що DGX Cloud — це готове рішення, яке об’єднує програмне та апаратне забезпечення. **Nvidia більше не рекламує себе як компанію-виробника графічних процесорів, а позиціонує себе як компанію-виробника обчислювальної платформи. **
Окрім апаратних ресурсів, DGX Cloud також запустив дві допоміжні програмні платформи. Одна — NVIDIA AI Foundations, яка допомагає компаніям створювати власні моделі, включаючи мовні, зорові та біомедичні моделі; інша — NVIDIA AI Enterprise, яка містить 4000 різних моделей. Фреймворк штучного інтелекту, який допомагає підприємствам використовувати його з коробки. ШІ-продукти Nvidia схожі на MaaS, запущений вітчизняними постачальниками хмарних послуг, такими як Alibaba Cloud.
Хуан з оптимізмом дивиться на ці нові потоки доходів від програмного забезпечення та очікує, що дохід у генеративному просторі ШІ зросте з «однозначної» частини загального доходу компанії до «суттєвої» частини протягом наступного року. «Ми в захваті від розширення нової бізнес-моделі», — сказав Хуан Реньсюнь.
Запуск DGX Cloud об'єктивно сформував певні конкурентні відносини з провайдерами хмарних послуг, але Nvidia все ще хоче підтримувати тісну співпрацю з провайдерами хмарних послуг. Зараз Nvidia не створює повну хмарну інфраструктуру з нуля, але розміщує DGX Cloud на хмарних платформах різних постачальників хмарних послуг.
Nvidia продає базове апаратне забезпечення постачальникам хмарних технологій, потім купує в них ресурси хмарних обчислень і, нарешті, продає хмарні послуги корпоративним клієнтам і зберігає весь дохід. Клієнти можуть отримати доступ до суперкомп’ютера зі штучним інтелектом Nvidia лише через браузер, щоб використовувати продукти штучного інтелекту Nvidia та сервіси моделей штучного інтелекту.
Однак чи купуватимуть його постачальники хмарних послуг?
У зв’язку з цим Хуан Реньсюнь пояснив: «Співпраця між хмарними службами NVIDIA та постачальниками хмарних послуг буде взаємовигідною. Обидві сторони спільно створюватимуть нові програми та розвиватимуть нові ринки». NVIDIA DGX Співвідношення хмари до хмари постачальника хмарних послуг становить 1:9.
Oracle є першим постачальником хмарних послуг, який оголосив про партнерство з Nvidia. Програмний гігант в останні роки терміново проводить хмарну трансформацію, тому у нього є достатня мотивація для створення альянсу з Nvidia, щоб зробити поворот на ринку хмарних обчислень. Nvidia також працює з Microsoft Azure, Google Cloud та іншими хмарними платформами, які також незабаром будуть запущені.
** Nvidia видає бажане за дійсне гучно, але не всі постачальники хмарних послуг приймуть запит Nvidia. **AWS відмовився співпрацювати з Nvidia щодо продуктів DGX Cloud.
Як повідомляє Reuters, Дейв Браун, віце-президент Amazon Elastic Cloud Computing, сказав: «NVIDIA зв’язалася з нами, і ми вивчили бізнес-модель. Але для AWS це не має особливого сенсу». Він вважає, що AWS має здатність будувати надійні сервери Тривалий досвід роботи з наявними знаннями в ланцюгах поставок.
AWS почала закуповувати чіп Nvidia H100 у березні цього року, але лише як частину своєї системи власної розробки. AWS також розглядає можливість використання останнього чіпа AMD зі штучним інтелектом MI300, але ще не прийняла остаточного рішення.
З огляду на розвиток ринку генеративного штучного інтелекту, розподіл переваг між Nvidia та постачальниками хмарних послуг продовжуватиме змінюватися. Але цілком очевидно, що Nvidia зрушила з місця постачальника хмарних послуг.
4. Злити знизу
Запуск DGX Cloud є лише першим кроком, і участь Nvidia в ринку хмарних обчислень все ще поглиблюється. У цьому кроці Nvidia не вирішила закінчити особисто, а вирішила підтримати конкурентів трьох хмарних гігантів.
Цього року з’явився невеликий і середній хмарний постачальник під назвою CoreWeave, який став постачальником хмарних послуг, який є більш популярним, ніж три хмарні гіганти. **CoreWeave стверджує, що є єдиним постачальником хмарних послуг у світі, який може «забезпечувати Nvidia H100 у великих масштабах». **
Згідно з оцінками веб-сайту GPU Utils, кількість H100, які CoreWeave замовив у Nvidia, становить близько 35 000-40 000. Для порівняння: суперкомп’ютер A3, випущений Google у травні цього року, має близько 26 000 H100, екземпляр віртуальної машини EC2 P5, запущений Amazon AWS у липні, базується на 20 000 H100, а віртуальна машина Azure ND H100v5, запущена Microsoft у серпні, містить всього 8 штук Н100. Проте Microsoft володіє приблизно 285 000 A100.
Яке походження CoreWeave? Компанія, заснована в 2017 році, спочатку в основному займалася майнінгом криптовалют Ethereum, а в 2018 році стала найбільшим майнером Ethereum в Північній Америці. На той час CoreWeave розгорнула понад 50 000 GPU, забезпечуючи понад 1% обчислювальної потужності мережі Ethereum.
Окрім майнінгу, CoreWeave також почав намагатися обслуговувати деяких корпоративних клієнтів, таких як штучний інтелект, розважальні медіа та обчислювальна хімія. У 2019 році CoreWeave повністю перейшла з графічних процесорів споживчого класу на графічні процесори Nvidia корпоративного рівня, оскільки графічні процесори корпоративного рівня можуть працювати цілодобово, збільшуючи використання GPU майже до 100%.
У 2021 році CoreWeave офіційно запустила хмарну платформу GPU на базі Nvidia. У третьому кварталі 2022 року, із злиттям Ethereum і кінцем ери масштабного майнінгу графічних карт, CoreWeave повністю перетворилася на постачальника хмарних послуг і оголосила в листопаді цього року, що стала першою серією провайдерів, які використовують суперчіп NVIDIA HGX H100 Один із провайдерів хмарних послуг.
У порівнянні з трьома гігантами Amazon, Microsoft і Google, CoreWeave не планує розробляти власний чіп AI, який високо оцінив Nvidia.
У квітні 2023 року Nvidia поглибила співпрацю з CoreWeave, і окрім ділової співпраці, вона також інвестувала в раунд B1 фінансування CoreWeave на суму 221 мільйон доларів. Найголовніше те, що Nvidia надала CoreWeave унікальний канал для дефіцитних A100 і H100.
У недавньому інтерв’ю Bloomberg Бреннін МакБі, співзасновник і головний стратегічний директор CoreWeave, сказав, що цього року Nvidia розпродала чіпи, а замовлення CoreWeave також заплановано на 2 квартал наступного року.
CoreWeave, мабуть, має найбільший запас графічних процесорів Nvidia у світі. У контексті нинішнього дефіциту GPU чіпи навіть цінніші, ніж капітал, і CoreWeave створила інноваційний метод фінансування. У серпні цього року CoreWeave залучила боргове фінансування на суму 2,3 мільярда доларів, заклавши свої чіпи GPU. Раніше раунд B1 акціонерного фінансування CoreWeave отримав лише 421 мільйон доларів.
Завдяки стратегічному альянсу «хмара + графічний процесор» із Nvidia продуктивність CoreWeave також різко зросла.
До цього року CoreWeave була маловідомою компанією. Але тепер CoreWeave готова заробити на цьому мільярди доларів завдяки своїм графічним процесорам. В інтерв’ю VentureBeat співзасновник CoreWeave та головний стратегічний директор Бреннін Макбі розповів, що дохід CoreWeave у 2022 році становитиме 30 мільйонів доларів США, цього року досягне 500 мільйонів доларів США, а наступного року підписала контракти на майже 2 мільярди доларів США.
CoreWeave також оголосила про новий центр обробки даних вартістю 1,6 мільярда доларів США в Техасі та планує розширити його до 14 центрів обробки даних до кінця року. Наразі зірка штучного інтелекту Unicorn Inflection використовує хмару CoreWeave для створення кластера GPU приблизно з 22 000 H100. У липні цього року компанія оголосила про новий раунд фінансування в розмірі 1,3 мільярда доларів. Варто зазначити, що NVIDIA також є серед інвесторів Inflection.
CoreWeave — перша компанія з хмарних обчислень, у яку Nvidia інвестувала цього року, але не єдина.
Згідно з The Information, Nvidia збирається досягти інвестиційної угоди з іншим постачальником хмарних послуг, Lambda Labs. Nvidia може інвестувати 300 мільйонів доларів США, а оцінка Lambda Labs перевищить 1 мільярд доларів США. Lambda Labs стверджує, що може надати ресурси обчислювальної потужності NVIDIA A100 і H100 за найнижчою ціною в світі.
Наразі завдяки «розумному» розподілу ресурсів GPU Nvidia стала трейдером на ринку хмарних обчислень у фактичному розумінні цього слова, і осягнула ручку хмарного гіганта від кореня — Microsoft є хорошим прикладом.
Microsoft додала новий фактор ризику до свого останнього звіту про прибутки: «Послуги можуть бути перервані, якщо вона не зможе забезпечити достатню кількість чіпів штучного інтелекту для своїх центрів обробки даних».
З огляду на величезні потреби в обчисленнях зі штучним інтелектом, графічного процесора Microsoft не вистачає, і їй навіть доводиться звертатися за допомогою до своїх конкурентів, малих і середніх хмарних постачальників. За даними CNBC, Microsoft «погодилася витратити мільярди доларів протягом наступних кількох років на покупку інфраструктури хмарних обчислень стартапу CoreWeave». Під контролем Nvidia Microsoft довелося дозволити малим і середнім постачальникам хмарних послуг, таким як CoreWeave, отримувати різницю в ціні від GPU.
Інвестуючи в малих і середніх постачальників хмарних послуг, Nvidia ступила на сферу хмарних обчислень. Хоча немає жодних спроб побудувати хмарну інфраструктуру та напряму конкурувати з хмарними гігантами, ми не здивуємося, якщо Nvidia вийде на ринок напряму, придбавши в майбутньому малих і середніх постачальників хмарних послуг.
Незалежно від того, чи Nvidia зрештою вступить у гру, вона стала найбільшим закулісним гравцем на ринку хмарних обчислень на хвилі генеративного ШІ.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Nvidia та хмарні гіганти повинні мати бій
Автор: Чжао Цзянь
Джерело: Jiazi Guangnian
«Біжи за їжею або бігай, щоб тебе не з’їли інші. У будь-якому випадку продовжуй бігти».
Це послання генерального директора Nvidia Хуан Реньсюня до випускників у його промові в Національному університеті Тайваню цього року. Звичайно, це також інтерпретація ментальності цієї імперії ринкової капіталізації в трильйони доларів, створеної Хуан Реньсюнем.
У 2023 році Nvidia зіткнулася з генеративним штучним інтелектом, який Хуан Реньсюнь багато разів називав «моментом ШІ для iPhone». У цей момент Хуан Реньсюнь націлився на можливість стати мисливцем, а не здобиччю - Юнь.
Здається, у Nvidia не повинно бути мотивації створювати хмару не тільки тому, що постачальники хмарних послуг є важливими клієнтами Nvidia і щороку закуповують у Nvidia графічні процесори на мільярди доларів, а й тому, що ця справа, здається, не має шансів на перемогу.
Сьогоднішній ринок хмарних обчислень міцно контролюють три хмарні гіганти Amazon AWS, Microsoft Azure і Google Cloud. Згідно з даними Statista, у 2022 році частка ринку AWS становитиме 32%, Azure – 23%, а Google Cloud – 10%, загальна частка ринку трьох компаній досягне 65%.
Справа не в тому, що ми не бачили претендента. За останні десять років такі відомі компанії, як VMware, Dell і Hewlett-Packard, хотіли отримати частину ринку хмарних обчислень, але всі без винятку зазнали невдачі.
Однак так само, як кожна технологічна революція породжує нових законодавців моди, ця хвиля генеративного штучного інтелекту, виробник мікросхем Nvidia, почав тестувати ринок хмарних обчислень крок за кроком:
**На першому етапі, на конференції GTC 21 березня цього року, NVIDIA випустила DGX Cloud. **Як видно з назви, це хмарний продукт. Клієнти можуть безпосередньо отримувати продукти та послуги штучного інтелекту Nvidia в хмарі або локальних центрах обробки даних, орендуючи їх на місячній основі;
**Другий крок — інвестувати в конкурентів трьох хмарних гігантів. **Nvidia послідовно інвестувала в CoreWeave і Lambda Labs, двох малих і середніх постачальників хмарних послуг у Сполучених Штатах, і виділила їм дефіцитні чіпи GPU. Наскільки перебільшеною є ця «уподобання»? У той момент, коли ядра GPU важко знайти, CoreWeave змогла отримати боргове фінансування на суму 2,3 мільярда доларів США, заклавши свої численні GPU, особливо H100.
Незважаючи на те, що хмарний бізнес тільки почався, структура хмарного бізнесу є контратакою Nvidia проти хмарних гігантів.
Як ми всі знаємо, Google, Amazon і Microsoft послідовно запускали внутрішні проекти чіпів штучного інтелекту — серії TPU від Google, серії Inferentia і Trainium від Amazon і чіп Athena від Microsoft, який був представлений цього року. У трьох хмарних гігантів є достатні ресурси та мотивація самостійно розробляти мікросхеми AI, щоб зменшити «податок на GPU» Nvidia.
Nvidia це добре знає. Хуан Реньсюнь під час телефонної конференції звіту про прибутки за останній квартал прямо сказав, що «ми приділяли увагу конкуренції, і у нас завжди була конкуренція».
Huang Renxun не може запобігти розширенню трьох основних постачальників хмарних послуг, але, можливо, найкращим захистом є напад, і метод контратаки Nvidia полягає в тому, щоб перейти безпосередньо до хмари.
З двома козирями A100 і H100 в руках протягом тривалого періоду часу, ці два чіпи є найкращим вибором для масштабного навчання моделей і міркувань, і жоден з них, Nvidia не має можливості стати справжнім лідером у ринок хмарних обчислень Закулісний оператор.
Відкрита та таємна боротьба навколо чіпів і хмарних обчислень повільно розгортається між чотирма технологічними гігантами з першою п’ятіркою світової ринкової капіталізації.
1. Майже впав перед світанком
Ті, хто знайомі з Nvidia, знають, наскільки прекрасна Nvidia сьогодні, і якою жалюгідною була Nvidia минулого року.
Основний бізнес Nvidia включає центри обробки даних, ігри, професійну візуалізацію та автомобілі. У другому кварталі 2020 року бізнес центрів обробки даних Nvidia вперше перевершив ігри, ставши найбільшим джерелом доходу Nvidia.
Під час зустрічі з фінансовими звітами за 4 квартал 2022 року (що відповідає природному року з листопада 2021 по січень 2022) Nvidia представила вагомий фінансовий звіт за четвертий квартал, а її бізнес центрів обробки даних зріс на 71% порівняно з минулим роком. Тоді Хуан Реньсюнь оптимістично сказав: «Обчислювальна платформа Nvidia викликала надзвичайний ринковий попит.» Однак через тиждень спалахнув конфлікт між Росією та Україною, який порушив ланцюжок постачання ключової сировини. У поєднанні з впливом епідемії темпи зростання бізнесу центрів обробки даних Nvidia продовжуватимуть сповільнюватися протягом 2022 року.
У фінансовому звіті за 4 квартал 2023 року, опублікованому в лютому цього року, темпи зростання центрів обробки даних NVIDIA становили лише 11%, що є рекордно низьким показником, і це сталося вперше з 2020 року, коли мережа знизилася.
У 2022 році ціна акцій Nvidia також знизиться вдвічі. Звичайно, сьогодні він повернувся, і народження ChatGPT врятувало Nvidia.
Серед багатьох причин зниження темпів зростання бізнесу найголовнішою є зниження попиту з боку основних клієнтів. У фінансовому звіті за 4 квартал 2023 року фінансовий директор Nvidia Колетт Кресс оголосила цифру: близько 40% із 15 мільярдів доларів США доходу сектору центрів обробки даних у 2023 фінансовому році (близько 6 мільярдів доларів США) надходять від гіпермасштабованих центрів обробки даних і хмарних служб. провайдерів.
Але якщо ви просто подивіться на четвертий квартал, то це лише квартал. Розробники гіпермасштабованих центрів обробки даних і постачальники хмарних послуг різко скорочують витрати на GPU.
На додаток до об’єктивного зниження попиту, власно розроблений план трьох хмарних гігантів щодо чіпів штучного інтелекту поступово зменшує частку ринку графічних процесорів NVIDIA.
У 2016 році Google випустив TPU першого покоління власної розробки, а через п’ять років, 19 травня 2021 року, випустив TPU четвертого покоління v4. У дослідницькому звіті, опублікованому цього року, Google стверджує, що об’єднав 4000 TPU v4 для створення суперкомп’ютера, який працював би в 1,7 рази швидше та ефективніше, ніж еквівалентна машина з графічним процесором Nvidia A100.
Amazon також має традицію самостійної розробки чіпів не лише для Nvidia, але й для всіх виробників чіпів. На даний момент Amazon випустила чотири серії чіпів власної розробки - мережевий чіп серії Nitro, серверний чіп серії Graviton, AI-чіп міркування серії Inferentia, AI-навчальний чіп Trainium. Серед них останні два чіпи AI конкурують з графічними процесорами NVIDIA.
Незважаючи на пізнє надходження, Microsoft «прибула із запізненням». 18 квітня цього року, згідно з The Information, з 2019 року Microsoft таємно розробляє мікросхеми AI під внутрішньою кодовою назвою «Athena» (Athena), сотні співробітників працюють над проектом Athena, Microsoft інвестувала близько 2 мільярдів доларів . Деяким співробітникам Microsoft і OpenAI вдалося отримати мікросхеми для перевірки продуктивності на останніх великих мовних моделях, таких як GPT-4.
Постачальникам хмарних послуг щороку доводиться платити велику суму «податку Nvidia» за купівлю графічних процесорів, особливо після спалаху генеративного ШІ.
У лютому цього року New Street Research підрахувала: пошуковій системі Bing на основі ChatGPT потрібно 8 графічних процесорів, щоб відповідати на запитання користувачів протягом однієї секунди. З такою швидкістю Microsoft знадобиться понад 20 000 серверів із 8 графічним процесором для розгортання моделей у Bing для кожного користувача, що коштуватиме Microsoft 4 мільярди доларів. У масштабі Google, який обробляє 8-9 мільярдів запитів на день, це коштувало б 80 мільярдів доларів.
Чіпи штучного інтелекту, розроблені постачальниками хмарних послуг, не продаватимуться сторонам і не будуть безпосередньо конкурувати з Nvidia. Однак, розгорнувши в центрах обробки даних чіпи власної розробки замість графічних процесорів, витрати можна ефективно скоротити. Наприклад, Google розгорнув сотні суперкомп’ютерів TPU v4 у своєму хмарному сервісі.
У трьох основних постачальників хмарних послуг є достатні ресурси та мотивація для розробки власних чіпів, що розглядається як тріщина в імперії Nvidia. Nvidia добре це знає, але, здається, кращого способу немає.
До появи ChatGPT Nvidia, яку крок за кроком тіснили постачальники хмарних послуг, побачила точку прориву для контратаки. Оскільки постачальники хмарних послуг можуть створювати мікросхеми, хіба Nvidia не може створювати хмари в епоху ШІ?
**2. Чи є у Nvidia шанс створити хмару? **
Наразі Nvidia є найбільшим бенефіціаром генеративної революції штучного інтелекту, і Хуан Реньсюнь завжди говорив про «момент штучного інтелекту на iPhone» цього року. Вибуховий попит на генеративний ШІ зробив GPU твердою валютою.Дехто просто каже, що «GPU — це новий долар».
Від графічного процесора до хмари, чи дійсно Nvidia має шанс?
Навчання та обґрунтування генеративного ШІ в основному проводяться в хмарі, і постачальники хмарних послуг, які надають інфраструктуру ШІ, будуть одними з найбільших бенефіціарів хвилі генеративного ШІ. Згідно з даними, підрахованими венчурною компанією Кремнієвої долини A16Z, від 10% до 20% загального доходу, отриманого від генеративного штучного інтелекту, зрештою надходить до постачальників хмарних послуг.
Однак цей процес не буде швидким. Генеральний директор Amazon Енді Джессі сказав під час телефонної розмови про прибутки за 2 квартал 2023 року: «Генеративний штучний інтелект, безсумнівно, змінить досвід роботи майже всіх клієнтів. Але ще занадто рано, і більшість компаній все ще думають, як досягти цієї мети. Ми це марафон дуже ранній стадії».
Суть хмарних сервісів полягає у віртуалізації апаратних ресурсів у центрі обробки даних і подальшій здачі їх на ринок. Майже 100% серверів у традиційних центрах обробки даних побудовані на базі процесорів Intel і AMD. ЦП схожий на «загального фахівця з найсильнішим мозком», який забезпечує «загальні обчислювальні» можливості — обробку операційних систем, системного програмного забезпечення та прикладної програми. має такі програмні завдання, як складне планування інструкцій, цикл, розгалуження, логічне судження та виконання.
Але центральні процесори погано справляються з великомасштабною обробкою даних і паралельними обчисленнями, чого потребує штучний інтелект, а графічні процесори Nvidia хороші. Графічний процесор схожий на «експерта з насильницьких обчислень», який спеціалізується на обробці зображень, глибокому навчанні та поточному навчанні великих моделей, міркуванні та інших завданнях. Хуан Реньсюнь назвав цю можливість масових паралельних обчислень «прискореними обчисленнями».
У 2012 році Джефф Хінтон, батько глибокого навчання, та його учні вперше спробували навчити модель згорткової нейронної мережі AlexNet на графічному процесорі NVIDIA та одним махом виграли змагання з розпізнавання зображень. Цей інцидент став причиною вибуху глибокого навчання в наступні десять років.Вся індустрія штучного інтелекту, включаючи саму Nvidia, усвідомили потенціал GPU для прискореного обчислення.
Шестерні долі Nvidia почали обертатися. Відтоді Хуан Реньсюнь неодноразово кричав: «Закон Мура помер». Він вважає, що ера розширення ЦП закінчилася, як і десятикратне збільшення продуктивності за тих самих витрат кожні п’ять років. На зміну йому прийде графічний процесор, і Хуан Реньсюнь спеціально винайшов «закон Хуанга» – графічний процесор буде сприяти подвоєнню продуктивності ШІ з кожним роком.
Протягом десяти років з 2012 по 2022 рік ми можемо назвати це прискореними обчисленнями від 0 до 1, і штучний інтелект приземлився в конкретних галузях і конкретних сценаріях, таких як розпізнавання зображень. Однак попит на штучний інтелект у цей період ще недостатньо великий.Дослідницька компанія Aletheia прогнозує, що поточний рівень проникнення серверів штучного інтелекту на ринок становить менше 5%. Цього далеко недостатньо, щоб реалізувати мрію Хуан Реньсюня про прискорені обчислення.
До моменту народження ChatGPT у листопаді 2022 року з’явився «момент AI iPhone». Це можна розглядати як початок розширення прискорених обчислень від 1 до 10.
Хуан Реньсюнь вважає, що поєднання прискорених обчислень і генеративного штучного інтелекту змінить методи обчислень за останні 60 років. Оскільки компанії намагаються застосувати генеративний штучний інтелект до кожного продукту, послуги та бізнес-процесу, глобальна інфраструктура центру обробки даних вартістю трильйони доларів перейде від обчислень загального призначення до прискорених обчислень, і в результаті переосмислення центру обробки даних, безумовно, створить величезні ринкові можливості.
Під час телефонної конференції про прибутки за останній квартал Хуан Реньсюнь пообіцяв: «Ми знаходимося в першому році десятирічної роботи центру обробки даних».
Хуан Реньсюнь сказав, що прискорені обчислення — це завдання повного стека. Воно має інтегрувати все програмне забезпечення, усі бібліотеки фреймворків і всі алгоритми для розробки. Ці завдання стосуються не лише чіпа, а й цілого центру обробки даних. Центр обробки даних — це суперкомп’ютер. Щоб досягти найкращої продуктивності, необхідно оптимізувати весь стек мережевих операційних систем, механізмів розподіленого обчислення, мережевих пристроїв, комутаторів і обчислювальних архітектур.
Наприклад, загальний обчислювальний центр обробки даних в основному використовує Ethernet для підключення всіх серверів без великомасштабної передачі даних; прискорений обчислювальний центр обробки даних, запропонований Nvidia, використовує технологію під назвою Infinite Band для підключення, яка має надзвичайно високу пропускну здатність даних.
Систематична оптимізація також дозволяє прискореним обчислювальним центрам обробки даних мати вищу ефективність і нижчі витрати, ніж традиційні центри обробки даних.
Хуан Реньсюнь підняв запитання на SIGGRAPH, щорічній конференції з комп’ютерної графіки, яка відбулася в серпні цього року: «Що я можу купити за 100 мільйонів доларів?» — запитав себе Хуан Реньсюнь і відповів: «У минулому за 100 мільйонів доларів можна було купити центр обробки даних, що складається з 8800 процесорів x86. Споживана потужність становить 5 МВт; сьогодні за 100 мільйонів доларів США можна придбати центр обробки даних Iso-Budget, що складається з 2500 GH200, споживана потужність становить 3 МВт, продуктивність AI у 12 разів перевищує дані ЦП. центр, згаданий вище, а енергоефективність у 20 разів».
За тієї самої продуктивності міркування штучного інтелекту вартість центру обробки даних GPU становить лише 1/12 вартості центру обробки даних CPU. «Чим більше ви купуєте, тим більше ви заощаджуєте», — це маніфест Хуан Реньсюня для його Центру прискорених обчислень.
Наразі Nvidia побудувала п’ять центрів обробки даних і допомогла клієнтам по всьому світу будувати власні центри обробки даних. Крім того, для традиційного центру обробки даних можуть знадобитися місяці або навіть рік, щоб перейти від доставки до роботи, але в Nvidia. Цей час у тижнях. «Досвід команди в цій галузі надзвичайний», — сказав Хуан.
Для трьох хмарних гігантів перехід від центрів обробки даних загального призначення до центрів обробки даних з прискореними обчисленнями не буде швидким. Йдеться не лише про технології та можливості, а й про процес прийняття рішень і процеси таких гігантських компаній.
Це дає Nvidia можливість створити хмару. Зробити крок вперед від центру обробки даних до хмари є лише само собою зрозумілим, і Nvidia вже намагається це зробити.
3. Darkness Chencang
У фінансовому звіті за четвертий квартал 2023 року з найнижчими темпами зростання бізнесу центрів обробки даних Nvidia також анонсувала новий продукт — DGX Cloud. На конференції GTC через місяць було офіційно представлено DGX Cloud.
Як видно з назви, це продукт хмарного сервісу. Чи збирається Nvidia вийти на ринок хмарних обчислень?
Давайте спочатку подивимося, що таке DGX. DGX — перший суперкомп’ютер, випущений Nvidia у 2017 році, який Хуан Реньсюнь назвав «центром обробки даних у шасі».
DGX першого покоління інтегрував 8 графічних процесорів (Tesla P100) і 4 твердотільні накопичувачі, а також використовував технологію підключення NVIDIA NVlink. З точки зору глибокого навчання, продуктивність одного DGX еквівалентна 250 звичайним серверам x86. Звичайно, це також дорого, 129 000 доларів за одну одиницю.
Після зустрічі Хуан Реньсюнь подарував Ілону Маску перший DGX-1. Маск є співзасновником OpenAI. OpenAI починався з цього суперкомп’ютера і крок за кроком створив сьогоднішній ChatGPT.
Сьогодні суперкомп’ютер DGX розроблено до п’ятого покоління, перші чотири покоління – це DGX P100, DGX A100, DGX H100 і останній DGX GH200.
DGX Cloud, випущений Nvidia, є хмарною версією раніше випущеного суперкомп’ютера.Примірник DGX Cloud (віртуальний комп’ютер у хмарному сервері) налаштований з 8 A100 або H100.
Однак ціна DGX Cloud недешева, 36 999 доларів на місяць, приблизно 264 000 юанів. Для порівняння: екземпляр Microsoft Azure ND96asr із 8 A100 та його еквівалентними специфікаціями коштує 19 854 доларів на місяць, що становить лише половину DGX Cloud.
Чому Nvidia наважується встановити таку високу ціну? Відповідь полягає в тому, що DGX Cloud — це готове рішення, яке об’єднує програмне та апаратне забезпечення. **Nvidia більше не рекламує себе як компанію-виробника графічних процесорів, а позиціонує себе як компанію-виробника обчислювальної платформи. **
Окрім апаратних ресурсів, DGX Cloud також запустив дві допоміжні програмні платформи. Одна — NVIDIA AI Foundations, яка допомагає компаніям створювати власні моделі, включаючи мовні, зорові та біомедичні моделі; інша — NVIDIA AI Enterprise, яка містить 4000 різних моделей. Фреймворк штучного інтелекту, який допомагає підприємствам використовувати його з коробки. ШІ-продукти Nvidia схожі на MaaS, запущений вітчизняними постачальниками хмарних послуг, такими як Alibaba Cloud.
Хуан з оптимізмом дивиться на ці нові потоки доходів від програмного забезпечення та очікує, що дохід у генеративному просторі ШІ зросте з «однозначної» частини загального доходу компанії до «суттєвої» частини протягом наступного року. «Ми в захваті від розширення нової бізнес-моделі», — сказав Хуан Реньсюнь.
Запуск DGX Cloud об'єктивно сформував певні конкурентні відносини з провайдерами хмарних послуг, але Nvidia все ще хоче підтримувати тісну співпрацю з провайдерами хмарних послуг. Зараз Nvidia не створює повну хмарну інфраструктуру з нуля, але розміщує DGX Cloud на хмарних платформах різних постачальників хмарних послуг.
Nvidia продає базове апаратне забезпечення постачальникам хмарних технологій, потім купує в них ресурси хмарних обчислень і, нарешті, продає хмарні послуги корпоративним клієнтам і зберігає весь дохід. Клієнти можуть отримати доступ до суперкомп’ютера зі штучним інтелектом Nvidia лише через браузер, щоб використовувати продукти штучного інтелекту Nvidia та сервіси моделей штучного інтелекту.
Однак чи купуватимуть його постачальники хмарних послуг?
У зв’язку з цим Хуан Реньсюнь пояснив: «Співпраця між хмарними службами NVIDIA та постачальниками хмарних послуг буде взаємовигідною. Обидві сторони спільно створюватимуть нові програми та розвиватимуть нові ринки». NVIDIA DGX Співвідношення хмари до хмари постачальника хмарних послуг становить 1:9.
Oracle є першим постачальником хмарних послуг, який оголосив про партнерство з Nvidia. Програмний гігант в останні роки терміново проводить хмарну трансформацію, тому у нього є достатня мотивація для створення альянсу з Nvidia, щоб зробити поворот на ринку хмарних обчислень. Nvidia також працює з Microsoft Azure, Google Cloud та іншими хмарними платформами, які також незабаром будуть запущені.
** Nvidia видає бажане за дійсне гучно, але не всі постачальники хмарних послуг приймуть запит Nvidia. **AWS відмовився співпрацювати з Nvidia щодо продуктів DGX Cloud.
Як повідомляє Reuters, Дейв Браун, віце-президент Amazon Elastic Cloud Computing, сказав: «NVIDIA зв’язалася з нами, і ми вивчили бізнес-модель. Але для AWS це не має особливого сенсу». Він вважає, що AWS має здатність будувати надійні сервери Тривалий досвід роботи з наявними знаннями в ланцюгах поставок.
AWS почала закуповувати чіп Nvidia H100 у березні цього року, але лише як частину своєї системи власної розробки. AWS також розглядає можливість використання останнього чіпа AMD зі штучним інтелектом MI300, але ще не прийняла остаточного рішення.
З огляду на розвиток ринку генеративного штучного інтелекту, розподіл переваг між Nvidia та постачальниками хмарних послуг продовжуватиме змінюватися. Але цілком очевидно, що Nvidia зрушила з місця постачальника хмарних послуг.
4. Злити знизу
Запуск DGX Cloud є лише першим кроком, і участь Nvidia в ринку хмарних обчислень все ще поглиблюється. У цьому кроці Nvidia не вирішила закінчити особисто, а вирішила підтримати конкурентів трьох хмарних гігантів.
Цього року з’явився невеликий і середній хмарний постачальник під назвою CoreWeave, який став постачальником хмарних послуг, який є більш популярним, ніж три хмарні гіганти. **CoreWeave стверджує, що є єдиним постачальником хмарних послуг у світі, який може «забезпечувати Nvidia H100 у великих масштабах». **
Згідно з оцінками веб-сайту GPU Utils, кількість H100, які CoreWeave замовив у Nvidia, становить близько 35 000-40 000. Для порівняння: суперкомп’ютер A3, випущений Google у травні цього року, має близько 26 000 H100, екземпляр віртуальної машини EC2 P5, запущений Amazon AWS у липні, базується на 20 000 H100, а віртуальна машина Azure ND H100v5, запущена Microsoft у серпні, містить всього 8 штук Н100. Проте Microsoft володіє приблизно 285 000 A100.
Окрім майнінгу, CoreWeave також почав намагатися обслуговувати деяких корпоративних клієнтів, таких як штучний інтелект, розважальні медіа та обчислювальна хімія. У 2019 році CoreWeave повністю перейшла з графічних процесорів споживчого класу на графічні процесори Nvidia корпоративного рівня, оскільки графічні процесори корпоративного рівня можуть працювати цілодобово, збільшуючи використання GPU майже до 100%.
У 2021 році CoreWeave офіційно запустила хмарну платформу GPU на базі Nvidia. У третьому кварталі 2022 року, із злиттям Ethereum і кінцем ери масштабного майнінгу графічних карт, CoreWeave повністю перетворилася на постачальника хмарних послуг і оголосила в листопаді цього року, що стала першою серією провайдерів, які використовують суперчіп NVIDIA HGX H100 Один із провайдерів хмарних послуг.
У порівнянні з трьома гігантами Amazon, Microsoft і Google, CoreWeave не планує розробляти власний чіп AI, який високо оцінив Nvidia.
У квітні 2023 року Nvidia поглибила співпрацю з CoreWeave, і окрім ділової співпраці, вона також інвестувала в раунд B1 фінансування CoreWeave на суму 221 мільйон доларів. Найголовніше те, що Nvidia надала CoreWeave унікальний канал для дефіцитних A100 і H100.
У недавньому інтерв’ю Bloomberg Бреннін МакБі, співзасновник і головний стратегічний директор CoreWeave, сказав, що цього року Nvidia розпродала чіпи, а замовлення CoreWeave також заплановано на 2 квартал наступного року.
CoreWeave, мабуть, має найбільший запас графічних процесорів Nvidia у світі. У контексті нинішнього дефіциту GPU чіпи навіть цінніші, ніж капітал, і CoreWeave створила інноваційний метод фінансування. У серпні цього року CoreWeave залучила боргове фінансування на суму 2,3 мільярда доларів, заклавши свої чіпи GPU. Раніше раунд B1 акціонерного фінансування CoreWeave отримав лише 421 мільйон доларів.
Завдяки стратегічному альянсу «хмара + графічний процесор» із Nvidia продуктивність CoreWeave також різко зросла.
До цього року CoreWeave була маловідомою компанією. Але тепер CoreWeave готова заробити на цьому мільярди доларів завдяки своїм графічним процесорам. В інтерв’ю VentureBeat співзасновник CoreWeave та головний стратегічний директор Бреннін Макбі розповів, що дохід CoreWeave у 2022 році становитиме 30 мільйонів доларів США, цього року досягне 500 мільйонів доларів США, а наступного року підписала контракти на майже 2 мільярди доларів США.
CoreWeave також оголосила про новий центр обробки даних вартістю 1,6 мільярда доларів США в Техасі та планує розширити його до 14 центрів обробки даних до кінця року. Наразі зірка штучного інтелекту Unicorn Inflection використовує хмару CoreWeave для створення кластера GPU приблизно з 22 000 H100. У липні цього року компанія оголосила про новий раунд фінансування в розмірі 1,3 мільярда доларів. Варто зазначити, що NVIDIA також є серед інвесторів Inflection.
CoreWeave — перша компанія з хмарних обчислень, у яку Nvidia інвестувала цього року, але не єдина.
Згідно з The Information, Nvidia збирається досягти інвестиційної угоди з іншим постачальником хмарних послуг, Lambda Labs. Nvidia може інвестувати 300 мільйонів доларів США, а оцінка Lambda Labs перевищить 1 мільярд доларів США. Lambda Labs стверджує, що може надати ресурси обчислювальної потужності NVIDIA A100 і H100 за найнижчою ціною в світі.
Наразі завдяки «розумному» розподілу ресурсів GPU Nvidia стала трейдером на ринку хмарних обчислень у фактичному розумінні цього слова, і осягнула ручку хмарного гіганта від кореня — Microsoft є хорошим прикладом.
Microsoft додала новий фактор ризику до свого останнього звіту про прибутки: «Послуги можуть бути перервані, якщо вона не зможе забезпечити достатню кількість чіпів штучного інтелекту для своїх центрів обробки даних».
З огляду на величезні потреби в обчисленнях зі штучним інтелектом, графічного процесора Microsoft не вистачає, і їй навіть доводиться звертатися за допомогою до своїх конкурентів, малих і середніх хмарних постачальників. За даними CNBC, Microsoft «погодилася витратити мільярди доларів протягом наступних кількох років на покупку інфраструктури хмарних обчислень стартапу CoreWeave». Під контролем Nvidia Microsoft довелося дозволити малим і середнім постачальникам хмарних послуг, таким як CoreWeave, отримувати різницю в ціні від GPU.
Інвестуючи в малих і середніх постачальників хмарних послуг, Nvidia ступила на сферу хмарних обчислень. Хоча немає жодних спроб побудувати хмарну інфраструктуру та напряму конкурувати з хмарними гігантами, ми не здивуємося, якщо Nvidia вийде на ринок напряму, придбавши в майбутньому малих і середніх постачальників хмарних послуг.
Незалежно від того, чи Nvidia зрештою вступить у гру, вона стала найбільшим закулісним гравцем на ринку хмарних обчислень на хвилі генеративного ШІ.