«Беги за едой или беги, чтобы тебя не съели другие. В любом случае продолжай бежать».
Это обращение генерального директора Nvidia Хуанг Ренсюня к выпускникам в его речи в Национальном тайваньском университете в этом году.Конечно, это также интерпретация менталитета этой империи с рыночной капитализацией в триллион долларов, созданной Хуан Ренсюнем.
В 2023 году Nvidia в бегах столкнулась с генеративным ИИ, который Хуан Ренсюнь много раз называл «моментом ИИ для iPhone». В этот момент Хуан Ренсюнь нацелился на возможность стать охотником, а не добычей - Юн.
Кажется, что у Nvidia не должно быть мотивации заниматься облачными технологиями не только потому, что поставщики облачных услуг являются важными клиентами Nvidia и ежегодно покупают у Nvidia графические процессоры на миллиарды долларов, но и потому, что у этого дела, похоже, нет шансов на победу.
Сегодняшний рынок облачных вычислений прочно контролируется тремя облачными гигантами Amazon AWS, Microsoft Azure и Google Cloud. По данным Statista, в 2022 году доля рынка AWS составит 32%, Azure — 23%, Google Cloud — 10%, а совокупная доля рынка трех компаний достигнет 65%.
Дело не в том, что мы не видели претендента. За последние десять лет такие известные компании, как VMware, Dell и Hewlett-Packard, хотели получить часть рынка облачных вычислений, но все без исключения потерпели неудачу.
Однако так же, как каждая технологическая революция порождает новых законодателей моды, эта волна генеративного ИИ, производитель чипов Nvidia начала шаг за шагом тестировать рынок облачных вычислений:
**На первом этапе, на конференции GTC 21 марта этого года, NVIDIA представила DGX Cloud. **Как видно из названия, это облачный продукт.Клиенты могут напрямую получать продукты и услуги ИИ от Nvidia в облаке или в локальных центрах обработки данных, арендовав их на ежемесячной основе;
**Второй шаг — инвестировать в конкурентов трех облачных гигантов. **Nvidia последовательно инвестировала в CoreWeave и Lambda Labs, двух малых и средних поставщиков облачных услуг в США, и выделила им дефицитные чипы GPU. Насколько преувеличено это «предпочтение»? В тот момент, когда ядра графических процессоров трудно найти, CoreWeave смогла получить долговое финансирование в размере 2,3 миллиарда долларов США, заложив свои многочисленные графические процессоры, особенно H100.
Хотя это только началось, структура облачного бизнеса представляет собой контратаку Nvidia против облачных гигантов.
Как мы все знаем, Google, Amazon и Microsoft последовательно запустили собственные проекты чипов искусственного интеллекта внутри компании — серии TPU от Google, серии Inferentia и Trainium от Amazon, а также чип Athena от Microsoft, представленный в этом году. У трех облачных гигантов достаточно ресурсов и мотивации для самостоятельной разработки чипов ИИ, чтобы снизить «налог на GPU» Nvidia.
Nvidia прекрасно об этом знает. Хуан Ренсюнь прямо сказал на телефонной конференции, посвященной отчету о прибылях и убытках за последний квартал, что «мы обращали внимание на конкуренцию, и у нас всегда была конкуренция».
Huang Renxun не может предотвратить расширение трех основных поставщиков облачных услуг, но, возможно, лучшая защита — это нападение, а метод контратаки Nvidia заключается в том, чтобы перейти непосредственно к облаку.
Имея в руках два козыря А100 и Н100 - на протяжении длительного периода времени эти два чипа являются лучшим выбором для масштабного обучения и рассуждений моделей, и ни у одного из них у Nvidia нет возможности стать настоящим лидером в рынок облачных вычислений оператор за кадром.
Открытая и тайная битва вокруг чипов и облачных вычислений медленно разворачивается между четырьмя технологическими гигантами, входящими в пятерку крупнейших по капитализации мировых рынков.
1. Чуть не упал перед рассветом
Те, кто знаком с Nvidia, знают, насколько прекрасна Nvidia сегодня и какой несчастной была Nvidia в прошлом году.
Основные направления деятельности Nvidia включают центры обработки данных, игры, профессиональную визуализацию и автомобили. Во втором квартале 2020 года бизнес центров обработки данных Nvidia впервые превзошел продажи игр, став крупнейшим источником дохода Nvidia.
На собрании по финансовым отчетам за четвертый квартал 2022 года (соответствует естественному году с ноября 2021 по январь 2022 года) Nvidia представила сильный финансовый отчет за четвертый квартал, и ее бизнес центров обработки данных увеличился на 71% в годовом исчислении. Хуан Жэньсюнь тогда оптимистично сказал: «Вычислительная платформа Nvidia вызвала необычайный рыночный спрос.» Однако через неделю вспыхнул конфликт между Россией и Украиной, нарушивший цепочку поставок ключевого сырья. В сочетании с воздействием эпидемии темпы роста бизнеса центров обработки данных Nvidia будут продолжать замедляться в течение 2022 года.
В финансовом отчете за четвертый квартал 2023 года, опубликованном в феврале этого года, темпы роста центров обработки данных NVIDIA составили всего 11%, что является рекордно низким показателем, и впервые с 2020 года сеть снизилась.
В 2022 году цена акций Nvidia также упадет вдвое. Конечно, сегодня он снова поднялся, и рождение ChatGPT спасло Nvidia.
Примечание. Nvidia опубликует свой финансовый отчет за второй квартал 2024 года в среду (23 августа), что соответствует периоду с мая по июль 2023 года.
Среди многих причин снижения темпов роста бизнеса сокращение спроса со стороны крупных клиентов является наиболее важным. В финансовом отчете за четвертый квартал 2023 года финансовый директор Nvidia Колетт Кресс объявила цифру: около 40% из 15 миллиардов долларов США дохода сектора центров обработки данных в 2023 финансовом году (около 6 миллиардов долларов США) приходится на гипермасштабные центры обработки данных и облачные сервисы. провайдеры.
Но если вы просто посмотрите на четвертый квартал, это всего лишь квартал. Строители гипермасштабируемых центров обработки данных и поставщики облачных услуг резко сокращают расходы на GPU.
Помимо объективного снижения спроса, самостоятельная разработка трех облачных гигантов чипов искусственного интеллекта постепенно сокращает рыночную долю графических процессоров NVIDIA.
В 2016 году Google выпустила TPU с собственным чипом искусственного интеллекта первого поколения, а пять лет спустя, 19 мая 2021 года, выпустила TPU четвертого поколения v4. В исследовательском отчете, опубликованном в этом году, Google сообщила, что объединила 4000 TPU v4 для создания суперкомпьютера, который работает в 1,7 раза быстрее и эффективнее, чем эквивалентная машина с графическим процессором Nvidia A100 (в 1,9 раза выше).
Amazon также имеет традицию самостоятельной разработки чипов не только для Nvidia, но и для всех производителей чипов. В настоящее время Amazon выпустила четыре серии чипов собственной разработки: сетевой чип серии Nitro, серверный чип серии Graviton, чип для рассуждения AI серии Inferentia, обучающий чип AI Trainium. Среди них два последних ИИ-чипа конкурируют с графическими процессорами NVIDIA.
Несмотря на свое позднее появление, Microsoft «опоздала». На 18 апреля этого года, по данным The Information, с 2019 года Microsoft тайно разрабатывает ИИ-чипы под внутренним кодовым названием «Афина» (Athena), над проектом Athena работают сотни сотрудников, Microsoft инвестировала около 2 млрд долларов. . Некоторым сотрудникам Microsoft и OpenAI удалось получить чипы для проверки производительности на последних больших языковых моделях, таких как GPT-4.
Поставщики облачных услуг должны каждый год платить большую сумму «налога Nvidia» за покупку графических процессоров, особенно после вспышки генеративного ИИ.
В феврале этого года New Street Research сделала оценку: поисковой системе Bing на базе ChatGPT требуется 8 графических процессоров, чтобы отвечать на вопросы пользователей в течение одной секунды. При таких темпах Microsoft потребуется более 20 000 серверов с 8 графическими процессорами для развертывания моделей в Bing для каждого пользователя, что обойдется Microsoft в 4 миллиарда долларов. В масштабах Google, который обрабатывает 8-9 миллиардов запросов в день, это будет стоить 80 миллиардов долларов.
Чипы искусственного интеллекта, разработанные самими поставщиками облачных услуг, не будут продаваться на стороне и не будут напрямую конкурировать с Nvidia. Однако развертывание в центрах обработки данных чипов собственной разработки вместо графических процессоров позволяет эффективно сократить расходы. Например, Google развернул в своем облачном сервисе сотни суперкомпьютеров TPU v4.
У трех основных поставщиков облачных услуг достаточно ресурсов и мотивации для разработки собственных чипов, что рассматривается как трещина в империи Nvidia. Nvidia прекрасно об этом знает, но лучшего способа, похоже, нет.
До появления ChatGPT Nvidia, на которую шаг за шагом теснили поставщики облачных услуг, увидела точку прорыва для контратаки. Поскольку поставщики облачных услуг могут производить чипы, не может ли Nvidia создавать облака в эпоху ИИ?
**2. Есть ли у Nvidia шанс сделать облако? **
В настоящее время Nvidia является крупнейшим бенефициаром революции генеративного ИИ, и Хуан Ренсюнь всегда говорил о «моменте ИИ для iPhone» в этом году. Взрывной спрос на генеративный ИИ превратил GPU в твердую валюту Некоторые люди просто говорят, что «GPU — это новый доллар».
От графического процессора к облаку, действительно ли у Nvidia есть шанс?
Обучение и обоснование генеративного ИИ в основном выполняются в облаке, и поставщики облачных услуг, которые предоставляют инфраструктуру ИИ, будут одними из крупнейших бенефициаров волны генеративного ИИ. Согласно данным, подсчитанным венчурной компанией Силиконовой долины A16Z, от 10% до 20% общего дохода, полученного от генеративного ИИ, в конечном итоге поступает к поставщикам облачных услуг.
Однако этот процесс не будет быстрым. Генеральный директор Amazon Энди Ясси сказал на конференции о доходах за второй квартал 2023 года: «Генеративный ИИ, несомненно, изменит опыт почти всех клиентов. Но еще слишком рано, и большинство компаний все еще думают, как достичь этой цели. очень ранняя стадия».
Суть облачных сервисов заключается в том, чтобы виртуализировать аппаратные ресурсы в центре обработки данных, а затем сдавать их в аренду на рынке. Почти 100% серверов в традиционных центрах обработки данных построены на базе процессоров Intel и AMD.ЦП подобен «универсалу с самым сильным мозгом», который обеспечивает возможности «общих вычислений» — обработку операционных систем, системного программного обеспечения и прикладной программы. имеет программные задачи, такие как планирование сложных инструкций, зацикливание, ветвление, логическое суждение и выполнение.
Но процессоры не подходят для крупномасштабной обработки данных и параллельных вычислений, в чем нуждается искусственный интеллект, а графические процессоры Nvidia хороши в этом. GPU похож на «эксперта по агрессивным вычислениям», специализирующегося на обработке изображений, глубоком обучении и текущем обучении больших моделей, рассуждениях и других задачах. Хуан Ренсюнь назвал эту возможность массовых параллельных вычислений «ускоренными вычислениями».
В 2012 году Джефф Хинтон, отец глубокого обучения, и его ученики впервые попытались обучить модель сверточной нейронной сети AlexNet на графическом процессоре NVIDIA и одним махом выиграли соревнование по распознаванию изображений. Этот инцидент породил бум глубокого обучения в следующие десять лет: вся индустрия искусственного интеллекта, включая саму Nvidia, осознала потенциал GPU для ускоренных вычислений.
Шестерни судьбы Nvidia начали вращаться. С тех пор Хуан Ренсюнь много раз кричал: «Закон Мура мертв». Он считает, что эпоха расширения ЦП закончилась, как и десятикратное увеличение производительности при тех же затратах каждые пять лет. Его заменит GPU, и Хуан Ренсюнь специально изобрел «закон Хуанга» — GPU будет способствовать удвоению производительности ИИ из года в год.
В течение десяти лет с 2012 по 2022 год мы можем назвать это ускоренными вычислениями от 0 до 1, и искусственный интеллект приземлился в определенных отраслях и конкретных сценариях, таких как распознавание изображений. Однако спрос на ИИ в этот период все еще недостаточно велик: исследовательская компания Aletheia прогнозирует, что текущий уровень проникновения ИИ-серверов на рынок составляет менее 5%. Этого далеко недостаточно для реализации мечты Хуан Ренсюня об ускоренных вычислениях.
До рождения ChatGPT в ноябре 2022 года возник «момент AI iPhone». Это можно рассматривать как начало масштабирования ускоренных вычислений с 1 до 10.
Доход от генеративного ИИ (фото через Bloomberg)
Хуан Ренсюнь считает, что сочетание ускоренных вычислений и генеративного ИИ изменит методы вычислений за последние 60 лет. По мере того, как компании стремятся применять генеративный ИИ к каждому продукту, услуге и бизнес-процессу, глобальная инфраструктура центров обработки данных стоимостью в триллион долларов перейдет от вычислений общего назначения к ускоренным вычислениям, и в результате переосмысление центров обработки данных, несомненно, создаст огромные рыночные возможности.
В ходе телефонной конференции по доходам за последний квартал Хуан Ренсюнь пообещал: «Мы находимся в первом году десятилетней аналитики центров обработки данных».
Хуан Ренсюнь сказал, что ускоренные вычисления — это комплексная задача, которая должна интегрировать все программное обеспечение, все библиотеки фреймворков и все инженерные алгоритмы. Эти задачи касаются не только чипа, но и всего центра обработки данных. Центр обработки данных — это суперкомпьютер.Для достижения наилучшей производительности необходимо оптимизировать весь стек сетевых операционных систем, распределенных вычислительных механизмов, сетевых устройств, коммутаторов и вычислительных архитектур.
Например, общий вычислительный центр обработки данных в основном использует Ethernet для соединения всех серверов без крупномасштабной передачи данных; ускоренный вычислительный центр обработки данных, предложенный Nvidia, использует для соединения технологию Infinite Band, которая имеет чрезвычайно высокую пропускную способность данных.
Систематическая оптимизация также позволяет центрам обработки данных с ускоренными вычислениями иметь более высокую эффективность и меньшие затраты, чем традиционные центры обработки данных.
Хуан Ренсюнь поднял вопрос на SIGGRAPH, ежегодной конференции по компьютерной графике, состоявшейся в августе этого года: «Что я могу купить за 100 миллионов долларов?» Хуан Ренсюнь спросил себя и ответил: «В прошлом за 100 миллионов долларов можно было купить центр обработки данных, состоящий из 8800 процессоров x86, потребляемая мощность 5 МВт, сегодня за 100 миллионов долларов США можно купить центр обработки данных Iso-Budget, состоящий из 2500 GH200, энергопотребление 3 МВт, производительность ИИ-рассуждения в 12 раз выше, чем у данных ЦП центра, упомянутого выше, а энергоэффективность в 20 раз».
При той же производительности ИИ стоимость центра обработки данных с GPU составляет всего 1/12 от стоимости центра обработки данных с процессором. «Чем больше вы покупаете, тем больше экономите», — таков манифест Хуанга Ренсюня для его центра ускоренных вычислений.
На данный момент Nvidia построила пять центров обработки данных и помогла клиентам по всему миру построить свои собственные центры обработки данных. Более того, традиционный дата-центр может пройти месяцы или даже год, чтобы пройти путь от поставки до эксплуатации, но в Nvidia. Это время в неделях. «Опыт команды в этой области впечатляет, — сказал Хуанг.
Для трех облачных гигантов переход от центров обработки данных общего назначения к центрам обработки данных с ускоренными вычислениями не будет быстрым. Речь идет не только о технологиях и возможностях, но и о принятии решений и процессах таких компаний-гигантов.
Это дает Nvidia возможность работать в облаке. Сделать шаг вперед от центра обработки данных к облаку — это само собой разумеющееся, и Nvidia уже пытается это сделать.
3. Даркнесс Ченцан
В финансовом отчете за четвертый квартал 2023 года с самыми низкими темпами роста бизнеса центров обработки данных Nvidia также анонсировала новый продукт — DGX Cloud. На конференции GTC месяц спустя был официально представлен DGX Cloud.
Как видно из названия, это облачный сервисный продукт. Собирается ли Nvidia выйти на рынок облачных вычислений?
Давайте сначала посмотрим, что такое DGX. DGX — это первый суперкомпьютер, выпущенный Nvidia в 2017 году, который Хуан Ренсюнь назвал «центром обработки данных в шасси».
DGX первого поколения интегрировала 8 графических процессоров (Tesla P100) и 4 твердотельных накопителя, а также использовала технологию подключения NVIDIA NVlink. С точки зрения обучения глубокому обучению производительность одного DGX эквивалентна 250 обычным серверам x86. Конечно, это также дорого, 129 000 долларов за одну единицу.
После встречи Хуан Ренсюнь подарил Илону Маску первый DGX-1. Маск является соучредителем OpenAI, OpenAI начал с этого суперкомпьютера и шаг за шагом построил сегодняшний ChatGPT.
Сегодня суперкомпьютер DGX разработан до пятого поколения.Первые четыре поколения — это DGX P100, DGX A100, DGX H100 и последний DGX GH200.
Облако DGX, выпущенное Nvidia, является облачной версией ранее выпущенного суперкомпьютера Экземпляр DGX Cloud (виртуальный компьютер на облачном сервере) настроен на 8 A100 или H100.
Однако цена DGX Cloud не из дешевых: 36 999 долларов в месяц, около 264 000 юаней. Для сравнения, экземпляр Microsoft Azure ND96asr с 8 серверами A100 и его эквивалентными характеристиками стоит 19 854 долларов США в месяц, что составляет лишь половину стоимости облака DGX.
Почему Nvidia смеет устанавливать такую высокую цену? Ответ заключается в том, что DGX Cloud — это готовое решение, объединяющее программное и аппаратное обеспечение. **Nvidia больше не позиционирует себя как производитель чипов для графических процессоров, а позиционирует себя как производитель вычислительных платформ. **
Помимо аппаратных ресурсов, DGX Cloud также запустила две вспомогательные программные платформы: NVIDIA AI Foundations, которая помогает компаниям создавать собственные модели, включая языковые, зрительные и биомедицинские модели, и NVIDIA AI Enterprise, которая содержит 4000 различных моделей. Фреймворк искусственного интеллекта, который помогает предприятиям использовать его «из коробки». Продукты Nvidia AI аналогичны MaaS, запущенным отечественными поставщиками облачных услуг, такими как Alibaba Cloud.
Хуан с оптимизмом смотрит на эти новые потоки доходов от программного обеспечения и ожидает, что доход в области генеративного искусственного интеллекта вырастет с «одноразрядной» части общего дохода компании до «существенной» части в течение следующего года. «Мы рады расширению новой бизнес-модели», — сказал Хуан Ренсюнь.
Запуск DGX Cloud объективно сформировал определенные конкурентные отношения с поставщиками облачных услуг, но Nvidia по-прежнему хочет поддерживать тесное сотрудничество с поставщиками облачных услуг. В настоящее время Nvidia не создает полную облачную инфраструктуру с нуля, а размещает DGX Cloud на облачных платформах различных поставщиков облачных услуг.
Nvidia продает основные аппаратные средства поставщикам облачных услуг, затем покупает у них ресурсы облачных вычислений и, наконец, продает облачные услуги корпоративным клиентам и сохраняет за собой всю выручку. Клиенты могут получить доступ к суперкомпьютеру Nvidia AI только через браузер, чтобы использовать продукты Nvidia AI и услуги модели AI.
Однако купят ли его поставщики облачных услуг?
В связи с этим Хуан Ренсюнь пояснил: "Сотрудничество между облачными сервисами NVIDIA и поставщиками облачных услуг будет взаимовыгодным. Обе стороны будут совместно создавать новые приложения и осваивать новые рынки". NVIDIA DGX Соотношение облака к облаку поставщика облачных услуг составляет 1:9.
Oracle — первый поставщик облачных услуг, объявивший о партнерстве с Nvidia. Софтверный гигант в последние годы в срочном порядке проводит облачную трансформацию, поэтому у него достаточно мотивации для заключения альянса с Nvidia, чтобы совершить переворот на рынке облачных вычислений. Nvidia также работает с Microsoft Azure, Google Cloud и другими облачными платформами, запуск которых также ожидается в ближайшее время.
** Выдача желаемого за действительное Nvidia звучит громко, но не все поставщики облачных услуг примут запрос Nvidia. **AWS отказалась сотрудничать с Nvidia по продуктам DGX Cloud.
Как сообщает Reuters, вице-президент Amazon Elastic Cloud Computing Дэйв Браун сказал: «NVIDIA связалась с нами, и мы изучили бизнес-модель. Но для AWS это не имеет особого смысла». надежные серверы Многолетний опыт работы с существующей цепочкой поставок.
AWS начала закупать чип Nvidia H100 в марте этого года, но только как часть своей собственной системы. AWS также рассматривает возможность использования новейшего чипа искусственного интеллекта AMD, MI300, но еще не приняла окончательного решения.
Перед лицом зарождающегося рынка генеративного ИИ распределение преимуществ между Nvidia и поставщиками облачных услуг будет продолжать меняться. Но совершенно очевидно, что Nvidia передвинула сыр поставщика облачных услуг.
4. Слив снизу
Запуск DGX Cloud — это только первый шаг, и участие Nvidia на рынке облачных вычислений все еще углубляется. На этом этапе Nvidia решила не заканчивать лично, а предпочла поддержать конкурентов трех облачных гигантов.
В этом году появился небольшой и средний поставщик облачных услуг под названием CoreWeave, который стал поставщиком облачных услуг, более популярным, чем три облачных гиганта. **CoreWeave утверждает, что является единственным поставщиком облачных услуг в мире, который может «предоставить Nvidia H100 в больших масштабах». **
По оценкам сайта GPU Utils, количество H100, заказанных CoreWeave у Nvidia, составляет около 35 000–40 000. Для сравнения, суперкомпьютер A3, выпущенный Google в мае этого года, имеет около 26 000 H100, экземпляр виртуальной машины EC2 P5, запущенный Amazon AWS в июле, основан на 20 000 H100, а виртуальная машина Azure ND H100v5, запущенная Microsoft в августе, содержит всего 8 штук H100. Тем не менее, Microsoft владеет примерно 285 000 A100.
Каково происхождение CoreWeave? Компания, основанная в 2017 году, изначально занималась в основном бизнесом по добыче криптовалюты Ethereum, а в 2018 году стала крупнейшим майнером Ethereum в Северной Америке. В то время CoreWeave развернул более 50 000 графических процессоров, обеспечивающих более 1% вычислительной мощности сети Ethereum.
Помимо майнинга, CoreWeave также начала пытаться обслуживать некоторых корпоративных клиентов, таких как искусственный интеллект, развлекательные медиа и вычислительная химия. В 2019 году CoreWeave полностью перешла с графических процессоров потребительского уровня на графические процессоры Nvidia корпоративного уровня, поскольку графические процессоры корпоративного уровня могут работать круглосуточно, увеличивая использование графического процессора почти до 100%.
В 2021 году CoreWeave официально запустила облачную платформу GPU на базе Nvidia. В третьем квартале 2022 года, со слиянием Ethereum и окончанием эры крупномасштабного майнинга видеокарт, CoreWeave полностью трансформировалась в поставщика облачных услуг, а в ноябре этого года объявила, что стала первой партией. провайдеров, использующих суперчип NVIDIA HGX H100.Один из провайдеров облачных услуг.
По сравнению с тремя гигантами Amazon, Microsoft и Google, CoreWeave не планирует разрабатывать собственный ИИ-чип, который высоко оценила Nvidia.
В апреле 2023 года Nvidia углубила свое сотрудничество с CoreWeave и, помимо делового сотрудничества, также инвестировала в раунд финансирования CoreWeave B1 на сумму 221 миллион долларов. Самое главное, Nvidia предоставила CoreWeave уникальный канал для дефицитных A100 и H100.
В недавнем интервью Bloomberg Браннин МакБи, соучредитель и директор по стратегии CoreWeave, сказал, что Nvidia распродала чипы в этом году, и заказы CoreWeave также запланированы на второй квартал следующего года.
CoreWeave, вероятно, имеет самый большой запас графических процессоров Nvidia в мире. В условиях текущей нехватки графических процессоров чипы даже более ценны, чем акции, и CoreWeave разработала инновационный метод финансирования. В августе этого года CoreWeave получила долговое финансирование в размере 2,3 миллиарда долларов, заложив свои чипы GPU. Ранее в рамках раунда долевого финансирования CoreWeave B1 было получено всего 421 миллион долларов.
Благодаря стратегическому альянсу «облако + GPU» с Nvidia производительность CoreWeave также резко возросла.
До этого года CoreWeave была малоизвестной компанией. Но теперь CoreWeave готова заработать на этом миллиарды долларов с помощью своих графических процессоров. В интервью VentureBeat соучредитель и главный стратегический директор CoreWeave Браннин МакБи сообщил, что выручка CoreWeave в 2022 году составит 30 миллионов долларов США, в этом году достигнет 500 миллионов долларов США, а в следующем году подписаны контракты почти на 2 миллиарда долларов США.
CoreWeave также объявила о строительстве нового центра обработки данных стоимостью 1,6 миллиарда долларов в Техасе и планирует расширить до 14 центров обработки данных к концу года. В настоящее время ИИ-звезда-единорог Inflection использует облако CoreWeave для создания кластера графических процессоров примерно из 22 000 H100.В июле этого года компания объявила о новом раунде финансирования в размере 1,3 миллиарда долларов. Стоит отметить, что NVIDIA также входит в число инвесторов Inflection.
CoreWeave — первая компания облачных вычислений, в которую Nvidia инвестировала в этом году, но не единственная.
Согласно информации, Nvidia собирается заключить инвестиционное соглашение с другим поставщиком облачных услуг, Lambda Labs.Nvidia может инвестировать 300 миллионов долларов США, а оценка Lambda Labs превысит 1 миллиард долларов США. Lambda Labs утверждает, что может предоставить вычислительные ресурсы NVIDIA A100 и H100 по самой низкой цене в мире.
В настоящее время, с «разумным» распределением ресурсов графического процессора, Nvidia стала трейдером на рынке облачных вычислений в прямом смысле этого слова и схватила ручку облачного гиганта с самого начала — Microsoft — хороший пример.
Microsoft добавила новый фактор риска в свой последний отчет о доходах: «Услуги могут быть нарушены, если она не сможет обеспечить достаточное количество чипов искусственного интеллекта для своих центров обработки данных».
Перед лицом огромных потребностей в вычислениях ИИ нагрузка на графический процессор Microsoft не хватает, и ей даже приходится обращаться за помощью к своим конкурентам, малым и средним поставщикам облачных услуг. Согласно CNBC, Microsoft «согласилась потратить миллиарды долларов в течение следующих нескольких лет на покупку инфраструктуры облачных вычислений стартапа CoreWeave». Под контролем Nvidia Microsoft должна была позволить малым и средним поставщикам облачных услуг, таким как CoreWeave, получать разницу в цене от графического процессора.
Инвестируя в малых и средних поставщиков облачных услуг, Nvidia вышла на рынок облачных вычислений. Хотя здесь нет попыток построить облачную инфраструктуру и напрямую конкурировать с облачными гигантами, мы не удивимся, если Nvidia выйдет на рынок напрямую, приобретя в будущем мелких и средних поставщиков облачных услуг.
Независимо от того, войдет ли Nvidia в конечном итоге в игру, она стала крупнейшим закулисным игроком на рынке облачных вычислений на волне генеративного ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Nvidia и облачные гиганты должны сразиться
Автор: Чжао Цзянь
Источник: Цзязи Гуаннянь.
«Беги за едой или беги, чтобы тебя не съели другие. В любом случае продолжай бежать».
Это обращение генерального директора Nvidia Хуанг Ренсюня к выпускникам в его речи в Национальном тайваньском университете в этом году.Конечно, это также интерпретация менталитета этой империи с рыночной капитализацией в триллион долларов, созданной Хуан Ренсюнем.
В 2023 году Nvidia в бегах столкнулась с генеративным ИИ, который Хуан Ренсюнь много раз называл «моментом ИИ для iPhone». В этот момент Хуан Ренсюнь нацелился на возможность стать охотником, а не добычей - Юн.
Кажется, что у Nvidia не должно быть мотивации заниматься облачными технологиями не только потому, что поставщики облачных услуг являются важными клиентами Nvidia и ежегодно покупают у Nvidia графические процессоры на миллиарды долларов, но и потому, что у этого дела, похоже, нет шансов на победу.
Сегодняшний рынок облачных вычислений прочно контролируется тремя облачными гигантами Amazon AWS, Microsoft Azure и Google Cloud. По данным Statista, в 2022 году доля рынка AWS составит 32%, Azure — 23%, Google Cloud — 10%, а совокупная доля рынка трех компаний достигнет 65%.
Дело не в том, что мы не видели претендента. За последние десять лет такие известные компании, как VMware, Dell и Hewlett-Packard, хотели получить часть рынка облачных вычислений, но все без исключения потерпели неудачу.
Однако так же, как каждая технологическая революция порождает новых законодателей моды, эта волна генеративного ИИ, производитель чипов Nvidia начала шаг за шагом тестировать рынок облачных вычислений:
**На первом этапе, на конференции GTC 21 марта этого года, NVIDIA представила DGX Cloud. **Как видно из названия, это облачный продукт.Клиенты могут напрямую получать продукты и услуги ИИ от Nvidia в облаке или в локальных центрах обработки данных, арендовав их на ежемесячной основе;
**Второй шаг — инвестировать в конкурентов трех облачных гигантов. **Nvidia последовательно инвестировала в CoreWeave и Lambda Labs, двух малых и средних поставщиков облачных услуг в США, и выделила им дефицитные чипы GPU. Насколько преувеличено это «предпочтение»? В тот момент, когда ядра графических процессоров трудно найти, CoreWeave смогла получить долговое финансирование в размере 2,3 миллиарда долларов США, заложив свои многочисленные графические процессоры, особенно H100.
Хотя это только началось, структура облачного бизнеса представляет собой контратаку Nvidia против облачных гигантов.
Как мы все знаем, Google, Amazon и Microsoft последовательно запустили собственные проекты чипов искусственного интеллекта внутри компании — серии TPU от Google, серии Inferentia и Trainium от Amazon, а также чип Athena от Microsoft, представленный в этом году. У трех облачных гигантов достаточно ресурсов и мотивации для самостоятельной разработки чипов ИИ, чтобы снизить «налог на GPU» Nvidia.
Nvidia прекрасно об этом знает. Хуан Ренсюнь прямо сказал на телефонной конференции, посвященной отчету о прибылях и убытках за последний квартал, что «мы обращали внимание на конкуренцию, и у нас всегда была конкуренция».
Huang Renxun не может предотвратить расширение трех основных поставщиков облачных услуг, но, возможно, лучшая защита — это нападение, а метод контратаки Nvidia заключается в том, чтобы перейти непосредственно к облаку.
Имея в руках два козыря А100 и Н100 - на протяжении длительного периода времени эти два чипа являются лучшим выбором для масштабного обучения и рассуждений моделей, и ни у одного из них у Nvidia нет возможности стать настоящим лидером в рынок облачных вычислений оператор за кадром.
Открытая и тайная битва вокруг чипов и облачных вычислений медленно разворачивается между четырьмя технологическими гигантами, входящими в пятерку крупнейших по капитализации мировых рынков.
1. Чуть не упал перед рассветом
Те, кто знаком с Nvidia, знают, насколько прекрасна Nvidia сегодня и какой несчастной была Nvidia в прошлом году.
Основные направления деятельности Nvidia включают центры обработки данных, игры, профессиональную визуализацию и автомобили. Во втором квартале 2020 года бизнес центров обработки данных Nvidia впервые превзошел продажи игр, став крупнейшим источником дохода Nvidia.
На собрании по финансовым отчетам за четвертый квартал 2022 года (соответствует естественному году с ноября 2021 по январь 2022 года) Nvidia представила сильный финансовый отчет за четвертый квартал, и ее бизнес центров обработки данных увеличился на 71% в годовом исчислении. Хуан Жэньсюнь тогда оптимистично сказал: «Вычислительная платформа Nvidia вызвала необычайный рыночный спрос.» Однако через неделю вспыхнул конфликт между Россией и Украиной, нарушивший цепочку поставок ключевого сырья. В сочетании с воздействием эпидемии темпы роста бизнеса центров обработки данных Nvidia будут продолжать замедляться в течение 2022 года.
В финансовом отчете за четвертый квартал 2023 года, опубликованном в феврале этого года, темпы роста центров обработки данных NVIDIA составили всего 11%, что является рекордно низким показателем, и впервые с 2020 года сеть снизилась.
В 2022 году цена акций Nvidia также упадет вдвое. Конечно, сегодня он снова поднялся, и рождение ChatGPT спасло Nvidia.
Среди многих причин снижения темпов роста бизнеса сокращение спроса со стороны крупных клиентов является наиболее важным. В финансовом отчете за четвертый квартал 2023 года финансовый директор Nvidia Колетт Кресс объявила цифру: около 40% из 15 миллиардов долларов США дохода сектора центров обработки данных в 2023 финансовом году (около 6 миллиардов долларов США) приходится на гипермасштабные центры обработки данных и облачные сервисы. провайдеры.
Но если вы просто посмотрите на четвертый квартал, это всего лишь квартал. Строители гипермасштабируемых центров обработки данных и поставщики облачных услуг резко сокращают расходы на GPU.
Помимо объективного снижения спроса, самостоятельная разработка трех облачных гигантов чипов искусственного интеллекта постепенно сокращает рыночную долю графических процессоров NVIDIA.
В 2016 году Google выпустила TPU с собственным чипом искусственного интеллекта первого поколения, а пять лет спустя, 19 мая 2021 года, выпустила TPU четвертого поколения v4. В исследовательском отчете, опубликованном в этом году, Google сообщила, что объединила 4000 TPU v4 для создания суперкомпьютера, который работает в 1,7 раза быстрее и эффективнее, чем эквивалентная машина с графическим процессором Nvidia A100 (в 1,9 раза выше).
Amazon также имеет традицию самостоятельной разработки чипов не только для Nvidia, но и для всех производителей чипов. В настоящее время Amazon выпустила четыре серии чипов собственной разработки: сетевой чип серии Nitro, серверный чип серии Graviton, чип для рассуждения AI серии Inferentia, обучающий чип AI Trainium. Среди них два последних ИИ-чипа конкурируют с графическими процессорами NVIDIA.
Несмотря на свое позднее появление, Microsoft «опоздала». На 18 апреля этого года, по данным The Information, с 2019 года Microsoft тайно разрабатывает ИИ-чипы под внутренним кодовым названием «Афина» (Athena), над проектом Athena работают сотни сотрудников, Microsoft инвестировала около 2 млрд долларов. . Некоторым сотрудникам Microsoft и OpenAI удалось получить чипы для проверки производительности на последних больших языковых моделях, таких как GPT-4.
Поставщики облачных услуг должны каждый год платить большую сумму «налога Nvidia» за покупку графических процессоров, особенно после вспышки генеративного ИИ.
В феврале этого года New Street Research сделала оценку: поисковой системе Bing на базе ChatGPT требуется 8 графических процессоров, чтобы отвечать на вопросы пользователей в течение одной секунды. При таких темпах Microsoft потребуется более 20 000 серверов с 8 графическими процессорами для развертывания моделей в Bing для каждого пользователя, что обойдется Microsoft в 4 миллиарда долларов. В масштабах Google, который обрабатывает 8-9 миллиардов запросов в день, это будет стоить 80 миллиардов долларов.
Чипы искусственного интеллекта, разработанные самими поставщиками облачных услуг, не будут продаваться на стороне и не будут напрямую конкурировать с Nvidia. Однако развертывание в центрах обработки данных чипов собственной разработки вместо графических процессоров позволяет эффективно сократить расходы. Например, Google развернул в своем облачном сервисе сотни суперкомпьютеров TPU v4.
У трех основных поставщиков облачных услуг достаточно ресурсов и мотивации для разработки собственных чипов, что рассматривается как трещина в империи Nvidia. Nvidia прекрасно об этом знает, но лучшего способа, похоже, нет.
До появления ChatGPT Nvidia, на которую шаг за шагом теснили поставщики облачных услуг, увидела точку прорыва для контратаки. Поскольку поставщики облачных услуг могут производить чипы, не может ли Nvidia создавать облака в эпоху ИИ?
**2. Есть ли у Nvidia шанс сделать облако? **
В настоящее время Nvidia является крупнейшим бенефициаром революции генеративного ИИ, и Хуан Ренсюнь всегда говорил о «моменте ИИ для iPhone» в этом году. Взрывной спрос на генеративный ИИ превратил GPU в твердую валюту Некоторые люди просто говорят, что «GPU — это новый доллар».
От графического процессора к облаку, действительно ли у Nvidia есть шанс?
Обучение и обоснование генеративного ИИ в основном выполняются в облаке, и поставщики облачных услуг, которые предоставляют инфраструктуру ИИ, будут одними из крупнейших бенефициаров волны генеративного ИИ. Согласно данным, подсчитанным венчурной компанией Силиконовой долины A16Z, от 10% до 20% общего дохода, полученного от генеративного ИИ, в конечном итоге поступает к поставщикам облачных услуг.
Однако этот процесс не будет быстрым. Генеральный директор Amazon Энди Ясси сказал на конференции о доходах за второй квартал 2023 года: «Генеративный ИИ, несомненно, изменит опыт почти всех клиентов. Но еще слишком рано, и большинство компаний все еще думают, как достичь этой цели. очень ранняя стадия».
Суть облачных сервисов заключается в том, чтобы виртуализировать аппаратные ресурсы в центре обработки данных, а затем сдавать их в аренду на рынке. Почти 100% серверов в традиционных центрах обработки данных построены на базе процессоров Intel и AMD.ЦП подобен «универсалу с самым сильным мозгом», который обеспечивает возможности «общих вычислений» — обработку операционных систем, системного программного обеспечения и прикладной программы. имеет программные задачи, такие как планирование сложных инструкций, зацикливание, ветвление, логическое суждение и выполнение.
Но процессоры не подходят для крупномасштабной обработки данных и параллельных вычислений, в чем нуждается искусственный интеллект, а графические процессоры Nvidia хороши в этом. GPU похож на «эксперта по агрессивным вычислениям», специализирующегося на обработке изображений, глубоком обучении и текущем обучении больших моделей, рассуждениях и других задачах. Хуан Ренсюнь назвал эту возможность массовых параллельных вычислений «ускоренными вычислениями».
В 2012 году Джефф Хинтон, отец глубокого обучения, и его ученики впервые попытались обучить модель сверточной нейронной сети AlexNet на графическом процессоре NVIDIA и одним махом выиграли соревнование по распознаванию изображений. Этот инцидент породил бум глубокого обучения в следующие десять лет: вся индустрия искусственного интеллекта, включая саму Nvidia, осознала потенциал GPU для ускоренных вычислений.
Шестерни судьбы Nvidia начали вращаться. С тех пор Хуан Ренсюнь много раз кричал: «Закон Мура мертв». Он считает, что эпоха расширения ЦП закончилась, как и десятикратное увеличение производительности при тех же затратах каждые пять лет. Его заменит GPU, и Хуан Ренсюнь специально изобрел «закон Хуанга» — GPU будет способствовать удвоению производительности ИИ из года в год.
В течение десяти лет с 2012 по 2022 год мы можем назвать это ускоренными вычислениями от 0 до 1, и искусственный интеллект приземлился в определенных отраслях и конкретных сценариях, таких как распознавание изображений. Однако спрос на ИИ в этот период все еще недостаточно велик: исследовательская компания Aletheia прогнозирует, что текущий уровень проникновения ИИ-серверов на рынок составляет менее 5%. Этого далеко недостаточно для реализации мечты Хуан Ренсюня об ускоренных вычислениях.
До рождения ChatGPT в ноябре 2022 года возник «момент AI iPhone». Это можно рассматривать как начало масштабирования ускоренных вычислений с 1 до 10.
Хуан Ренсюнь считает, что сочетание ускоренных вычислений и генеративного ИИ изменит методы вычислений за последние 60 лет. По мере того, как компании стремятся применять генеративный ИИ к каждому продукту, услуге и бизнес-процессу, глобальная инфраструктура центров обработки данных стоимостью в триллион долларов перейдет от вычислений общего назначения к ускоренным вычислениям, и в результате переосмысление центров обработки данных, несомненно, создаст огромные рыночные возможности.
В ходе телефонной конференции по доходам за последний квартал Хуан Ренсюнь пообещал: «Мы находимся в первом году десятилетней аналитики центров обработки данных».
Хуан Ренсюнь сказал, что ускоренные вычисления — это комплексная задача, которая должна интегрировать все программное обеспечение, все библиотеки фреймворков и все инженерные алгоритмы. Эти задачи касаются не только чипа, но и всего центра обработки данных. Центр обработки данных — это суперкомпьютер.Для достижения наилучшей производительности необходимо оптимизировать весь стек сетевых операционных систем, распределенных вычислительных механизмов, сетевых устройств, коммутаторов и вычислительных архитектур.
Например, общий вычислительный центр обработки данных в основном использует Ethernet для соединения всех серверов без крупномасштабной передачи данных; ускоренный вычислительный центр обработки данных, предложенный Nvidia, использует для соединения технологию Infinite Band, которая имеет чрезвычайно высокую пропускную способность данных.
Систематическая оптимизация также позволяет центрам обработки данных с ускоренными вычислениями иметь более высокую эффективность и меньшие затраты, чем традиционные центры обработки данных.
Хуан Ренсюнь поднял вопрос на SIGGRAPH, ежегодной конференции по компьютерной графике, состоявшейся в августе этого года: «Что я могу купить за 100 миллионов долларов?» Хуан Ренсюнь спросил себя и ответил: «В прошлом за 100 миллионов долларов можно было купить центр обработки данных, состоящий из 8800 процессоров x86, потребляемая мощность 5 МВт, сегодня за 100 миллионов долларов США можно купить центр обработки данных Iso-Budget, состоящий из 2500 GH200, энергопотребление 3 МВт, производительность ИИ-рассуждения в 12 раз выше, чем у данных ЦП центра, упомянутого выше, а энергоэффективность в 20 раз».
При той же производительности ИИ стоимость центра обработки данных с GPU составляет всего 1/12 от стоимости центра обработки данных с процессором. «Чем больше вы покупаете, тем больше экономите», — таков манифест Хуанга Ренсюня для его центра ускоренных вычислений.
На данный момент Nvidia построила пять центров обработки данных и помогла клиентам по всему миру построить свои собственные центры обработки данных. Более того, традиционный дата-центр может пройти месяцы или даже год, чтобы пройти путь от поставки до эксплуатации, но в Nvidia. Это время в неделях. «Опыт команды в этой области впечатляет, — сказал Хуанг.
Для трех облачных гигантов переход от центров обработки данных общего назначения к центрам обработки данных с ускоренными вычислениями не будет быстрым. Речь идет не только о технологиях и возможностях, но и о принятии решений и процессах таких компаний-гигантов.
Это дает Nvidia возможность работать в облаке. Сделать шаг вперед от центра обработки данных к облаку — это само собой разумеющееся, и Nvidia уже пытается это сделать.
3. Даркнесс Ченцан
В финансовом отчете за четвертый квартал 2023 года с самыми низкими темпами роста бизнеса центров обработки данных Nvidia также анонсировала новый продукт — DGX Cloud. На конференции GTC месяц спустя был официально представлен DGX Cloud.
Как видно из названия, это облачный сервисный продукт. Собирается ли Nvidia выйти на рынок облачных вычислений?
Давайте сначала посмотрим, что такое DGX. DGX — это первый суперкомпьютер, выпущенный Nvidia в 2017 году, который Хуан Ренсюнь назвал «центром обработки данных в шасси».
DGX первого поколения интегрировала 8 графических процессоров (Tesla P100) и 4 твердотельных накопителя, а также использовала технологию подключения NVIDIA NVlink. С точки зрения обучения глубокому обучению производительность одного DGX эквивалентна 250 обычным серверам x86. Конечно, это также дорого, 129 000 долларов за одну единицу.
После встречи Хуан Ренсюнь подарил Илону Маску первый DGX-1. Маск является соучредителем OpenAI, OpenAI начал с этого суперкомпьютера и шаг за шагом построил сегодняшний ChatGPT.
Сегодня суперкомпьютер DGX разработан до пятого поколения.Первые четыре поколения — это DGX P100, DGX A100, DGX H100 и последний DGX GH200.
Облако DGX, выпущенное Nvidia, является облачной версией ранее выпущенного суперкомпьютера Экземпляр DGX Cloud (виртуальный компьютер на облачном сервере) настроен на 8 A100 или H100.
Однако цена DGX Cloud не из дешевых: 36 999 долларов в месяц, около 264 000 юаней. Для сравнения, экземпляр Microsoft Azure ND96asr с 8 серверами A100 и его эквивалентными характеристиками стоит 19 854 долларов США в месяц, что составляет лишь половину стоимости облака DGX.
Почему Nvidia смеет устанавливать такую высокую цену? Ответ заключается в том, что DGX Cloud — это готовое решение, объединяющее программное и аппаратное обеспечение. **Nvidia больше не позиционирует себя как производитель чипов для графических процессоров, а позиционирует себя как производитель вычислительных платформ. **
Помимо аппаратных ресурсов, DGX Cloud также запустила две вспомогательные программные платформы: NVIDIA AI Foundations, которая помогает компаниям создавать собственные модели, включая языковые, зрительные и биомедицинские модели, и NVIDIA AI Enterprise, которая содержит 4000 различных моделей. Фреймворк искусственного интеллекта, который помогает предприятиям использовать его «из коробки». Продукты Nvidia AI аналогичны MaaS, запущенным отечественными поставщиками облачных услуг, такими как Alibaba Cloud.
Хуан с оптимизмом смотрит на эти новые потоки доходов от программного обеспечения и ожидает, что доход в области генеративного искусственного интеллекта вырастет с «одноразрядной» части общего дохода компании до «существенной» части в течение следующего года. «Мы рады расширению новой бизнес-модели», — сказал Хуан Ренсюнь.
Запуск DGX Cloud объективно сформировал определенные конкурентные отношения с поставщиками облачных услуг, но Nvidia по-прежнему хочет поддерживать тесное сотрудничество с поставщиками облачных услуг. В настоящее время Nvidia не создает полную облачную инфраструктуру с нуля, а размещает DGX Cloud на облачных платформах различных поставщиков облачных услуг.
Nvidia продает основные аппаратные средства поставщикам облачных услуг, затем покупает у них ресурсы облачных вычислений и, наконец, продает облачные услуги корпоративным клиентам и сохраняет за собой всю выручку. Клиенты могут получить доступ к суперкомпьютеру Nvidia AI только через браузер, чтобы использовать продукты Nvidia AI и услуги модели AI.
Однако купят ли его поставщики облачных услуг?
В связи с этим Хуан Ренсюнь пояснил: "Сотрудничество между облачными сервисами NVIDIA и поставщиками облачных услуг будет взаимовыгодным. Обе стороны будут совместно создавать новые приложения и осваивать новые рынки". NVIDIA DGX Соотношение облака к облаку поставщика облачных услуг составляет 1:9.
Oracle — первый поставщик облачных услуг, объявивший о партнерстве с Nvidia. Софтверный гигант в последние годы в срочном порядке проводит облачную трансформацию, поэтому у него достаточно мотивации для заключения альянса с Nvidia, чтобы совершить переворот на рынке облачных вычислений. Nvidia также работает с Microsoft Azure, Google Cloud и другими облачными платформами, запуск которых также ожидается в ближайшее время.
** Выдача желаемого за действительное Nvidia звучит громко, но не все поставщики облачных услуг примут запрос Nvidia. **AWS отказалась сотрудничать с Nvidia по продуктам DGX Cloud.
Как сообщает Reuters, вице-президент Amazon Elastic Cloud Computing Дэйв Браун сказал: «NVIDIA связалась с нами, и мы изучили бизнес-модель. Но для AWS это не имеет особого смысла». надежные серверы Многолетний опыт работы с существующей цепочкой поставок.
AWS начала закупать чип Nvidia H100 в марте этого года, но только как часть своей собственной системы. AWS также рассматривает возможность использования новейшего чипа искусственного интеллекта AMD, MI300, но еще не приняла окончательного решения.
Перед лицом зарождающегося рынка генеративного ИИ распределение преимуществ между Nvidia и поставщиками облачных услуг будет продолжать меняться. Но совершенно очевидно, что Nvidia передвинула сыр поставщика облачных услуг.
4. Слив снизу
Запуск DGX Cloud — это только первый шаг, и участие Nvidia на рынке облачных вычислений все еще углубляется. На этом этапе Nvidia решила не заканчивать лично, а предпочла поддержать конкурентов трех облачных гигантов.
В этом году появился небольшой и средний поставщик облачных услуг под названием CoreWeave, который стал поставщиком облачных услуг, более популярным, чем три облачных гиганта. **CoreWeave утверждает, что является единственным поставщиком облачных услуг в мире, который может «предоставить Nvidia H100 в больших масштабах». **
По оценкам сайта GPU Utils, количество H100, заказанных CoreWeave у Nvidia, составляет около 35 000–40 000. Для сравнения, суперкомпьютер A3, выпущенный Google в мае этого года, имеет около 26 000 H100, экземпляр виртуальной машины EC2 P5, запущенный Amazon AWS в июле, основан на 20 000 H100, а виртуальная машина Azure ND H100v5, запущенная Microsoft в августе, содержит всего 8 штук H100. Тем не менее, Microsoft владеет примерно 285 000 A100.
Помимо майнинга, CoreWeave также начала пытаться обслуживать некоторых корпоративных клиентов, таких как искусственный интеллект, развлекательные медиа и вычислительная химия. В 2019 году CoreWeave полностью перешла с графических процессоров потребительского уровня на графические процессоры Nvidia корпоративного уровня, поскольку графические процессоры корпоративного уровня могут работать круглосуточно, увеличивая использование графического процессора почти до 100%.
В 2021 году CoreWeave официально запустила облачную платформу GPU на базе Nvidia. В третьем квартале 2022 года, со слиянием Ethereum и окончанием эры крупномасштабного майнинга видеокарт, CoreWeave полностью трансформировалась в поставщика облачных услуг, а в ноябре этого года объявила, что стала первой партией. провайдеров, использующих суперчип NVIDIA HGX H100.Один из провайдеров облачных услуг.
По сравнению с тремя гигантами Amazon, Microsoft и Google, CoreWeave не планирует разрабатывать собственный ИИ-чип, который высоко оценила Nvidia.
В апреле 2023 года Nvidia углубила свое сотрудничество с CoreWeave и, помимо делового сотрудничества, также инвестировала в раунд финансирования CoreWeave B1 на сумму 221 миллион долларов. Самое главное, Nvidia предоставила CoreWeave уникальный канал для дефицитных A100 и H100.
В недавнем интервью Bloomberg Браннин МакБи, соучредитель и директор по стратегии CoreWeave, сказал, что Nvidia распродала чипы в этом году, и заказы CoreWeave также запланированы на второй квартал следующего года.
CoreWeave, вероятно, имеет самый большой запас графических процессоров Nvidia в мире. В условиях текущей нехватки графических процессоров чипы даже более ценны, чем акции, и CoreWeave разработала инновационный метод финансирования. В августе этого года CoreWeave получила долговое финансирование в размере 2,3 миллиарда долларов, заложив свои чипы GPU. Ранее в рамках раунда долевого финансирования CoreWeave B1 было получено всего 421 миллион долларов.
Благодаря стратегическому альянсу «облако + GPU» с Nvidia производительность CoreWeave также резко возросла.
До этого года CoreWeave была малоизвестной компанией. Но теперь CoreWeave готова заработать на этом миллиарды долларов с помощью своих графических процессоров. В интервью VentureBeat соучредитель и главный стратегический директор CoreWeave Браннин МакБи сообщил, что выручка CoreWeave в 2022 году составит 30 миллионов долларов США, в этом году достигнет 500 миллионов долларов США, а в следующем году подписаны контракты почти на 2 миллиарда долларов США.
CoreWeave также объявила о строительстве нового центра обработки данных стоимостью 1,6 миллиарда долларов в Техасе и планирует расширить до 14 центров обработки данных к концу года. В настоящее время ИИ-звезда-единорог Inflection использует облако CoreWeave для создания кластера графических процессоров примерно из 22 000 H100.В июле этого года компания объявила о новом раунде финансирования в размере 1,3 миллиарда долларов. Стоит отметить, что NVIDIA также входит в число инвесторов Inflection.
CoreWeave — первая компания облачных вычислений, в которую Nvidia инвестировала в этом году, но не единственная.
Согласно информации, Nvidia собирается заключить инвестиционное соглашение с другим поставщиком облачных услуг, Lambda Labs.Nvidia может инвестировать 300 миллионов долларов США, а оценка Lambda Labs превысит 1 миллиард долларов США. Lambda Labs утверждает, что может предоставить вычислительные ресурсы NVIDIA A100 и H100 по самой низкой цене в мире.
В настоящее время, с «разумным» распределением ресурсов графического процессора, Nvidia стала трейдером на рынке облачных вычислений в прямом смысле этого слова и схватила ручку облачного гиганта с самого начала — Microsoft — хороший пример.
Microsoft добавила новый фактор риска в свой последний отчет о доходах: «Услуги могут быть нарушены, если она не сможет обеспечить достаточное количество чипов искусственного интеллекта для своих центров обработки данных».
Перед лицом огромных потребностей в вычислениях ИИ нагрузка на графический процессор Microsoft не хватает, и ей даже приходится обращаться за помощью к своим конкурентам, малым и средним поставщикам облачных услуг. Согласно CNBC, Microsoft «согласилась потратить миллиарды долларов в течение следующих нескольких лет на покупку инфраструктуры облачных вычислений стартапа CoreWeave». Под контролем Nvidia Microsoft должна была позволить малым и средним поставщикам облачных услуг, таким как CoreWeave, получать разницу в цене от графического процессора.
Инвестируя в малых и средних поставщиков облачных услуг, Nvidia вышла на рынок облачных вычислений. Хотя здесь нет попыток построить облачную инфраструктуру и напрямую конкурировать с облачными гигантами, мы не удивимся, если Nvidia выйдет на рынок напрямую, приобретя в будущем мелких и средних поставщиков облачных услуг.
Независимо от того, войдет ли Nvidia в конечном итоге в игру, она стала крупнейшим закулисным игроком на рынке облачных вычислений на волне генеративного ИИ.