Тот, у кого есть графический процессор Nvidia, является облачной компанией
Всегда есть новые новости об Nvidia, которые вас удивят.
Самый последний из них исходит от CoreWeave, облачного стартапа в США.
Компания объявила о финансировании в размере 2,3 миллиарда долларов, и что еще более шокирует, так это то, что залогом этих денег является принадлежащий ей GPU. В условиях роста количества крупных моделей GPU стал твердой валютой, и причина, по которой CoreWeave может иметь так много дефицитных элементов от Nvidia, заключается в его прошлом статусе крупнейшего майнера Ethereum в Северной Америке.
В то время у нее было более 50 000 графических процессоров для майнинга.После того, как CoreWeave столкнулась с неустойчивостью майнинга, она обратила свое внимание на искусственный интеллект и другие области, требующие параллельных вычислений, и приобрела большое количество чипов NVIDIA до того, как ChatGPT стал популярным. время производственных мощностей чипов было достаточно.
В результате CoreWeave утверждает, что является единственной компанией в мире, которая может предоставить вычислительную мощность H100 в больших масштабах, а также превратилась в «поставщика облачных вычислений».
Да, его предложение GPU превосходит всех гигантов облачных сервисов, включая Google Cloud, Amazon Cloud и Microsoft Azure.
Это может показаться странным, но даже без ограничения по количеству графических процессоров строительство центра обработки данных по-прежнему требует огромных затрат, изысканного пространства, проектирования рассеивания энергии и тепла, а также очень сложного взаимодействия программного и аппаратного обеспечения. условия Это может быть гигант, а не стартап, который только что собрал раунд серии B (421 миллион долларов).
Способность CoreWeave сделать это проистекает из совершенно другого понимания центра обработки данных.
Традиционные центры обработки данных состоят из процессоров, ориентированных на вычислительные возможности общего назначения, в которых преобладают чипы сначала Intel, а затем AMD.
Однако новый центр обработки данных для ускоренных вычислений уделяет больше внимания параллельным вычислениям, а это означает, что ему требуется больший объем памяти, пропускная способность и возможность тесного подключения всех ускоренных вычислительных блоков, — сказал основатель и генеральный директор Nvidia Хуан Ренсюнь. «модернизация центра обработки данных», которую он рассматривает как 10-летний цикл.
Начало этого нового цикла знаменует собой строительство всего центра обработки данных, координацию программного и аппаратного обеспечения, и даже системы электропитания и охлаждения должны быть перепроектированы. Это практически вернуло всех поставщиков облачных услуг на исходную позицию — предыдущее поколение решений для центров обработки данных, разработанных для ЦП, практически невозможно скопировать. Например, технология Infinite Band, используемая Nvidia для подключения огромных кластеров графических процессоров, требует более 500 миль кабелей, которых просто нет в традиционных проектах центров обработки данных.
Еще один пример привел CoreWeave.При том же размере площадки кластеры GPU требуют в 4 раза больше энергии, чем традиционные ЦОДы, поэтому система питания и система охлаждения нового ЦОДа должны быть полностью переработаны, что не является даже комбинацией аппаратных средств. и программное обеспечение.
CoreWeave, предвосхитивший эту возможность, не только может обеспечить огромную вычислительную мощность H100, но и в десятки раз быстрее, чем другие облачные сервисы, и при этом стоимость на 80% ниже.Мы можем отнести это к его раннему точному внедрению Huang Renxun's видение центра обработки данных - центр обработки данных трансформируется в сторону ускоренных вычислений, а дефицитные вычислительные мощности поставляются через облако.
Таким образом, компания по добыче виртуальной валюты стала популярной компанией, занимающейся облачными вычислениями, просто потому, что она является самым преданным учеником Nvidia.
Что такое облако Nvidia Cloud
Тот, у кого есть графические процессоры Nvidia, является самым популярным поставщиком облачных услуг, так у кого больше всего графических процессоров Nvidia? Видимо это само собой.
Таким образом, поддерживая аналогичные облачные стартапы, Nvidia также создает собственное облако.
Nvidia имеет много преимуществ в создании самого облака, наиболее очевидным из которых является то, что ее не беспокоит взаимосвязь между спросом и предложением графических процессоров. Однажды Маск публично заявил, что получить графические процессоры намного сложнее, чем лекарства, и причина, по которой CoreWeave может обеспечить сверхкрупномасштабную вычислительную мощность H100, также, как сообщается, связана с достаточным предложением Nvidia — Nvidia участвовала в CoreWeave несколько раз. месяцев назад B раунд финансирования.
Но очевидно, что просто инвестировать в какие-то стартапы недостаточно, и огромный спрос на вычислительные мощности генеративного ИИ в конечном итоге позволит Nvidia покончить с собой. На конференции GTC в марте этого года Nvidia запустила собственный облачный сервис DGX Cloud, официально запущенный в середине года.
Как видно из названия, DGX Cloud напрямую использует возможности суперкомпьютера Nvidia DGX, и каждый экземпляр облака оснащен 8 графическими процессорами H100 или A100 и 640 ГБ памяти.
DGX Cloud использует структуру с малой задержкой, которая позволяет масштабировать большие рабочие процессы между кластерами и распределять их параллельно по нескольким вычислительным узлам. Например, Oracle, впервые объявившая о сотрудничестве с DGX Cloud, может развернуть более 30 000 графических процессоров A100 на кластер в OCI Supercluster, чтобы можно было обучать большие модели в облаке. Пользователи могут свободно получать доступ к своим собственным суперкомпьютерам с искусственным интеллектом в любом месте (Nvidia заявила, что распределение вычислительной мощности является эксклюзивным), и для работы с ними используется только внешний интерфейс. любые вопросы, связанные с аппаратной инфраструктурой.
Услуга предоставляется ежемесячно примерно за 40 000 долларов. Конечно, это все равно намного дешевле, чем покупать сервер DGX напрямую за 200 000 долларов США, но многие отмечают, что Azure от Microsoft берет менее 20 000 долларов США за те же 8 графических процессоров A100, что почти вдвое меньше прежних.
Почему это так дорого? Поскольку облачный сервис Nvidia отличается от других, он включает в себя не только вычислительную мощность, но и полный набор решений для искусственного интеллекта.
Два сервиса под названием Base Command Platform и AI Enterprise интегрированы в DGX Cloud. Первое представляет собой программное обеспечение для управления и мониторинга, которое можно использовать не только для регистрации учебной нагрузки облачных вычислительных мощностей, обеспечения межоблачной и локальной интеграции вычислительных мощностей, но и для предоставления пользователям прямого доступа к DGX Cloud из браузера. Последний является программным уровнем в платформе искусственного интеллекта Nvidia.Тысячи пакетов программного обеспечения предоставляют множество предварительно обученных моделей, сред искусственного интеллекта и ускоренных библиотек, тем самым упрощая сквозные затраты на разработку и развертывание искусственного интеллекта. Кроме того, DGX Cloud также предоставляет услугу литья моделей под названием AI Foundations, позволяющую бизнес-пользователям использовать свои собственные данные для настройки своих собственных вертикальных больших моделей.
Это комплексное решение в сочетании с программным и аппаратным обеспечением делает скорость обучения DGX Cloud в два-три раза выше, чем у традиционных облачных вычислений.Это самая большая разница между DGX Cloud и традиционными облачными сервисами.Он очень хорошо объединяет два аспекта NVIDIA. Сильная сторона: экология ИИ и вычислительная мощность. Для Nvidia фраза «программное обеспечение как услуга», по-видимому, заменена на «интеграция программного и аппаратного обеспечения как услуга».Облако DGX централизованно представляет потолок возможностей восходящей вертикальной интеграции производителя оборудования.
амбиции и реальность Хуан Ренсюня
Но это не значит, что Nvidia полностью подняла рейтинг традиционных поставщиков облачных услуг. Его услуги предоставляются через традиционных поставщиков облачных услуг. Впервые было объявлено о запуске DGX Cloud в Oracle Cloud, за ним последовали Microsoft и Google, и то, как Nvidia работает с этими облачными поставщиками, довольно интересно: Nvidia сначала продает оборудование GPU этим партнерам по облаку, а затем арендует оборудование для запуска. Облако DGX.
Некоторые люди шутили, что это называется зарабатывать деньги с обеих сторон без промедления.
На самом деле, Хуан Дженсен объяснил эту модель так: «Мы выигрываем от того, что клиенты используют нашу вычислительную платформу, а клиенты получают выгоду, размещая нас (вычислительную платформу) в своем облаке (поставщика облачных услуг)».
Если вы только послушаете, что сказал Хуан Рэнсюнь, это счастливый беспроигрышный конец, но это всего лишь его последовательное повествование. Nvidia уже вовлечена в конкуренцию со своими клиентами, и она это знает.
Прогресс DGX Cloud говорит нам о том, что Huang Renxun не собирается развертывать его только у традиционных поставщиков облачных услуг. На SIGGRAPH 2023 в августе Nvidia сначала объявила о сотрудничестве с Hugging Face, а затем выпустила сервис под названием AI Workbench. Все они позволяют пользователям легко создавать, тестировать и настраивать большие модели предварительного обучения, а вычислительная мощность, стоящая за ними, естественно, включает в себя DGX Cloud.
Это, очевидно, повлияет на отношения между Nvidia и поставщиками облачных услуг: самые важные поставщики облачных услуг, включая Google, Amazon и Microsoft, также являются крупными клиентами Nvidia, и продвижение Nvidia собственных облачных сервисов обязательно отнимет у них долю рынка. В частности, мы уже упоминали в первой части, что, будучи гигантами ЦОД и облачных сервисов, они не имеют большого преимущества в построении ЦОД следующего поколения, угроза собственного облачного сервиса немалая.
Хуанг Ренсюнь не может не знать об этом, поэтому его отношение к DGX Cloud довольно интересное: например, он публично заявил, что подходящим соотношением облачных сервисов должно быть 10% Nvidia DGX плюс 90% общедоступного облака. Другими словами, с точки зрения Хуанга Ренсюня, DGX Cloud является не противником или угрозой для традиционных поставщиков облачных услуг, а партнером.
На телефонной конференции с аналитиками после объявления квартального финансового отчета за первый квартал Хуан Ренсюнь больше говорил о преимуществах этого сотрудничества, «огромной беспроигрышной ситуации», так Хуан Ренсюнь описал это. В его понимании DGX Cloud — это чистый стек Nvidia (чистый стек Nvidia), который сочетает в себе разработки искусственного интеллекта, большие базы данных и высокоскоростные сети с малой задержкой, чтобы стать удобной инфраструктурой ИИ для открытия нового, огромного рынка — участники на этот рынок входят Nvidia и традиционные поставщики облачных услуг, и все выиграют от стремительного развития генеративного ИИ.
Попытка избежать конфликтов на самом деле связана с тем, что DGX Cloud может поддерживать только небольшой объем в течение длительного времени.
Первая причина — это, конечно же, узкое место вычислительной мощности. «Невероятно много заказов», — так Хуан Ренсюнь описывает объем бизнеса центра обработки данных.Конечно, основным приоритетом Nvidia является разработка и обеспечение производства как можно большего количества передовых чипов, отвечающих рыночному спросу, в противном случае масштабы облачных сервисов не могут быть расширен.
Хотя TSMC находится в непрерывном производстве, стоит отметить, что разрыв в вычислительной мощности становится не меньше, а больше, потому что как только крупная модель будет запущена и коммерциализирована (например, ChatGPT), стоимость ее обоснования будет расти в геометрической прогрессии с масштабом пользователи По мере увеличения уровня, в долгосрочной перспективе, он будет намного больше, чем вычислительная мощность, необходимая для обучения модели (увеличение, данное кем-то, равно 100).
Кроме того, он также принимает во внимание сложность партнерства между Nvidia и традиционными поставщиками облачных услуг. Если DGX Cloud предстанет как чисто конкурентный продукт, то он может занять значительную долю рынка, но обязательно еще больше ускорит производителей облачных вычислений, чтобы избавиться от зависимости от Nvidia — они уже разработали собственные чипы, чтобы снизить налог».
С другой стороны, полное расширение масштабов DGX Cloud может быть не в интересах Nvidia. От чипов до игровых видеокарт, серверов и дата-центров Nvidia редко производит оборудование самостоятельно, она предпочитает сотрудничать с OEM-производителями — настолько, что вам все равно придется обращаться к OEM-производителям, чтобы купить чипы Nvidia. Это позволяет Nvidia хорошо контролировать расходы и поддерживать норму прибыли.
Сегодня Nvidia и поставщики облачных услуг, кажется, поддерживают баланс, но баланс часто нарушается, особенно когда одной из сторон является Nvidia.В конце концов, это первый год цикла обновления так называемого «десятилетнего следующего года» Хуан Ренсюня. ЦОД поколения».
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Nvidia, которая находится в самом разгаре, является следующей целью, чтобы украсть бизнес поставщиков облачных услуг?
Тот, у кого есть графический процессор Nvidia, является облачной компанией
Всегда есть новые новости об Nvidia, которые вас удивят.
Самый последний из них исходит от CoreWeave, облачного стартапа в США.
Компания объявила о финансировании в размере 2,3 миллиарда долларов, и что еще более шокирует, так это то, что залогом этих денег является принадлежащий ей GPU. В условиях роста количества крупных моделей GPU стал твердой валютой, и причина, по которой CoreWeave может иметь так много дефицитных элементов от Nvidia, заключается в его прошлом статусе крупнейшего майнера Ethereum в Северной Америке.
В то время у нее было более 50 000 графических процессоров для майнинга.После того, как CoreWeave столкнулась с неустойчивостью майнинга, она обратила свое внимание на искусственный интеллект и другие области, требующие параллельных вычислений, и приобрела большое количество чипов NVIDIA до того, как ChatGPT стал популярным. время производственных мощностей чипов было достаточно.
В результате CoreWeave утверждает, что является единственной компанией в мире, которая может предоставить вычислительную мощность H100 в больших масштабах, а также превратилась в «поставщика облачных вычислений».
Это может показаться странным, но даже без ограничения по количеству графических процессоров строительство центра обработки данных по-прежнему требует огромных затрат, изысканного пространства, проектирования рассеивания энергии и тепла, а также очень сложного взаимодействия программного и аппаратного обеспечения. условия Это может быть гигант, а не стартап, который только что собрал раунд серии B (421 миллион долларов).
Способность CoreWeave сделать это проистекает из совершенно другого понимания центра обработки данных.
Традиционные центры обработки данных состоят из процессоров, ориентированных на вычислительные возможности общего назначения, в которых преобладают чипы сначала Intel, а затем AMD.
Однако новый центр обработки данных для ускоренных вычислений уделяет больше внимания параллельным вычислениям, а это означает, что ему требуется больший объем памяти, пропускная способность и возможность тесного подключения всех ускоренных вычислительных блоков, — сказал основатель и генеральный директор Nvidia Хуан Ренсюнь. «модернизация центра обработки данных», которую он рассматривает как 10-летний цикл.
Начало этого нового цикла знаменует собой строительство всего центра обработки данных, координацию программного и аппаратного обеспечения, и даже системы электропитания и охлаждения должны быть перепроектированы. Это практически вернуло всех поставщиков облачных услуг на исходную позицию — предыдущее поколение решений для центров обработки данных, разработанных для ЦП, практически невозможно скопировать. Например, технология Infinite Band, используемая Nvidia для подключения огромных кластеров графических процессоров, требует более 500 миль кабелей, которых просто нет в традиционных проектах центров обработки данных.
Еще один пример привел CoreWeave.При том же размере площадки кластеры GPU требуют в 4 раза больше энергии, чем традиционные ЦОДы, поэтому система питания и система охлаждения нового ЦОДа должны быть полностью переработаны, что не является даже комбинацией аппаратных средств. и программное обеспечение.
CoreWeave, предвосхитивший эту возможность, не только может обеспечить огромную вычислительную мощность H100, но и в десятки раз быстрее, чем другие облачные сервисы, и при этом стоимость на 80% ниже.Мы можем отнести это к его раннему точному внедрению Huang Renxun's видение центра обработки данных - центр обработки данных трансформируется в сторону ускоренных вычислений, а дефицитные вычислительные мощности поставляются через облако.
Таким образом, компания по добыче виртуальной валюты стала популярной компанией, занимающейся облачными вычислениями, просто потому, что она является самым преданным учеником Nvidia.
Что такое облако Nvidia Cloud
Тот, у кого есть графические процессоры Nvidia, является самым популярным поставщиком облачных услуг, так у кого больше всего графических процессоров Nvidia? Видимо это само собой.
Таким образом, поддерживая аналогичные облачные стартапы, Nvidia также создает собственное облако.
Nvidia имеет много преимуществ в создании самого облака, наиболее очевидным из которых является то, что ее не беспокоит взаимосвязь между спросом и предложением графических процессоров. Однажды Маск публично заявил, что получить графические процессоры намного сложнее, чем лекарства, и причина, по которой CoreWeave может обеспечить сверхкрупномасштабную вычислительную мощность H100, также, как сообщается, связана с достаточным предложением Nvidia — Nvidia участвовала в CoreWeave несколько раз. месяцев назад B раунд финансирования.
Но очевидно, что просто инвестировать в какие-то стартапы недостаточно, и огромный спрос на вычислительные мощности генеративного ИИ в конечном итоге позволит Nvidia покончить с собой. На конференции GTC в марте этого года Nvidia запустила собственный облачный сервис DGX Cloud, официально запущенный в середине года.
Как видно из названия, DGX Cloud напрямую использует возможности суперкомпьютера Nvidia DGX, и каждый экземпляр облака оснащен 8 графическими процессорами H100 или A100 и 640 ГБ памяти.
DGX Cloud использует структуру с малой задержкой, которая позволяет масштабировать большие рабочие процессы между кластерами и распределять их параллельно по нескольким вычислительным узлам. Например, Oracle, впервые объявившая о сотрудничестве с DGX Cloud, может развернуть более 30 000 графических процессоров A100 на кластер в OCI Supercluster, чтобы можно было обучать большие модели в облаке. Пользователи могут свободно получать доступ к своим собственным суперкомпьютерам с искусственным интеллектом в любом месте (Nvidia заявила, что распределение вычислительной мощности является эксклюзивным), и для работы с ними используется только внешний интерфейс. любые вопросы, связанные с аппаратной инфраструктурой.
Услуга предоставляется ежемесячно примерно за 40 000 долларов. Конечно, это все равно намного дешевле, чем покупать сервер DGX напрямую за 200 000 долларов США, но многие отмечают, что Azure от Microsoft берет менее 20 000 долларов США за те же 8 графических процессоров A100, что почти вдвое меньше прежних.
Почему это так дорого? Поскольку облачный сервис Nvidia отличается от других, он включает в себя не только вычислительную мощность, но и полный набор решений для искусственного интеллекта.
Два сервиса под названием Base Command Platform и AI Enterprise интегрированы в DGX Cloud. Первое представляет собой программное обеспечение для управления и мониторинга, которое можно использовать не только для регистрации учебной нагрузки облачных вычислительных мощностей, обеспечения межоблачной и локальной интеграции вычислительных мощностей, но и для предоставления пользователям прямого доступа к DGX Cloud из браузера. Последний является программным уровнем в платформе искусственного интеллекта Nvidia.Тысячи пакетов программного обеспечения предоставляют множество предварительно обученных моделей, сред искусственного интеллекта и ускоренных библиотек, тем самым упрощая сквозные затраты на разработку и развертывание искусственного интеллекта. Кроме того, DGX Cloud также предоставляет услугу литья моделей под названием AI Foundations, позволяющую бизнес-пользователям использовать свои собственные данные для настройки своих собственных вертикальных больших моделей.
Это комплексное решение в сочетании с программным и аппаратным обеспечением делает скорость обучения DGX Cloud в два-три раза выше, чем у традиционных облачных вычислений.Это самая большая разница между DGX Cloud и традиционными облачными сервисами.Он очень хорошо объединяет два аспекта NVIDIA. Сильная сторона: экология ИИ и вычислительная мощность. Для Nvidia фраза «программное обеспечение как услуга», по-видимому, заменена на «интеграция программного и аппаратного обеспечения как услуга».Облако DGX централизованно представляет потолок возможностей восходящей вертикальной интеграции производителя оборудования.
амбиции и реальность Хуан Ренсюня
Но это не значит, что Nvidia полностью подняла рейтинг традиционных поставщиков облачных услуг. Его услуги предоставляются через традиционных поставщиков облачных услуг. Впервые было объявлено о запуске DGX Cloud в Oracle Cloud, за ним последовали Microsoft и Google, и то, как Nvidia работает с этими облачными поставщиками, довольно интересно: Nvidia сначала продает оборудование GPU этим партнерам по облаку, а затем арендует оборудование для запуска. Облако DGX.
Некоторые люди шутили, что это называется зарабатывать деньги с обеих сторон без промедления.
На самом деле, Хуан Дженсен объяснил эту модель так: «Мы выигрываем от того, что клиенты используют нашу вычислительную платформу, а клиенты получают выгоду, размещая нас (вычислительную платформу) в своем облаке (поставщика облачных услуг)».
Если вы только послушаете, что сказал Хуан Рэнсюнь, это счастливый беспроигрышный конец, но это всего лишь его последовательное повествование. Nvidia уже вовлечена в конкуренцию со своими клиентами, и она это знает.
Прогресс DGX Cloud говорит нам о том, что Huang Renxun не собирается развертывать его только у традиционных поставщиков облачных услуг. На SIGGRAPH 2023 в августе Nvidia сначала объявила о сотрудничестве с Hugging Face, а затем выпустила сервис под названием AI Workbench. Все они позволяют пользователям легко создавать, тестировать и настраивать большие модели предварительного обучения, а вычислительная мощность, стоящая за ними, естественно, включает в себя DGX Cloud.
Это, очевидно, повлияет на отношения между Nvidia и поставщиками облачных услуг: самые важные поставщики облачных услуг, включая Google, Amazon и Microsoft, также являются крупными клиентами Nvidia, и продвижение Nvidia собственных облачных сервисов обязательно отнимет у них долю рынка. В частности, мы уже упоминали в первой части, что, будучи гигантами ЦОД и облачных сервисов, они не имеют большого преимущества в построении ЦОД следующего поколения, угроза собственного облачного сервиса немалая.
Хуанг Ренсюнь не может не знать об этом, поэтому его отношение к DGX Cloud довольно интересное: например, он публично заявил, что подходящим соотношением облачных сервисов должно быть 10% Nvidia DGX плюс 90% общедоступного облака. Другими словами, с точки зрения Хуанга Ренсюня, DGX Cloud является не противником или угрозой для традиционных поставщиков облачных услуг, а партнером.
На телефонной конференции с аналитиками после объявления квартального финансового отчета за первый квартал Хуан Ренсюнь больше говорил о преимуществах этого сотрудничества, «огромной беспроигрышной ситуации», так Хуан Ренсюнь описал это. В его понимании DGX Cloud — это чистый стек Nvidia (чистый стек Nvidia), который сочетает в себе разработки искусственного интеллекта, большие базы данных и высокоскоростные сети с малой задержкой, чтобы стать удобной инфраструктурой ИИ для открытия нового, огромного рынка — участники на этот рынок входят Nvidia и традиционные поставщики облачных услуг, и все выиграют от стремительного развития генеративного ИИ.
Попытка избежать конфликтов на самом деле связана с тем, что DGX Cloud может поддерживать только небольшой объем в течение длительного времени.
Первая причина — это, конечно же, узкое место вычислительной мощности. «Невероятно много заказов», — так Хуан Ренсюнь описывает объем бизнеса центра обработки данных.Конечно, основным приоритетом Nvidia является разработка и обеспечение производства как можно большего количества передовых чипов, отвечающих рыночному спросу, в противном случае масштабы облачных сервисов не могут быть расширен.
Хотя TSMC находится в непрерывном производстве, стоит отметить, что разрыв в вычислительной мощности становится не меньше, а больше, потому что как только крупная модель будет запущена и коммерциализирована (например, ChatGPT), стоимость ее обоснования будет расти в геометрической прогрессии с масштабом пользователи По мере увеличения уровня, в долгосрочной перспективе, он будет намного больше, чем вычислительная мощность, необходимая для обучения модели (увеличение, данное кем-то, равно 100).
Кроме того, он также принимает во внимание сложность партнерства между Nvidia и традиционными поставщиками облачных услуг. Если DGX Cloud предстанет как чисто конкурентный продукт, то он может занять значительную долю рынка, но обязательно еще больше ускорит производителей облачных вычислений, чтобы избавиться от зависимости от Nvidia — они уже разработали собственные чипы, чтобы снизить налог».
С другой стороны, полное расширение масштабов DGX Cloud может быть не в интересах Nvidia. От чипов до игровых видеокарт, серверов и дата-центров Nvidia редко производит оборудование самостоятельно, она предпочитает сотрудничать с OEM-производителями — настолько, что вам все равно придется обращаться к OEM-производителям, чтобы купить чипы Nvidia. Это позволяет Nvidia хорошо контролировать расходы и поддерживать норму прибыли.
Сегодня Nvidia и поставщики облачных услуг, кажется, поддерживают баланс, но баланс часто нарушается, особенно когда одной из сторон является Nvidia.В конце концов, это первый год цикла обновления так называемого «десятилетнего следующего года» Хуан Ренсюня. ЦОД поколения».