画像ソース: Unbounded AI によって生成
Nvidia に関する新しいニュースは常にあなたを驚かせます。
最新のものは、米国のクラウドスタートアップである CoreWeave によるものです。
同社は23億ドルの資金調達を発表したが、さらに衝撃的なのは、この資金の担保が同社が所有するGPUだということだ。大型モデルの隆盛を受けて、GPU はハード通貨となっており、CoreWeave が Nvidia からこれほど多くの希少品を入手できる理由は、北米最大のイーサリアムマイナーであるという過去の地位のためです。
当時、マイニング用の GPU は 50,000 基を超えていましたが、マイニングの持続不可能性に直面した CoreWeave は、AI など並列コンピューティングが必要な分野に目を向け、ChatGPT が普及する前に大量の NVIDIA チップを購入しました。当時、チップの生産能力は十分でした。
その結果、CoreWeaveはH100のコンピューティングパワーを大規模に提供できる世界で唯一の企業であると主張し、「クラウドベンダー」にも変貌した。
はい、その GPU 供給量は、Google Cloud、Amazon Cloud、Microsoft の Azure を含むすべてのクラウド サービス大手を上回っています。
奇妙に聞こえるかもしれませんが、GPU の数がボトルネックになっていないとしても、データ センターの構築には膨大なコスト、絶妙なスペース、エネルギーと放熱の設計、そして非常に複雑なソフトウェアとハードウェアの連携が必要です。一般に、これらを満たすことができるのは、これらを満たすことができるものだけです。条件 それはシリーズBラウンド(4億2,100万ドル)を調達したばかりのスタートアップではなく、巨大企業かもしれない。
CoreWeave がこれを実行できるのは、データセンターに対するまったく異なる理解に由来しています。
従来のデータセンターは汎用コンピューティング機能に重点を置いた CPU で構成されており、最初は Intel、その後 AMD のチップが主流でした。
しかし、アクセラレーション コンピューティング用の真新しいデータ センターは並列コンピューティングに重点を置いているため、より多くのメモリ、帯域幅、すべてのアクセラレーション コンピューティング ユニットを緊密に接続する機能が必要になります。同氏は「データセンターの近代化」を10年サイクルとみている。
この新しいサイクルの始まりは、データセンター全体の構築、ソフトウェアとハードウェアの調整、さらには電源や冷却構造の再設計の必要性を告げるものです。これにより、ほぼすべてのクラウド サービス プロバイダーがスタートラインに戻りました。CPU 向けに設計された前世代のデータセンター ソリューションは、まったくコピーすることができません。たとえば、Nvidia が巨大な GPU クラスターを接続するために使用している Infinite Band テクノロジーには 500 マイルを超えるケーブルが必要ですが、これは従来のデータセンター設計には存在しません。
CoreWeave は別の例を挙げ、同じ敷地規模の場合、GPU クラスターは従来のデータセンターの 4 倍の電力を必要とするため、新しいデータセンターの電源システムと冷却システムは、ハードウェアの組み合わせさえも含めて完全に再設計する必要があります。とソフトウェアのコスト。
この機会を先取りした CoreWeave は、巨大な H100 コンピューティング パワーを提供できるだけでなく、他のクラウド サービスよりも数十倍高速であり、同時にコストが 80% 低くなります。これは、Huang Renxun のソリューションを早期に正確に実装したことに起因すると考えられます。データセンターのビジョン - データセンターはアクセラレーテッド コンピューティングに向けて変革しており、不足しているコンピューティング能力はクラウドを通じて供給されます。
このように、仮想通貨マイニング会社は、NVIDIA の最も忠実な弟子であるという理由だけで、人気のクラウド コンピューティング会社になりました。
Nvidia GPU を搭載している企業が最も人気のあるクラウド ベンダーであるため、最も多くの Nvidia GPU を搭載しているのは誰でしょうか?どうやらそれ自体のようです。
そのため、Nvidia は同様のクラウドスタートアップをサポートしながら、独自のクラウドも構築しています。
Nvidia はクラウド自体を行うことで多くの利点を持っていますが、最も明白なのは、GPU の需要と供給の関係に悩まされないことです。マスク氏はかつて、GPUの入手は麻薬の入手よりもはるかに難しいと公の場で述べたことがあるが、CoreWeaveが超大規模なH100コンピューティングパワーを提供できる理由も、Nvidiaの十分な供給に関係していると報告されている - NvidiaはCoreWeaveに数回参加した数ヶ月前 Bラウンドの資金調達。
しかし明らかに、一部の新興企業に投資するだけでは十分ではなく、生成 AI のコンピューティング能力に対する膨大な需要により、最終的には Nvidia が自然消滅することになるでしょう。今年 3 月の GTC カンファレンスで、Nvidia は独自のクラウド サービス DGX Cloud を発表し、今年半ばに正式に開始されました。
名前からわかるように、DGX Cloud は Nvidia の DGX スーパーコンピューターの機能を直接利用しており、クラウドの各インスタンスには 8 つの H100 または A100 GPU と 640 GB のメモリが搭載されています。
DGX Cloud は、大規模なワークフローをクラスター間でスケールし、複数のコンピューティング ノード間で並行して分散できる低遅延構造を採用しています。たとえば、最初に DGX Cloud との連携を発表した Oracle は、OCI Supercluster 上のクラスターあたり 30,000 個を超える A100 GPU をデプロイできるため、大規模なモデルをクラウド上でトレーニングできます。ユーザーはどこからでも自分の AI スーパーコンピューターに自由にアクセスでき (NVIDIA は計算能力の分配は排他的であると述べた)、それらを扱うために使用されるのはフロントエンド インターフェイスだけであり、開発プロセス自体を除いて心配する必要はありません。ハードウェア インフラストラクチャに関連する問題。
このサービスは月額約 40,000 ドルで利用できます。もちろん、DGX サーバーを 20 万米ドルで直接購入するよりもはるかに安いですが、Microsoft の Azure の料金は同じ 8 つの A100GPU で 20,000 米ドル未満であり、前者のほぼ半分であると多くの人が指摘しています。
なぜそんなに高価なのですか? Nvidia のクラウド サービスは他のクラウド サービスとは異なるため、コンピューティング能力だけでなく、AI ソリューションの完全なセットも含まれています。
Base Command Platform と AI Enterprise という 2 つのサービスが DGX Cloud に統合されています。前者は管理および監視ソフトウェアで、クラウド コンピューティング能力のトレーニング負荷を記録し、クロスクラウドおよびローカル コンピューティング能力の統合を提供するだけでなく、ユーザーがブラウザから DGX Cloud に直接アクセスできるようにします。後者は Nvidia AI プラットフォームのソフトウェア レイヤーであり、数千のソフトウェア パッケージがさまざまな事前トレーニング済みモデル、AI フレームワーク、高速化されたライブラリを提供するため、エンドツーエンドの AI 開発と展開のコストが簡素化されます。さらに、DGX Cloud は AI Foundations と呼ばれるモデル キャスティング サービスも提供しており、ビジネス ユーザーが独自のデータを使用して独自の垂直大規模モデルをカスタマイズできるようになります。
ソフトウェアとハードウェアを組み合わせたこの完全なソリューションにより、DGX Cloud のトレーニング速度は従来のクラウド コンピューティングの 2 ~ 3 倍になります。これが DGX Cloud と従来のクラウド サービスの最大の違いです。NVIDIA の 2 つの側面が非常にうまく統合されています。強み: AI エコロジーとコンピューティング能力。 Nvidia の場合、「サービスとしてのソフトウェア」という表現は「サービスとしてのソフトウェアとハードウェアの統合」に変更されるようです。DGX Cloud は、ハードウェア メーカーの上向き垂直統合の能力上限を一元的に表します。
しかし、これは Nvidia が従来のクラウド ベンダーの地位を完全に引き上げたことを意味するものではありません。そのサービスは従来のクラウド ベンダーを通じて提供されます。 DGX Cloud は当初、Oracle Cloud 上で開始されると発表され、続いて Microsoft と Google が続きました。Nvidia がこれらのクラウド ベンダーと連携する方法は非常に興味深いものです。Nvidia は、まず GPU ハードウェアをこれらのクラウド パートナーに販売し、次に実行するためにハードウェアをレンタルします。 DGXクラウド。
これを双方から滞りなく稼ぐということだ、と冗談を言う人もいた。
実際、Huang Jensen 氏はこのモデルについて次のように説明しました。「顧客に当社のコンピューティング プラットフォームを使用してもらうことで当社は利益を得られ、顧客は当社 (コンピューティング プラットフォーム) を自社 (クラウド ベンダーの) クラウドに導入することで利益を得ます。」
黄仁勲の言葉だけを聞くのであれば、これはハッピーエンド、ウィンウィンの結末ですが、これは彼の一貫した物語に過ぎません。 Nvidia はすでに自社の顧客との競争に巻き込まれており、それを承知しています。
DGX Cloud の進歩は、Huang Renxun が従来のクラウド ベンダーにのみ DGX Cloud を導入するつもりがないことを示しています。 8 月の SIGGRAPH 2023 で、Nvidia は最初に Hugging Face との協力を発表し、その後 AI Workbench と呼ばれるサービスをリリースしました。これらはすべて、ユーザーが大規模な事前トレーニング モデルを簡単に作成、テスト、カスタマイズできるようにするもので、その背後にあるコンピューティング能力のサポートには当然 DGX Cloud が含まれています。
これは明らかに Nvidia とクラウド ベンダーの関係に影響を及ぼします。Google、Amazon、Microsoft などの最も重要なクラウド サービス プロバイダーも Nvidia の主要顧客であり、Nvidia が自社のクラウド サービスを推進すれば、その市場シェアを奪われることは間違いありません。特に、データセンターおよびクラウドサービスの巨人である同社は、次世代データセンターの構築においてあまり有利ではないことは前編でも述べたとおりであり、自社のクラウドサービスの脅威は小さくない。
Huang Renxun 氏もこのことを知らないわけではないため、DGX Cloud に対する彼の態度は非常に興味深いもので、たとえば、クラウド サービスの適切な混合比率は Nvidia DGX 10% とパブリック クラウド 90% であるべきだと公に述べています。言い換えれば、Huang Renxun 氏の位置付けでは、DGX Cloud は従来のクラウド ベンダーに対する敵対者や脅威ではなく、パートナーです。
第 1 四半期財務報告書の発表後のアナリスト向け電話会議で、Huang Renxun 氏はこの協力関係の利点についてさらに詳しく語り、「大きな双方にとって有利な状況」について、Huang Renxun 氏はこのように説明しました。同氏の理解では、DGX Cloud は純粋な Nvidia スタック (純粋な Nvidia スタック) であり、人工知能開発、大規模なデータベース、高速かつ低遅延のネットワークを組み合わせて、新たな巨大市場を開拓する便利な AI インフラストラクチャとなります。この市場には Nvidia や従来のクラウド ベンダーが含まれており、誰もが生成 AI の爆発的な恩恵を受けることになります。
競合を回避しようとするのは、実際には、DGX Cloud が長期間にわたって少量しか維持できない可能性があるためです。
最初の理由は、もちろんコンピューティング能力のボトルネックです。 Huang Renxun 氏は「信じられないほど多くの注文」がデータセンターの業務量について説明しています。もちろん、Nvidia の最優先事項は、市場の需要を満たすできるだけ多くの高度なチップを開発し、確実に生産することです。そうしないと、クラウド サービスの規模を維持できなくなります。拡大される。
TSMC はノンストップで生産を行っていますが、コンピューティング能力の差は縮まるどころか大きくなっていることに注目する価値があります。これは、大規模なモデル (ChatGPT など) が発売され、商品化されると、その推論コストが規模に応じて指数関数的に増加するためです。ユーザー レベルが上がると、長期的には、モデルのトレーニングに必要な計算能力よりもはるかに大きくなります (誰かが指定した倍率は 100)。
さらに、Nvidia と従来のクラウド ベンダー間のパートナーシップの複雑さも考慮されています。 DGX Cloud が純粋に競争力のある製品として表示される場合、かなりの市場シェアを占める可能性がありますが、クラウド メーカーが NVIDIA への依存から脱却することはさらに加速することは間違いありません。彼らはすでに「NVIDIA」の負荷を軽減するために独自のチップを開発しています。税金」が上がります。
別の観点から見ると、DGX Cloud の規模を完全に拡大することは Nvidia にとって最善の利益ではない可能性があります。チップからゲーム グラフィックス カード、サーバーやデータ センターに至るまで、Nvidia が自社でハードウェア製品を製造することはほとんどなく、OEM メーカーとの協力を好むため、Nvidia チップを購入するには依然として OEM メーカーを経由する必要があります。これにより、Nvidia はコストを適切に管理し、利益率を維持することができます。
現在、Nvidia とクラウド ベンダーはバランスを保っているように見えますが、特に一方が Nvidia である場合には、そのバランスが崩れることになります。結局のところ、今年は Huang Renxun 氏のいわゆる「次の 10 年」の更新サイクルの最初の年です。 「第世代データセンター」です。
37k 人気度
14k 人気度
8k 人気度
16k 人気度
62k 人気度
31k 人気度
3k 人気度
112k 人気度
27k 人気度
勢いに乗るエヌビディアの次の目標はクラウドベンダーのビジネスを奪うことか?
Nvidia GPU を持っている人は誰でもクラウド会社です
Nvidia に関する新しいニュースは常にあなたを驚かせます。
最新のものは、米国のクラウドスタートアップである CoreWeave によるものです。
同社は23億ドルの資金調達を発表したが、さらに衝撃的なのは、この資金の担保が同社が所有するGPUだということだ。大型モデルの隆盛を受けて、GPU はハード通貨となっており、CoreWeave が Nvidia からこれほど多くの希少品を入手できる理由は、北米最大のイーサリアムマイナーであるという過去の地位のためです。
当時、マイニング用の GPU は 50,000 基を超えていましたが、マイニングの持続不可能性に直面した CoreWeave は、AI など並列コンピューティングが必要な分野に目を向け、ChatGPT が普及する前に大量の NVIDIA チップを購入しました。当時、チップの生産能力は十分でした。
その結果、CoreWeaveはH100のコンピューティングパワーを大規模に提供できる世界で唯一の企業であると主張し、「クラウドベンダー」にも変貌した。
奇妙に聞こえるかもしれませんが、GPU の数がボトルネックになっていないとしても、データ センターの構築には膨大なコスト、絶妙なスペース、エネルギーと放熱の設計、そして非常に複雑なソフトウェアとハードウェアの連携が必要です。一般に、これらを満たすことができるのは、これらを満たすことができるものだけです。条件 それはシリーズBラウンド(4億2,100万ドル)を調達したばかりのスタートアップではなく、巨大企業かもしれない。
CoreWeave がこれを実行できるのは、データセンターに対するまったく異なる理解に由来しています。
従来のデータセンターは汎用コンピューティング機能に重点を置いた CPU で構成されており、最初は Intel、その後 AMD のチップが主流でした。
しかし、アクセラレーション コンピューティング用の真新しいデータ センターは並列コンピューティングに重点を置いているため、より多くのメモリ、帯域幅、すべてのアクセラレーション コンピューティング ユニットを緊密に接続する機能が必要になります。同氏は「データセンターの近代化」を10年サイクルとみている。
この新しいサイクルの始まりは、データセンター全体の構築、ソフトウェアとハードウェアの調整、さらには電源や冷却構造の再設計の必要性を告げるものです。これにより、ほぼすべてのクラウド サービス プロバイダーがスタートラインに戻りました。CPU 向けに設計された前世代のデータセンター ソリューションは、まったくコピーすることができません。たとえば、Nvidia が巨大な GPU クラスターを接続するために使用している Infinite Band テクノロジーには 500 マイルを超えるケーブルが必要ですが、これは従来のデータセンター設計には存在しません。
CoreWeave は別の例を挙げ、同じ敷地規模の場合、GPU クラスターは従来のデータセンターの 4 倍の電力を必要とするため、新しいデータセンターの電源システムと冷却システムは、ハードウェアの組み合わせさえも含めて完全に再設計する必要があります。とソフトウェアのコスト。
この機会を先取りした CoreWeave は、巨大な H100 コンピューティング パワーを提供できるだけでなく、他のクラウド サービスよりも数十倍高速であり、同時にコストが 80% 低くなります。これは、Huang Renxun のソリューションを早期に正確に実装したことに起因すると考えられます。データセンターのビジョン - データセンターはアクセラレーテッド コンピューティングに向けて変革しており、不足しているコンピューティング能力はクラウドを通じて供給されます。
このように、仮想通貨マイニング会社は、NVIDIA の最も忠実な弟子であるという理由だけで、人気のクラウド コンピューティング会社になりました。
Nvidia Cloud とはどのようなクラウドですか
Nvidia GPU を搭載している企業が最も人気のあるクラウド ベンダーであるため、最も多くの Nvidia GPU を搭載しているのは誰でしょうか?どうやらそれ自体のようです。
そのため、Nvidia は同様のクラウドスタートアップをサポートしながら、独自のクラウドも構築しています。
Nvidia はクラウド自体を行うことで多くの利点を持っていますが、最も明白なのは、GPU の需要と供給の関係に悩まされないことです。マスク氏はかつて、GPUの入手は麻薬の入手よりもはるかに難しいと公の場で述べたことがあるが、CoreWeaveが超大規模なH100コンピューティングパワーを提供できる理由も、Nvidiaの十分な供給に関係していると報告されている - NvidiaはCoreWeaveに数回参加した数ヶ月前 Bラウンドの資金調達。
しかし明らかに、一部の新興企業に投資するだけでは十分ではなく、生成 AI のコンピューティング能力に対する膨大な需要により、最終的には Nvidia が自然消滅することになるでしょう。今年 3 月の GTC カンファレンスで、Nvidia は独自のクラウド サービス DGX Cloud を発表し、今年半ばに正式に開始されました。
名前からわかるように、DGX Cloud は Nvidia の DGX スーパーコンピューターの機能を直接利用しており、クラウドの各インスタンスには 8 つの H100 または A100 GPU と 640 GB のメモリが搭載されています。
DGX Cloud は、大規模なワークフローをクラスター間でスケールし、複数のコンピューティング ノード間で並行して分散できる低遅延構造を採用しています。たとえば、最初に DGX Cloud との連携を発表した Oracle は、OCI Supercluster 上のクラスターあたり 30,000 個を超える A100 GPU をデプロイできるため、大規模なモデルをクラウド上でトレーニングできます。ユーザーはどこからでも自分の AI スーパーコンピューターに自由にアクセスでき (NVIDIA は計算能力の分配は排他的であると述べた)、それらを扱うために使用されるのはフロントエンド インターフェイスだけであり、開発プロセス自体を除いて心配する必要はありません。ハードウェア インフラストラクチャに関連する問題。
このサービスは月額約 40,000 ドルで利用できます。もちろん、DGX サーバーを 20 万米ドルで直接購入するよりもはるかに安いですが、Microsoft の Azure の料金は同じ 8 つの A100GPU で 20,000 米ドル未満であり、前者のほぼ半分であると多くの人が指摘しています。
なぜそんなに高価なのですか? Nvidia のクラウド サービスは他のクラウド サービスとは異なるため、コンピューティング能力だけでなく、AI ソリューションの完全なセットも含まれています。
Base Command Platform と AI Enterprise という 2 つのサービスが DGX Cloud に統合されています。前者は管理および監視ソフトウェアで、クラウド コンピューティング能力のトレーニング負荷を記録し、クロスクラウドおよびローカル コンピューティング能力の統合を提供するだけでなく、ユーザーがブラウザから DGX Cloud に直接アクセスできるようにします。後者は Nvidia AI プラットフォームのソフトウェア レイヤーであり、数千のソフトウェア パッケージがさまざまな事前トレーニング済みモデル、AI フレームワーク、高速化されたライブラリを提供するため、エンドツーエンドの AI 開発と展開のコストが簡素化されます。さらに、DGX Cloud は AI Foundations と呼ばれるモデル キャスティング サービスも提供しており、ビジネス ユーザーが独自のデータを使用して独自の垂直大規模モデルをカスタマイズできるようになります。
ソフトウェアとハードウェアを組み合わせたこの完全なソリューションにより、DGX Cloud のトレーニング速度は従来のクラウド コンピューティングの 2 ~ 3 倍になります。これが DGX Cloud と従来のクラウド サービスの最大の違いです。NVIDIA の 2 つの側面が非常にうまく統合されています。強み: AI エコロジーとコンピューティング能力。 Nvidia の場合、「サービスとしてのソフトウェア」という表現は「サービスとしてのソフトウェアとハードウェアの統合」に変更されるようです。DGX Cloud は、ハードウェア メーカーの上向き垂直統合の能力上限を一元的に表します。
黄仁勲の野心と現実
しかし、これは Nvidia が従来のクラウド ベンダーの地位を完全に引き上げたことを意味するものではありません。そのサービスは従来のクラウド ベンダーを通じて提供されます。 DGX Cloud は当初、Oracle Cloud 上で開始されると発表され、続いて Microsoft と Google が続きました。Nvidia がこれらのクラウド ベンダーと連携する方法は非常に興味深いものです。Nvidia は、まず GPU ハードウェアをこれらのクラウド パートナーに販売し、次に実行するためにハードウェアをレンタルします。 DGXクラウド。
これを双方から滞りなく稼ぐということだ、と冗談を言う人もいた。
実際、Huang Jensen 氏はこのモデルについて次のように説明しました。「顧客に当社のコンピューティング プラットフォームを使用してもらうことで当社は利益を得られ、顧客は当社 (コンピューティング プラットフォーム) を自社 (クラウド ベンダーの) クラウドに導入することで利益を得ます。」
黄仁勲の言葉だけを聞くのであれば、これはハッピーエンド、ウィンウィンの結末ですが、これは彼の一貫した物語に過ぎません。 Nvidia はすでに自社の顧客との競争に巻き込まれており、それを承知しています。
DGX Cloud の進歩は、Huang Renxun が従来のクラウド ベンダーにのみ DGX Cloud を導入するつもりがないことを示しています。 8 月の SIGGRAPH 2023 で、Nvidia は最初に Hugging Face との協力を発表し、その後 AI Workbench と呼ばれるサービスをリリースしました。これらはすべて、ユーザーが大規模な事前トレーニング モデルを簡単に作成、テスト、カスタマイズできるようにするもので、その背後にあるコンピューティング能力のサポートには当然 DGX Cloud が含まれています。
これは明らかに Nvidia とクラウド ベンダーの関係に影響を及ぼします。Google、Amazon、Microsoft などの最も重要なクラウド サービス プロバイダーも Nvidia の主要顧客であり、Nvidia が自社のクラウド サービスを推進すれば、その市場シェアを奪われることは間違いありません。特に、データセンターおよびクラウドサービスの巨人である同社は、次世代データセンターの構築においてあまり有利ではないことは前編でも述べたとおりであり、自社のクラウドサービスの脅威は小さくない。
Huang Renxun 氏もこのことを知らないわけではないため、DGX Cloud に対する彼の態度は非常に興味深いもので、たとえば、クラウド サービスの適切な混合比率は Nvidia DGX 10% とパブリック クラウド 90% であるべきだと公に述べています。言い換えれば、Huang Renxun 氏の位置付けでは、DGX Cloud は従来のクラウド ベンダーに対する敵対者や脅威ではなく、パートナーです。
第 1 四半期財務報告書の発表後のアナリスト向け電話会議で、Huang Renxun 氏はこの協力関係の利点についてさらに詳しく語り、「大きな双方にとって有利な状況」について、Huang Renxun 氏はこのように説明しました。同氏の理解では、DGX Cloud は純粋な Nvidia スタック (純粋な Nvidia スタック) であり、人工知能開発、大規模なデータベース、高速かつ低遅延のネットワークを組み合わせて、新たな巨大市場を開拓する便利な AI インフラストラクチャとなります。この市場には Nvidia や従来のクラウド ベンダーが含まれており、誰もが生成 AI の爆発的な恩恵を受けることになります。
競合を回避しようとするのは、実際には、DGX Cloud が長期間にわたって少量しか維持できない可能性があるためです。
最初の理由は、もちろんコンピューティング能力のボトルネックです。 Huang Renxun 氏は「信じられないほど多くの注文」がデータセンターの業務量について説明しています。もちろん、Nvidia の最優先事項は、市場の需要を満たすできるだけ多くの高度なチップを開発し、確実に生産することです。そうしないと、クラウド サービスの規模を維持できなくなります。拡大される。
TSMC はノンストップで生産を行っていますが、コンピューティング能力の差は縮まるどころか大きくなっていることに注目する価値があります。これは、大規模なモデル (ChatGPT など) が発売され、商品化されると、その推論コストが規模に応じて指数関数的に増加するためです。ユーザー レベルが上がると、長期的には、モデルのトレーニングに必要な計算能力よりもはるかに大きくなります (誰かが指定した倍率は 100)。
さらに、Nvidia と従来のクラウド ベンダー間のパートナーシップの複雑さも考慮されています。 DGX Cloud が純粋に競争力のある製品として表示される場合、かなりの市場シェアを占める可能性がありますが、クラウド メーカーが NVIDIA への依存から脱却することはさらに加速することは間違いありません。彼らはすでに「NVIDIA」の負荷を軽減するために独自のチップを開発しています。税金」が上がります。
別の観点から見ると、DGX Cloud の規模を完全に拡大することは Nvidia にとって最善の利益ではない可能性があります。チップからゲーム グラフィックス カード、サーバーやデータ センターに至るまで、Nvidia が自社でハードウェア製品を製造することはほとんどなく、OEM メーカーとの協力を好むため、Nvidia チップを購入するには依然として OEM メーカーを経由する必要があります。これにより、Nvidia はコストを適切に管理し、利益率を維持することができます。
現在、Nvidia とクラウド ベンダーはバランスを保っているように見えますが、特に一方が Nvidia である場合には、そのバランスが崩れることになります。結局のところ、今年は Huang Renxun 氏のいわゆる「次の 10 年」の更新サイクルの最初の年です。 「第世代データセンター」です。