原典:シン・ジユアン 画像ソース:無制限のAIによって生成NVIDIAのAIハードウェアの覇権は長すぎます!現在、主要なテクノロジー企業は彼らの覇権を打倒するのを待っています。もちろん、Nvidiaはじっと座っていません。最近、外国メディアのSemiAnalysisは、待望のH200、B100、および「X100」GPUを含む、今後数年間のNVIDIAのハードウェアロードマップを明らかにしました。 それに伴い、NVIDIAのプロセステクノロジープラン、HBM3Eの速度/容量、PCIe 6.0、PCIe 7.0、NVLink、1.6T 224G SerDesプランなど、いくつかの難しい情報があります。これらの計画が期待どおりに機能する場合、Nvidiaは引き続き敵を粉砕します。もちろん、覇権の位置はそれほど良くありません-AMDのMI300、MI400、AmazonのTrainium 2、MicrosoftのAthena、IntelのGaudi 3は、Nvidiaをより良くすることはありません。準備をしなさい、高エネルギー攻撃が先にあります! **NVIDIA、ハードウェアの覇権者になりたいだけではありません** ## Googleはすでに独自のAIインフラストラクチャのレイアウトを開始しており、構築したTPUv5とTPUv5eは、社内のトレーニングと推論だけでなく、Apple、Anthropic、CharacterAI、MidJourneyなどの外部顧客にも使用できます。GoogleはNvidiaの唯一の脅威ではない。ソフトウェア面では、MetaのPyTorch 2.0とOpenAIのTritonも活況を呈しており、他のハードウェアベンダーと互換性があります。 今日、ソフトウェアのギャップは残っていますが、以前ほど大きくはありません。ソフトウェアスタックでは、AMDのGPU、IntelのGaudi、MetaのMTIA、MicrosoftのAthenaがある程度の開発を達成しています。NVIDIAは依然としてハードウェアで主導的な地位を維持していますが、ギャップはますます速く縮まります。NVIDIA H100は長い間支配的ではありません。今後数か月以内に、AMDのMI300とIntelのGaudi 3の両方が、H100よりも技術的に優れたハードウェア製品を発売する予定です。 グーグル、AMD、インテルなどの難しい相手に加えて、NVIDIAにも大きな圧力をかけている企業もあります。これらの企業は一時的にハードウェア設計に遅れをとっていますが、その背後にある巨人から補助金を得ることができます-世界は長い間NVIDIAに苦しんでおり、これらの企業はNVIDIAのHBMに対する莫大な利益独占を破ることを望んでいます。Amazonの次期Trainium2とInferentia3、そしてMicrosoftの次期Athenaは、長年にわたって行われてきた投資です。競合他社は威嚇的であり、Nvidiaは確かにじっと座っていません。 外国メディアのSemiAnalysisの見解では、管理スタイルやルートの意思決定に関係なく、NVIDIAは「業界で最も疑わしい企業の1つ」です。そして、黄ジェンシュンはアンディグローブの精神を体現しています。> 成功は自己満足につながります。 自己満足は失敗につながります。 パラノイアだけが生き残ります。最初の地位を確保するために、NVIDIAは野心的であり、多面的な冒険戦略を採用しています。彼らはもはや従来の市場でインテルやAMDと競争することを軽蔑していませんが、グーグル、マイクロソフト、アマゾン、メタ、アップルなどのテクノロジーの巨人になりたいと思っています。 NVIDIAのDGXクラウド、ソフトウェア、および非半導体分野の買収戦略はすべて、その背後にある大きなチェスの駒です。**ロードマップの最新の詳細を公開! ** ## NVIDIAの最新のロードマップの重要な詳細が公開されています。詳細には、ネットワーク、メモリ、パッケージングおよびプロセスノード、さまざまなGPU、SerDesの選択、PCIe 6.0、共同パッケージ化された光、および光スイッチが含まれます。 明らかに、グーグル、アマゾン、マイクロソフト、AMD、インテルの競争圧力の下で、NVIDIAは**B100**と**X100**の開発を一夜にして加速させました。### **B100:何よりも市場投入までの時間**内部筋によると、NVIDIAのB100は2024年の第3四半期に大量生産され、いくつかの初期サンプルは2024年の第2四半期に出荷される予定です。パフォーマンスとTCOの面では、AmazonのTrainium 2、GoogleのTPUv5、AMDのMI300X、IntelのGaudi 3、MicrosoftのAthenaのいずれであっても、それに比べて弱いです。 設計パートナーであるAMDまたはTSMCからの補助金を考慮しても、それらすべてを打ち負かすことはできません。B100をできるだけ早く市場に投入するために、NVIDIAは多くの妥協をしました。たとえば、NVIDIAは消費電力をより高いレベル(1000W)に設定したいと考えていましたが、最終的にはH100の700Wを使い続けることを選択しました。このようにして、B100は発売時に空冷技術を使い続けることができます。 さらに、初期のB100シリーズでは、NVIDIAもPCIe5.0の使用を主張します。5.0と700Wの組み合わせは、既存のH100 HGXサーバーに直接接続できることを意味し、サプライチェーンの容量を大幅に向上させ、生産と出荷を早期に取得します。5.0に固執することを決定した理由の一部は、AMDとIntelがPCIe6.0統合においてまだはるかに遅れていることです。 また、Nvidia自身の内部チームでさえ、PCIe 6.0 CPUを使用する準備ができていません。さらに、より高速なC2Cスタイルのリンクを使用します。 将来的には、ConnectX-8には統合されたPCIe 6.0スイッチが搭載される予定ですが、まだ誰も準備ができていません。Broadcom と AsteraLabs は、年末まで PCIe6.0 リタイマーの生産準備が整っておらず、これらの基板のサイズを考えると、より多くのリタイマーのみが必要になります。これはまた、元のB100が3.2Tに制限され、ConnectX-7を使用する場合の速度は、PPTでNVIDIAが主張するGPUあたり400Gではなく、800Gのみになることを意味します。空気を冷たく保ち、電力、PCIe、およびネットワーク速度を一定に保つと、製造と展開が容易になります。 その後、NVIDIAは水冷を必要とする1,000W +バージョンB100を発売します。このバージョンのB100は、ConnectX-8を介してGPUごとに完全な800Gネットワーク接続を提供します。イーサネット/インフィニバンドの場合、これらのSerDeは8x100Gのままです。GPUあたりのネットワーク速度は2倍になりましたが、同じ51.2Tスイッチを経由する必要があるため、カーディナリティは半分になりました。 102.4TスイッチはB100世代では使用されなくなります。興味深いことに、B100のNVLinkコンポーネントは224G SerDesを使用することが報告されており、NVIDIAが実際にこれを行うことができれば、間違いなく大きな改善になります。業界のほとんどの人は、Nvidiaの人々を除いて、224Gは信頼性が低く、2024年に発生する可能性は低いことに同意しています。ご存知のように、グーグル、メタ、アマゾンのいずれであっても、224G AIアクセラレータの大量生産目標は2026/2027年に設定されています。NVIDIAが2024/2025年にこれを達成した場合、それは確かに敵を地面に打ち負かすでしょう。 B100は依然としてTSMCのN4Pであり、3nmプロセスに基づく技術ではないと報告されています。明らかに、このような大きなチップサイズの場合、TSMCの3nmプロセスはまだ成熟していません。 NVIDIA基板サプライヤーのIbidenが明らかにした基板サイズに基づいて、NVIDIAは8または12のHBMスタックを含む2つのモノリシック大型チップMCMで構成される設計に切り替えたようです。来年のSambaNovaとIntelのチップはどちらも同様のマクロデザインを使用しています。 NVIDIAがAMDのようなハイブリッドボンディング技術を使用していない理由は、大量生産が必要であり、コストが大きな懸念事項であるためです。SemiAnalysisによると、これら2つのB100チップのメモリ容量はAMDのMI300Xと同等かそれ以上になり、24GBスタックに達します。B100の空冷バージョンは最大6.4Gbpsの速度に達することができ、液冷バージョンは最大9.2Gbpsに達する可能性があります。さらに、NVIDIAはロードマップにGB200とB40も示しました。GB200とGX200はどちらもGを使用していますが、NVIDIAがArmアーキテクチャに基づく新しいCPUを導入するため、これは明らかにプレースホルダーです。 私はグレースを長く使用しません。B40はB100の半分のサイズになる可能性が高く、モノリシックN4Pチップと最大4層または6層のHBMのみを備えています。 L40Sとは異なり、これは小さなモデルでの推論には理にかなっています。### **"X100": クリティカルストライク**公開されたロードマップで最も印象的なのは、NVIDIAの「X100」スケジュールです。興味深いことに、それはAMDの現在のMI400スケジュールに完全に適合しています。 H100の発売からわずか300年後、AMDはMI300X戦略をリリースしました。AMDのMI300Xのパッケージングは印象的であり、100年前のH100を上回り、純粋なハードウェアでNvidiaを超えることを期待して、より多くのコンピューティングとメモリを詰め込んでいます。 Nvidiaはまた、新しいGPUの隔年リリースが競合他社に市場を獲得する絶好の機会を与えたことを発見しました。急いでいるNvidiaは、対戦相手にチャンスを与えることなく、製品サイクルを年に一度にスピードアップしています。 たとえば、B100のちょうど100年後の2025年にX100を発売する予定です。もちろん、「X100」はまだ(B100とは異なり)量産されていないため、すべてがまだ空中にあります。ご存知のように、NVIDIAはこれまで次世代製品の後の製品について話し合ったことがなく、今回はすでに前例のないものです。さらに、その名前はおそらく「X100」と呼ばれていません。Nvidiaは、エイダ・ラブレス、グレース・ホッパー、エリザベス・ブラックウェルなどの著名な女性科学者にちなんでGPUに名前を付けるという伝統を長い間持っています。「X」に関しては、唯一の論理的なものは、半導体と金属ストリップの構造を研究しているXie Xideですが、彼女のアイデンティティを考慮すると、確率は小さいはずです。 **サプライチェーンマスター:ラオファンのビッグベット** ## NVIDIA の創業以来、Jensen Huang は大規模な成長目標をサポートするためにサプライ チェーンの習得を積極的に推進してきました。彼らはキャンセル不可能な注文(最大111億5000万ドルの購入、容量、在庫のコミットメント)を引き受けることをいとわないだけでなく、38億1000万ドルの前払い契約も結んでいます。間違いなく、単一のサプライヤーがそれに匹敵することはできません。そして、Nvidiaの話は、供給が不足しているときに供給を創造的に増やすことができることを何度も示しています。 2007年の黄ジェンシュンと張忠武の対話> Zhang Zhongmouと私が1997年に会ったとき、わずか100人のNvidiaは、その年に2700万ドルの収益を上げていました。 >信じられないかもしれませんが、張仲武はかつて販売を呼びかけ、彼のドアを訪れていました。 そして、NVIDIAが何をしているのか、そして私たちのチップがどれほど大きくなければならないのかをZhangに説明します、そしてそれらは毎年大きくなります。 >その後、NVIDIAは合計1億2700万枚のウェーハを製造しました。 それ以来、NVIDIAはこれまで毎年ほぼ100%成長してきました。 つまり、過去10年間で、複合年間成長率は約70%に達しています。当時、張はNvidiaがこれほど多くのウェーハを必要としているとは信じられませんでしたが、黄は頑張った。NVIDIAは、供給側を実験することで大きな成功を収めました。 彼らは時々数十億ドル相当の在庫を書き留めますが、それでも過剰注文からプラスの利益を得ます。今回、NVIDIAはGPUのアップストリームコンポーネントの供給のほとんどを直接押収しました-彼らは3つのHBMサプライヤー、SKハイニックス、サムスン、マイクロンに非常に大量の注文を出し、ブロードコムとグーグルを除くすべての人の供給を混雑させました。 同時に、TSMC CoWoSの供給の大部分とAmkorの生産能力も購入しました。さらに、NVIDIAは、リタイマー、DSP、光学系など、HGXボードとサーバーに必要なダウンストリームコンポーネントを活用しています。サプライヤーがNVIDIAの要件に耳を貸さない場合、それは老黄の「大根と棒」に直面するでしょう-一方では、彼らはNVIDIAから想像を絶する注文を受けるでしょう。 一方、NVIDIAによって既存のサプライチェーンから削除される可能性があります。もちろん、NVIDIAは、サプライヤーが重要であり、供給を排除または多様化できない場合にのみ、コミットされたキャンセル不可能な注文も使用します。 各サプライヤーは、NVIDIAがすべてのサプライヤーに多数の注文を出し、すべてのサプライヤーがビジネスのほとんどを獲得していると考えているため、AIの勝者と見なしているようです。 しかし実際には、それはNVIDIAの成長が速すぎるためです。市場のダイナミクスに戻ると、Nvidiaは来年700億ドル以上のデータセンター売上高を達成することを目指していますが、100万台以上のデバイスを備えた十分な容量をアップストリームに持っているのはGoogleだけです。 AI分野におけるAMDの総生産能力はまだ非常に限られており、最大で数十万台にすぎません。**事業戦略:潜在的な反競争的** ## ご存知のように、NVIDIAはGPUに対する膨大な需要を利用して、製品を顧客に販売およびクロスセルしています。サプライチェーンには、NVIDIAがさまざまな要因に基づいて特定の企業に優先割り当てを提供しているという豊富な情報があります。 これには、多様な調達計画、AIチップ計画の独立した研究開発、NVIDIAのDGX、NIC、スイッチおよび/または光学機器の購入などが含まれますが、これらに限定されません。 実際、NVIDIAのバンドルは非常に成功しています。 光ファイバートランシーバーの小規模なサプライヤーであるにもかかわらず、彼らの事業は四半期で3倍になり、来年は10億ドル以上を出荷すると予想されており、自社のGPUまたはネットワークチップ事業の成長をはるかに上回っています。これらの戦略は非常に徹底的であると言えます。たとえば、NVIDIA のシステムに 3.2T ネットワークと信頼性の高い RDMA/RoCE を実装する唯一の方法は、NVIDIA の NIC を使用することです。 もちろん、一方では、Intel、AMD、Broadcomの製品は本当に競争力がなく、依然として200Gのレベルにとどまっているためです。NVIDIAは、サプライチェーンの管理を通じて、400GイーサネットNICよりも大幅に短い400G InfiniBand NICの配信サイクルも推進しています。 2 つの NIC (ConnectX-7) は、実際にはチップとボードの設計が同じです。この理由は、NvidiaのSKU構成であり、企業が標準のイーサネットスイッチの代わりに高コストのInfiniBandスイッチを購入せざるを得ない実際のサプライチェーンのボトルネックではありません。そして、それだけではありません、サプライチェーンがL40とL40S GPUにどれほど夢中になっているかを見てください、そしてあなたはNvidiaが再び配布でトリックをしていることを知っています-より多くのH100割り当てを獲得するために、OEMはより多くのL40を購入する必要があります。これは、PC分野でのNVIDIAの運用と同じです-ノートブックメーカーとAIBパートナーは、より希少で利益率の高いG102 / G104(ハイエンドおよびフラッグシップGPU)を入手するために、より大きなG106 / G107(ミッド/ローエンドGPU)を購入する必要があります。適合として、サプライチェーンの人々は、L40SはFLOPSが高いためA100よりも優れているという主張も教え込まれています。しかし実際には、これらのGPUはA100の半分以下のメモリ帯域幅を持ち、NVLinkを持たないため、LLM推論には適していません。これは、非常に小さなモデルを除いて、L40SでLLMを実行し、良好なTCOを達成することはほとんど不可能であることを意味します。 また、大規模な処理を行うと、各ユーザーに割り当てられたトークンが事実上使用できなくなるため、理論上のFLOPSは実際のアプリケーションでは役に立たなくなります。 さらに、NVIDIAのMGXモジュラープラットフォームは、サーバー設計のハードワークを排除しながら、OEMの利益率も削減します。Dell、HP、Lenovoなどの企業は明らかにMGXに抵抗しているが、Supermicro、Quanta、Asus、Gigabyteなどの企業は、ギャップを埋め、低コストの「エンタープライズAI」を商業化するためにスクランブルをかけている。また、L40SおよびMGXの誇大宣伝に関与するこれらのOEM / ODMは、NVIDIAからより良いメインラインGPU製品の割り当てを取得することもできます。**共同パッケージ光学系** ## CPOに関しては、NVIDIAもそれを非常に重要視しています。彼らは、Ayar Labsからのものだけでなく、彼ら自身がGlobal FoundriesやTSMCから得たものを含む、さまざまなソリューションに取り組んできました。 現在、NVIDIAはいくつかのスタートアップのCPO計画を検討していますが、まだ最終決定を下していません。 分析は、NVIDIAがCPOを「X100」のNVSwitchに統合する可能性が高いと考えています。GPU自体に直接統合することは、信頼性の点でコストがかかりすぎて難しい可能性があるためです。 **光回路スイッチ** ## AIインフラストラクチャにおけるGoogleの最大の強みの1つは、光スイッチです。どうやら、Nvidiaは同様のことを追求しています。 現在、彼らはいくつかの企業に連絡を取り、開発に協力したいと考えています。 NVIDIAは、Fat Treeが拡大を続けることに終止符を打ったため、別のトポロジが必要であることに気づきました。Googleが選択した6Dトーラスとは異なり、Nvidiaはトンボ構造を採用することを好みます。 NVIDIAはまだOCSの出荷にはほど遠いことが理解されていますが、2025年にこの目標に近づくことを望んでいますが、その可能性は達成できません。 OCS + CPOは、特にOCSをパケットごとに実装できる場合の聖杯であり、ゲームゲームを直接変えます。しかし、Googleでさえ、まだ誰もこの能力を実証していません。NVIDIAのOCSとCPOは、調査部門のPPTの2セットにすぎませんが、アナリストは、CPOが2025年から2026年の製品化に一歩近づくと信じています。リソース:
NVIDIA の 25 年間のロードマップが爆発的に拡大! 黄ハオ老人はAMDを倒すためにB100に賭け、秘密兵器X100が露出しました
原典:シン・ジユアン
NVIDIAのAIハードウェアの覇権は長すぎます!
現在、主要なテクノロジー企業は彼らの覇権を打倒するのを待っています。
もちろん、Nvidiaはじっと座っていません。
最近、外国メディアのSemiAnalysisは、待望のH200、B100、および「X100」GPUを含む、今後数年間のNVIDIAのハードウェアロードマップを明らかにしました。
これらの計画が期待どおりに機能する場合、Nvidiaは引き続き敵を粉砕します。
もちろん、覇権の位置はそれほど良くありません-AMDのMI300、MI400、AmazonのTrainium 2、MicrosoftのAthena、IntelのGaudi 3は、Nvidiaをより良くすることはありません。
準備をしなさい、高エネルギー攻撃が先にあります!
Googleはすでに独自のAIインフラストラクチャのレイアウトを開始しており、構築したTPUv5とTPUv5eは、社内のトレーニングと推論だけでなく、Apple、Anthropic、CharacterAI、MidJourneyなどの外部顧客にも使用できます。
GoogleはNvidiaの唯一の脅威ではない。
ソフトウェア面では、MetaのPyTorch 2.0とOpenAIのTritonも活況を呈しており、他のハードウェアベンダーと互換性があります。
ソフトウェアスタックでは、AMDのGPU、IntelのGaudi、MetaのMTIA、MicrosoftのAthenaがある程度の開発を達成しています。
NVIDIAは依然としてハードウェアで主導的な地位を維持していますが、ギャップはますます速く縮まります。
NVIDIA H100は長い間支配的ではありません。
今後数か月以内に、AMDのMI300とIntelのGaudi 3の両方が、H100よりも技術的に優れたハードウェア製品を発売する予定です。
これらの企業は一時的にハードウェア設計に遅れをとっていますが、その背後にある巨人から補助金を得ることができます-世界は長い間NVIDIAに苦しんでおり、これらの企業はNVIDIAのHBMに対する莫大な利益独占を破ることを望んでいます。
Amazonの次期Trainium2とInferentia3、そしてMicrosoftの次期Athenaは、長年にわたって行われてきた投資です。
競合他社は威嚇的であり、Nvidiaは確かにじっと座っていません。
そして、黄ジェンシュンはアンディグローブの精神を体現しています。
最初の地位を確保するために、NVIDIAは野心的であり、多面的な冒険戦略を採用しています。
彼らはもはや従来の市場でインテルやAMDと競争することを軽蔑していませんが、グーグル、マイクロソフト、アマゾン、メタ、アップルなどのテクノロジーの巨人になりたいと思っています。
**ロードマップの最新の詳細を公開! **
NVIDIAの最新のロードマップの重要な詳細が公開されています。
詳細には、ネットワーク、メモリ、パッケージングおよびプロセスノード、さまざまなGPU、SerDesの選択、PCIe 6.0、共同パッケージ化された光、および光スイッチが含まれます。
B100:何よりも市場投入までの時間
内部筋によると、NVIDIAのB100は2024年の第3四半期に大量生産され、いくつかの初期サンプルは2024年の第2四半期に出荷される予定です。
パフォーマンスとTCOの面では、AmazonのTrainium 2、GoogleのTPUv5、AMDのMI300X、IntelのGaudi 3、MicrosoftのAthenaのいずれであっても、それに比べて弱いです。
B100をできるだけ早く市場に投入するために、NVIDIAは多くの妥協をしました。
たとえば、NVIDIAは消費電力をより高いレベル(1000W)に設定したいと考えていましたが、最終的にはH100の700Wを使い続けることを選択しました。
このようにして、B100は発売時に空冷技術を使い続けることができます。
5.0と700Wの組み合わせは、既存のH100 HGXサーバーに直接接続できることを意味し、サプライチェーンの容量を大幅に向上させ、生産と出荷を早期に取得します。
5.0に固執することを決定した理由の一部は、AMDとIntelがPCIe6.0統合においてまだはるかに遅れていることです。 また、Nvidia自身の内部チームでさえ、PCIe 6.0 CPUを使用する準備ができていません。
さらに、より高速なC2Cスタイルのリンクを使用します。
Broadcom と AsteraLabs は、年末まで PCIe6.0 リタイマーの生産準備が整っておらず、これらの基板のサイズを考えると、より多くのリタイマーのみが必要になります。
これはまた、元のB100が3.2Tに制限され、ConnectX-7を使用する場合の速度は、PPTでNVIDIAが主張するGPUあたり400Gではなく、800Gのみになることを意味します。
空気を冷たく保ち、電力、PCIe、およびネットワーク速度を一定に保つと、製造と展開が容易になります。
このバージョンのB100は、ConnectX-8を介してGPUごとに完全な800Gネットワーク接続を提供します。
イーサネット/インフィニバンドの場合、これらのSerDeは8x100Gのままです。
GPUあたりのネットワーク速度は2倍になりましたが、同じ51.2Tスイッチを経由する必要があるため、カーディナリティは半分になりました。 102.4TスイッチはB100世代では使用されなくなります。
興味深いことに、B100のNVLinkコンポーネントは224G SerDesを使用することが報告されており、NVIDIAが実際にこれを行うことができれば、間違いなく大きな改善になります。
業界のほとんどの人は、Nvidiaの人々を除いて、224Gは信頼性が低く、2024年に発生する可能性は低いことに同意しています。
ご存知のように、グーグル、メタ、アマゾンのいずれであっても、224G AIアクセラレータの大量生産目標は2026/2027年に設定されています。
NVIDIAが2024/2025年にこれを達成した場合、それは確かに敵を地面に打ち負かすでしょう。
明らかに、このような大きなチップサイズの場合、TSMCの3nmプロセスはまだ成熟していません。
来年のSambaNovaとIntelのチップはどちらも同様のマクロデザインを使用しています。
SemiAnalysisによると、これら2つのB100チップのメモリ容量はAMDのMI300Xと同等かそれ以上になり、24GBスタックに達します。
B100の空冷バージョンは最大6.4Gbpsの速度に達することができ、液冷バージョンは最大9.2Gbpsに達する可能性があります。
さらに、NVIDIAはロードマップにGB200とB40も示しました。
GB200とGX200はどちらもGを使用していますが、NVIDIAがArmアーキテクチャに基づく新しいCPUを導入するため、これは明らかにプレースホルダーです。 私はグレースを長く使用しません。
B40はB100の半分のサイズになる可能性が高く、モノリシックN4Pチップと最大4層または6層のHBMのみを備えています。 L40Sとは異なり、これは小さなモデルでの推論には理にかなっています。
"X100": クリティカルストライク
公開されたロードマップで最も印象的なのは、NVIDIAの「X100」スケジュールです。
興味深いことに、それはAMDの現在のMI400スケジュールに完全に適合しています。 H100の発売からわずか300年後、AMDはMI300X戦略をリリースしました。
AMDのMI300Xのパッケージングは印象的であり、100年前のH100を上回り、純粋なハードウェアでNvidiaを超えることを期待して、より多くのコンピューティングとメモリを詰め込んでいます。
急いでいるNvidiaは、対戦相手にチャンスを与えることなく、製品サイクルを年に一度にスピードアップしています。 たとえば、B100のちょうど100年後の2025年にX100を発売する予定です。
もちろん、「X100」はまだ(B100とは異なり)量産されていないため、すべてがまだ空中にあります。
ご存知のように、NVIDIAはこれまで次世代製品の後の製品について話し合ったことがなく、今回はすでに前例のないものです。
さらに、その名前はおそらく「X100」と呼ばれていません。
Nvidiaは、エイダ・ラブレス、グレース・ホッパー、エリザベス・ブラックウェルなどの著名な女性科学者にちなんでGPUに名前を付けるという伝統を長い間持っています。
「X」に関しては、唯一の論理的なものは、半導体と金属ストリップの構造を研究しているXie Xideですが、彼女のアイデンティティを考慮すると、確率は小さいはずです。
NVIDIA の創業以来、Jensen Huang は大規模な成長目標をサポートするためにサプライ チェーンの習得を積極的に推進してきました。
彼らはキャンセル不可能な注文(最大111億5000万ドルの購入、容量、在庫のコミットメント)を引き受けることをいとわないだけでなく、38億1000万ドルの前払い契約も結んでいます。
間違いなく、単一のサプライヤーがそれに匹敵することはできません。
そして、Nvidiaの話は、供給が不足しているときに供給を創造的に増やすことができることを何度も示しています。
当時、張はNvidiaがこれほど多くのウェーハを必要としているとは信じられませんでしたが、黄は頑張った。
NVIDIAは、供給側を実験することで大きな成功を収めました。 彼らは時々数十億ドル相当の在庫を書き留めますが、それでも過剰注文からプラスの利益を得ます。
今回、NVIDIAはGPUのアップストリームコンポーネントの供給のほとんどを直接押収しました-
彼らは3つのHBMサプライヤー、SKハイニックス、サムスン、マイクロンに非常に大量の注文を出し、ブロードコムとグーグルを除くすべての人の供給を混雑させました。 同時に、TSMC CoWoSの供給の大部分とAmkorの生産能力も購入しました。
さらに、NVIDIAは、リタイマー、DSP、光学系など、HGXボードとサーバーに必要なダウンストリームコンポーネントを活用しています。
サプライヤーがNVIDIAの要件に耳を貸さない場合、それは老黄の「大根と棒」に直面するでしょう-
一方では、彼らはNVIDIAから想像を絶する注文を受けるでしょう。 一方、NVIDIAによって既存のサプライチェーンから削除される可能性があります。
もちろん、NVIDIAは、サプライヤーが重要であり、供給を排除または多様化できない場合にのみ、コミットされたキャンセル不可能な注文も使用します。
市場のダイナミクスに戻ると、Nvidiaは来年700億ドル以上のデータセンター売上高を達成することを目指していますが、100万台以上のデバイスを備えた十分な容量をアップストリームに持っているのはGoogleだけです。 AI分野におけるAMDの総生産能力はまだ非常に限られており、最大で数十万台にすぎません。
事業戦略:潜在的な反競争的
ご存知のように、NVIDIAはGPUに対する膨大な需要を利用して、製品を顧客に販売およびクロスセルしています。
サプライチェーンには、NVIDIAがさまざまな要因に基づいて特定の企業に優先割り当てを提供しているという豊富な情報があります。 これには、多様な調達計画、AIチップ計画の独立した研究開発、NVIDIAのDGX、NIC、スイッチおよび/または光学機器の購入などが含まれますが、これらに限定されません。
これらの戦略は非常に徹底的であると言えます。
たとえば、NVIDIA のシステムに 3.2T ネットワークと信頼性の高い RDMA/RoCE を実装する唯一の方法は、NVIDIA の NIC を使用することです。 もちろん、一方では、Intel、AMD、Broadcomの製品は本当に競争力がなく、依然として200Gのレベルにとどまっているためです。
NVIDIAは、サプライチェーンの管理を通じて、400GイーサネットNICよりも大幅に短い400G InfiniBand NICの配信サイクルも推進しています。 2 つの NIC (ConnectX-7) は、実際にはチップとボードの設計が同じです。
この理由は、NvidiaのSKU構成であり、企業が標準のイーサネットスイッチの代わりに高コストのInfiniBandスイッチを購入せざるを得ない実際のサプライチェーンのボトルネックではありません。
そして、それだけではありません、サプライチェーンがL40とL40S GPUにどれほど夢中になっているかを見てください、そしてあなたはNvidiaが再び配布でトリックをしていることを知っています-より多くのH100割り当てを獲得するために、OEMはより多くのL40を購入する必要があります。
これは、PC分野でのNVIDIAの運用と同じです-ノートブックメーカーとAIBパートナーは、より希少で利益率の高いG102 / G104(ハイエンドおよびフラッグシップGPU)を入手するために、より大きなG106 / G107(ミッド/ローエンドGPU)を購入する必要があります。
適合として、サプライチェーンの人々は、L40SはFLOPSが高いためA100よりも優れているという主張も教え込まれています。
しかし実際には、これらのGPUはA100の半分以下のメモリ帯域幅を持ち、NVLinkを持たないため、LLM推論には適していません。
これは、非常に小さなモデルを除いて、L40SでLLMを実行し、良好なTCOを達成することはほとんど不可能であることを意味します。 また、大規模な処理を行うと、各ユーザーに割り当てられたトークンが事実上使用できなくなるため、理論上のFLOPSは実際のアプリケーションでは役に立たなくなります。
Dell、HP、Lenovoなどの企業は明らかにMGXに抵抗しているが、Supermicro、Quanta、Asus、Gigabyteなどの企業は、ギャップを埋め、低コストの「エンタープライズAI」を商業化するためにスクランブルをかけている。
また、L40SおよびMGXの誇大宣伝に関与するこれらのOEM / ODMは、NVIDIAからより良いメインラインGPU製品の割り当てを取得することもできます。
共同パッケージ光学系
CPOに関しては、NVIDIAもそれを非常に重要視しています。
彼らは、Ayar Labsからのものだけでなく、彼ら自身がGlobal FoundriesやTSMCから得たものを含む、さまざまなソリューションに取り組んできました。
GPU自体に直接統合することは、信頼性の点でコストがかかりすぎて難しい可能性があるためです。
AIインフラストラクチャにおけるGoogleの最大の強みの1つは、光スイッチです。
どうやら、Nvidiaは同様のことを追求しています。 現在、彼らはいくつかの企業に連絡を取り、開発に協力したいと考えています。
Googleが選択した6Dトーラスとは異なり、Nvidiaはトンボ構造を採用することを好みます。
しかし、Googleでさえ、まだ誰もこの能力を実証していません。
NVIDIAのOCSとCPOは、調査部門のPPTの2セットにすぎませんが、アナリストは、CPOが2025年から2026年の製品化に一歩近づくと信じています。
リソース: