NVIDIA の創設者兼 CEO のジェンスン フアン氏が出席し、新世代の NVIDIA スーパー AI チップ GH200 を持参しました。 Jensen Huang 氏は、GH200 を「世界最速のメモリ」と呼び、新しい主力製品に非常に自信を持っています。
**今日の AI 市場において、Nvidia は「AI 世界全体を運営するセンター」と呼ばれています。 **OpenAI であろうと、Google、META、Baidu、Tencent、Alibaba であろうと、すべての生成 AI はトレーニングのために Nvidia の AI チップに大きく依存しています。
AIコア不足、Nvidiaは完売
著者:孫鵬岳 編集者:ゲイル
出典: ジンク・ファイナンス
8月8日、世界のコンピュータ業界で最も重要な円卓会議である世界コンピュータグラフィックス会議SIGGRAPHが正式に開催された。
NVIDIA の創設者兼 CEO のジェンスン フアン氏が出席し、新世代の NVIDIA スーパー AI チップ GH200 を持参しました。 Jensen Huang 氏は、GH200 を「世界最速のメモリ」と呼び、新しい主力製品に非常に自信を持っています。
**今日の AI 市場において、Nvidia は「AI 世界全体を運営するセンター」と呼ばれています。 **OpenAI であろうと、Google、META、Baidu、Tencent、Alibaba であろうと、すべての生成 AI はトレーニングのために Nvidia の AI チップに大きく依存しています。
さらに、メディア報道によると、2023年8月のNvidia AIチップH100の市場総需要は約43万2000個になる可能性があり、EbayでのH100チップの現在の価格は4万5000米ドルに達しており、これは30万人民元以上に相当する。元。
チップギャップは 400,000 個以上あり、単価は 45,000 ドルで、総額は軽く数百万ドルに達する可能性があります。
Nvidia は、「マイニング時代」よりもさらにクレイジーな市場の波を経験しています。
AI チップ、見つけるのが難しい
いわゆる AI チップは実際にはグラフィックス プロセッシング ユニット (GPU) であり、その主な役割は、人工知能アルゴリズムのトレーニングと展開に伴う無数の計算の実行を支援することです。
**つまり、生成 AI のあらゆる種類のインテリジェントなパフォーマンスは、無数の GPU の積み重ねから生まれます。使用されるチップが増えるほど、生成 AI はより賢くなります。 **
OpenAI は GPT-4 トレーニングの詳細については口を閉ざしていますが、メディアの推測によると、GPT-4 には少なくとも 8192 個の H100 チップが必要で、料金は 1 時間あたり 2 ドルで、事前トレーニングは約 55 日で完了できます。費用は約 2,150 万ドル (1 億 5,000 万人民元) です。
Microsoft幹部によると、ChatGPTの計算能力サポートを提供するAIスーパーコンピュータは、Microsoftが2019年に10億ドルを投資した大規模なトップレベルのスーパーコンピュータで、数万個のNvidia A100 GPUと60個以上のNvidia A100 GPUを搭載しています。合計で数十万の Nvidia GPU がセンターに導入されています。
ChatGPTに必要なAIチップは固定ではなく、段階的に増加していきます。 ChatGPT がより賢くなると、その代償としてより多くのコンピューティング能力が必要になります。モルガン・スタンレーの予測によれば、GPT-5ではGPT-4の約3倍となる約2万5000個のGPUが必要になるという。
**OpenAI や Google などの一連の AI 製品のニーズに応えたい場合、Nvidia の企業が AI 製品のコアを世界中に提供していることに相当し、これは Nvidia の生産能力を試す大きな試金石となります。 **
Nvidiaはフル稼働でAIチップを生産しているが、メディア報道によると、中小規模のクラウドプロバイダーの大規模H100クラスターの容量が枯渇しつつあり、H100の「深刻な不足問題」は少なくとも終わりまで続くだろう2024年の。
現在、NVIDIA の AI 市場向けチップは主に H100 と A100 の 2 種類に分かれており、H100 が主力製品であり、技術的な詳細では、H100 は 16 ビット推論速度で A100 の約 3.5 倍高速であり、 16ビットのトレーニング速度は約2.3倍です。
H100であろうとA100であろうと、それらはすべてTSMCによって共同生産されているため、H100の生産は制限されています。一部メディアによると、H100は生産から納品まで1台あたり半年程度かかるとのことで、生産効率が非常に悪いとのこと。
Nvidiaは2023年下半期にAIチップの供給能力を増強すると述べたが、定量的な情報は明らかにしなかった。
多くの企業やバイヤーはエヌビディアに対し、TSMCと協力するだけでなく、より多くの注文をサムスンやインテルに引き渡すようファブの生産を増やすよう求めている。
** トレーニング速度の高速化 **
**生産能力を増やす方法がない場合、最良の解決策は、より高性能のチップを発売して品質で勝つことです。 **
その結果、Nvidia は AI トレーニング機能を向上させるために新しい GPU を頻繁に発売するようになりました。まず、今年 3 月に、Nvidia は、生成 AI の増大するコンピューティング能力需要を満たすために、H100 NVL GPU、L4 Tensor Core GPU、L40 GPU、および NVIDIA Grace Hopper の 4 つの AI チップをリリースしました。
Nvidia は、8 月 8 日に開催された SIGGRAPH コンピュータ グラフィックス世界会議で、H100 のアップグレード バージョン (Huang Renxun 氏による GH200) をリリースしました。
新しい GH200 Grace Hopper スーパーチップは 72 コア Grace CPU をベースにしており、480GB ECC LPDDR5X メモリと 141GB HBM3E メモリを備えた GH100 コンピューティング GPU を備え、6 つの 24GB スタックを使用し、6144 ビット メモリ インターフェイスを使用していることがわかります。
GH200 の最大のブラック テクノロジは、世界初の HBM3e メモリを搭載したチップとして、ローカル GPU メモリを 50% 増加できることです。また、トップレベルの生成 AI はサイズが巨大であることが多いものの、メモリ容量が限られているため、これは人工知能市場に特化した「特定のアップグレード」でもあります。
公開情報によると、HBM3eメモリはSK Hynixの第5世代高帯域幅メモリであり、より小さなスペースでより高いデータ転送速度を提供できる新しいタイプの高帯域幅メモリ技術である。 141 GB の容量と 5 TB/秒の帯域幅があり、それぞれ H100 の 1.7 倍と 1.55 倍に達します。
7月の発売以来、SK Hynixは、直接のライバルであるIntelのOptane DCやSamsungのZ-NANDフラッシュチップを抑えて、GPU市場の寵児となった。
SK Hynix は常に Nvidia のパートナーの 1 つであり、HBM3 メモリをはじめ、Nvidia のほとんどの製品は SK Hynix 製品を使用しています。しかし、SKハイニックスはAIチップに必要なメモリの生産能力に懸念を抱いており、エヌビディアはSKハイニックスに何度も生産能力の増強を要請してきた。
難産の大家族が別の難産の大家族に出会うと、人々は GH200 の生産能力を心配せずにはいられません。
NVIDIA は、現世代製品 H100 と比較して、GH200 はメモリ容量が 3.5 倍、帯域幅が 3 倍高く、HBM3e メモリにより、次世代 GH200 は現行モデルより 3.5 倍高速に AI モデルを実行できると公式に発表しました。
**AIモデルの実行速度がH100の3.5倍ということは、GH200 1台でH100の3.5台相当ということですか?すべては実践を通じて学ばなければなりません。 **
しかし今のところ確かなことは、Nvidia が AI 市場最大のサプライヤーとして主導的地位をさらに強化し、AMD や Intel との差を広げたことです。
NVIDIA のライバル
AI チップ 43 万個のギャップに直面して、動じない企業はありません。特に、Nvidia の最大の競争相手である AMD と Intel は、市場全体を独占させることはできません。
今年6月14日、AMD会長兼最高経営責任者(CEO)のSu Zifeng氏は、大規模言語モデル向けに設計されたAIチップ「MI300X」を含む、さまざまな新しいAIソフトウェアおよびハードウェア製品を集中的にリリースした。 AI市場におけるNvidiaへの積極的な挑戦を正式に開始しました。
ハードウェアパラメータに関しては、AMD MI300X には合計 1,460 億個のトランジスタを含む 13 個もの小型チップが搭載されており、128GB の HBM3 メモリが搭載されています。 HBM密度はNvidia H100の2.4倍、帯域幅はNvidia H100の1.6倍で、生成AIの処理速度を高速化できます。
ただし、残念ながら、この主力 AI チップは在庫がありませんが、2023 年の第 4 四半期には完全に量産される予定です。
もう1つの競合他社であるIntelは2019年に人工知能チップメーカーのHABANA Labsを約20億ドルで買収し、AIチップ市場に参入した。
今年8月、Intelの最新の決算発表で、Intelの最高経営責任者(CEO)パット・ゲルシンガー氏は、Intelが2026年にリリースされる予定である、仮称Falcon Shores 2という次世代のFalcon Shores AIスーパーコンピューティングチップを開発していると述べた。
Falcon Shores 2に加えて、IntelはAIチップGaudi2も発表し、すでに販売を開始していますが、Gaudi3は開発中です。
ただ、Gaudi2チップのスペックが高くなく、Nvidia H100やA100に挑戦するのは難しいのが残念です。
** 海外の半導体大手が力を入れて「チップ競争」を始めているほか、国内の半導体企業もAIチップの研究開発に乗り出している。 **
その中で、Kunlun コア AI アクセラレータ カード RG800、Tianshu Zhixin の Tiangai 100 アクセラレータ カード、Suiyuan Technology の第 2 世代トレーニング製品 Yunsui T20/T21 はすべて、大規模なモデル トレーニングをサポートできることを示しています。
コンピューティングパワーを標準とし、AI大型モデルを戦場とするこのチップをめぐる戦いにおいて、NVIDIAはAI市場の最大の勝者の1つとして、チップ設計と市場シェアの強さを実証してきました。
しかし、国産AIチップは若干出遅れているとはいえ、研究開発と市場拡大のスピードは決して止まらず、今後に期待が持てる。