大規模モデルのトレーニング、シナリオベースの微調整、および推論アプリケーション シナリオの観点から見ると、CPU + AI チップによって提供されるヘテロジニアス コンピューティング能力、優れた並列コンピューティング機能、および高い相互接続帯域幅は、AI コンピューティングの最大効率をサポートできます。インテリジェントなコンピューティングの主流ソリューションになります。
iResearchによると、市場シェアに関しては、2027年までに中国のAIチップ市場は2,164億元に達すると予想されている。 AI モデルの最適化が実装されると、AI 推論チップの割合は日に日に増加します。 2022年には、中国のAIトレーニングチップとAI推論チップがそれぞれ47.2%と52.8%を占めるようになる。
現在、AIチップ分野には、製品性能に優れたNvidiaやAMDに代表される老舗チップ大手と、Google、Baidu、Huaweiに代表されるクラウドコンピューティング大手の3タイプのプレーヤーが存在する。 、大規模モデルの開発をサポートする AI チップ、ディープラーニング プラットフォームなどを開発しました。たとえば、HuaweiのKunpeng Ascend、CANNとMindspore、BaiduのKunlun Coreなどです。最後に、Cambrian、Biren Technology、Tianshu Zhixin など、小さくて美しい AI チップのユニコーンがいくつかあります。
ここ数年、AI 分野における Nvidia の大きな動きと比較すると、AMD の動きは少し遅いように思えます。 DeepBrain AI の CEO である Eric Jang 氏は、AMD にはここ数年失望させられたと感じており、過去 5 年間何も変わっていないと述べています。特に AIGC の発生中、AMD が懸命に対応しなければ、その差は広がるばかりです。
上で述べたように、この点において Nvidia には明らかな利点があります。 2006 年には、Nvidia は並列コンピューティング ソフトウェア エンジンであるコンピューティング プラットフォーム CUDA を立ち上げました。CUDA フレームワークには、GPU コンピューティング能力を呼び出すために必要な多くのコードが統合されています。エンジニアは、これらのコードを 1 つずつ記述することなく直接使用できます。開発者は CUDA を使用して AI のトレーニングと推論をより効率的に実行し、GPU のコンピューティング能力をより有効に活用できます。現在、CUDA は AI インフラストラクチャとなり、主流の AI フレームワーク、ライブラリ、ツールはすべて CUDA に基づいて開発されています。
コンピューティング能力を解放するには、チップの理論上のコンピューティング能力を効果的なコンピューティング能力に変えるために、複雑なソフトウェアとハードウェアの連携が必要です。顧客にとって、国産 AI チップを使用することは簡単ではありません。新製品がパフォーマンス上の利点を備えている場合や、他の製品が特定の次元で解決できない問題を提供できる場合を除き、クラウド AI チップの置き換えには一定の移行コストとリスクが必要です。交換する顧客は非常に少ないです。
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
コンピューティングカーニバル、Nvidiaの「中国版」は誰ですか?
**出典: **コアタイドIC
文:王益科十路
編集者: スーヤンシュバイ
ChatGPT によって偶然引き起こされた AI 革命の波が再び AI チップ市場に火をつけました。
「A800やH800などのチップの価格は、約12万元から25万元、30万元、さらには50万元にまで変化した。」これが国内チップ流通界の現実だ。そして、彼らは黄仁勲と「直接の関係」を持たなければなりません。
いわゆる「ノーチップ、ノー AI」のように、大型モデルのコンピューティング能力に対する需要が急増する中、AI テクノロジーの基盤であるチップが重要なビジネスチャンスをもたらします。 OpenAIはかつて、人工知能の科学研究でブレークスルーを起こすためには、消費に必要なコンピューティングリソースが3~4か月ごとに2倍になり、それに見合う資金も指数関数的な成長に見合う必要があると予測した「ムーアの法則」がある。
NvidiaのCFOクレス氏は、AIコンピューティング能力に対する現在の市場需要は、今後数四半期における同社の予想を上回っており、対応するには注文が多すぎると述べた。
生成 AI の波により、Nvidia は多額の利益を上げました。上場から 14 年を経て、Nvidia は時価総額 1 兆ドルのクラブへの参入に成功しました。この目標を達成するまでに、Apple などのシリコンバレーの巨人は 37 年、マイクロソフトは 33 年、アマゾンは 21 年かかり、テスラが最も早く進みました。わずか11年かかりました。
このことは、中国のチップ企業の挑戦意欲も刺激しており、海光信息、カンブリアン、ロンソン・ジョンケ、ビレン・テクノロジー、天樹志新などの国内チップ企業は皆、「中国版」エヌビディアの野望を抱いており、挑戦しようとしている。国内大型モデルのエンパワーメント。一部の大手メーカーも、Baidu Kunlun チップ、Ali Hanguang 800 など、モデルのトレーニングや推論タスクの一部をサポートするために自社開発の AI チップを使用し始めています。
AI コンピューティング能力がもたらす数兆ドル規模の市場に直面して、国内企業はこの配当の波を享受できるでしょうか?国内チップメーカーはエヌビディアの「山」をどう乗り越えるべきか。これはどの企業も逃れることのできない問題です。
01. AI の熱狂が数兆ドルの市場価値を生み出した Nvidia
革の服を着るのが好きな男性は、AI の恩恵を最初に享受します。
2022 年末に ChatGPT が登場すると、すぐに世界中で AI の熱狂が巻き起こりました。その中でも、AI の未来に賭けてきた Nvidia は、ChatGPT の波から最も恩恵を受けた企業の 1 つとなっています。今年の Nvidia GTC カンファレンスで、Nvidia の創設者兼 CEO の Jen-Hsun Huang 氏は、新しい人工知能とチップ技術を明らかにし、人工知能の「iPhone の瞬間」が到来したと述べました。
Huang Renxun 氏は記者会見で、ChatGPT に似た大規模な言語モデルの展開は、重要な新しい推論ワークロードであると述べ、大規模な言語モデル推論をサポートするために、Nvidia は AI を中心とした一連の製品とサービスをリリースしました。中でも新アーキテクチャを採用し、より高度なプロセスを採用したH100チップが最も目を引きます。
この GPU は、NVIDIA Hopper アーキテクチャに基づく H100 で、ChatGPT と同様の事前トレーニング済みモデルを処理および駆動するように設計された Transformer エンジンを搭載しています。 4 ペアの H100 とデュアル GPU NVLink を備えた標準サーバーは、GPT-3 処理の HGX A100 と比較してトレーニングを 10 倍高速化できます。
「H100 は大規模な言語モデルの処理コストを一桁削減できます。」と Huang Renxun 氏はかつて述べました。 Nvidia は、H100 チップに基づいて、8 つの H100 GPU を搭載した最新の DGX スーパーコンピューターも構築しており、それらを接続して巨大な GPU を形成し、AI インフラストラクチャの構築のための「青写真」を提供しています。 DGX スーパーコンピューターが本格的に稼働を開始しました。
その後、A100、H100、A800、H800などのNvidiaの高性能GPUチップもそれに応じて価格を引き上げ、特にフラッグシップチップH100は4月中旬に海外の電子商取引プラットフォームで4万ドル以上で販売され、売り手の中には6.5万米ドルという値段をつけている人もいた。
同時に、Nvidiaの中国固有のA800およびH800チップも略奪された。 「国内の大規模モデル企業がこれらのチップを入手するのは基本的に難しい。市場全体の需要が需要を上回っており、不足は非常に深刻だ」と電子部品調達サプライヤー「広新世紀」の創業者、張坡氏は率直に語った。新潮ICへ: 「今年、このタイプのGPUチップは約12万元から25万元、さらには30万元、さらには50万元まで値上がりしました。」
高性能 GPU における Nvidia の技術的リーダーシップと、その 2 つの AI チップ、A100 と H100 が、ChatGPT のような大規模言語モデルの中核的な推進力であることは疑いの余地がありません。
クラウド コンピューティングの専門家の中には、10,000 個の Nvidia A100 チップが優れた AI モデルのコンピューティング能力のしきい値であると信じている人もいます。 Microsoft が OpenAI のモデルをトレーニングするために構築した AI スーパーコンピューターには、10,000 個の Nvidia GPU チップが搭載されています。偶然にも、国内の大手インターネット企業も Nvidia に大量発注を行っており、LatePost の最近の報道によると、Byte は今年、Nvidia に 10 億米ドル以上の GPU を発注したとのことです。 10億元以上。
さらに誇張されているのは、これらの企業が最終的にカードを手に入れることができるかどうかは、ビジネス関係、特にその企業が過去に Nvidia の主要顧客であったかどうかに大きく依存しているということです。 「中国の Nvidia と話すか、米国に行って Lao Huang (Huang Renxun) と直接話すかには違いがあります。」
その結果、Nvidia の財務データは再び最高値を更新しました。 Nvidiaが5月25日に第1四半期決算報告を発表したところ、AIチップを搭載したデータセンター事業の収益は過去最高を記録し、前年比10%以上の成長率を維持した。
Huang Renxun 氏は、データセンター製品ライン全体が現在生産中であり、需要の急増に対応するために供給が大幅に増加していることを明らかにしました。
一連の良いニュースが直接的にエヌビディアの株価をどんどん上昇させた。 5 月 30 日の夜、米国株式市場が開き、NVIDIA の時価総額は直接 1 兆ドルを超えました。 7 月 19 日、NVIDIA の市場総額は一夜にして 1,750 億米ドル急騰し、再び投資ブームが巻き起こりました。
企業のマーケットキャップ Web サイトによると、NVIDIA の総時価総額は世界で 6 位にランクされており、TSMC (5,336 億ドル) の 2 社に近い、現時点で最高の時価総額を持つチップ企業でもあります。NVIDIA の株価は、この時点で約 180% 上昇しています。年。 AI の熱狂の波が、Huang Renxun 氏の Nvidia を満杯にしたことを認めざるを得ません。
02. Nvidia がコンピューティングパワーの熱狂を享受することは不可能です
「NVIDIA が大規模なトレーニングおよび推論チップを永久に独占するわけではありません。」
これは、ソーシャル質問回答サイトおよびオンライン知識市場 Quora の CEO、アダム ディアンジェロのツイートに対する Tesla CEO のイーロン マスクの返答であり、次のように書いています。「AI ブームが過小評価されている理由の 1 つは、GPU や TPU の不足です。 」
嵐が来ています。
大型モデルを中心とした AI の熱狂は、どの程度の規模のコンピューティングパワー市場を牽引できるでしょうか?蘇州証券は、AIモデルの計算能力に対する需要が拡大し続けており、高性能コンピューティングチップの市場需要が開拓されており、我が国のAIチップ市場規模は2025年には1,780億元に達すると推定されており、 2019 年から 2025 年までの年間平均成長率は 42.9% に達すると予想されます。市場規模の観点から見ると、AI チップは初期段階にありますが、大きな成長の可能性を秘めています。
AIチップは広い概念であり、一般に人工知能アプリケーションのコンピューティングタスクを処理するために特別に使用されるモジュールを指します.人工知能アプリケーションの急速な発展の時代に生まれたコンピューティングタスクハードウェアです.人工知能用のすべてのチップアプリケーションはAIチップと呼ばれます。技術的には主に、汎用 (GPU)、セミカスタム (FPGA)、カスタム (ASIC) の 3 つのルートがあります。
大規模モデルのトレーニング、シナリオベースの微調整、および推論アプリケーション シナリオの観点から見ると、CPU + AI チップによって提供されるヘテロジニアス コンピューティング能力、優れた並列コンピューティング機能、および高い相互接続帯域幅は、AI コンピューティングの最大効率をサポートできます。インテリジェントなコンピューティングの主流ソリューションになります。
iResearchによると、市場シェアに関しては、2027年までに中国のAIチップ市場は2,164億元に達すると予想されている。 AI モデルの最適化が実装されると、AI 推論チップの割合は日に日に増加します。 2022年には、中国のAIトレーニングチップとAI推論チップがそれぞれ47.2%と52.8%を占めるようになる。
国内の大型モデルの出現により計算能力に差が生じる可能性があるが、国内チップメーカーが国内代替の恩恵を享受するのは時間の問題だ。 AIトレーニングチップの開発会社として、「初のAIチップ株」であるカンブリアンは再び市場の注目を集め、株価は上昇を続け、最新の時価総額は900億を超えた。
クラウド製品ラインでは、キャンブリコンは 4 世代のチップ製品を発売しました。2018 年に Siyuan 100、2019 年に Siyuan 270、2020 年に Siyuan 290 (車両)、そして 2021 年にリリースされた Siyuan 370 シリーズです。人工知能処理タスクをサポートするために使用されます。クラウド コンピューティングとデータ センターのシナリオでは、複雑さとデータ スループットが急速に増加しています。さらに、カンブリアンにはまだ発売されていない Siyuan 590 という研究中の製品もあります。さらに、2022年末までに、Siyuan 370シリーズとAIGC製品Baidu Flying PaddleはレベルII互換性テストを完了する予定です。
ただし、国内の大型モデル会社がカンブリアンチップを採用しているかどうかについては、まだ正確な情報が入っていない。 「ハイエンドAIチップの分野では、国内メーカーは初期段階にあり、検証に時間とコストがかかる部分が多い」と上級チップエンジニアは明かす。ファーウェイ、百度、海光信息などの企業のチップでも、エヌビディア製品とは明らかな差がある。
かつて誰かが率直に、「NVIDIA と他のチップ メーカーとの差は学者と高校生の差である」と言いました。 Huang Renxun 氏が述べたように、Nvidia は「走り続けてきた」ので、巨人を超えたい他のチップメーカーは暴走するしかありません。
03. 大きな AI モデルの背後にある「ゲーム・オブ・スローンズ」
Nvidia に加えて、もう 1 つの GPU 大手である AMD も最近、行動を起こしています。
最近、AMD は最新のアクセラレータ カードをリリースしました。AMD が最新のアクセラレータ カード Instinct MI300X を発表したカンファレンス会場では、大きな言語モデル専用の PPT に特別に一行の単語が入力されました。これは業界では直接宣言とみなされています。 Nvidiaとの戦争!
MI300X が搭載されている MI300 シリーズは、AMD が AI および HPC 向けに作成した最新の APU アクセラレータ カードのシリーズです。このうち、MI300Aは「ベーシックモデル」、MI300Xはよりハードウェア性能を高めた「ラージモデル最適化モデル」となります。
現在、MI300A はサンプル出荷されており、間もなく購入可能になると予想されており、大規模専用カード MI300X、および 8 枚の MI300X を統合した AMD Instinct コンピューティング プラットフォームは、今年の第 3 四半期にサンプル出荷される予定です。第 4 四半期に発売される予定です。
ここ数年、AI 分野における Nvidia の大きな動きと比較すると、AMD の動きは少し遅いように思えます。 DeepBrain AI の CEO である Eric Jang 氏は、AMD にはここ数年失望させられたと感じており、過去 5 年間何も変わっていないと述べています。特に AIGC の発生中、AMD が懸命に対応しなければ、その差は広がるばかりです。
AMDのMI300シリーズ製品の発売により、ついにAMDとNvidiaが真っ向から戦う姿が見られるようになりました。
今回のAMDカンファレンス中、同社の株価は上昇せず、下落した。対照的に、エヌビディアの株価も大きく上昇した。市場センチメントを理解するのは難しくありません。ハイテク分野、特に新興市場では、一歩ずつ歩調を合わせて強いものを維持することが商業市場の一般的なロジックになりつつあるからです。
しかし実際には、その理由を注意深く研究した結果、Nvidia が人工知能トレーニング チップ市場を独占している主な理由は、自社開発の CUDA エコロジーにあることがわかります。したがって、AMD MI300 を Nvidia に置き換えたい場合は、まず Nvidia の CUDA エコシステムと互換性がある必要がありますが、AMD はこの目的のために ROCm エコシステムを立ち上げ、HIP を通じて CUDA との完全な互換性を達成し、それによってユーザーの既知のコストを削減しました。
この点に関して、著名な投資ブロガーである Murong Yi 氏は、NVIDIA CUDA と互換性のある道を進むことの難しさは、更新の反復速度が CUDA に決して追いつけず、完全な互換性を達成するのが難しいことであると考えています。一方で、反復は常に 1 ステップ遅くなります。 Nvidia GPU はマイクロ アーキテクチャと命令セットを迅速に反復し、上位ソフトウェア スタックの多くの場所で対応する機能の更新が必要ですが、AMD が Nvidia の製品ロードマップを知ることは不可能であり、ソフトウェアの更新は常に GPU よりも 1 歩遅くなります。 Nvidia (たとえば、AMD は CUDA11 のサポートを発表したばかりかもしれませんが、Nvidia は CUDA12 を開始しました); 一方で、完全な互換性の難しさは開発者の作業負荷を増加させます。非常に複雑で、AMDは多くの人的資源と物的リソースを投資する必要があるが、機能的な違いは避けられず、互換性が十分に行われていない場合は影響を受けるため、追いつくには数年、場合によっては10年以上かかります。パフォーマンス。したがって、これらは誰もが購入しない主な理由でもあります。
Khaveen Investments の推計によると、Nvidia のデータセンター GPU 市場シェアは 2022 年に 88% に達し、AMD と Intel が残りをシェアすることになります。
OpenAI が昨年 ChatGPT をリリースして以来、新たな技術革命が発酵し続けています。 ChatGPT ほど、長年にわたり世界の注目を集めている技術進歩はないと言えます。
国内外の様々なテクノロジー企業、科学研究機関、大学がフォローしており、半年も経たないうちに大規模なモデル申請を行うスタートアップ企業が多数出現し、資金調達規模も倍増している。新高値を記録した。
ブロガーのwgang氏によると、Baidu、iFLYTEK、4Paradigm、清華大学、復丹などの国内の主要工場、新興企業、科学研究機関が相次いで大規模モデル製品をリリースしたという。
一般的な分野だけでなく、特定の業界シナリオ、特に強い専門性と高い知識密度を備えた一部の分野でも、テクノロジー企業が垂直分野で大型モデルをリリースしていることがわかります。たとえば、米国の上場企業である Baijiayun (RTC) は、企業のサービス ニーズの洞察に基づいて AIGC 製品「Market Easy」を最近リリースしましたが、これもコンテンツ制作シナリオに適した初の GPT 大規模モデル エンジンです。エンタープライズマーケティング部門の。
業界関係者は「国内の大型モデルは群雄割拠、百数十台のモデルが競い合う状況が形成されている。年末までには大型モデルが100台を超えるのではないか」と笑いを誘う。年。"
しかし、大規模モデルの開発には、アルゴリズム、計算能力、データという 3 つの重要な要素のサポートが必要です。計算能力は大規模モデルのトレーニングにとって重要なエネルギー エンジンであり、大規模モデル産業の発展に対する大きな障壁でもあります。中国で。
チップの能力は、ハイコンピューティングトレーニングの効果と速度に直接影響します。前述したように、国内の大型モデル製品が頻繁に登場しているにもかかわらず、その背後にあるチップから判断すると、これらのプラットフォームはすべて、Nvidia A100 および H100 GPU、または昨年の禁止後に Nvidia が特別に発売したバージョン A800 および A800 のいずれかを使用しています。これら 2 つのプロセッサの帯域幅はオリジナル バージョンの約 3/4 と約半分であり、高性能 GPU の制限標準を回避します。
テンセントは今年3月、率先してH800の採用を発表し、すでにテンセントクラウドがリリースしたハイパフォーマンスコンピューティングサービスの新バージョンでH800を採用しており、これは中国初だという。
アリババクラウドも今年5月に「スマートコンピューティングの戦い」が今年の一番の戦いになると社内で提案しており、GPUの数は戦いの重要な指標となっている。
さらに、Shangtang は、「AI ラージ デバイス」コンピューティング クラスターに 30,000 個近くの GPU が導入され、そのうち 10,000 個が Nvidia A100 であることも発表しました。 Byte と Meituan は、大規模モデルのトレーニングのために、会社の他のビジネス チームから GPU を直接割り当てます。一部のメーカーは、GPU チップを入手することだけを目的として、2022 年後半から市場で A100 を排除できるさまざまな完成機製品を探しています。 「機械が多すぎて保管場所が足りない。」
国内の大手テクノロジー企業はAIやクラウドコンピューティングに多額の投資を行っており、過去にA100の累計は数万件に達したとされる。
同時に、中国の大手テクノロジー企業は依然として新たな調達競争を続けている。
クラウドサービスプロバイダーによると、バイトやアリババなどの大手企業は主に本家エヌビディアの工場と直接購入交渉を行っており、代理店や中古市場がその膨大なニーズに応えるのは難しいという。
前述のように、ByteDance は今年 Nvidia に 10 億米ドル以上の GPU 製品を発注しており、今年の Byte の購入額だけでも、昨年 Nvidia が中国で販売した商用 GPU の総売上高に近いです。報道によると、少なくとも10億元以上を受注する大手企業もあるという。
中国の大手テクノロジー企業がGPUの購入を非常に急いでいることがわかります。
国内企業だけでなく、海外の主要顧客も Nvidia の A100/H100 チップに対して非常に強い需要を持っています。統計によると、ChatGPT のような製品のテストを最初に開始した Baidu は、2020 年以降、年間 8 億米ドルから 20 億米ドルの資本支出を行っており、アリババの年間資本支出は 60 億米ドルから 80 億米ドルとなっています。同時期に、独自のデータセンターを構築した米国のテクノロジー企業 4 社であるアマゾン、メタ、グーグル、マイクロソフトは、年間少なくとも 150 億米ドルの設備投資を行っていました。
現時点では、Nvidiaの受注が見通しられるのは2024年に達しており、ハイエンドチップは供給不足となっている。現在の生産スケジュールでは、A800/H800でも納品は今年末か来年になる。短期的には、人気の観点から見ると、Nvidia のハイエンド GPU の売上に影響を与えるのは TSMC の生産能力だけかもしれません。
04. 「狂った」Nvidiaの陰で、国産チップはハード・ソフトともに不足している?
大規模モデル製品のチップ供給量から判断すると、AI大規模モデル学習においては、A100、H100、および中国向けに特別供給されているA800、H800の縮小版の代替品は現時点では存在しない。
では、なぜ GPT ブームのこの時期に Nvidia が先頭に立ち、好成績を収めたのでしょうか?
Huaying CapitalのマネージングパートナーであるZhang Gaonan氏は、一方ではNvidiaが最も初期のレイアウトを持っており、そのマイクロカーネル構造も世代ごとに進化し、改善されてきたためだと述べた。現在、同時実行性、バス速度、またはマトリックス変換に対するマイクロカーネルの成熟したサポートのいずれの点においても、その機能はすでに非常に効率的であり、非常に完全な CUDA コンピューティング プラットフォームを同時に提供するなど、実際に潜在的な業界標準となっています。産業チェーン全体の支援施設も非常に充実しており、総合的な競争障壁と外堀の深さは極めて高い。
まとめると、現在の Nvidia GPU の代替不可能性は、大規模モデルのトレーニングメカニズムに由来しており、その中心となるステップは事前トレーニングと微調整であり、前者は一般教育を受けるのと同等の基礎を築くためのものです。 ; 後者は、作業パフォーマンスを向上させるために、特定のシナリオとタスクに最適化されています。
では、国産の GPU チップは大型モデルの計算能力要件をサポートできるのでしょうか?
実際のアプリケーションでは、大規模モデルの計算能力の需要は 2 つの段階に分けられ、1 つは ChatGPT 大規模モデルをトレーニングするプロセス、もう 1 つはモデルを商品化する推論プロセスです。つまり、AI のトレーニングはモデルを作成することであり、AI の推論はモデルを使用することであり、トレーニングにはより高いチップ性能が必要です。
これをもとに国内のAIチップ企業が続々と登場し、次々と製品を市場に投入している。 Shuyuan Technology、Biren Technology、Tianshu Zhixin、Cambrian などの企業はいずれも独自のクラウド GPU 製品を発売しており、理論的なパフォーマンス指標は弱くありません。 Haiguang Information の DCU チップ「Shensu No. 1」は、比較的完全なソフトウェアおよびハードウェア エコシステムを備えており、CUDA アーキテクチャと互換性があります。また、Tencent、Baidu、Ali などの大手インターネット企業も、投資とインキュベーションを通じて AI チップの分野に精力的に展開しています。
その中でも大規模モデルトレーニングでは高粒度の情報を処理する必要があり、クラウドトレーニングチップにはより高い精度と計算速度が求められますが、現時点では国内のほとんどのGPUには大規模モデルトレーニングをサポートする能力がありません。それほど高い粒度の情報を必要としないクラウド推論作業に適しています。
今年3月、Baidu Li Yanhong氏は、Kunlunチップは現在、大規模モデルの推論に非常に適しており、将来的にはトレーニングにも適していると公に述べた。
Tianshu Zhixinの副社長であるZou Wei氏も新潮ICに対し、国産チップとNvidiaの最新製品の間にはまだ一定の差があるが、推論計算の観点からは国産チップも主流製品と同等の性能を達成でき、アプリケーションも優れていると語った。人工知能の人気の高まりにより、推論チップの市場需要は成長を加速し、需要の拡大に伴い、国内チップの市場も拡大すると考えられます。
匿名を希望した別の業界関係者は、「国内の汎用GPU製品は、大規模モデルのトレーニングに対応する点で海外の主力製品との差があるが、それは修復できないわけではない。業界がそうしているだけだ」と語った。製品定義では大規模モデルの方向で設計されていません。」
現在、業界の専門家は、チップレットや高度なパッケージングによってチップのコンピューティング能力を向上できるかどうかを検討するなど、関連する調査と取り組みを行っています。現在、大型モデルの分野では国内のGPU企業がチップ開発とレイアウトを行っている。
Huaying CapitalのマネージングパートナーであるZhang Gaonan氏は、資本の観点から新潮ICに対し、HuayingはGPU、DPU、あるいは最先端の光電ハイブリッドコンピューティング、量子コンピューティングなど、コンピューティングパワーインフラストラクチャに長い間細心の注意を払ってきたと語った。 、ターゲットを絞ったリサーチとレイアウトがあります。全体として、FPGA やエッジ コンピューティングなどの汎用コンピューティング インフラストラクチャに焦点を当てています。対照的に、現時点では、ディープラーニング、特別なアルゴリズム、ローカルなコンピューティング能力の最適化などに関する多くのコンピューティング能力チップは、その検討の焦点ではありません。
実際、ハードウェア性能の差に加え、ソフトウェアエコシステムも国内AIチップメーカーの欠点となっている。
チップは、ハードウェア システム、ツール チェーン、コンパイラーなどの複数のレベルに適応する必要があり、強力な適応性が必要です。そうでないと、このチップは、あるシーンでは計算能力の 90% を実行できますが、別のシーンでは 90% しか実行できません。パフォーマンス 80% を使い果たすシナリオ。
上で述べたように、この点において Nvidia には明らかな利点があります。 2006 年には、Nvidia は並列コンピューティング ソフトウェア エンジンであるコンピューティング プラットフォーム CUDA を立ち上げました。CUDA フレームワークには、GPU コンピューティング能力を呼び出すために必要な多くのコードが統合されています。エンジニアは、これらのコードを 1 つずつ記述することなく直接使用できます。開発者は CUDA を使用して AI のトレーニングと推論をより効率的に実行し、GPU のコンピューティング能力をより有効に活用できます。現在、CUDA は AI インフラストラクチャとなり、主流の AI フレームワーク、ライブラリ、ツールはすべて CUDA に基づいて開発されています。
この一連のコーディング言語がなければ、ソフトウェア エンジニアがハードウェアの価値を認識することは非常に困難になります。
Nvidia 以外の GPU や AI チップが CUDA にアクセスしたい場合は、独自の適応ソフトウェアを提供する必要があります。業界関係者によると、私は NVIDIA 以外の GPU メーカーに連絡を取ったところ、そのチップとサービスの見積もりは NVIDIA よりも低く、よりタイムリーなサービスを提供すると約束していますが、その GPU を使用するための全体的なトレーニングと開発コストは NVIDIA よりも高くなるでしょう。結果と開発時間の不確実性。
Nvidia GPU は高価ですが、実際には最も安価に使用できます。大規模モデルのチャンスを掴もうとする企業にとって、多くの場合、資金は問題ではありませんが、時間はより貴重なリソースです。先行者利益を確保するには、全員ができるだけ早く十分な高度なコンピューティング パワーを取得する必要があります。
したがって、国内のチップサプライヤーにとって、同等のコンピューティング能力を備えた製品がチップを積層することで積層できたとしても、顧客がソフトウェアの適応と互換性を受け入れることはより困難です。また、サーバー運用の観点からは、マザーボード費用、電気代、運用コスト、消費電力や放熱など考慮すべき事項により、データセンターの運用コストが大幅に増加します。
コンピューティング能力リソースはプーリングの形で提供される必要があることが多いため、データセンターは通常、コンピューティング能力プーリングの難しさを軽減するために、同じ会社の同じチップを使用することに積極的です。
コンピューティング能力を解放するには、チップの理論上のコンピューティング能力を効果的なコンピューティング能力に変えるために、複雑なソフトウェアとハードウェアの連携が必要です。顧客にとって、国産 AI チップを使用することは簡単ではありません。新製品がパフォーマンス上の利点を備えている場合や、他の製品が特定の次元で解決できない問題を提供できる場合を除き、クラウド AI チップの置き換えには一定の移行コストとリスクが必要です。交換する顧客は非常に少ないです。
ChatGPT を実際に処理できる唯一の GPU サプライヤーである Nvidia は、当然の「AI コンピューティング パワーの王」です。 6年前、Huang Renxun氏はA100チップを搭載した最初のスーパーコンピューターをOpenAIに個人的に納入し、OpenAIのChatGPTの作成を支援し、AI時代のリーダーとなった。
しかし、米国が昨年輸出規制を導入して以来、NVIDIA は同社の 2 つの最先端 GPU チップ、H100 と A100 の中国への輸出を禁止されました。これは間違いなく下流のアプリケーション企業にとって打撃です。
セキュリティと自主規制の観点から、これは国内のチップ企業にとって新たな機会となる。国内のチップは、複雑な国際貿易関係や地政学的な要因により、性能やソフトウェアエコロジーの点でNvidiaやAMDなどの業界大手に劣っているものの、「国内代替」が国内半導体産業の発展の主要テーマとなっている。
05. 結論
コンピューティング能力が向上するたびに、技術的および産業的な変化の波が引き起こされます。CPU は人類を PC 時代に導き、モバイル チップはモバイル インターネットの波を引き起こし、AI チップは数十年にわたる AI におけるコンピューティング能力のボトルネックを打破します。業界。
今、「AI iPhoneの瞬間」が到来し、次の時代への道はすでに目の前にあるのかもしれません。
これらのデータセンターのAIチップやソフトウェアシステムの分野は依然として海外メーカーが独占しているが、「コンピューティングパワーの現地化」に向けた市場の扉が今開きつつあるのかもしれない。