 画像ソース: Unbounded AI によって生成出典: ウォールストリートニュース著者: 趙英NvidiaのCEO、ジェンセン・フアン氏は火曜日の記者会見でそう語った。昨日、Nvidia は、アクセラレーテッド コンピューティングと生成 AI の時代に向けて特別に設計された、新世代の GH200 Grace Hopper スーパー チップ プラットフォームをリリースしました。Huang Renxun 氏は、生成 AI の需要の高まりに応えるために、データセンターには特別なニーズに対応する高速コンピューティング プラットフォームが必要であると指摘しました。新しい GH200 チップ プラットフォームは、優れたメモリ テクノロジと帯域幅、GPU を接続して損失なくパフォーマンスを集約する機能を提供し、データ センター全体に簡単に導入できるサーバー設計を備えています。 **大規模モデルの波の到来により、さまざまな AI ネイティブ アプリケーションが生み出され、コンピューティング パワーの需要が急増しており、データ集約型の人工知能アプリケーション専用のデータセンター市場が急速に台頭しています。## データセンターは新たな変化をもたらしますアナリストらは、既存のクラウドコンピューティングプロバイダーが人工知能ソフトウェアの需要を満たすためにデータセンターの先進チップやその他のアップグレードを競って改修する中、一部の新興建設業者は新しい施設をゼロから構築する機会を捉えていると指摘している。データセンターは大規模な倉庫に似ており、データを保存および処理するためのサーバー、ネットワーク、ストレージ機器の複数のラックが装備されています。従来のデータセンターと比較して、AI データセンターには高性能チップを使用したサーバーが多数搭載されているため、AI データセンター サーバーのラックあたりの平均消費電力は 50 キロワット以上に達する可能性がありますが、従来のデータセンターの各ラックの消費電力は約 7 キロワットです。 kW。**これは、AI データ センターがより高い電力を供給できるインフラストラクチャをさらに構築する必要があることを意味します。追加の電力消費によりより多くの熱が発生するため、AI データ センターには液体冷却などの他の冷却方法も必要です**システムを過熱から保護します。サービスおよびコンサルティング会社Unisysのシニアバイスプレジデント、Manju Naglapur氏は次のように述べています。> **専用の AI データセンターには、Nvidia の GPU などの AI チップを利用したサーバーを収容でき、AI アプリケーションが膨大なデータ ストアをふるいにかけながら複数の計算を同時に実行できます。 ** これらのデータセンターには、大規模な人工知能モデルをサポートするために、光ファイバー ネットワークとより効率的なストレージ デバイスも装備されています。AI データセンターは高度に専門化された建物であり、多大な資金と時間を必要とします。調査会社 Data Bridge Market Research のデータによると、世界の人工知能インフラ市場への支出は 2029 年までに 4,225 億 5,000 万米ドルに達し、今後 6 年間の年平均成長率は 44% になると予想されています。データバンクのラウル・マルティネック最高経営責任者(CEO)は、AI導入のペースにより、今後12─24カ月でデータセンターの容量が不足する可能性が高いと述べた。## AI コンピューティングの新人が 23 億ドルの資金調達を受ける現在、さまざまな大手企業がAIデータセンターに賭けており、「不動産ベンチマーク」のブラックストーンは住宅を販売してAIデータセンターに切り替えている。メタはまた、新たなAIデータセンターを建設すると発表した。前回の記事で述べたように、AIコンピューティング能力の新人であるCoreWeaveは、Nvidia H100から住宅ローンを利用し、23億ドル(約165億元)の負債調達を獲得した。**CoreWeaveは、この資金は人工知能データセンターの建設を加速するために使用されると述べており、これは同社が今年4月に2億2,100万米ドル、5月に2億米ドルを受け取ったことに続く新たな資金調達となる。 6 年前に設立された CoreWeave は、すでに 7 つの AI データ センターをオンラインに展開しており、今年末までにこれを 2 倍に増やす予定です。CoreWeave は、Nvidia および Inflection AI と協力して、22,000 台の Nvidia H100 を実行することを目標に、超大規模な AI サーバー クラスターを構築しています。 **完成すれば世界最大のAIサーバークラスターとなる。 **CoreWeave の公式 Web サイトによると、同社のサービスは従来のクラウド コンピューティング ベンダーより 80% 安いということは注目に値します。 Nvidia の最新の HGX H100 サーバーは、80G ビデオ メモリと 1T メモリを搭載した 8 台の H100 を備えており、1 時間あたりわずか 2.23 ドル (16 RMB) から始まります。 **新しい GH200 Grace Hopper プラットフォームは、前世代のプラットフォームと比較して、デュアルチップ構成によりメモリ容量が 3.5 倍、帯域幅が 3 倍に増加し、1 台のサーバーに 144 個の Arm Neoverse 高性能コア、8 ペタフロップスの AI パフォーマンス、 282GB メモリ テクノロジーの最新の HBM3e。LLM が爆発的に増加しているこの時代に、黄仁勲氏が依然として「買えば買うほど節約になる」と大胆に発言したのも不思議ではありません。
Nvidia の野心: 「AI ネイティブ」がデータセンターを完全に破壊する
出典: ウォールストリートニュース
著者: 趙英
NvidiaのCEO、ジェンセン・フアン氏は火曜日の記者会見でそう語った。昨日、Nvidia は、アクセラレーテッド コンピューティングと生成 AI の時代に向けて特別に設計された、新世代の GH200 Grace Hopper スーパー チップ プラットフォームをリリースしました。
Huang Renxun 氏は、生成 AI の需要の高まりに応えるために、データセンターには特別なニーズに対応する高速コンピューティング プラットフォームが必要であると指摘しました。新しい GH200 チップ プラットフォームは、優れたメモリ テクノロジと帯域幅、GPU を接続して損失なくパフォーマンスを集約する機能を提供し、データ センター全体に簡単に導入できるサーバー設計を備えています。 **
大規模モデルの波の到来により、さまざまな AI ネイティブ アプリケーションが生み出され、コンピューティング パワーの需要が急増しており、データ集約型の人工知能アプリケーション専用のデータセンター市場が急速に台頭しています。
データセンターは新たな変化をもたらします
アナリストらは、既存のクラウドコンピューティングプロバイダーが人工知能ソフトウェアの需要を満たすためにデータセンターの先進チップやその他のアップグレードを競って改修する中、一部の新興建設業者は新しい施設をゼロから構築する機会を捉えていると指摘している。
データセンターは大規模な倉庫に似ており、データを保存および処理するためのサーバー、ネットワーク、ストレージ機器の複数のラックが装備されています。従来のデータセンターと比較して、AI データセンターには高性能チップを使用したサーバーが多数搭載されているため、AI データセンター サーバーのラックあたりの平均消費電力は 50 キロワット以上に達する可能性がありますが、従来のデータセンターの各ラックの消費電力は約 7 キロワットです。 kW。
これは、AI データ センターがより高い電力を供給できるインフラストラクチャをさらに構築する必要があることを意味します。追加の電力消費によりより多くの熱が発生するため、AI データ センターには液体冷却などの他の冷却方法も必要ですシステムを過熱から保護します。
サービスおよびコンサルティング会社Unisysのシニアバイスプレジデント、Manju Naglapur氏は次のように述べています。
AI データセンターは高度に専門化された建物であり、多大な資金と時間を必要とします。調査会社 Data Bridge Market Research のデータによると、世界の人工知能インフラ市場への支出は 2029 年までに 4,225 億 5,000 万米ドルに達し、今後 6 年間の年平均成長率は 44% になると予想されています。
データバンクのラウル・マルティネック最高経営責任者(CEO)は、AI導入のペースにより、今後12─24カ月でデータセンターの容量が不足する可能性が高いと述べた。
AI コンピューティングの新人が 23 億ドルの資金調達を受ける
現在、さまざまな大手企業がAIデータセンターに賭けており、「不動産ベンチマーク」のブラックストーンは住宅を販売してAIデータセンターに切り替えている。メタはまた、新たなAIデータセンターを建設すると発表した。
前回の記事で述べたように、AIコンピューティング能力の新人であるCoreWeaveは、Nvidia H100から住宅ローンを利用し、23億ドル(約165億元)の負債調達を獲得した。
**CoreWeaveは、この資金は人工知能データセンターの建設を加速するために使用されると述べており、これは同社が今年4月に2億2,100万米ドル、5月に2億米ドルを受け取ったことに続く新たな資金調達となる。 6 年前に設立された CoreWeave は、すでに 7 つの AI データ センターをオンラインに展開しており、今年末までにこれを 2 倍に増やす予定です。
CoreWeave は、Nvidia および Inflection AI と協力して、22,000 台の Nvidia H100 を実行することを目標に、超大規模な AI サーバー クラスターを構築しています。 **完成すれば世界最大のAIサーバークラスターとなる。 **
CoreWeave の公式 Web サイトによると、同社のサービスは従来のクラウド コンピューティング ベンダーより 80% 安いということは注目に値します。 Nvidia の最新の HGX H100 サーバーは、80G ビデオ メモリと 1T メモリを搭載した 8 台の H100 を備えており、1 時間あたりわずか 2.23 ドル (16 RMB) から始まります。 **
新しい GH200 Grace Hopper プラットフォームは、前世代のプラットフォームと比較して、デュアルチップ構成によりメモリ容量が 3.5 倍、帯域幅が 3 倍に増加し、1 台のサーバーに 144 個の Arm Neoverse 高性能コア、8 ペタフロップスの AI パフォーマンス、 282GB メモリ テクノロジーの最新の HBM3e。
LLM が爆発的に増加しているこの時代に、黄仁勲氏が依然として「買えば買うほど節約になる」と大胆に発言したのも不思議ではありません。