**記事|** インテリジェント相対性理論** (aixdlun)****著者 | 葉源峰**2030年にAI主導のスマートエコノミーが生み出すと市場が期待する価値の総額は18.8兆ドル。その中でも大型モデルがもたらすAI能力の質的変化が重要な原動力となることは間違いない。大型モデルの波を受けて、AI 開発のトロイカのあらゆる側面 (コンピューティング能力、アルゴリズム、データ) に対する業界の注目は新たなレベルに達しており、「バレル効果」を回避することが大型モデルの開発における主要な考慮事項となっています。モデル。このプロセスにおいて、業界の「データ」に対する注目は「量」+「質」に焦点が当てられることが多く、データ量が多く、データ品質が高いほど、大規模モデルのトレーニング効果や適用効果が向上することがコンセンサスとなっています。しかし、大規模モデルの革新にはますます複雑なデータが必要になるため、データの「量」+「質」だけを重視するだけでは不十分であり、大規模モデルのニーズを満たすデータを保持できるストレージも注目されるべきです。大型モデルの分野の実務家。開催されたばかりのHuawei Connectivity Conference 2023(HC 2023)で、Huaweiは、自社のストレージソリューションが大規模モデルのトレーニングとアプリケーションの問題点をどのように解決し、大規模モデルのイノベーションプロセスをサポートできるかを体系的に紹介しました。ファーウェイの行動は、データの側面からの大規模モデル開発の本質、つまり「データ要素」の大規模開発と、ストレージのイノベーションがどのようにこの本質に力を与え、大規模モデルの実践者がスマートエコノミーの時代をよりうまく活用できるよう支援するかをパノラマ的に示している。## ビッグモデルの時代はデータ要素の時代であり、キャリアとしてのストレージの価値が実証されています。大規模モデルのコンピューティング能力、アルゴリズム、データに対する需要が急速に増加していることは疑いの余地がありません。市場調査の統計によると、過去 5 年間で、大規模モデルのパラメータは 2,000 倍、必要なコンピューティング能力は 50,000 倍、データ ストレージの需要は 100,000 倍に増加し、それに関連するネットワーク帯域幅の要件も増加しています。 8,000倍に増加しました。大規模な開口部、大規模な閉鎖、および大規模な需要には、大規模な設備と投資が必要です。しかし、イノベーションの観点から見ると、実際には、アルゴリズムと計算能力の両方の難易度は低下または収束しつつあります。多くの企業にとって頭の痛い問題であるコンピューティング能力に関しては、必要な量は膨大ですが、それはすべて NVIDIA、Ascend などの GPU ハードウェア リソースから賄われており、主にコスト投資に依存しています。つまり、予算さえあればコンピューティングリソースは供給できるのです。アルゴリズムの面では、大手メーカーはチューニングと反復を続けていますが、一般に、Pytorch、TensorFlow、MindSpore などの主流の開発フレームワークに基づいて開発された Transformer モデル インフラストラクチャを採用しており、徐々に収束しつつあります。このとき、データにプレッシャーがかかります。大規模モデルの徹底的な開発により、データ要件の総量はすでに TB レベルから PB レベルに跳ね上がり、必要な「プール」はますます大きくなっており、同時にデータ タイプの需要も非常に高まっています。モダリティに加えて、写真、ビデオ、音声などのマルチモーダル データが爆発的に増加し、データ要件がますます複雑になっています。これらはすべて、ストレージの容量とその方法をテストしています。トレーニングおよびアプリケーション中にコンピューティング能力とアルゴリズムをより適切に活用するため。この期間中に、主に次のような多くの問題が発生し、ストレージによって解決されるのを待っていました。小さなファイルの読み取りパフォーマンス。大規模モデルのデータ要件は主に画像やテキストなどの大量の小さなファイルであり、1 台の AI サーバーは 1 秒あたり 20,000 枚以上の画像を読み取ることができるため、データの読み込み効率が低下することがよくあります (個人の PC でのコピー操作と同様) 、必要なスペースの下では、多数の小さなファイルを含むフォルダーは単一の大きなファイルよりもはるかに遅くなり、大規模モデルのトレーニング効率に影響します。現時点では、巨大な小さなファイルのパフォーマンスがボトルネックになっており、数兆のパラメータを持つ大規模モデルの基本要件は 1,000 万 IOPS に達しています。CheckPoint ブレークポイントによりトレーニングが再開されます。大規模なモデルのトレーニング プロセス中、パラメーターの調整などのさまざまなニーズにより、CheckPoint は不特定の時点で中断され、その後再起動されてトレーニングを継続します (時間がかかり、GPU リソースの使用率にギャップが生じます)。これは長期的なトレーニング モデルにとって非常に便利な機能ですが、企業による頻繁なパラメーター調整により、GPU 使用率が低下することがよくあります (現在、業界では平均して 2 日に 1 回中断があり、GPU 使用率はわずか 40% です)。強力な大規模ファイルの読み取りおよび書き込みパフォーマンスがなければ、GPU の待機時間を短縮し、高価なリソースの使用効率を向上させることができます。「AI幻覚」の問題。大規模モデルの出力結果が「でたらめ」であり、明らかに事実と矛盾する現象は業界では非常に厄介な問題であり、この大規模モデルの独善的な現象は「AI錯視」と呼ばれています。これはアルゴリズムの問題であるように見えますが、実際、業界はその解決策を模索するうちに、データ レベル (主にコンテキスト情報を参照) での継続的な「検証」が必要であることを徐々に発見してきました。これには本質的に、ストレージが提供できることが必要です。 「百科事典」の知識体系は、正確な業界知識を提供する大きなモデルの「海馬」として機能します。イノベーション レベルでは、大規模モデルが直面するストレージの課題を解決することが、コンピューティング能力やアルゴリズムよりも優先される可能性があることがわかります。この点により、実際には、大規模モデルがその本質にさらに戻ることが可能になります。つまり、より大きなパラメータを持つ AI モデルを使用して、データ要素の価値をさらに探求し、何千もの業界の変革とアップグレードを促進するということです。現在、データ要素はデジタル経済と情報社会の中核資源となり、土地、労働、資本、技術に次ぐ重要な生産要素とみなされており、大規模モデルを含む無数のイノベーションはすべてデータ要素に基づいています。価値を深く発展させる。大規模モデルの開発プロセスは、データ要素が元のデータから値の出力に移動し続けるプロセスとみなすことができます。このプロセスでは、アルゴリズムが一般または特定の業界に向けて方向性を導き、急増するコンピューティング能力が強力な推進力をもたらし、ストレージがサポートと連携機能を提供します。コンピューティング能力が主にコスト投資に依存し、アルゴリズムが徐々に収束すると、データ要素のキャリアとしてのストレージの革新的な価値がますます顕著になります。## データ要素の価値を実現し、ファーウェイのストレージは多面的に課題点を攻撃しますストレージの課題を解決するにはどうすればよいですか? ファーウェイの高性能ナレッジベース ストレージ OceanStor A800 製品と対応するソリューションは、インダストリ モデルのトレーニングとプロモーションのシナリオにおいて、包括的に優れたトレーニングとプロモーションの効率を実現します。一般的に、これらには次の 4 つの大きな特徴があります。**1. 全体的なパフォーマンスが非常に高く、大規模なモデルのトレーニングのニーズに適合します**ファーウェイのストレージの主なソリューションは、全体的なパフォーマンスの観点から、大規模モデルのトレーニングデータに対する膨大な需要、特に小さなファイルの読み取りパフォーマンスに対する需要を満たすことです。OceanStor A800 は、革新的な CNC 分離アーキテクチャに基づいており、単一フレームで 2,400 万 IOPS を達成でき、トレーニング セットの読み込み効率は業界の 4 倍で、顧客のニーズに応じてパフォーマンスを直線的に拡張できます。さらに、OceanFS 分散ファイル システムは、グローバルにバランスの取れた分散を実現し、CPU ボトルネックを排除し、巨大な小さなファイルの究極のパフォーマンス向上体験をもたらし、多数の小さなファイルの読み取りニーズを満たします。パフォーマンスの需要がある限り、ファーウェイのストレージは「増加」しても「耐えられる」。**2. ブレークポイント継続トレーニングなどの特定のニーズを満たすために特殊能力を最適化します**トレーニングのブレークポイント継続などの特殊な状況下でサポートをより適切に提供する方法は、ファーウェイストレージが大規模モデルのトレーニング段階で同時に取り組む必要がある課題です。ディスク制御連携とNFS+並列ファイルシステムにより、Huaweiストレージは単一フレームで500GB/秒の超高帯域幅を実現し、チェックポイントの超高速リカバリを実現でき、ブレークポイントトレーニングの再開速度は業界の3倍です。 -レベルの CheckPoint の読み取りと書き込みは、数時間から数分に及びます (つまり、数兆個のパラメータを持つ大規模モデルの平均回復時間は数時間から数分に短縮されます)。これにより、高価な GPU 待機が削減されます。大規模なモデルの最適化に必要な場合には、より大胆にパラメータチューニングなどを行うことができます。さらに、その管理およびコントロール プレーンにはリソースの分割と統合スケジューリング機能があり、ストレージをさまざまなビジネス モデルに適したものにすることもできます。顧客がどのようなビジネスモデルを開発するかに関係なく、顧客がいつプロセスを一時停止することを選択しても、Huawei Storage はそれに適切に対処できます。**3. 大規模モデル アプリケーションのリアルタイム ニーズを満たすための強化された応答機能**トレーニングフェーズが完了したら、Huawei Storage はアプリケーションフェーズでの厳しいデータ応答ニーズを満たす必要があります。現在、大規模モデルのアプリケーション段階では、内蔵のベクトル知識ベース(ベクトル形式で業界知識を保存)のおかげで、ファーウェイのストレージQPSは250,000以上に達し、ミリ秒レベルの応答を達成することができました。一方で、推論を高速化できるため、アプリケーション プロセス中の GPU リソース消費が大幅に削減され、実装コストが効果的に節約されます。現在、多くの大規模モデルがオープン アプリケーション段階で膨大なリソースを消費し、一部の企業は圧倒されています。 、「百科事典辞書」により、大規模なモデルがより正確になります 業界の知識は、AI 幻覚の発生を減らす上で重要な補助的な役割を果たし、推論の精度を大幅に向上させることができます。**4. アーキテクチャの革新により、システム全体の安定性と信頼性が保証されます**ストレージに対する最後の最も基本的な要件は、ストレージがどのような特性を持っていても、セキュリティ上の問題や「チェーンから外れること」を引き起こすことなく、安定した信頼性の高い全体的な構造を確保する必要があることです。一連の大規模モデルデータのペインポイント要件を解決するファーウェイストレージのプロセスにより、ストレージソリューションとシステムの複雑さもある程度増加しましたが、同時にファーウェイはシステムの信頼性を犠牲にすることはありませんでした。 AA アーキテクチャにより、5 層のオールラウンド保護とシックスナインの超高信頼性を実現できます。その結果、大規模モデルのデータの信頼性とトレーニングの安定性がエンドツーエンドで保証されます。## 車輪を作る者は最初に長い道を歩むファーウェイのストレージは、大規模なモデルデータの問題点を解決できますが、その根本原因は、ストレージにおける長期にわたる革新的な探求にあります。OceanStor A800 の CNC 分離アーキテクチャは、ディスクへのデータの直接読み取りおよび書き込みという業界の最先端の技術革新を利用しており、データ プレーンをディスクに直接接続し、コントロール プレーンから分離して IO ダイレクトを実現します。データの読み書き時のCPU動作を軽減し、ストレージのパフォーマンスを大幅に向上させます。実際、ファーウェイはストレージ分野で長年にわたり技術的な取り組みを行っており、同様の最先端のイノベーションを数多く実現してきました。現在、ファーウェイ OceanStor ストレージは、世界中に 12 か所の研究開発センター、4,000 人以上の研究開発人員、3,000 件以上の特許を保有しており、その製品は、高性能 NAS ストレージ ソリューション、ストレージ ランサムウェア対策ソリューション、コンテナ ストレージ ソリューションなど、多くの分野に関与しています。データセンターの仮想化で、高い評価を得ました。ファーウェイのストレージは、世界150カ国以上で、通信事業者、金融、政府、エネルギー、医療、製造、運輸、その他の業界を含む25,000以上の顧客にサービスを提供してきました。データ要素の価値開発と大型モデルのイノベーションニーズに合わせて調整されたストレージ機能は、ストレージトラックにおけるファーウェイの長期にわたる努力の必然の結果であると言えます - ファーウェイのストレージはすでにデータを満たすという点で良い仕事をしています大規模モデルに限らず、多くの分野のニーズに応えます。モデル)は、強力な収容力と相乗効果を備えています。
大規模モデルはデータ要素の価値を深く掘り下げます。アルゴリズムとコンピューティング能力の後、ストレージキャリアの価値がより顕著になります。
記事| インテリジェント相対性理論** (aixdlun)**
著者 | 葉源峰
2030年にAI主導のスマートエコノミーが生み出すと市場が期待する価値の総額は18.8兆ドル。その中でも大型モデルがもたらすAI能力の質的変化が重要な原動力となることは間違いない。
大型モデルの波を受けて、AI 開発のトロイカのあらゆる側面 (コンピューティング能力、アルゴリズム、データ) に対する業界の注目は新たなレベルに達しており、「バレル効果」を回避することが大型モデルの開発における主要な考慮事項となっています。モデル。
このプロセスにおいて、業界の「データ」に対する注目は「量」+「質」に焦点が当てられることが多く、データ量が多く、データ品質が高いほど、大規模モデルのトレーニング効果や適用効果が向上することがコンセンサスとなっています。
しかし、大規模モデルの革新にはますます複雑なデータが必要になるため、データの「量」+「質」だけを重視するだけでは不十分であり、大規模モデルのニーズを満たすデータを保持できるストレージも注目されるべきです。大型モデルの分野の実務家。
開催されたばかりのHuawei Connectivity Conference 2023(HC 2023)で、Huaweiは、自社のストレージソリューションが大規模モデルのトレーニングとアプリケーションの問題点をどのように解決し、大規模モデルのイノベーションプロセスをサポートできるかを体系的に紹介しました。
ファーウェイの行動は、データの側面からの大規模モデル開発の本質、つまり「データ要素」の大規模開発と、ストレージのイノベーションがどのようにこの本質に力を与え、大規模モデルの実践者がスマートエコノミーの時代をよりうまく活用できるよう支援するかをパノラマ的に示している。
ビッグモデルの時代はデータ要素の時代であり、キャリアとしてのストレージの価値が実証されています。
大規模モデルのコンピューティング能力、アルゴリズム、データに対する需要が急速に増加していることは疑いの余地がありません。
市場調査の統計によると、過去 5 年間で、大規模モデルのパラメータは 2,000 倍、必要なコンピューティング能力は 50,000 倍、データ ストレージの需要は 100,000 倍に増加し、それに関連するネットワーク帯域幅の要件も増加しています。 8,000倍に増加しました。
大規模な開口部、大規模な閉鎖、および大規模な需要には、大規模な設備と投資が必要です。
しかし、イノベーションの観点から見ると、実際には、アルゴリズムと計算能力の両方の難易度は低下または収束しつつあります。
多くの企業にとって頭の痛い問題であるコンピューティング能力に関しては、必要な量は膨大ですが、それはすべて NVIDIA、Ascend などの GPU ハードウェア リソースから賄われており、主にコスト投資に依存しています。つまり、予算さえあればコンピューティングリソースは供給できるのです。
アルゴリズムの面では、大手メーカーはチューニングと反復を続けていますが、一般に、Pytorch、TensorFlow、MindSpore などの主流の開発フレームワークに基づいて開発された Transformer モデル インフラストラクチャを採用しており、徐々に収束しつつあります。
このとき、データにプレッシャーがかかります。
大規模モデルの徹底的な開発により、データ要件の総量はすでに TB レベルから PB レベルに跳ね上がり、必要な「プール」はますます大きくなっており、同時にデータ タイプの需要も非常に高まっています。モダリティに加えて、写真、ビデオ、音声などのマルチモーダル データが爆発的に増加し、データ要件がますます複雑になっています。これらはすべて、ストレージの容量とその方法をテストしています。トレーニングおよびアプリケーション中にコンピューティング能力とアルゴリズムをより適切に活用するため。
この期間中に、主に次のような多くの問題が発生し、ストレージによって解決されるのを待っていました。
小さなファイルの読み取りパフォーマンス。大規模モデルのデータ要件は主に画像やテキストなどの大量の小さなファイルであり、1 台の AI サーバーは 1 秒あたり 20,000 枚以上の画像を読み取ることができるため、データの読み込み効率が低下することがよくあります (個人の PC でのコピー操作と同様) 、必要なスペースの下では、多数の小さなファイルを含むフォルダーは単一の大きなファイルよりもはるかに遅くなり、大規模モデルのトレーニング効率に影響します。現時点では、巨大な小さなファイルのパフォーマンスがボトルネックになっており、数兆のパラメータを持つ大規模モデルの基本要件は 1,000 万 IOPS に達しています。
CheckPoint ブレークポイントによりトレーニングが再開されます。大規模なモデルのトレーニング プロセス中、パラメーターの調整などのさまざまなニーズにより、CheckPoint は不特定の時点で中断され、その後再起動されてトレーニングを継続します (時間がかかり、GPU リソースの使用率にギャップが生じます)。これは長期的なトレーニング モデルにとって非常に便利な機能ですが、企業による頻繁なパラメーター調整により、GPU 使用率が低下することがよくあります (現在、業界では平均して 2 日に 1 回中断があり、GPU 使用率はわずか 40% です)。強力な大規模ファイルの読み取りおよび書き込みパフォーマンスがなければ、GPU の待機時間を短縮し、高価なリソースの使用効率を向上させることができます。
「AI幻覚」の問題。大規模モデルの出力結果が「でたらめ」であり、明らかに事実と矛盾する現象は業界では非常に厄介な問題であり、この大規模モデルの独善的な現象は「AI錯視」と呼ばれています。これはアルゴリズムの問題であるように見えますが、実際、業界はその解決策を模索するうちに、データ レベル (主にコンテキスト情報を参照) での継続的な「検証」が必要であることを徐々に発見してきました。これには本質的に、ストレージが提供できることが必要です。 「百科事典」の知識体系は、正確な業界知識を提供する大きなモデルの「海馬」として機能します。
イノベーション レベルでは、大規模モデルが直面するストレージの課題を解決することが、コンピューティング能力やアルゴリズムよりも優先される可能性があることがわかります。
この点により、実際には、大規模モデルがその本質にさらに戻ることが可能になります。つまり、より大きなパラメータを持つ AI モデルを使用して、データ要素の価値をさらに探求し、何千もの業界の変革とアップグレードを促進するということです。
現在、データ要素はデジタル経済と情報社会の中核資源となり、土地、労働、資本、技術に次ぐ重要な生産要素とみなされており、大規模モデルを含む無数のイノベーションはすべてデータ要素に基づいています。価値を深く発展させる。
大規模モデルの開発プロセスは、データ要素が元のデータから値の出力に移動し続けるプロセスとみなすことができます。
このプロセスでは、アルゴリズムが一般または特定の業界に向けて方向性を導き、急増するコンピューティング能力が強力な推進力をもたらし、ストレージがサポートと連携機能を提供します。コンピューティング能力が主にコスト投資に依存し、アルゴリズムが徐々に収束すると、データ要素のキャリアとしてのストレージの革新的な価値がますます顕著になります。
データ要素の価値を実現し、ファーウェイのストレージは多面的に課題点を攻撃します
ストレージの課題を解決するにはどうすればよいですか? ファーウェイの高性能ナレッジベース ストレージ OceanStor A800 製品と対応するソリューションは、インダストリ モデルのトレーニングとプロモーションのシナリオにおいて、包括的に優れたトレーニングとプロモーションの効率を実現します。一般的に、これらには次の 4 つの大きな特徴があります。
1. 全体的なパフォーマンスが非常に高く、大規模なモデルのトレーニングのニーズに適合します
ファーウェイのストレージの主なソリューションは、全体的なパフォーマンスの観点から、大規模モデルのトレーニングデータに対する膨大な需要、特に小さなファイルの読み取りパフォーマンスに対する需要を満たすことです。
OceanStor A800 は、革新的な CNC 分離アーキテクチャに基づいており、単一フレームで 2,400 万 IOPS を達成でき、トレーニング セットの読み込み効率は業界の 4 倍で、顧客のニーズに応じてパフォーマンスを直線的に拡張できます。さらに、OceanFS 分散ファイル システムは、グローバルにバランスの取れた分散を実現し、CPU ボトルネックを排除し、巨大な小さなファイルの究極のパフォーマンス向上体験をもたらし、多数の小さなファイルの読み取りニーズを満たします。
パフォーマンスの需要がある限り、ファーウェイのストレージは「増加」しても「耐えられる」。
2. ブレークポイント継続トレーニングなどの特定のニーズを満たすために特殊能力を最適化します
トレーニングのブレークポイント継続などの特殊な状況下でサポートをより適切に提供する方法は、ファーウェイストレージが大規模モデルのトレーニング段階で同時に取り組む必要がある課題です。
ディスク制御連携とNFS+並列ファイルシステムにより、Huaweiストレージは単一フレームで500GB/秒の超高帯域幅を実現し、チェックポイントの超高速リカバリを実現でき、ブレークポイントトレーニングの再開速度は業界の3倍です。 -レベルの CheckPoint の読み取りと書き込みは、数時間から数分に及びます (つまり、数兆個のパラメータを持つ大規模モデルの平均回復時間は数時間から数分に短縮されます)。これにより、高価な GPU 待機が削減されます。
大規模なモデルの最適化に必要な場合には、より大胆にパラメータチューニングなどを行うことができます。
さらに、その管理およびコントロール プレーンにはリソースの分割と統合スケジューリング機能があり、ストレージをさまざまなビジネス モデルに適したものにすることもできます。
顧客がどのようなビジネスモデルを開発するかに関係なく、顧客がいつプロセスを一時停止することを選択しても、Huawei Storage はそれに適切に対処できます。
3. 大規模モデル アプリケーションのリアルタイム ニーズを満たすための強化された応答機能
トレーニングフェーズが完了したら、Huawei Storage はアプリケーションフェーズでの厳しいデータ応答ニーズを満たす必要があります。
現在、大規模モデルのアプリケーション段階では、内蔵のベクトル知識ベース(ベクトル形式で業界知識を保存)のおかげで、ファーウェイのストレージQPSは250,000以上に達し、ミリ秒レベルの応答を達成することができました。一方で、推論を高速化できるため、アプリケーション プロセス中の GPU リソース消費が大幅に削減され、実装コストが効果的に節約されます。現在、多くの大規模モデルがオープン アプリケーション段階で膨大なリソースを消費し、一部の企業は圧倒されています。 、「百科事典辞書」により、大規模なモデルがより正確になります 業界の知識は、AI 幻覚の発生を減らす上で重要な補助的な役割を果たし、推論の精度を大幅に向上させることができます。
4. アーキテクチャの革新により、システム全体の安定性と信頼性が保証されます
ストレージに対する最後の最も基本的な要件は、ストレージがどのような特性を持っていても、セキュリティ上の問題や「チェーンから外れること」を引き起こすことなく、安定した信頼性の高い全体的な構造を確保する必要があることです。
一連の大規模モデルデータのペインポイント要件を解決するファーウェイストレージのプロセスにより、ストレージソリューションとシステムの複雑さもある程度増加しましたが、同時にファーウェイはシステムの信頼性を犠牲にすることはありませんでした。 AA アーキテクチャにより、5 層のオールラウンド保護とシックスナインの超高信頼性を実現できます。
その結果、大規模モデルのデータの信頼性とトレーニングの安定性がエンドツーエンドで保証されます。
車輪を作る者は最初に長い道を歩む
ファーウェイのストレージは、大規模なモデルデータの問題点を解決できますが、その根本原因は、ストレージにおける長期にわたる革新的な探求にあります。
OceanStor A800 の CNC 分離アーキテクチャは、ディスクへのデータの直接読み取りおよび書き込みという業界の最先端の技術革新を利用しており、データ プレーンをディスクに直接接続し、コントロール プレーンから分離して IO ダイレクトを実現します。データの読み書き時のCPU動作を軽減し、ストレージのパフォーマンスを大幅に向上させます。
実際、ファーウェイはストレージ分野で長年にわたり技術的な取り組みを行っており、同様の最先端のイノベーションを数多く実現してきました。
現在、ファーウェイ OceanStor ストレージは、世界中に 12 か所の研究開発センター、4,000 人以上の研究開発人員、3,000 件以上の特許を保有しており、その製品は、高性能 NAS ストレージ ソリューション、ストレージ ランサムウェア対策ソリューション、コンテナ ストレージ ソリューションなど、多くの分野に関与しています。データセンターの仮想化で、高い評価を得ました。
ファーウェイのストレージは、世界150カ国以上で、通信事業者、金融、政府、エネルギー、医療、製造、運輸、その他の業界を含む25,000以上の顧客にサービスを提供してきました。
データ要素の価値開発と大型モデルのイノベーションニーズに合わせて調整されたストレージ機能は、ストレージトラックにおけるファーウェイの長期にわたる努力の必然の結果であると言えます - ファーウェイのストレージはすでにデータを満たすという点で良い仕事をしています大規模モデルに限らず、多くの分野のニーズに応えます。モデル)は、強力な収容力と相乗効果を備えています。