世界的に普及している天気予報は数値計算と呼ばれるもので、十分かつ豊富な気象データを収集した後、それを複雑な方程式に代入し、その結果を予報といいますが、これを繰り返すことで継続的に予報が行われます。
これらの方程式の背後には、流体運動方程式、熱力学方程式、さまざまな界面、空気、水、陸氷物質のエネルギー交換方程式など、いくつかの確かな理論があります。それらが表す物理的および化学的法則は、厳密に計算され検証されています。
しかし、天気予報は依然として完全に正確ではありません。このような数値予報は、発生した気象要素の変化から将来の傾向を予測するものであり、その精度は観測データの精度に大きく影響されます。
さらに、時間と空間のスケールの変化に伴い、気象システムは飛躍的に複雑化し、気象の原因を分析する際に多くの欠落が生じる一方で、データにはさらに多くのエラーが存在し、それが予測の結果に影響を与えます。
そしてその規模が十分に大きくなると、天候は混沌とした状態に陥ります。これは比喩ではなく、気象システムは典型的なカオス システムです。カオス理論は 1963 年に気象学者によって初めて提案されました。
カオスなシステムとは、システムに対する非常に小さな摂動が、大きく異なる結果をもたらす可能性があることを意味します。別名バタフライ効果とも呼ばれます。カリフォルニアでは蝶が羽ばたき、テキサスとメキシコ湾では嵐が起こります。
このためには、値の最初の計算が非常に正確である必要がありますが、絶対的な精度が存在しないことは誰もが知っています。言うまでもなく、このような複雑な気象の動きに直面して、収集できるデータの種類と量が多すぎることは言うまでもありません。 。
人間による天気の予測は、蝶の羽と嵐の目の軌跡の関係を学ぼうとするようなもので、壮大で、時には絶望的で、難解ですらあります。
一方では、精度の観点からますます複雑な関数方程式が構築され、できるだけ多くのデータがより短い間隔で収集されますが、他方では、ほぼ「直観的」な経験に依存しています。
今日に至るまで、すべての天気予報の結果は依然として数値計算の結果と予報者の判断の 2 つの部分によって決定されます。天気予報は依然として人間の経験に大きく依存しています。
人間はある程度、自分の感情を利用して自然の混乱と戦っています。
したがって、気象予報には奇妙な特徴があります。なぜなら、人間の経験や感覚に頼っている限り、特に一部の極端な気候では常に失敗が生じるからです。極端な気候に関するデータが不足しており、人間の一貫した経験が存在しないためです。それの。
しかし、ここ数十年で数値予測の精度が向上したことにより、現在の天気予報はかなり正確なレベルに達することが多くなり、中期的なユーザビリティ予測は10日近く、短期的な予測は、例えば、いつ冷たい空気がやってくるのか、気温はどれくらい下がるのか、人間は非常に正確に判断できるようになりました。なぜなら、地球全体の気候環境の変化は混沌としているにもかかわらず、気団の形成や気圧の変化、雲の動きの軌跡など、多くのミクロなレベルで、ますます多くの関数や関数によって生き生きと正確に記述されているからです。数式。
たとえば、最近の北京、天津、河北省の豪雨。
7月29日から8月1日にかけて、台風ドゥスルイが豊富な水蒸気を伴って北上し、中国北部の高気圧に阻まれて、北京・天津・河北地域で史上まれに見る異常な暴風雨が発生しました。
極端さはいくつかの側面に反映されており、1 つ目は量の多さです。河北省邢台市臨城県の降水量は1,000ミリメートル、つまり1メートルを超えており、これはこの地域の元々の2年間の総降水量に等しい。次に、7月29日から4日間近く続き、北京でも83時間雨が降り続きました。河北省、陝西省、河南省などでも2日連続で大雨が降った。ついには広範囲に影響を及ぼし、華北全域が雨に覆われます。
予報官はこの極端な雨をほぼ完全な精度で予測しました。この背景には、過去数十年にわたる天気予報の大きな進歩があります。数値計算は、単純な方程式から、世界で最も複雑なアルゴリズムの 1 つへと発展しました。結局のところ、予測不能な現象を捉えるために、より多くのデータとアルゴリズムが使用されるようになったのです。天気 さて、この膨大なデータと複雑なアルゴリズムを扱うために、スーパーコンピューターが導入されました。
多くの人は、膨大な量の気象データについてまったく知らないかもしれませんが、次のような数字があります。中国の気象データは毎日、最大 40 TB まで増加します。我が国は、全国の町や村の99.6%をカバーする7万以上の気象観測所を擁する、完全な三次元気象観測網を確立しており、データ送信時間は、従来は1時間でしたが、最近は1分に短縮されました。年。
このような膨大なデータを扱うこと自体が非常に困難ですが、それらを数値計算式と組み合わせるのは不可能に近く、複雑な偏微分方程式や浮動小数点計算など多くの計算量が必要であり、電力、特に天気予報も同様です。非常に高いタイムリー性が求められるため、さまざまな制約の中でこの要求に応えることができるのはスーパーコンピューターだけです。
幸いなことに、中国はこの点で世界の先頭に立っている。
スーパーコンピューティングは常に中国の名刺でした。たとえば、中国には世界最速の 500 台のスーパーコンピュータのうち 162 台があります。別の例として、私は国際スーパーコンピューティング アプリケーションの最高賞であるゴードン ベル賞を 3 回受賞しています。そのうちの 2 つは The受賞歴のある 2 つのコンテンツ「大気力学フレームワーク」と「地震シミュレーション」は、どちらも気象学に関連しています。
現在中国で使われているスーパーコンピューターは「パイドーン」と呼ばれ、その最大計算速度は毎秒8189兆5000億回、記憶容量は23088TBに達し、その規模は気象分野で世界第3位に躍り出た。
これで終わりではなく、データ量の急激な増大やハードウェアの磨耗により、スパコンの寿命は6~8年が主流となっており、「パイドーン」以降も新しいスパコンが続々と登場しています。今年初の新たなステートレベルハイパフォーマンスコンピューティング(HPC)サブシステム1の導入・構築が行われ、「Pai-Dawning」と比べて性能がさらに向上し13PFlopsに達し、ストレージ容量も76PB。
さらに多くのスーパーコンピューターが開発されつつあります。
国産高性能コンピュータシステム「牌曙光」の概念図(写真は国家気象情報センターより)
一般に、数百、数千の CPU から構成されるスーパーコンピューティングは天気予報の強固な基盤を構成しますが、それでもできないことや難しいこともあります。
台風など。私たちの台風ドゥスルイの予測は、大雨の予測の精度からは程遠いです。世界の主流の台風予測手法は、いずれも流体力学や熱力学などの大気物理法則に基づいて大気の動きをシミュレーションし、台風の変化を予測する力学モデルを用いています。
力学モデルには多くの不正確さがあり、当初は誰もがドゥ・スルイの進路をさまざまな方法で予測することになったが、この分野ではより権威があり、正確であると認識されているヨーロッパ中期天気予報センターは、かつてドゥ・スルイの進路を次のように信じていた。スルイは珠江デルタに直行するだろう。
実際、台風は短期間に強度が急激に変化する可能性があり、非常に大きな時空間スケールでの多くの要因の影響により進路が予測できないため、台風の予測は常に世界的な問題となっています。
典型的なカオス系ですね。
このため、数値予報に基づく天気予報は矛盾が多く、改善の余地が非常に大きいものとなっていますが、その精度は非常に限られており、人間が経験を積んでデータを収集し、より多くの予測を構築する以外に方法はありません。データが増えても、マクロおよびミクロスケールでの天気予報の精度を大幅かつ包括的に向上させることはできませんが、一般的なコンピューティングコストは増加し続けています。
この時点で、状況は行き詰まりを迎えているようだ。大量のデータ、複雑なアルゴリズム、高い計算能力要件により、数値計算がある程度ボトルネックになりますが、これら 3 つの条件に見覚えがあるでしょうか?
大きなモデルの 3 つの要素に少し似ていますか?
実際、ピンワンが見た気象技術に関する社内セミナーの資料の中で、一部の専門家は人工知能と気象学の研究は方法論において似ていると直接断言した。
実際、数値計算式だけではカオス系全体の原因と結果をすべて網羅することはできないため、ニューラル ネットワーク手法を使用して大量のデータをインポートし、コンピューターが自ら法則を見つけて学習できるようにしてはどうでしょうか。
これは何とも言えない、しかし非常に不思議で合理的な説明のように思えます。
人類初の電子計算機である ENIAC や、ノイマン構造に基づいて構築された最初の計算機 EDSAC は、実際に気象学に関連する科学計算を行うために使用されており、気象学の発展は常に計算機科学の発展と並行して行われてきました。進歩は密接に関係しており、高性能コンピューティングは気象科学における複雑な問題の解決を促進しており、一般的なコンピューティングの考え方を飛び越えた後、ニューラル ネットワークと大規模モデルは気象学と天気予報にとって非常に興味深く合理的な方向であるように思われます。 。
実際、中央気象台は台風ドゥスルイの進路予測に人工知能大規模モデルの結果を参考にした。
## 別の方法
昨年末の生成 AI の人気に伴って大規模な気象モデルが登場したわけではなく、強力なコンピューティング能力、膨大な量のデータ、さまざまな深層学習アーキテクチャを使用して天気を予測する大規模なモデルが数多く登場してきました。海外では Nvidia FourCastNet、DeepMind、Google の GraphCast、Microsoft の ClimaX があり、国内の最新モデルは Huawei Pangu モデルと Shanghai Fengwu モデルで、後者は上海人工知能研究所のモデルです。
Pangu と Fengwu はどちらも、ERA5 という名前の欧州気象センターの気象再解析データ セットを使用しました。このデータ セットは、過去 60 年間の地表の 37 の等圧面をカバーする合計 2000 TB のさまざまな気象データを提供します。
これらのデータは、大規模なモデルが実行できるスペースを提供します。AI は、正確で対応する数値計算を使用する代わりに、データ間のさまざまな複雑な関係をより柔軟にマイニングできます。
Pangu は海洋、大気、陸地の複雑なインタラクティブな物理プロセスを統合する 3D 変換構造を構築しました。これまで、Nvidia の FourCastNet などの大規模な気候モデルでは 2D 構造が使用されていました。各等圧面は 1 つの層であり、明らかにそこにあります。 2D 平面が気象変化のプロセスをより適切に反映する方法はありません。
Pinwan氏が閲覧した資料によると、ファーウェイはこの3D構造で絶対位置エンコーディングを使用し、モデルの収束を大幅に加速したほか、それぞれ1時間、3時間、6時間、24時間に相当する4つの基本モデルをトレーニングした。時間領域の融合手法である時間ごとの予測により、以前のモデルでの小さなステップ サイズと複数回の反復によって引き起こされる誤差が大幅に減少します。
古くて困難な台風の予測において、盤古は平均海面気圧を予測基準として使用し、その結果は欧州気象庁の予測よりも優れていました。
Fengwu 大規模モデルのアイデアは、6 つの独立したエンコーダーを使用してさまざまな気象パラメータ (湿度、風、温度など) をエンコードおよびデコードし、独立した変圧器ネットワークを使用して異なる変数間を学習することです。
エラーを減らすためのファーウェイの時間領域融合手法とは異なり、Fengwu はトレーニング プロセスの結果を保存して再生するためのキャッシュ スペースを設計しました。これにより、ニューラル ネットワークがエラーに適応できるようになり、それによってより良い予測結果が得られます。
これらの新しい気象大規模モデル予測の結果はまだ暫定的なものであり、公表された結果はいくつかの特定の指標において従来の数値予測手法よりも優れており、包括的なテストと最適化が依然として必要ですが、それらが一種の予測であることは疑いの余地がありません。従来の天気予報とは根本的に異なる新しいパラダイム。
現在、ファーウェイの盤古大型モデルは欧州中距離天気予報センターで初期業務運用を達成しているが、鳳武は世界的に最も正確な高解像度AI天気予報モデルであると主張しており、ドゥ・スールイの24時間前の予報は誤りであると主張している。は 38.7 キロメートルで、欧州中期予報センターの 54.11 キロメートルよりも優れています。
変化が来ています。大きな気象モデルは、速度などさまざまな点で天気予報のパラダイムをひっくり返す可能性を秘めています。 Fengwu は GPU を使用して、世界のすべての地域について、今後 14 日間の 37 レベルの高精度かつ高解像度の天気予報結果を 1 分以内に生成します。一方、Pangu の 7 日間の天気予報の生成にはわずか 9.8 秒かかります。
したがって、数値計算のために確立されたリアルタイム気象データ伝送システムと一般的な計算能力インフラストラクチャも変化します。ピンワン氏が得た気象庁内部関係者によると、短期的には予報の参考としてしか使われていないが、中長期的には大規模気象モデルの可能性は間違いなく巨大だという。
さて、これらの大規模な気象モデルが直面する主な問題は 2 つあります。1 つ目は調整です。大規模モデルでは異常気象などのデータをどのように正確にラベル付けするかが問題 AIモデルはフィッティング能力が強いため、長期予測に誤差が生じる可能性がある これは大規模モデルの「幻想」とも言える気象モデル。
さらに、現在の大規模モデルには業界の深いノウハウが蓄積されておらず、モデルの構築は気象学の専門家ではなくコンピュータ科学者によって行われています。これは、これらの垂直大規模モデルにはまだ「人間によるフィードバック」が欠けていることを意味します。チューニング。
もう一つの問題は、当たり前の計算能力ですが、我が国はスーパーコンピュータの開発において世界トップクラスに位置していますが、大型モデルでは従来のスーパーコンピュータのような一般的な計算能力は使用されておらず、ディープネットワークの運用には大規模な並列計算が必要となります。それは高性能 GPU ですが、この点ではまだ行き詰まっています。
幸いなことに、気象の大規模モデルに直接関係する計算能力のコストは高くなく、Pinwan 氏が学んだ状況によると、数十枚の Nvidia グラフィックス カード (最新モデルでさえ) は数週間、長くても 2 週間で完成することができます。数か月モデルトレーニング。これは、従来の数値予測モデルに比べて利点にもなりました。
大規模な気象モデルの恩恵により、「予測不可能」という言葉はすぐに誤った命題になるかもしれません、そしていつか、蝶の羽ばたきと激しいハリケーンがどこから同時に来るのかを本当に予測できるようになるかもしれません。
28k 人気度
29k 人気度
8k 人気度
16k 人気度
30k 人気度
2k 人気度
95k 人気度
27k 人気度
26k 人気度
7k 人気度
スーパーコンピューターと大型モデルがあれば、どんな気象災害も予測できるのでしょうか?
とらえどころのない蝶
世界的に普及している天気予報は数値計算と呼ばれるもので、十分かつ豊富な気象データを収集した後、それを複雑な方程式に代入し、その結果を予報といいますが、これを繰り返すことで継続的に予報が行われます。
これらの方程式の背後には、流体運動方程式、熱力学方程式、さまざまな界面、空気、水、陸氷物質のエネルギー交換方程式など、いくつかの確かな理論があります。それらが表す物理的および化学的法則は、厳密に計算され検証されています。
しかし、天気予報は依然として完全に正確ではありません。このような数値予報は、発生した気象要素の変化から将来の傾向を予測するものであり、その精度は観測データの精度に大きく影響されます。
さらに、時間と空間のスケールの変化に伴い、気象システムは飛躍的に複雑化し、気象の原因を分析する際に多くの欠落が生じる一方で、データにはさらに多くのエラーが存在し、それが予測の結果に影響を与えます。
そしてその規模が十分に大きくなると、天候は混沌とした状態に陥ります。これは比喩ではなく、気象システムは典型的なカオス システムです。カオス理論は 1963 年に気象学者によって初めて提案されました。
カオスなシステムとは、システムに対する非常に小さな摂動が、大きく異なる結果をもたらす可能性があることを意味します。別名バタフライ効果とも呼ばれます。カリフォルニアでは蝶が羽ばたき、テキサスとメキシコ湾では嵐が起こります。
このためには、値の最初の計算が非常に正確である必要がありますが、絶対的な精度が存在しないことは誰もが知っています。言うまでもなく、このような複雑な気象の動きに直面して、収集できるデータの種類と量が多すぎることは言うまでもありません。 。
人間による天気の予測は、蝶の羽と嵐の目の軌跡の関係を学ぼうとするようなもので、壮大で、時には絶望的で、難解ですらあります。
一方では、精度の観点からますます複雑な関数方程式が構築され、できるだけ多くのデータがより短い間隔で収集されますが、他方では、ほぼ「直観的」な経験に依存しています。
今日に至るまで、すべての天気予報の結果は依然として数値計算の結果と予報者の判断の 2 つの部分によって決定されます。天気予報は依然として人間の経験に大きく依存しています。
人間はある程度、自分の感情を利用して自然の混乱と戦っています。
スーパーコンピューター
したがって、気象予報には奇妙な特徴があります。なぜなら、人間の経験や感覚に頼っている限り、特に一部の極端な気候では常に失敗が生じるからです。極端な気候に関するデータが不足しており、人間の一貫した経験が存在しないためです。それの。
しかし、ここ数十年で数値予測の精度が向上したことにより、現在の天気予報はかなり正確なレベルに達することが多くなり、中期的なユーザビリティ予測は10日近く、短期的な予測は、例えば、いつ冷たい空気がやってくるのか、気温はどれくらい下がるのか、人間は非常に正確に判断できるようになりました。なぜなら、地球全体の気候環境の変化は混沌としているにもかかわらず、気団の形成や気圧の変化、雲の動きの軌跡など、多くのミクロなレベルで、ますます多くの関数や関数によって生き生きと正確に記述されているからです。数式。
たとえば、最近の北京、天津、河北省の豪雨。
7月29日から8月1日にかけて、台風ドゥスルイが豊富な水蒸気を伴って北上し、中国北部の高気圧に阻まれて、北京・天津・河北地域で史上まれに見る異常な暴風雨が発生しました。
極端さはいくつかの側面に反映されており、1 つ目は量の多さです。河北省邢台市臨城県の降水量は1,000ミリメートル、つまり1メートルを超えており、これはこの地域の元々の2年間の総降水量に等しい。次に、7月29日から4日間近く続き、北京でも83時間雨が降り続きました。河北省、陝西省、河南省などでも2日連続で大雨が降った。ついには広範囲に影響を及ぼし、華北全域が雨に覆われます。
予報官はこの極端な雨をほぼ完全な精度で予測しました。この背景には、過去数十年にわたる天気予報の大きな進歩があります。数値計算は、単純な方程式から、世界で最も複雑なアルゴリズムの 1 つへと発展しました。結局のところ、予測不能な現象を捉えるために、より多くのデータとアルゴリズムが使用されるようになったのです。天気 さて、この膨大なデータと複雑なアルゴリズムを扱うために、スーパーコンピューターが導入されました。
多くの人は、膨大な量の気象データについてまったく知らないかもしれませんが、次のような数字があります。中国の気象データは毎日、最大 40 TB まで増加します。我が国は、全国の町や村の99.6%をカバーする7万以上の気象観測所を擁する、完全な三次元気象観測網を確立しており、データ送信時間は、従来は1時間でしたが、最近は1分に短縮されました。年。
このような膨大なデータを扱うこと自体が非常に困難ですが、それらを数値計算式と組み合わせるのは不可能に近く、複雑な偏微分方程式や浮動小数点計算など多くの計算量が必要であり、電力、特に天気予報も同様です。非常に高いタイムリー性が求められるため、さまざまな制約の中でこの要求に応えることができるのはスーパーコンピューターだけです。
幸いなことに、中国はこの点で世界の先頭に立っている。
スーパーコンピューティングは常に中国の名刺でした。たとえば、中国には世界最速の 500 台のスーパーコンピュータのうち 162 台があります。別の例として、私は国際スーパーコンピューティング アプリケーションの最高賞であるゴードン ベル賞を 3 回受賞しています。そのうちの 2 つは The受賞歴のある 2 つのコンテンツ「大気力学フレームワーク」と「地震シミュレーション」は、どちらも気象学に関連しています。
現在中国で使われているスーパーコンピューターは「パイドーン」と呼ばれ、その最大計算速度は毎秒8189兆5000億回、記憶容量は23088TBに達し、その規模は気象分野で世界第3位に躍り出た。
これで終わりではなく、データ量の急激な増大やハードウェアの磨耗により、スパコンの寿命は6~8年が主流となっており、「パイドーン」以降も新しいスパコンが続々と登場しています。今年初の新たなステートレベルハイパフォーマンスコンピューティング(HPC)サブシステム1の導入・構築が行われ、「Pai-Dawning」と比べて性能がさらに向上し13PFlopsに達し、ストレージ容量も76PB。
さらに多くのスーパーコンピューターが開発されつつあります。
「停滞」と新しい道
一般に、数百、数千の CPU から構成されるスーパーコンピューティングは天気予報の強固な基盤を構成しますが、それでもできないことや難しいこともあります。
台風など。私たちの台風ドゥスルイの予測は、大雨の予測の精度からは程遠いです。世界の主流の台風予測手法は、いずれも流体力学や熱力学などの大気物理法則に基づいて大気の動きをシミュレーションし、台風の変化を予測する力学モデルを用いています。
力学モデルには多くの不正確さがあり、当初は誰もがドゥ・スルイの進路をさまざまな方法で予測することになったが、この分野ではより権威があり、正確であると認識されているヨーロッパ中期天気予報センターは、かつてドゥ・スルイの進路を次のように信じていた。スルイは珠江デルタに直行するだろう。
実際、台風は短期間に強度が急激に変化する可能性があり、非常に大きな時空間スケールでの多くの要因の影響により進路が予測できないため、台風の予測は常に世界的な問題となっています。
典型的なカオス系ですね。
このため、数値予報に基づく天気予報は矛盾が多く、改善の余地が非常に大きいものとなっていますが、その精度は非常に限られており、人間が経験を積んでデータを収集し、より多くの予測を構築する以外に方法はありません。データが増えても、マクロおよびミクロスケールでの天気予報の精度を大幅かつ包括的に向上させることはできませんが、一般的なコンピューティングコストは増加し続けています。
この時点で、状況は行き詰まりを迎えているようだ。大量のデータ、複雑なアルゴリズム、高い計算能力要件により、数値計算がある程度ボトルネックになりますが、これら 3 つの条件に見覚えがあるでしょうか?
大きなモデルの 3 つの要素に少し似ていますか?
実際、ピンワンが見た気象技術に関する社内セミナーの資料の中で、一部の専門家は人工知能と気象学の研究は方法論において似ていると直接断言した。
実際、数値計算式だけではカオス系全体の原因と結果をすべて網羅することはできないため、ニューラル ネットワーク手法を使用して大量のデータをインポートし、コンピューターが自ら法則を見つけて学習できるようにしてはどうでしょうか。
これは何とも言えない、しかし非常に不思議で合理的な説明のように思えます。
人類初の電子計算機である ENIAC や、ノイマン構造に基づいて構築された最初の計算機 EDSAC は、実際に気象学に関連する科学計算を行うために使用されており、気象学の発展は常に計算機科学の発展と並行して行われてきました。進歩は密接に関係しており、高性能コンピューティングは気象科学における複雑な問題の解決を促進しており、一般的なコンピューティングの考え方を飛び越えた後、ニューラル ネットワークと大規模モデルは気象学と天気予報にとって非常に興味深く合理的な方向であるように思われます。 。
実際、中央気象台は台風ドゥスルイの進路予測に人工知能大規模モデルの結果を参考にした。
## 別の方法
昨年末の生成 AI の人気に伴って大規模な気象モデルが登場したわけではなく、強力なコンピューティング能力、膨大な量のデータ、さまざまな深層学習アーキテクチャを使用して天気を予測する大規模なモデルが数多く登場してきました。海外では Nvidia FourCastNet、DeepMind、Google の GraphCast、Microsoft の ClimaX があり、国内の最新モデルは Huawei Pangu モデルと Shanghai Fengwu モデルで、後者は上海人工知能研究所のモデルです。
Pangu と Fengwu はどちらも、ERA5 という名前の欧州気象センターの気象再解析データ セットを使用しました。このデータ セットは、過去 60 年間の地表の 37 の等圧面をカバーする合計 2000 TB のさまざまな気象データを提供します。
これらのデータは、大規模なモデルが実行できるスペースを提供します。AI は、正確で対応する数値計算を使用する代わりに、データ間のさまざまな複雑な関係をより柔軟にマイニングできます。
Pangu は海洋、大気、陸地の複雑なインタラクティブな物理プロセスを統合する 3D 変換構造を構築しました。これまで、Nvidia の FourCastNet などの大規模な気候モデルでは 2D 構造が使用されていました。各等圧面は 1 つの層であり、明らかにそこにあります。 2D 平面が気象変化のプロセスをより適切に反映する方法はありません。
Pinwan氏が閲覧した資料によると、ファーウェイはこの3D構造で絶対位置エンコーディングを使用し、モデルの収束を大幅に加速したほか、それぞれ1時間、3時間、6時間、24時間に相当する4つの基本モデルをトレーニングした。時間領域の融合手法である時間ごとの予測により、以前のモデルでの小さなステップ サイズと複数回の反復によって引き起こされる誤差が大幅に減少します。
古くて困難な台風の予測において、盤古は平均海面気圧を予測基準として使用し、その結果は欧州気象庁の予測よりも優れていました。
Fengwu 大規模モデルのアイデアは、6 つの独立したエンコーダーを使用してさまざまな気象パラメータ (湿度、風、温度など) をエンコードおよびデコードし、独立した変圧器ネットワークを使用して異なる変数間を学習することです。
エラーを減らすためのファーウェイの時間領域融合手法とは異なり、Fengwu はトレーニング プロセスの結果を保存して再生するためのキャッシュ スペースを設計しました。これにより、ニューラル ネットワークがエラーに適応できるようになり、それによってより良い予測結果が得られます。
これらの新しい気象大規模モデル予測の結果はまだ暫定的なものであり、公表された結果はいくつかの特定の指標において従来の数値予測手法よりも優れており、包括的なテストと最適化が依然として必要ですが、それらが一種の予測であることは疑いの余地がありません。従来の天気予報とは根本的に異なる新しいパラダイム。
現在、ファーウェイの盤古大型モデルは欧州中距離天気予報センターで初期業務運用を達成しているが、鳳武は世界的に最も正確な高解像度AI天気予報モデルであると主張しており、ドゥ・スールイの24時間前の予報は誤りであると主張している。は 38.7 キロメートルで、欧州中期予報センターの 54.11 キロメートルよりも優れています。
先は長い
変化が来ています。大きな気象モデルは、速度などさまざまな点で天気予報のパラダイムをひっくり返す可能性を秘めています。 Fengwu は GPU を使用して、世界のすべての地域について、今後 14 日間の 37 レベルの高精度かつ高解像度の天気予報結果を 1 分以内に生成します。一方、Pangu の 7 日間の天気予報の生成にはわずか 9.8 秒かかります。
したがって、数値計算のために確立されたリアルタイム気象データ伝送システムと一般的な計算能力インフラストラクチャも変化します。ピンワン氏が得た気象庁内部関係者によると、短期的には予報の参考としてしか使われていないが、中長期的には大規模気象モデルの可能性は間違いなく巨大だという。
さて、これらの大規模な気象モデルが直面する主な問題は 2 つあります。1 つ目は調整です。大規模モデルでは異常気象などのデータをどのように正確にラベル付けするかが問題 AIモデルはフィッティング能力が強いため、長期予測に誤差が生じる可能性がある これは大規模モデルの「幻想」とも言える気象モデル。
さらに、現在の大規模モデルには業界の深いノウハウが蓄積されておらず、モデルの構築は気象学の専門家ではなくコンピュータ科学者によって行われています。これは、これらの垂直大規模モデルにはまだ「人間によるフィードバック」が欠けていることを意味します。チューニング。
もう一つの問題は、当たり前の計算能力ですが、我が国はスーパーコンピュータの開発において世界トップクラスに位置していますが、大型モデルでは従来のスーパーコンピュータのような一般的な計算能力は使用されておらず、ディープネットワークの運用には大規模な並列計算が必要となります。それは高性能 GPU ですが、この点ではまだ行き詰まっています。
幸いなことに、気象の大規模モデルに直接関係する計算能力のコストは高くなく、Pinwan 氏が学んだ状況によると、数十枚の Nvidia グラフィックス カード (最新モデルでさえ) は数週間、長くても 2 週間で完成することができます。数か月モデルトレーニング。これは、従来の数値予測モデルに比べて利点にもなりました。