7月26日、OpenAIの公式Twitterは、ChatGPTのAndroid版が米国、インド、バングラデシュ、ブラジルでダウンロードできるようになり、近い将来さらに多くの国に拡大する予定であると発表した。 ChatGPT はチャネルを拡大し、より多くのユーザーを獲得し、使用の継続性を強化しており、生成 AI の波は押し寄せ続けています。
国内企業が先を争って大型AIモデルをリリースする行為は、まさに「ストレス反応」を体現したものである。この「反応」によってもたらされた不安は、インターネット大手の CEO から AI 研究機関の研究者、ベンチャー キャピタル ファンドのパートナーから企業の創設者に至るまで、業界のほぼすべての関係者に伝わっています。 AI 企業、さらには多くの AI 関連の法律専門家、さらにはデータとネットワーク セキュリティの規制当局も参加しています。
業界外の人々にとって、これはつかの間のお祭り騒ぎに過ぎないかもしれませんが、今、自分は AI の外側にいるとあえて言える人がどれだけいるでしょうか。
AI は新たな時代の到来を告げており、すべてを大きなモデルで再構築する価値があります。テクノロジーの普及がもたらす影響について考え始める人が増えています。
今年の初め、Chen Runze と彼の同僚がシリコン バレーに行ったとき、シリコン バレーの有名なスタートアップ インキュベーターである Y Combinator (OpenAI CEO の Sam Altman が長年このインキュベーターの社長を務めました) を発見しました。プロジェクトの半分は生成 AI に変換されました。大型モデルに対する熱意は海の向こうの中国にも劣らない。
過去 6 か月間、既存のインターネット巨人の AI ニュースが空を飛び交っていました。 AI大型モデルへの投資はホットスポットを追いかけているようだが、百度、アリ、ファーウェイなどの大企業によるAIへの賭けは明らかにトレンドに乗っていない。
巨人による AI への賭けはずっと前から始まっており、これらの企業にとって AI は新しいトピックではありません。 Tiger Sniff氏によると、企業検索データの不完全な統計によると、2018年以降、大手工場はさまざまな程度で人工知能関連企業に投資している。投資企業の観点から見ると、そのほとんどは人工知能の応用企業であるが、中にはAIチップ企業も関与しているが、その数は多くなく、大規模モデルに関与している企業はほとんどなく、大手メーカーが出資する人工知能関連企業の多くは自社の事業と密接に関連している。
2017 年にアリババ ダルマ研究所が設立され、その研究対象はマシン インテリジェンス、インテリジェント ネットワーキング、金融テクノロジーなどの複数の産業分野をカバーしており、アリのさまざまな事業分野に人工知能の機能を強化しています。 2018年、Baiduは「All in AI」戦略を提案した。
異なるのは、生成型 AI の出現が転換点になりそうなことです。データ、計算能力、アルゴリズム リソースで優位性を持つテクノロジー巨人にとって、人工知能は彼らにとって実現可能なシナリオであるだけでなく、インフラストラクチャの役割も担う必要があります。結局のところ、生成型 AI の出現は、人工知能産業が分業が始まりました。
Baidu、Alibaba、Huawei、Tencent の 4 つのクラウドプロバイダーに代表される大企業は、独自の AI 戦略を発表していますが、明らかにそれぞれが独自の焦点を当てています。
過去半年の間に、巨人各社は自社の大型模型製品を発売した。 Baidu や Ali のような大企業にとって、基本的には 2019 年に大規模モデルに参入しても遅くはありません。
しかし、2022 年末に ChatGPT が登場した後、Li Zhifei 氏は大きなチャンスを与えられたように見えました。なぜなら、彼も他の皆と同じように、大型モデルに新たなチャンスがあると考えていたからです。今年4月、Going Out and Askingは自社開発の大型モデル製品「Sequence Monkey」をリリースした。現在、新発売の大型モデル「シリアルモンキー」を引っ提げて香港証券取引所へ突撃する準備を進めており、すでに5月末には目論見書を提出している。
Yu Kai 氏は、OpenAI ですら GPT2 段階では Microsoft の V100 で 1 年近くトレーニングしており、その計算能力は A100 よりも数桁劣ると率直に述べました。大規模モデルの初期蓄積段階では、Aspire はトレーニング用により経済的なカードも使用します。もちろん、その代償として時間がかかります。
自社開発の大規模モデルと比較して、一部のアプリケーション指向企業には独自の選択肢があります。
オンライン教育会社の社長、Zhang Wang (仮名) 氏は、過去 6 か月間、大規模なモデルの適用シナリオの検討にあらゆる努力を惜しまなかったが、すぐに実装プロセスに多くの問題があることが判明したと Huxiu に語った。コストや投資など。同社の研究開発チームは50~60人で構成されており、大規模モデルの研究を始めて以来、研究開発チームを拡大し、大規模モデルの人材を新たに採用した。高い。
Zhang Wang 氏は、大規模なモデルをゼロから開発することを考えたことはなく、データのセキュリティやモデルの安定性などの問題を考慮して、アプリケーションのために API に直接アクセスするつもりはありません。彼らのアプローチは、オープンソースの大規模モデルを参照し、トレーニングに独自のデータを使用することです。これは、多くのアプリケーション企業の現在の慣行でもあります。大きなモデルに加えて、独自のデータを使用して小さなインダストリ モデルを作成します。将来に向けて、彼らは 70 億のパラメータのモデルから始めて 100 億に達し、現在 300 億のモデルを試しています。しかし、データ量が増加すると、大規模なモデルをトレーニングすると、新しいバージョンが以前のバージョンほど優れていない可能性があり、パラメーターを 1 つずつ調整する必要があるという事実も判明しました。」迂回路を取らなければなりません」と張王氏は語った。
Zhang Wang 氏は Huxiu に対し、R&D チームに対する要件は、会社のビジネスに基づいて AI 大規模モデルのシナリオを探索することであると語った。
これは「ハンマー」で「釘」を探す方法ですが、簡単ではありません。
「現時点での最大の問題は、適切なシーンを見つけることです。実際、シーンはたくさんあります。AIを使用したとしても、効果はあまり向上しません。」とZhang Wang氏は、例えば授業のシーンではAIが大規模であると述べました。モデルは、学生に授業に出席することを思い出させたり、質問に答えたり、ラベルを付けたりするなど、いくつかのインタラクティブなモードを強化するために使用できますが、AI の大きなモデルを試してみたところ、精度が良くないことがわかり、理解してアウトプットする能力は理想的ではありませんでした。 Zhang Wang のチームは、しばらく試した後、このシーンで AI を一時的に放棄することにしました。
別のインターネット サービス プロバイダーである Xiaogetong も、AI モデルの流行直後に関連ビジネスの探索を開始しました。 Little Goose の主な事業は、オンライン販売業者にマーケティング、顧客管理、商業収益化などのデジタル運用ツールを提供することです。
Goose Communication の共同創設者兼 COO である Fan Xiaoxing 氏は、今年 4 月に、生成 AI に基づいてますます多くのアプリケーションが誕生したとき、Goose Communication はこのテクノロジーの背後にある可能性を見出したと Huxiu に語った。 Fan Xiaoxing らは社内で AI 研究の事業分野を特別に組織し、自分たちのビジネスに関連する上陸事例を探していました。
Fan Xiaoxing 氏は、大型モデルをビジネスに統合する過程でコストと効率を考慮したと述べ、「大型モデルの投入コストは依然としてかなり高いです」と述べました。
Yu Kai 氏は Huxiu 氏に、この AI の波は今も上向きに上昇し、波状に進んでおり、業界の実装における矛盾はまったく変わっておらず、殻が変わっただけだと語った。この意味では、2 つの AI の波の法則は同じであり、最良の方法は歴史から学ぶことです。「AI の最後の波からの教訓を、今回は繰り返さない」ということです。
多くのメーカーが AI 大型モデルの実装において「業界初」のスローガンを叫んでいますが、物理的な業界の多くのシナリオが現在の AI 大型モデルに適合することは非常に困難です。たとえば、一部の産業検査シナリオに適用される AI 視覚検査システムでは、AI モデルの需要が 10 億パラメーターほど高くない場合でも、初期トレーニング データはまだ限界があります。
簡単な風力発電の検査シーンを例にとると、風力発電所の検査数は7万台に達しますが、同じ亀裂データは一度しか出現しない可能性があり、機械が学習できるデータ量は決して十分ではありません。 Broadbo Intelligent Wind Power Hardware の製品ディレクターである Ke Liang 氏は、Tiger Sniff に対し、現在、風力タービンブレードの検査ロボットは、トレーニングと分析に利用できるデータ量が少なすぎるため、ブレードの亀裂を 100% 正確に分析することはできないと語った。識別には、大量のデータの蓄積と手動による分析も必要です。
ただし、産業データが十分に蓄積されているシナリオでは、AI の大規模モデルはすでに複雑な 3D モデルのパーツ ライブラリの管理を支援できます。国内航空機製造会社の部品ライブラリは、第4パラダイム「四舟王」の大型モデルをベースとした部品ライブラリ補助ツールを導入しました。 10万点以上の3Dモデリングパーツの中から、自然言語による3Dモデル検索を実現し、3Dモデルごとに3Dモデルを検索し、さらには3Dモデルの自動組み立てまで完了することができます。これらの機能は、製造業で行き詰まっている多くの CAD および CAE ツールで複数のステップの操作を必要とします。
今日の大規模モデルは、数年前の AI と同じ着陸の問題に直面しており、ハンマーで釘を見つける必要もあります。今日のハンマーは過去のものとはまったく異なるものであると楽観的に信じている人もいますが、実際のお金で AI に支払うことになると、結果は多少異なります。
AI 大型モデルのフライホイールが急速に動作し始めると、その背後にある計算能力が徐々にこのトラックのプレーヤーのペースに追いつけなくなり始めました。コンピューティング能力に対する需要の急増により、Nvidia が最大の勝者となっています。しかし、GPU がコンピューティング能力のすべての解決策になるわけではありません。 CPU、GPU、およびさまざまな革新的な AI チップが、大型モデルの主要なコンピューティング電力供給センターを形成します。
「CPUは都市部、GPUは開発の郊外にたとえることができます。」Gao Feng氏は、CPUとAIチップはPCIEと呼ばれるチャネルを通じて接続する必要があり、データはPCIEに送信されると述べました。 AIチップがデータをCPUに送り返します。大きなモデルのデータ量が大きくなると、チャネルが混雑して速度が上がらなくなるため、この道路を拡張する必要があり、このチャネルの幅と車線の数は CPU のみが決定できます。悩ませる。
これは、中国が大型モデルのAIチップを突破しても、最も重要なCPUを突破するのは依然として難しいことを意味します。 AI トレーニングでも、GPU に割り当てられるタスクはますます増えていますが、CPU は依然として最も重要な「マネージャー」の役割です。
2023WAIC大型モデル展示エリアに展示された国産チップの一部
1971 年にインテルが世界初の CPU を開発してから 50 年以上が経過し、民生用サーバーおよび PC 市場では長らくインテルと AMD が世界をリードしており、インテルは知的財産権、技術蓄積、規模コスト、ビジネス モデル全体の障壁であり、この障壁は決して減少することはありません。
X86 アーキテクチャや ARM アーキテクチャを完全に放棄し、RISC-V のようなまだ十分に開発検証されていない新しいアーキテクチャに基づいて完全に独立した CPU チップを開発する必要があります。
命令セットは土地のようなもので、命令セットに基づいてチップを開発することは、土地を買って家を建てることに相当します。 X86 のアーキテクチャはクローズド ソースであり、Intel エコロジカル チップのみが許可されていますが、ARM のアーキテクチャは IP ライセンス料を支払う必要がありますが、RISC-V は無料のオープンソース アーキテクチャです。
「具体的な規制政策が無い限り、我々は簡単に一般ユーザーに製品を公開しない。主な理由はTo Bの論理にある。」 Left Hand DoctorのCEO、Zhang Chao氏は「行政措置」が発令される前はこう考えていた、生成 AI この製品は C エンド ユーザーに公開されていますが、これは非常に危険です。 「現段階では、一方では最適化を繰り返し続けていますが、他方ではテクノロジーの安全性を確保するための政策や規制にも引き続き注意を払い続けています。」
「生成 AI に対する規制アプローチはまだ不明確であり、大規模モデル企業の製品やサービスは一般に非常に控えめなものです。」 デジタル テクノロジー プロバイダーが、クラウドで開発された一般的な大規模モデルに基づくアプリケーション製品をリリースしました会議で、同社の技術責任者はHuxiuに対し、クラウドベンダーから秘密を厳守するよう求められており、誰の大型モデルが使用されたかを明らかにすれば、秘密保持義務に違反したとみなされ、契約。担当者は事件を秘密にする理由について、規制リスクを回避するためが大きいのではないかと分析した。
今年の初め、Wang Yuwei 氏は、初めて大規模モデルにアクセスした文生図の企業から、自社のビジネスを中国に紹介したいと考えており、この分野のデータ コンプライアンス ビジネスについて知りたいとの打診を受けました。その直後、王有偉氏はそのような相談がますます増えていることに気づき、より明らかな変化は、相談に来るのはもはや会社の弁護士ではなく創業者になったことだった。 「生成型 AI の出現により、本来の規制ロジックを適用するのは困難になっています。」と Wang Yuwei 氏は述べています。
長年ビッグデータの法律業務に従事してきた Wang Yuwei 氏は、生成 AI と以前の AI の波がより根本的な変化を示していることを発見しました。たとえば、前回の AI はアルゴリズムベースの推奨に基づいており、一部の顔認識は 1 つのシーンに向けられており、いくつかの小さなモデルは特定のアプリケーション シナリオでトレーニングされていましたが、関与した法的問題は知的財産権にほかなりませんでした。保護の問題。この生成 AI エコシステムでは、基盤となる大規模モデルを提供する企業、大規模モデルに接続してアプリケーションを作成する企業、データなどを保管するクラウド ベンダーなど、役割が異なると、対応する監督も異なります。
ChatGPTは過去6ヶ月で爆発的に増加:ホットマネー、巨大企業、そして監督
AI の洗礼を受けてから半年が経ち、今日のテクノロジー業界の全員の緊張、刺激、プレッシャーの状態を表すのに「ストレス反応」以上に適切な言葉を見つけるのは難しいかもしれません。
「ストレス反応」とは、生物が外部環境の圧力や脅威に遭遇したときに、体の恒常性を維持するために引き起こす一連の反応を指します。これは、環境に適応して生存を確保するための生物の自然な反応です。この反応は短期間である場合もあれば、長期間続く場合もあります。
7月26日、OpenAIの公式Twitterは、ChatGPTのAndroid版が米国、インド、バングラデシュ、ブラジルでダウンロードできるようになり、近い将来さらに多くの国に拡大する予定であると発表した。 ChatGPT はチャネルを拡大し、より多くのユーザーを獲得し、使用の継続性を強化しており、生成 AI の波は押し寄せ続けています。
7 月初旬、上海で開催された 2023 年世界人工知能会議 (WAIC) で、大規模モデルの新興企業の技術者が展示会場を行き来しており、同社向けに費用対効果の高い国産チップ ソリューションを見つけることを計画していました。大規模なモデルのトレーニングに使用します。
「A100は1,000台ありますが、それだけでは十分ではありません」と彼女はHuxiuに語った。
A100 は Nvidia のハイエンド GPU であり、ChatGPT 開発のハードウェア基盤です。一部の公開データによると、GPT シリーズ モデルのトレーニングの過程で OpenAI が使用する Nvidia GPU の数は約 25,000 です。したがって、大規模なモデルを作成するには、まず A100 グラフィックス カードを何枚入手できるかを評価する必要があります。これは、この業界ではほぼ慣例になっています。
GPU はどこにありますか?安価なコンピューティングパワーはどこで入手できますか?これは、2023WAIC カンファレンスでの多くの質問の縮図にすぎません。
過去 6 か月間で「ストレス」を感じているほぼすべての人々が、この「イベント」で AI に関するさらなる答えを見つけたいと考えています。
2023WAICサイト
あるチップ展示会社の技術者はTiger Sniffに対し、WAICカンファレンスの数日間、多くの製品マネージャーが同社の「ビッグモデル」ブースに来て、同社のビッグモデル事業の製品定義をここで見つけようとしていたと語った。
5月28日の中関村フォーラムで、中国科学技術情報研究所が発表した「中国人工知能大規模モデルマップ研究報告書」によると、5月末までにパラメータスケールが2000万個の大規模モデルが79個完成したことが明らかになった。中国では10億人以上が釈放された。今後2か月の間に、Alibaba CloudのTongyi Wanxiang、Huawei CloudのPangu 3.0、Youdao「Ziyue」などの一連のAI大型モデルがリリースされ、不完全な統計によると、現在国内のAI大型モデルは100を超えています。
国内企業が先を争って大型AIモデルをリリースする行為は、まさに「ストレス反応」を体現したものである。この「反応」によってもたらされた不安は、インターネット大手の CEO から AI 研究機関の研究者、ベンチャー キャピタル ファンドのパートナーから企業の創設者に至るまで、業界のほぼすべての関係者に伝わっています。 AI 企業、さらには多くの AI 関連の法律専門家、さらにはデータとネットワーク セキュリティの規制当局も参加しています。
業界外の人々にとって、これはつかの間のお祭り騒ぎに過ぎないかもしれませんが、今、自分は AI の外側にいるとあえて言える人がどれだけいるでしょうか。
AI は新たな時代の到来を告げており、すべてを大きなモデルで再構築する価値があります。テクノロジーの普及がもたらす影響について考え始める人が増えています。
資金が流入し、フライホイールが登場
ChatGPT の誕生から 1 か月以内に、ChatGPT の創設者である Li Zhifei はシリコンバレーに 2 回行き、みんなと大型モデルについて話し合いましたが、Huxiu と話しているとき、Li Zhifei はこれが最後の「オールイン」だと率直に言いました。
2012 年、Li Zhifei は、音声インタラクションとソフトウェアとハードウェアの組み合わせを中核とする人工知能企業 Mobwenwen を設立しました。同社は、中国の 2 つの人工知能の波の浮き沈みを経験してきました。人工知能の最後の波の最も熱い時期に、木門文邦の評価は一時ユニコーンレベルにまで押し上げられましたが、それ以来、孤独な時期も経験しました。長年沈黙していた穴が引き裂かれた。
発行市場には「ホットマネーが流入している」。
これは、過去 6 か月間の大型モデルに関する業界のコンセンサスです。 Qiji Forumの創設者であるLu Qi氏は、AIの大規模モデルは「はずみ車」であり、将来はモデルが遍在する時代になると信じており、「このはずみ車はすでに始まっている」とし、最大の原動力は資本であると述べた。
7月上旬、ビジネス情報プラットフォームのCrunchbaseが発表したデータによると、AIに分類される企業が2023年上半期に250億ドルを調達し、世界の資金調達の18%を占めた。この数字は、2022年上半期の290億米ドルと比較すると減少しましたが、2023年上半期の世界のさまざまな産業の融資総額は、2022年の同時期と比較して51%減少しました。 AI分野での融資額は世界最大であり、融資総額に占める割合はほぼ2倍となっている。 Crunchbaseはレポートの中で、「ChatGPTが引き起こした人工知能ブームがなければ、2023年の資金調達額はさらに低くなるだろう」と書いている。
これまでのところ、2023年のAI業界における最大の資金調達は、Microsoftが1月にOpenAIに行った100億ドルの投資である。
Tiger Sniff 公開統計によると、米国の大規模スタートアップの中で、Inflection AI は、Open AI に次いで、Anthropic (15 億ドル)、Cohere (4 億 4,500 万ドル)、Adept に続く、人工知能の分野で 2 番目に大きなスタートアップになる可能性があります。 (4億1,500万ドル)、Runway(1億9,550万ドル)、Character.ai(1億5,000万ドル)、Stability AI(約1億ドル)。
中国では、2023年上半期に国内の人工知能業界で456件の公共投資・融資事件が発生した。そしてこの統計は、2018年から2022年までの5年間で731人、526人、353人、631人、648人となっています。
今年上半期の国内人工知能産業における公共投資および融資イベント
フライホイールのきっかけとなったもう 1 つのイベントは、ChatGPT による API インターフェイスのリリースでした。 3月にOpenAIが初めてChatGPTのAPIインターフェースをオープンしたとき、AI業界の内外でほぼコンセンサスが得られました。「業界は変わろうとしている」ということです。より多くのアプリケーションが大規模モデルに接続されるにつれて、AI の上にさらに豊かな森が成長しています。
「大規模モデルの構築とアプリケーションの作成は分けるべきだ。投資家は常に鋭い嗅覚を持っている。ソースコードキャピタルのエグゼクティブディレクター、チェン・ルンゼ氏によれば、AIは半導体の分業と同じ論理だ。 AIの大規模モデルの隆盛、まもなくAIアプリケーションのブームが訪れるでしょう。
今年の初め、Chen Runze と彼の同僚がシリコン バレーに行ったとき、シリコン バレーの有名なスタートアップ インキュベーターである Y Combinator (OpenAI CEO の Sam Altman が長年このインキュベーターの社長を務めました) を発見しました。プロジェクトの半分は生成 AI に変換されました。大型モデルに対する熱意は海の向こうの中国にも劣らない。
しかし同氏はまた、米国の資本と起業家の両方が、大規模な起業家精神よりも、大規模なモデルに基づくエコロジーへの応用に楽観的であることにも気づきました。結局のところ、OpenAI のような企業はすでにこの軌道に乗っています。米国には強力な ToB アプリケーションのエコロジー土壌があるため、より多くの米国企業が大規模モデルのエコロジーに基づいたエンタープライズ アプリケーションを作成しようとしています。
大規模モデル サービス プラットフォーム OpenCSG の共同創設者である Chen Runze 氏は Huxiu に対し、現在、米国のベイエリアの企業の 90% 以上が大規模モデルを使用していると語った。あらゆる面での能力。中国に関しては、年末までに多くの顧客が利用するだろうとチェン・ラン氏は考えている。
今年の 3 月頃、Chen Runze 氏と彼のチームは、大規模なモデルに基づいたアプリケーションを作成する中国の企業を探し始めましたが、そのような企業が非常に少ないことがわかりました。人工知能業界には多額の資金が流入しているが、その資金の流れを辿ってみると、依然として上位企業に資金が集中していることが分かる。
「今でも、生成 AI に関連する 10 件のプロジェクトのうち、1 ~ 2 件に投資するのは簡単ではありません。」 Source Code Capital に加えて、Huxiu は多くのハードテクノロジー投資家ともコミュニケーションを取りましたが、彼らは皆こう言いました。プロジェクトは必見ですが、本当に信頼できるプロジェクトはほとんどありません。
業界の多くの人々の目には、アプリケーション側のこのような態度はすでに標準的です。
Aspire の共同創設者である Yu Kai 氏は、表面上は活気に満ちているように見えるコースは実際には名ばかりの競争であり、結果は 2 つの状況に過ぎないと考えています。「1 つは資金調達のための純粋な資本志向であり、もう 1 つは「普遍的な大型モデルを作る会社は本当に叫ぶ必要があり、他の会社は叫ばなければ分からない。」
一部の国内統計もこの問題を例証しており、第三者機関Niuの統計によると、2023年7月現在、中国にはAIGC企業242社があり、1月以来AIGC追跡融資事件は71件発生している。 AIの大規模モデルトラックには67社が参加しており、ChatGPTのリリース以来、資金調達イベントはわずか21件しかありません。
ChatGPTリリース以降のAIGCトラックとAIラージモデルトラックのファイナンスイベント|データ出典:Enniu Data
「国内のAI市場には、良いターゲットが少なすぎる。」ある投資家はタイガー・スニフに対し、良いプロジェクトは高すぎ、安価なものは信頼できないと語った。現在、中国でリリースされているAI大型モデルの数は100社を超えているが、中国の大型モデル企業のうち、巨額の資金調達を獲得している企業は多くないか、ほんの一握りである。
AI への投資の多くは、最終的に元ユニコーン企業の創業者、インターネット大手、大規模モデルに関連した起業経験を持つ人々などの投資家になりました。
| | | | | | | --- | --- | --- | --- | --- | | 会社形態 | 会社概要 | 設立年月 | 大型機種・関連製品 | | インターネット会社 | Baidu | 2012 | Wenxin Yiyan | 上場 | | Aliyun | 2008 | Tongyi Qianwen | 上場 | | | Tencent AI Lab| 1998 | 渾源| 上場| | | Huawei Cloud | 2019 | Pangu | 非上場 | | | ByteDance| 2016 | Volcanic Ark| 非上場| | | JD Cloud | 2012 | 延西市 | 上場 | | | クンルン・ワンウェイ | 2008 | 天宮 | 上場 | | | 360 | 1992 | 360 志直 | 上場 | |
| | | | | | | --- | --- | --- | --- | --- | | 会社形態 | 会社概要 | 設立年月 | 大型機種・関連製品 | | AI Company | SenseTime | 2014 | Daily New | 上場 | | HKUST Xunfei | 1999 | Xunfei Spark | 上場 | | |Yuncong Technology| 2015 | Calm| 上場| | | 大関データ | 2015 | 曹植 | ラウンド C | | | 出かけて聞いてみよう | 2014 | シーケンス モンキー | ラウンド D | | | Zhipu Al | 2019 | ChatGLM | ラウンド B | | | 蘭州テクノロジー | 2021 | 孟子 | プレ A ラウンド | | | MiniMax | 2021 | グロー | 株式投資 | | | Facewall Technology| 2022 | VisCPM | Angel Wheel| | | Shenyan Technology| 2022 | CPM | 株式投資| | | マインド インテリジェンス | 2021 | アル ユートピア | プレ A ラウンド | | | Lianyuan Technology| 2021 | ProductGPT | Angel Wheel| | | Aspire | 2007 | DFM-2 | IPO 終了 | |
| | | | | | | --- | --- | --- | --- | --- | | 会社形態 | 会社概要 | 設立年月 | 大型機種・関連製品 | | 新興 AI 企業は 2023 年に設立される予定 | 光年先 | 2023 | いいえ | ラウンド | | Baichuan Intelligent | 2023 | Baichuan | 株式投資 | | | ゼロワンエブリシング | 2023 | なし | 株式投資 | |
国内AI大型モデル関連企業統計の一部
今年のスター AI プロジェクトのうち、Zhipu AI、Lingxin Intelligence、Shenyan Technology、Facewall Intelligence はすべて清華研究所が育成した企業です。 Shenyan Technology と Facewall Smart はどちらも 2022 年に設立され、AI 業界の著名な学者から技術的な支持を得ています。
これらの清華ベースの AI 企業の設立期間は、一部のインターネット業界リーダーが設立した AI 企業よりも短く、Light Years Beyond、Baichuan Intelligent、Zero One Wanwu はすべて、この大規模モデルの波が始まった後に設立されました。
Meituanの共同創設者であるWang Huiwen氏はかつて、2023年初頭の設立から5,000万光年も離れた時点で5,000万光ドルを調達したが、これは当時の中国の大規模模型業界では数少ない資金調達事例の1つであった。すでに大規模なモデルベースの企業を擁するZhipu AIやXihu Xinchenとは異なり、2023年2月から始まるのは数光年先であり、大規模なモデルをゼロから構築するのは困難である。すべての利権は光年を超えており、総額は現金約2億3,300万米ドル(16億7,000万元)、負債約3億6,700万元、現金1元となります。
「少なくとも自然言語処理のバックグラウンドを持った人、大規模モデルの学習である程度の実務経験を持った人、データ処理や大規模計算パワークラスターなどの専門家が必要です。 「同時にアプリケーションを開発するには、現場に対応するプロダクト マネージャーと運用人材が必要です。」Chen Runze 氏は、大規模モデルのコア チームの標準構成について説明しました。
大企業の AI は優れています
過去 6 か月間、既存のインターネット巨人の AI ニュースが空を飛び交っていました。 AI大型モデルへの投資はホットスポットを追いかけているようだが、百度、アリ、ファーウェイなどの大企業によるAIへの賭けは明らかにトレンドに乗っていない。
巨人による AI への賭けはずっと前から始まっており、これらの企業にとって AI は新しいトピックではありません。 Tiger Sniff氏によると、企業検索データの不完全な統計によると、2018年以降、大手工場はさまざまな程度で人工知能関連企業に投資している。投資企業の観点から見ると、そのほとんどは人工知能の応用企業であるが、中にはAIチップ企業も関与しているが、その数は多くなく、大規模モデルに関与している企業はほとんどなく、大手メーカーが出資する人工知能関連企業の多くは自社の事業と密接に関連している。
| | | | | | | --- | --- | --- | --- | --- | 大昌投資機関| 投資企業数| 平均持株比率| 最大持株比率| 100%株式保有企業数| | アリババ | 23 | 36.25% | 100% | 5 | |百度ベンチャーキャピタル | 25 | 5.50% | 15% | 0 | | テンセント投資 | 54 | 17.54% | 100% | 2 |
インターネット大手3社のAI関連企業への投資|データ出典:Qicchacha
2017 年にアリババ ダルマ研究所が設立され、その研究対象はマシン インテリジェンス、インテリジェント ネットワーキング、金融テクノロジーなどの複数の産業分野をカバーしており、アリのさまざまな事業分野に人工知能の機能を強化しています。 2018年、Baiduは「All in AI」戦略を提案した。
異なるのは、生成型 AI の出現が転換点になりそうなことです。データ、計算能力、アルゴリズム リソースで優位性を持つテクノロジー巨人にとって、人工知能は彼らにとって実現可能なシナリオであるだけでなく、インフラストラクチャの役割も担う必要があります。結局のところ、生成型 AI の出現は、人工知能産業が分業が始まりました。
Baidu、Alibaba、Huawei、Tencent の 4 つのクラウドプロバイダーに代表される大企業は、独自の AI 戦略を発表していますが、明らかにそれぞれが独自の焦点を当てています。
過去半年の間に、巨人各社は自社の大型模型製品を発売した。 Baidu や Ali のような大企業にとって、基本的には 2019 年に大規模モデルに参入しても遅くはありません。
Baidu は 2019 年から事前トレーニング モデルの開発を進めており、Knowledge Enhanced Wenxin (ERNIE) シリーズのモデルを順次リリースしてきました。アリの同義千質問モデルも 2019 年に開始されました。 BaiduとAliの汎用大型モデルに加えて、6月19日、Tencent Cloudは業界大型モデルの研究開発進捗状況を発表した。 7 月 7 日、HUAWEI CLOUD は Pangu 3.0 インダストリ モデル製品をリリースしました。
これらの焦点は、各企業のビジネス全体、クラウド戦略、AI 市場における長期的なレイアウトにも反映されています。
百度の本業の収益性は過去5年間で大きく変動した。百度は国内市場における検索ベースの広告ビジネスの問題点を長年認識しており、この点で新たな機会を見つけるためにAI技術に多額の投資をすることを選択した。百度は長年にわたり、ウー・エンダ氏やルー・チー氏などの業界リーダーを役員に招聘しただけでなく、他の大手企業よりも自動運転にはるかに熱心だ。 AIに大きな懸念を抱いているBaiduは、この大規模なモデル競争の波に大きな賭けをすることは必至だ。
アリさんは大型モデル全般にも強い意欲を示した。長い間、アリユンには大きな期待が寄せられており、アリは技術的な道を進み、グループの第二の成長曲線を描きたいと考えている。電子商取引ビジネスにおける競争が激化し、市場の成長が鈍化する中、エビアンが生み出したAI業界の新たな機会は、アリババクラウドにとって国内クラウド市場でさらなる努力をする良い機会となるのは間違いない。
Baidu や Ali と比較して、Tencent Cloud は大規模モデルの点で大規模産業モデルを優先することを選択しましたが、Huawei Cloud は大規模産業モデルのみに焦点を当てると公に述べています。
テンセントにとって、近年の主力事業の成長は着実かつ順調です。汎用大規模モデルの将来性がまだ不透明な段階で、テンセントは大規模AIモデルへの賭けには比較的慎重だ。馬化騰氏は前回の決算電話会議で大型モデルについて語った際、「テンセントは半完成品の展示を急いでいない。重要なのは、基礎となるアルゴリズム、計算能力、データでしっかりとした仕事をすることだ」と語った。 . 場面が落ちます。」
一方、テンセントグループの観点から見ると、テンセントには現在4つのAIラボがあり、昨年は数兆個のパラメーターを備えた大規模な混合要素モデルをリリースした。すべての卵を1つのカゴに入れる」ベッティング戦略。
ファーウェイにとって、研究開発は常に大きな賭けであり、過去10年間の研究開発への総投資額は9000億元を超えている。しかし、携帯電話事業の発展で直面する障害により、ファーウェイの多くの技術研究開発における全体的な戦略も調整に直面している可能性がある。
一方で、携帯電話事業はファーウェイのCエンド技術の最大の輸出品であり、もし携帯電話事業が汎用大型モデルの代金を支払えないのであれば、ファーウェイが汎用大型モデルを開発する動機は失われるだろう。モデルは大幅に下がります。ファーウェイにとって、このAIゲームでは、すぐに実現できる大規模な産業モデルに賭けることが最適解のように見える。ファーウェイ・クラウドの張平安最高経営責任者(CEO)は、「ファーウェイには詩を書く時間がない」と述べた。
しかし、テクノロジー大手にとっては、どんなに大きな賭けであっても、正しい賭けをすることができれば、インフラの市場シェアを掌握し、人工知能時代の発言権を獲得することができる。
釘にはハンマーを用意してください
営利企業の場合、すべての決定は依然として経済指標に委ねられています。
たとえ多額の投資を行ったとしても、たとえ初期投資にまったく見返りが見られなかったとしても、これは将来的にやらなければならないことであると認識する先見の明のある創業者が増えています。
AI大型モデルの研究開発には多額の投資が必要ですが、たとえ利益が全くなくても「必要な投資」と考える創業者や投資家が増えています。
その結果、AI の最後の波の下で誕生した多くの人工知能企業は、長い沈黙を経て新たな夜明けを迎えました。
「3 年前、GPT-3 は一般的な人工知能につながる可能性があると誰もが言っていました。」李志飛氏は 2020 年に人々のグループを率いて GPT-3 を研究しました。当時、彼は開発の転換点にありました。彼らは新しいビジネスを模索したいと考えていましたが、一定の研究期間の後、李志飛の大規模モデルプロジェクトは中止されました。理由の 1 つは当時モデルが十分に大きくなかったこと、もう 1 つはモデルが存在しなかったことです。商業着陸シーン。
しかし、2022 年末に ChatGPT が登場した後、Li Zhifei 氏は大きなチャンスを与えられたように見えました。なぜなら、彼も他の皆と同じように、大型モデルに新たなチャンスがあると考えていたからです。今年4月、Going Out and Askingは自社開発の大型モデル製品「Sequence Monkey」をリリースした。現在、新発売の大型モデル「シリアルモンキー」を引っ提げて香港証券取引所へ突撃する準備を進めており、すでに5月末には目論見書を提出している。
別の老舗AI企業もこれに追随しており、アスパイアは昨年7月に科学技術イノベーション委員会にIPO申請を提出したが、今年5月に上場審査委員会によって却下された。
Yu Kai 氏は、OpenAI ですら GPT2 段階では Microsoft の V100 で 1 年近くトレーニングしており、その計算能力は A100 よりも数桁劣ると率直に述べました。大規模モデルの初期蓄積段階では、Aspire はトレーニング用により経済的なカードも使用します。もちろん、その代償として時間がかかります。
自社開発の大規模モデルと比較して、一部のアプリケーション指向企業には独自の選択肢があります。
オンライン教育会社の社長、Zhang Wang (仮名) 氏は、過去 6 か月間、大規模なモデルの適用シナリオの検討にあらゆる努力を惜しまなかったが、すぐに実装プロセスに多くの問題があることが判明したと Huxiu に語った。コストや投資など。同社の研究開発チームは50~60人で構成されており、大規模モデルの研究を始めて以来、研究開発チームを拡大し、大規模モデルの人材を新たに採用した。高い。
Zhang Wang 氏は、大規模なモデルをゼロから開発することを考えたことはなく、データのセキュリティやモデルの安定性などの問題を考慮して、アプリケーションのために API に直接アクセスするつもりはありません。彼らのアプローチは、オープンソースの大規模モデルを参照し、トレーニングに独自のデータを使用することです。これは、多くのアプリケーション企業の現在の慣行でもあります。大きなモデルに加えて、独自のデータを使用して小さなインダストリ モデルを作成します。将来に向けて、彼らは 70 億のパラメータのモデルから始めて 100 億に達し、現在 300 億のモデルを試しています。しかし、データ量が増加すると、大規模なモデルをトレーニングすると、新しいバージョンが以前のバージョンほど優れていない可能性があり、パラメーターを 1 つずつ調整する必要があるという事実も判明しました。」迂回路を取らなければなりません」と張王氏は語った。
Zhang Wang 氏は Huxiu に対し、R&D チームに対する要件は、会社のビジネスに基づいて AI 大規模モデルのシナリオを探索することであると語った。
これは「ハンマー」で「釘」を探す方法ですが、簡単ではありません。
「現時点での最大の問題は、適切なシーンを見つけることです。実際、シーンはたくさんあります。AIを使用したとしても、効果はあまり向上しません。」とZhang Wang氏は、例えば授業のシーンではAIが大規模であると述べました。モデルは、学生に授業に出席することを思い出させたり、質問に答えたり、ラベルを付けたりするなど、いくつかのインタラクティブなモードを強化するために使用できますが、AI の大きなモデルを試してみたところ、精度が良くないことがわかり、理解してアウトプットする能力は理想的ではありませんでした。 Zhang Wang のチームは、しばらく試した後、このシーンで AI を一時的に放棄することにしました。
別のインターネット サービス プロバイダーである Xiaogetong も、AI モデルの流行直後に関連ビジネスの探索を開始しました。 Little Goose の主な事業は、オンライン販売業者にマーケティング、顧客管理、商業収益化などのデジタル運用ツールを提供することです。
Goose Communication の共同創設者兼 COO である Fan Xiaoxing 氏は、今年 4 月に、生成 AI に基づいてますます多くのアプリケーションが誕生したとき、Goose Communication はこのテクノロジーの背後にある可能性を見出したと Huxiu に語った。 Fan Xiaoxing らは社内で AI 研究の事業分野を特別に組織し、自分たちのビジネスに関連する上陸事例を探していました。
Fan Xiaoxing 氏は、大型モデルをビジネスに統合する過程でコストと効率を考慮したと述べ、「大型モデルの投入コストは依然としてかなり高いです」と述べました。
インターネット業界の「釘」を見つけるのは簡単ですが、AI 導入の本当の難しさは工業や製造などの物理的な業界にあります。
Yu Kai 氏は Huxiu 氏に、この AI の波は今も上向きに上昇し、波状に進んでおり、業界の実装における矛盾はまったく変わっておらず、殻が変わっただけだと語った。この意味では、2 つの AI の波の法則は同じであり、最良の方法は歴史から学ぶことです。「AI の最後の波からの教訓を、今回は繰り返さない」ということです。
多くのメーカーが AI 大型モデルの実装において「業界初」のスローガンを叫んでいますが、物理的な業界の多くのシナリオが現在の AI 大型モデルに適合することは非常に困難です。たとえば、一部の産業検査シナリオに適用される AI 視覚検査システムでは、AI モデルの需要が 10 億パラメーターほど高くない場合でも、初期トレーニング データはまだ限界があります。
簡単な風力発電の検査シーンを例にとると、風力発電所の検査数は7万台に達しますが、同じ亀裂データは一度しか出現しない可能性があり、機械が学習できるデータ量は決して十分ではありません。 Broadbo Intelligent Wind Power Hardware の製品ディレクターである Ke Liang 氏は、Tiger Sniff に対し、現在、風力タービンブレードの検査ロボットは、トレーニングと分析に利用できるデータ量が少なすぎるため、ブレードの亀裂を 100% 正確に分析することはできないと語った。識別には、大量のデータの蓄積と手動による分析も必要です。
ただし、産業データが十分に蓄積されているシナリオでは、AI の大規模モデルはすでに複雑な 3D モデルのパーツ ライブラリの管理を支援できます。国内航空機製造会社の部品ライブラリは、第4パラダイム「四舟王」の大型モデルをベースとした部品ライブラリ補助ツールを導入しました。 10万点以上の3Dモデリングパーツの中から、自然言語による3Dモデル検索を実現し、3Dモデルごとに3Dモデルを検索し、さらには3Dモデルの自動組み立てまで完了することができます。これらの機能は、製造業で行き詰まっている多くの CAD および CAE ツールで複数のステップの操作を必要とします。
今日の大規模モデルは、数年前の AI と同じ着陸の問題に直面しており、ハンマーで釘を見つける必要もあります。今日のハンマーは過去のものとはまったく異なるものであると楽観的に信じている人もいますが、実際のお金で AI に支払うことになると、結果は多少異なります。
ブルームバーグが7月30日に発表したマーケッツ・ライブ・パルス調査によると、調査対象の投資家514人のうち、約77%が今後6カ月以内にテクノロジー株への投資を増やすか維持する予定で、テクノロジー株への投資が確実に行われると信じている投資家はわずか10%未満だった。業界は深刻なバブル危機に直面している。しかし、テクノロジー産業の発展に楽観的であるこれらの投資家のうち、AI テクノロジーにオープンな投資家はわずか半数です。
回答者の50.2%は現時点でAIツールの購入費用を支払うつもりはないと回答しており、ほとんどの投資会社は大規模な取引や投資にAIを適用する計画はない。
シャベル シャベル
「1848年のゴールドラッシュ中に金を採りにカリフォルニアに行ったら、多くの人が死ぬだろうが、スプーンやシャベルを売った人はいつでもお金を稼ぐことができた」とルー・チー氏はスピーチで述べた。
高峰さん(仮名)は、そんな「シャベル売り」、正確に言えば「中国で良いシャベルを売る」ことができる人になりたいと思っています。
チップ研究者である Gao Feng は、科学研究時間のほとんどを AI チップに費やしています。ここ 1 ~ 2 か月の間、彼は RISC-V アーキテクチャをベースにした CPU 会社になりたいという、ある種の切迫感を感じていました。茶屋でガオ・フェンは胡秀に未来を語った。
しかし、チップ業界であろうとテクノロジー界であろうと、AIチップをゼロから作るのは「アラビアンナイト」のようなものです。
AI 大型モデルのフライホイールが急速に動作し始めると、その背後にある計算能力が徐々にこのトラックのプレーヤーのペースに追いつけなくなり始めました。コンピューティング能力に対する需要の急増により、Nvidia が最大の勝者となっています。しかし、GPU がコンピューティング能力のすべての解決策になるわけではありません。 CPU、GPU、およびさまざまな革新的な AI チップが、大型モデルの主要なコンピューティング電力供給センターを形成します。
「CPUは都市部、GPUは開発の郊外にたとえることができます。」Gao Feng氏は、CPUとAIチップはPCIEと呼ばれるチャネルを通じて接続する必要があり、データはPCIEに送信されると述べました。 AIチップがデータをCPUに送り返します。大きなモデルのデータ量が大きくなると、チャネルが混雑して速度が上がらなくなるため、この道路を拡張する必要があり、このチャネルの幅と車線の数は CPU のみが決定できます。悩ませる。
これは、中国が大型モデルのAIチップを突破しても、最も重要なCPUを突破するのは依然として難しいことを意味します。 AI トレーニングでも、GPU に割り当てられるタスクはますます増えていますが、CPU は依然として最も重要な「マネージャー」の役割です。
2023WAIC大型モデル展示エリアに展示された国産チップの一部
1971 年にインテルが世界初の CPU を開発してから 50 年以上が経過し、民生用サーバーおよび PC 市場では長らくインテルと AMD が世界をリードしており、インテルは知的財産権、技術蓄積、規模コスト、ビジネス モデル全体の障壁であり、この障壁は決して減少することはありません。
X86 アーキテクチャや ARM アーキテクチャを完全に放棄し、RISC-V のようなまだ十分に開発検証されていない新しいアーキテクチャに基づいて完全に独立した CPU チップを開発する必要があります。
命令セットは土地のようなもので、命令セットに基づいてチップを開発することは、土地を買って家を建てることに相当します。 X86 のアーキテクチャはクローズド ソースであり、Intel エコロジカル チップのみが許可されていますが、ARM のアーキテクチャは IP ライセンス料を支払う必要がありますが、RISC-V は無料のオープンソース アーキテクチャです。
産業界と学界はすでにそのような機会を認識しています。
2010 年、カリフォルニア州バークレーの 2 人の教授からなる研究チームは、まったく新しい命令セット、つまり RISC-V をゼロから開発しました。この命令セットは完全にオープンソースです。彼らは、CPU の命令セットはどのような命令セットにも属すべきではないと考えています。会社。
「RISC-Vは中国CPUの夜明けになるかもしれない」とGao Feng氏は語った。 2018年に同研究所内にAIチップ企業を設立した際、「AIの波が発展するチャンスを逃したくない。今回もそれを掴みたいと考えていた」と述べた。エントリーポイントはRISC-Vでした。大型モデルと国内代替の時代では、この需要はさらに緊急になっており、結局のところ、いつか中国企業が A100 を使用できなくなったら、どうすればよいでしょうか?
「ARM や X86 を置き換えたいのであれば、RISC-V CPU はより強力である必要があり、Linux 上の商用オペレーティング システムを使用している人々とコード開発に参加する必要があります。」と Gao Feng 氏は述べています。
Gao Feng 氏はこの機会に気づいた最初の人物ではなく、あるチップ業界の投資家は Tiger Sniff に対し、RISC-V アーキテクチャを使用して GPU を製造する機会について、あるチップ新興企業の創設者と話し合ったことがあると語った。現在、中国にはすでに RISC-V アーキテクチャに基づいた GPU を製造している企業がいくつかありますが、エコロジーは依然として彼らが直面している最大の問題です。
「Linuxは、この道が実現可能であることをすでに実証している」とGao Feng氏は、このLinuxのオープンソースOSの中で、Red Hatなどのオープンソース企業が誕生し、現在では多くのクラウドサービスがLinuxシステム上に構築されていると述べた。 「十分な開発者が必要です。」Gao Feng 氏は方法を提案しました。この道は険しいですが、乗り越えられれば明るい道になります。
フライホイールの回転が速すぎます
大型モデルの「ストレス反応」において、危機感を感じるのはピークだけではありません。
国内のAI大規模モデル企業であるLianchuangはTiger Sniffに対し、今年の初めに大規模な対話モデルを一時的に立ち上げたが、多くの修正要求があったと語った。
「具体的な規制政策が無い限り、我々は簡単に一般ユーザーに製品を公開しない。主な理由はTo Bの論理にある。」 Left Hand DoctorのCEO、Zhang Chao氏は「行政措置」が発令される前はこう考えていた、生成 AI この製品は C エンド ユーザーに公開されていますが、これは非常に危険です。 「現段階では、一方では最適化を繰り返し続けていますが、他方ではテクノロジーの安全性を確保するための政策や規制にも引き続き注意を払い続けています。」
「生成 AI に対する規制アプローチはまだ不明確であり、大規模モデル企業の製品やサービスは一般に非常に控えめなものです。」 デジタル テクノロジー プロバイダーが、クラウドで開発された一般的な大規模モデルに基づくアプリケーション製品をリリースしました会議で、同社の技術責任者はHuxiuに対し、クラウドベンダーから秘密を厳守するよう求められており、誰の大型モデルが使用されたかを明らかにすれば、秘密保持義務に違反したとみなされ、契約。担当者は事件を秘密にする理由について、規制リスクを回避するためが大きいのではないかと分析した。
世界がAIに対する警戒を強めている現在、どの市場も規制の「空白期間」を受け入れることはできない。
7月13日、中国サイバースペース局など7部門は2023年8月15日から施行する「生成型人工知能サービス行政暫定措置」(以下「行政措置」)を正式に発表した。
「『行政措置』が発令された後は、政策は問題志向から目標志向の発展へと変わり、それが私たちの目標です。」 グアンタオ法律事務所のパートナー、ワン・ユーウェイ氏は、新規制はむしろ「排水」を重視していると考えている。 「ブロックする」よりも。
Wang Yuwei 氏は、米国のリスク管理ライブラリを閲覧することが毎日の宿題であり、「当社は GPT やその他の大規模なモデルを使用して業界をセグメント化し、コンプライアンス ガバナンス フレームワークを確立するビジネス アプリケーション向けのリスク管理およびコンプライアンス ソリューションを提供しています」と述べました。 。
アメリカのAI大手は議会への忠誠を示すために結集している。 7月21日、Google、OpenAI、Microsoft、Meta、Amazon、AIスタートアップのInflection、Anthropic、最も影響力のあるアメリカのAI企業7社がホワイトハウスで自主的な取り組みに署名した。システムを一般に公開する前に、独立したセキュリティ専門家がシステムをテストできるようにしてください。また、システムのセキュリティに関するデータを政府や学術界と共有します。また、「透かし」として知られる手法を使って、AIによって画像、ビデオ、テキストが生成された場合に公衆に警告するシステムも開発する予定だ。
アメリカのAI大手7社の代表者がホワイトハウスでAI誓約書に署名
これに先立ち、OpenAI創設者のサム・アルトマン氏は米国議会公聴会で、人工知能モデルの危険な機能の評価を含め、人工知能モデルの一連の安全基準を策定する必要があると述べた。たとえば、モデルは、「自己複製」や「野生への侵入」ができるかどうかなど、特定のセキュリティ テストに合格する必要があります。
おそらく、サム・アルトマン自身も、AI のフライホイールがあまりにも速く回転し、制御を失う危険さえも生じるとは予想していなかったでしょう。
ますます多くの創業者が相談に来るまで、「当初はこの問題の緊急性を認識していなかった」と汪有偉氏は語った。この人工知能の波は、これまでとは全く異なる変化を遂げていると感じているという。
今年の初め、Wang Yuwei 氏は、初めて大規模モデルにアクセスした文生図の企業から、自社のビジネスを中国に紹介したいと考えており、この分野のデータ コンプライアンス ビジネスについて知りたいとの打診を受けました。その直後、王有偉氏はそのような相談がますます増えていることに気づき、より明らかな変化は、相談に来るのはもはや会社の弁護士ではなく創業者になったことだった。 「生成型 AI の出現により、本来の規制ロジックを適用するのは困難になっています。」と Wang Yuwei 氏は述べています。
長年ビッグデータの法律業務に従事してきた Wang Yuwei 氏は、生成 AI と以前の AI の波がより根本的な変化を示していることを発見しました。たとえば、前回の AI はアルゴリズムベースの推奨に基づいており、一部の顔認識は 1 つのシーンに向けられており、いくつかの小さなモデルは特定のアプリケーション シナリオでトレーニングされていましたが、関与した法的問題は知的財産権にほかなりませんでした。保護の問題。この生成 AI エコシステムでは、基盤となる大規模モデルを提供する企業、大規模モデルに接続してアプリケーションを作成する企業、データなどを保管するクラウド ベンダーなど、役割が異なると、対応する監督も異なります。
現時点では大型機種のリスクについてはコンセンサスが得られており、商用利用ではリスクが増大するのは避けられないことは業界の認識であり、事業継続を維持するためには監督に留意する必要がある。
難しいのは、「業界の発展に影響を与えずに適切に規制できる道を見つけるにはどうすればよいか」だとWang Yuwei氏は語った。
# 結論
業界全体にとって、テクノロジーに関する議論が深まると同時に、より広範囲にわたる考え方が生まれるきっかけにもなっています。
AIがテクノロジー業界で徐々に支配的な地位を占めつつあるとき、テクノロジーの公平性、公平性、透明性をどのように確保するか?大手企業がテクノロジーと資本の流れを厳しく管理する中で、中小企業や新興企業が疎外されないようにするにはどうすればよいでしょうか?大規模モデルの開発と応用には大きな可能性がありますが、盲目的にトレンドに従うことで他の革新的なテクノロジーが無視されることになるでしょうか?
「短期的には、大規模な AI モデルは大幅に過大評価されています。しかし、長期的には、大規模な AI モデルは大幅に過小評価されています。」
半年の間にAI熱波が急増した。しかし、中国の新興企業やテクノロジー大手にとって、過熱する市場環境の中でいかに明確な判断を維持し、長期的な計画と投資を行うかが、真の実力とビジョンを試す鍵となるだろう。