ソース: 量子ビット大手モデル会社**Zhipu AI**は、今年の資金調達額を25億元と発表した。そのような量、コンセプトは何ですか? 国内の大型モデルスタートアップの累計資金調達額を更新し、評価額は100億超となった。この4歳の会社は、国内の大型モデルで最も金を吸収し、価値のある認識会社になりました。 100モデル戦争の「ジェネレーティブAIの第2段階」では、リーダーのジプの資金調達の進歩も業界のマシュー効果の証拠ですか?楽観的な企業はより多くのリソースを持つことになりますが、自己価値を証明しない企業はシャッフルに直面し、レースの次の段階を逃します。スタートアップの観点からは、これは大規模モデル起業家精神の前半の終わりのようなものであり、パターンの分水嶺が現れ、生態学的な座席が明確になり始めています。 ## **なぜ知恵スペクトラムなのか? ** 国内の大規模モデル資金調達大国が知恵のスペクトルである理由を理解する前に、まずソースを追跡し、その起源を知る必要があります。それ以前は、サークル内ではよく知られ、サークル外では知られていない状態に属していたのでしょう。**2019年6月に設立されたZhipu AIは、清華大学コンピュータサイエンス学部知識工学研究所(KEG)の技術からの変革に成功しました。コアチームのメンバーはほぼ全員が清華の血統であり、その中には**CEOのZhang Peng**は清華大学のコンピューターサイエンス学部を卒業し、工学の博士号を持つ清華大学の2018年のイノベーションリーダーです。KEGラボでは、主に機械学習、データマイニング、ナレッジグラフなどをエンジニアリング実践に応用する方法を研究し、2017年からAIモデルのトレーニングを開始しました。 Zhipuの設立1周年に、OpenAIはGPT-3をリリースしました。それ以来、会社全体が大規模な言語事前トレーニングモデルの開発に全力で取り組んできました。 大規模モデルへの道のりでは、OpenAIがGPT、GoogleがBERT、ZhipuがGLM(General Language Model)を選択しました。後のストーリーのほとんどすべては、ZhipuのユニークなGLM事前トレーニングアーキテクチャを中心に展開しました。2022年、Zhipuと清華は協力して、ベースとして**バイリンガルの1,000億大型モデルGLM-130Bを開発し**、大型モデルプラットフォームと製品マトリックスの構築を開始しました。2023年、Zhipuは対話モデルChatGLMとオープンソースのシングルカードバージョンモデルChatGLM-6Bの立ち上げから始まり、ビジュアルモデルVisual-6B、コードモデルコードモデルCodeGeeX2、数学モデルMathGLM、マルチモーダルモデルCogVLM-17B、エージェントモデルAgentLMシリーズと非常に頻繁に行動を起こし、それらはすべてオープンソースです。今年8月31日、中国語と英語のバイリンガル対話モデルChatGLM2に基づく生成型AIアシスタントであるZhipu Qingyanは、ファイリングを通じて一般の人々の家に飛んだ最初の11の大型モデル製品の1つになりました。近年、大型モデルの分野でのZhipuの主なことは、片手で基礎(ベースモデル)を突き刺し、その上にさまざまなモーダルで機能的な建物を建てることが非常に明確であると言えます。 Zhipuは、初期の頃からBサイドのサービス機能でサポートできることは言及する価値がありますが、これは「大きなモデルが流れる水のようにお金を使う」という受け入れられた現実に直面した会社の自信ですが、頻繁に新しいモデルや新製品を開発して発売します。もちろん、これが唯一の理由ではありません。サービス能力とそれに伴う収益能力に加えて、Zhipuは強力な人材チームと技術力も備えています。上記のように、Zhipuは清華から生まれ、**「清華部門」はこの分野で一流のレーベルになりました**。その理由は、清華コンピュータ部門は、以前に大型モデルの研究に専念し、長期的な経験を持ち、多くの才能を培ってきたからです-Zhipuに代表される現在市場で呼び出すことができるプレーヤー、月のダークサイド、シェンヤンテクノロジー、ファーストクラスのテクノロジー、白川インテリジェンス、フェイスウォールインテリジェンス、元元テクノロジー、シェンシュテクノロジーなどはすべて清華の血統です。彼らの発表された論文の引用数と発表されたモデルの検証可能な能力は、この「認識されたラベル」の強力な証拠です。さらに、公開情報によると、Zhipuは国内で資金提供され、国内で開発された唯一の大規模モデル企業です。このような企業の背景により、Zhipuは「モデルセキュリティ、データセキュリティ、コンテンツセキュリティ」の果てしない議論と論争において独自の準備と戦略を持っています。国内のGPUの開発に協力するために、Zhipuは現在、GLMユニバーサル言語モデルの国内チップ適応計画を上陸させていると報告されています。具体的には、国内のコンピューティングパワーチップメーカーと協力してモデルアルゴリズムを適応させ、アルゴリズム側の推論側で国内チップを適応させることであり、適応できる国内チップは10種類近くあります。 ## **たくさんのお金を集めた後、次に何をしますか? ** 上記の通知表と独自性が、Zhipuが非常に楽観的で、ずっと際立っていた主な理由になっている可能性があります。しかし、非常に有利であるため、十分な資本を蓄積した知恵スペクトルは、長期的な競争力を構築する決意も示しています。10か月以内に25億人民元の資金調達を行った後、Zhipu AIは公式に次のように述べています。>上記の資金は、基本モデルのさらなる研究開発、業界のエコロジーのサポート、パートナーとの迅速な開発に使用されます。コアは2つの側面に要約されます。*まず、それをより大きく、より強く、よりしっかりと、そして大きなモデルのベースにします。※2つ目は、エコロジーや仲間の輪を広げることです。深さと幅の両方が必要です。**まず、モデルベースをより大きく、より強くし、ベースの大型モデルを「さらに発展」させます。 **現在、Zhipuがベースと見なしている大型モデルは、2021年にリリースされたバイリンガル双方向高密度モデルGLM-130Bで、1,300億のパラメーターを備えています。当時、技術、データ、計算能力など多くの制限により、この量のパラメータで大規模なモデルを学習させるにはハゲになるのに十分でしたが、結果は目覚ましく、GLM-130BはGPT-3やPaLMよりも優れたパフォーマンスを発揮しました。しかし、今日、データとモーダル成長によってもたらされる需要、過去の1,300億のパラメータの巨大なものは少し不十分のようです。Qubitからの最新ニュースは、今週の金曜日(10月27日)、Zhipuが新しいアクション、つまり新世代の大型モデルの台座のリリースを行うということです。 ** **第二に、エコロジーと友達の輪を広げます。 **具体的な行動に関しては、知恵のスペクトルの一貫した原則である継続的なオープンソースを回避できないはずです。この会社は、ChatGPT以前の時代には、バイドゥ(ERNIE2.0)、アリ(アリスマインド)、ジユアン(清遠CPM)、蘭州(孟子ビッグモデル)などとともに、常にビッグモデルの分野で最もオープンなプレーヤーの1つでした。Zhipuの初期のGLMレポートを見ると、「大規模な事前トレーニング済みモデルの開発を促進するために、オープンコミュニティに参加することをすべての人に招待します」という言葉があります。 現在、同社はまだオープンソースを使用して、開発者や業界ユーザーと友達になっています。この習慣は今日まで続いています。現在のデータと組み合わせると、Zhipuのオープンソースへのこだわりと、どのような段階的な結果が得られているかがより明確にわかります。**開発者コミュニティ**、ChatGLM-6Bは、リリースから4週間後にトレンドリストの1位を獲得し、累計ダウンロード数は1,000万を超え、GitHubは5w+を主演しました。一方、Zhipuの公式ウェブサイトには、生態環境を構築するための**パートナー、「69か国、1000 +研究機関」がリストされています。 さらに、1,000を超える顧客と200〜300のオープンソースエコシステムで量子ビットが検証されています。 ビッグモデルのエコロジーが確立されると、ビッグモデルの基本層、中間層、アプリケーション層のリソースをより適切に統合し、割り当てを最適化し、健全な相互作用と共進化の効果を達成できます。その中で、台座大型モデルは、その基盤と汎用性のおかげで、大型モデル生態学の中核にランクされています。 これを理解するために、エコロジーと友人の輪を広げることに取り組んでいるZhipuの利点と必要性を理解することは難しくありません。 ## **ビッグモデルの起業家精神、分水嶺の瞬間に足を踏み入れる** 昨年11月末、OpenAIはChatGPTを世界に送りました。 その直後、ビッグモデル技術のトレンドは、前例のない速度で次々と波を起こしました。直感的なデータは素晴らしく、プレゼンテーションのスピードは素晴らしいです。何億ものユーザーアクティビティ、数十億の収益、数百億の評価... ビッグモデルは武道の美徳を語らずに世界を席巻しており、誰もがこの人工知能技術の境界がどれほど広いか、そしてそれがサポートする製品がどのように技術の力を発揮できるかを考えて、見て探索しています。その結果、海外にはOpenAIやAnthropicなどのパイオニアがおり、中国にはZhipu AIやMiniMaxなどの数百億のユニコーンが存在します。真珠翡翠は先にあり、技術的および工学的問題のいくつかは早送りしてスキップすることができず、星のラインナップ、そして天文学的な資金調達は、大規模なモデルの道を進む限り、自分で体験する必要があります。挑戦は気が遠くなるようなものですが、挑戦者は喜んでそれに続きます。######** △**出典:セコイアほぼ1年後の今日、私たちはビッグモデル技術の開発と、革新と競争がこの分野をどのように形作っているかを目の当たりにしています。より明確に見ることができるのは、**巨人が最初のカードスロットを完了し、スタートアップ会社がシャッフルを開始し、最初のステージパターンが現れたことです。 **そうです、企業はビッグモデルの能力の範囲内ですべてを行うことはできませんが、一般的な大型モデルのチケットは非常に限られており、それを手に入れる能力を持たないプレーヤーは転用し始めます。 ビジネスを始めるためにモデル層をあきらめるか、他のモデルの肩の上に立ち始め、中間層、アプリケーション層に行きます...ビッグモデルの起業家精神は分水嶺の瞬間に入っています。 今後、大型モデルスタートアップの資金調達の進捗は、今以上にどんどん増えていくでしょう。 数億ドルが「それ以上のお金」の企業に集まり続けるでしょう。業界におけるマシュー効果は強まっています。 資本の総額は限られており、会社の価値が高ければ高いほど見栄えがよくなり、最良かつ最も多くのリソースが最も可能性を秘めた馬に送られます。資本市場では、高価な企業の唯一の欠点は高価であることであり、安価な企業の唯一の利点は安いことです。ビッグモデル起業家精神の前半は終わりに近づいています。
4年間の数百億の評価、国内の大規模モデル起業家精神TOP1、清華製
ソース: 量子ビット
大手モデル会社Zhipu AIは、今年の資金調達額を25億元と発表した。
そのような量、コンセプトは何ですか? 国内の大型モデルスタートアップの累計資金調達額を更新し、評価額は100億超となった。
この4歳の会社は、国内の大型モデルで最も金を吸収し、価値のある認識会社になりました。
楽観的な企業はより多くのリソースを持つことになりますが、自己価値を証明しない企業はシャッフルに直面し、レースの次の段階を逃します。
スタートアップの観点からは、これは大規模モデル起業家精神の前半の終わりのようなものであり、パターンの分水嶺が現れ、生態学的な座席が明確になり始めています。
**なぜ知恵スペクトラムなのか? **
国内の大規模モデル資金調達大国が知恵のスペクトルである理由を理解する前に、まずソースを追跡し、その起源を知る必要があります。
それ以前は、サークル内ではよく知られ、サークル外では知られていない状態に属していたのでしょう。
**2019年6月に設立されたZhipu AIは、清華大学コンピュータサイエンス学部知識工学研究所(KEG)の技術からの変革に成功しました。
コアチームのメンバーはほぼ全員が清華の血統であり、その中にはCEOのZhang Pengは清華大学のコンピューターサイエンス学部を卒業し、工学の博士号を持つ清華大学の2018年のイノベーションリーダーです。
KEGラボでは、主に機械学習、データマイニング、ナレッジグラフなどをエンジニアリング実践に応用する方法を研究し、2017年からAIモデルのトレーニングを開始しました。
それ以来、会社全体が大規模な言語事前トレーニングモデルの開発に全力で取り組んできました。 大規模モデルへの道のりでは、OpenAIがGPT、GoogleがBERT、ZhipuがGLM(General Language Model)を選択しました。
後のストーリーのほとんどすべては、ZhipuのユニークなGLM事前トレーニングアーキテクチャを中心に展開しました。
2022年、Zhipuと清華は協力して、ベースとしてバイリンガルの1,000億大型モデルGLM-130Bを開発し、大型モデルプラットフォームと製品マトリックスの構築を開始しました。
2023年、Zhipuは対話モデルChatGLMとオープンソースのシングルカードバージョンモデルChatGLM-6Bの立ち上げから始まり、ビジュアルモデルVisual-6B、コードモデルコードモデルCodeGeeX2、数学モデルMathGLM、マルチモーダルモデルCogVLM-17B、エージェントモデルAgentLMシリーズと非常に頻繁に行動を起こし、それらはすべてオープンソースです。
今年8月31日、中国語と英語のバイリンガル対話モデルChatGLM2に基づく生成型AIアシスタントであるZhipu Qingyanは、ファイリングを通じて一般の人々の家に飛んだ最初の11の大型モデル製品の1つになりました。
近年、大型モデルの分野でのZhipuの主なことは、片手で基礎(ベースモデル)を突き刺し、その上にさまざまなモーダルで機能的な建物を建てることが非常に明確であると言えます。
もちろん、これが唯一の理由ではありません。
サービス能力とそれに伴う収益能力に加えて、Zhipuは強力な人材チームと技術力も備えています。
上記のように、Zhipuは清華から生まれ、「清華部門」はこの分野で一流のレーベルになりました。
その理由は、清華コンピュータ部門は、以前に大型モデルの研究に専念し、長期的な経験を持ち、多くの才能を培ってきたからです-Zhipuに代表される現在市場で呼び出すことができるプレーヤー、月のダークサイド、シェンヤンテクノロジー、ファーストクラスのテクノロジー、白川インテリジェンス、フェイスウォールインテリジェンス、元元テクノロジー、シェンシュテクノロジーなどはすべて清華の血統です。
彼らの発表された論文の引用数と発表されたモデルの検証可能な能力は、この「認識されたラベル」の強力な証拠です。
さらに、公開情報によると、Zhipuは国内で資金提供され、国内で開発された唯一の大規模モデル企業です。
このような企業の背景により、Zhipuは「モデルセキュリティ、データセキュリティ、コンテンツセキュリティ」の果てしない議論と論争において独自の準備と戦略を持っています。
国内のGPUの開発に協力するために、Zhipuは現在、GLMユニバーサル言語モデルの国内チップ適応計画を上陸させていると報告されています。
具体的には、国内のコンピューティングパワーチップメーカーと協力してモデルアルゴリズムを適応させ、アルゴリズム側の推論側で国内チップを適応させることであり、適応できる国内チップは10種類近くあります。
**たくさんのお金を集めた後、次に何をしますか? **
上記の通知表と独自性が、Zhipuが非常に楽観的で、ずっと際立っていた主な理由になっている可能性があります。
しかし、非常に有利であるため、十分な資本を蓄積した知恵スペクトルは、長期的な競争力を構築する決意も示しています。
10か月以内に25億人民元の資金調達を行った後、Zhipu AIは公式に次のように述べています。
コアは2つの側面に要約されます。
*まず、それをより大きく、より強く、よりしっかりと、そして大きなモデルのベースにします。 ※2つ目は、エコロジーや仲間の輪を広げることです。
深さと幅の両方が必要です。
**まず、モデルベースをより大きく、より強くし、ベースの大型モデルを「さらに発展」させます。 **
現在、Zhipuがベースと見なしている大型モデルは、2021年にリリースされたバイリンガル双方向高密度モデルGLM-130Bで、1,300億のパラメーターを備えています。
当時、技術、データ、計算能力など多くの制限により、この量のパラメータで大規模なモデルを学習させるにはハゲになるのに十分でしたが、結果は目覚ましく、GLM-130BはGPT-3やPaLMよりも優れたパフォーマンスを発揮しました。
しかし、今日、データとモーダル成長によってもたらされる需要、過去の1,300億のパラメータの巨大なものは少し不十分のようです。
Qubitからの最新ニュースは、今週の金曜日(10月27日)、Zhipuが新しいアクション、つまり新世代の大型モデルの台座のリリースを行うということです。 **
具体的な行動に関しては、知恵のスペクトルの一貫した原則である継続的なオープンソースを回避できないはずです。
この会社は、ChatGPT以前の時代には、バイドゥ(ERNIE2.0)、アリ(アリスマインド)、ジユアン(清遠CPM)、蘭州(孟子ビッグモデル)などとともに、常にビッグモデルの分野で最もオープンなプレーヤーの1つでした。
Zhipuの初期のGLMレポートを見ると、「大規模な事前トレーニング済みモデルの開発を促進するために、オープンコミュニティに参加することをすべての人に招待します」という言葉があります。 現在、同社はまだオープンソースを使用して、開発者や業界ユーザーと友達になっています。
この習慣は今日まで続いています。
現在のデータと組み合わせると、Zhipuのオープンソースへのこだわりと、どのような段階的な結果が得られているかがより明確にわかります。
開発者コミュニティ、ChatGLM-6Bは、リリースから4週間後にトレンドリストの1位を獲得し、累計ダウンロード数は1,000万を超え、GitHubは5w+を主演しました。
一方、Zhipuの公式ウェブサイトには、生態環境を構築するための**パートナー、「69か国、1000 +研究機関」がリストされています。 さらに、1,000を超える顧客と200〜300のオープンソースエコシステムで量子ビットが検証されています。
その中で、台座大型モデルは、その基盤と汎用性のおかげで、大型モデル生態学の中核にランクされています。 これを理解するために、エコロジーと友人の輪を広げることに取り組んでいるZhipuの利点と必要性を理解することは難しくありません。
ビッグモデルの起業家精神、分水嶺の瞬間に足を踏み入れる
昨年11月末、OpenAIはChatGPTを世界に送りました。 その直後、ビッグモデル技術のトレンドは、前例のない速度で次々と波を起こしました。
直感的なデータは素晴らしく、プレゼンテーションのスピードは素晴らしいです。
何億ものユーザーアクティビティ、数十億の収益、数百億の評価... ビッグモデルは武道の美徳を語らずに世界を席巻しており、誰もがこの人工知能技術の境界がどれほど広いか、そしてそれがサポートする製品がどのように技術の力を発揮できるかを考えて、見て探索しています。
その結果、海外にはOpenAIやAnthropicなどのパイオニアがおり、中国にはZhipu AIやMiniMaxなどの数百億のユニコーンが存在します。
真珠翡翠は先にあり、技術的および工学的問題のいくつかは早送りしてスキップすることができず、星のラインナップ、そして天文学的な資金調達は、大規模なモデルの道を進む限り、自分で体験する必要があります。
挑戦は気が遠くなるようなものですが、挑戦者は喜んでそれに続きます。
ほぼ1年後の今日、私たちはビッグモデル技術の開発と、革新と競争がこの分野をどのように形作っているかを目の当たりにしています。
より明確に見ることができるのは、**巨人が最初のカードスロットを完了し、スタートアップ会社がシャッフルを開始し、最初のステージパターンが現れたことです。 **
そうです、企業はビッグモデルの能力の範囲内ですべてを行うことはできませんが、一般的な大型モデルのチケットは非常に限られており、それを手に入れる能力を持たないプレーヤーは転用し始めます。 ビジネスを始めるためにモデル層をあきらめるか、他のモデルの肩の上に立ち始め、中間層、アプリケーション層に行きます...
ビッグモデルの起業家精神は分水嶺の瞬間に入っています。
業界におけるマシュー効果は強まっています。 資本の総額は限られており、会社の価値が高ければ高いほど見栄えがよくなり、最良かつ最も多くのリソースが最も可能性を秘めた馬に送られます。
資本市場では、高価な企業の唯一の欠点は高価であることであり、安価な企業の唯一の利点は安いことです。
ビッグモデル起業家精神の前半は終わりに近づいています。