前述したように、AI スタートアップは気軽にアプリケーションを作成できますが、停滞を避けるために AI モデルのパフォーマンスの問題を考慮する必要があります。この状況は、AI 製品が数か月以内に需要基盤を失い、徐々に衰退する可能性があるという事実に直接反映されており、この状況は頻繁に発生する可能性があります。
AI アプリケーションは大規模モデル サービスを使用する必要があり、大規模モデルのパフォーマンスは向上し続けています。この向上は「速度」といった単次元の向上ではなく、出力品質、出力長さ、出力制御性などの全体的な変化です。テクノロジーが大幅にアップグレードされるたびに、既存のアプリケーション層製品のテクノロジーが遅れ、新たな機会や競合他社が生まれます。
NGC Ventures: 現在の AI 分野でまだ起業する価値はありますか?
NGC Ventures 投資マネージャー、Cherry 氏
序文
この記事の初稿は8月末の休日の釣り中に完成し、急遽公開したところ、多くのアドバイスをいただきましたが、笑いを避けるため内容の追加、修正、削除をさせていただきました。
この記事の内容は主にAI業界の現状を投資の観点から評価し、各社の技術・製品路線を考察・推測し、AIにおける企業の戦略を抽象化することです。業界。したがって、特定の技術に関してはどうしても抜けが生じてしまいますが、その点はご容赦ください。
しかし結局のところ、論文を出版できる大手企業数社は依然として分裂状態にあり、誰もこの記事の内容の正しさを評価できていないようだ。 GPT-4 で GPT-3.5 をスコアリングするのと同じように、これは合理的なように思えますが、よく考えると少し抽象的です。
したがって、この記事は不確実な業界の情報を収集した上での「判断」として捉えることをお勧めします。判決である以上、立場を明確にし、意味のある発言をしなければなりません。それが正しいかどうかについては、時間をかけて検証してみましょう。
著者は常々、「新しい業界は騒がしいので、頭を使って大胆に判断することが常に正しい」と信じています。正誤問題では、ブラインドで推測する正解率は50%、3回連続で間違える確率は12.5%と、コイン投げレベルの判断にも意味がある。判断すること自体はひどいことではありませんが、最も恐ろしいのは、判断の精度がコイン投げよりも低いことです。
この記事を正式に開始する前に、この記事に貴重なインスピレーションとデータ ソースを提供してくれた次の方々の功績に感謝したいと思います。もちろん、この記事の推論の多くはこれらの作品に基づいているため、誤りが含まれたり、著者の認識が間違っていたりすると、この記事の推論は確実なものではなくなりますので、読者はご自身の判断で判断してください。この記事は投資アドバイスを構成するものではなく、投資アドバイスを構成するものではありません。
•思考連鎖ハブ: 大規模言語モデルの推論パフォーマンスを測定するための継続的な取り組み(
•LIMA: 調整には少ない方が良い(
•2023 年 6 月、命令チューニングの段階的レビュー(
•GPT-4 アーキテクチャ、インフラストラクチャ、トレーニング データセット、コスト、ビジョン、MOE(
さて、この記事を正式に始めましょう。
大型モデル: サイバー ロケットの打ち上げ
2023 年の AI について議論する最初のステップは、大規模な起業がまだ可能かどうかを議論することです。
大きなモデル(事前学習)はロケットの打ち上げの問題に変換されており、燃やすことができ、方向が正しければ誰でも行うことができます。大型モデルを訓練することは、サイバーロケットを打ち上げることと言えます。
常識に反しているのは、投資家が大規模モデルのトレーニングの難しさを過小評価している一方で、実際のロケットの打ち上げの難しさを過大評価していることです。同じ 6,000 万米ドルの費用がかかったとしても、投資家はロケットの打ち上げが失敗すれば二度目のチャンスがあると考えるでしょうが、大型モデルの訓練に失敗した場合はお金の無駄であると考えられます。
GPT-4 は依然として OpenAI の GPU 利用効率に 6,000 万ドルを消費しています (約 30% であると報告されています)。これは {パフォーマンス = 効率 × コスト} の問題であり、パフォーマンスが障壁となるため、他のスタートアップが 30% × 6,000 万 = 1,800 万ドルを超えるパフォーマンス効果を達成できない場合、ユーザーは GPT-4 を直接使用してもよいでしょう。
現在、大規模モデルをトレーニングすると主張する多くの企業は、100 万ドルから 500 万ドルの範囲の資金調達ラウンドを行っています。言い換えれば、最大額の資金を調達した企業であっても、1 回の打ち上げをサポートするのに十分な弾薬しか持っていないということです。今回の打ち上げでGPU使用率が100%に達したとしても、GPT-4を超えるのは難しいだろう。
この観点から見ると、ロケットを打ち上げたほうが良いと言えます。現在のロケットのほとんどは人工衛星を空に運ぶ打ち上げロケットであり、1回の搭載量が限られているため、小規模なロケット会社は他の企業では時間が取れなかった衛星の注文を受注できるからです。打ち上げへ。
大規模モデルは異なります。大規模モデルの水平方向の拡張の限界コストは計算能力のコストのみであり、計算能力のコストは弾力的に拡張できます。つまり、大規模モデルの企業にとって、各注文の利益は大きくなります。無償で利益が得られ、追加コストはほとんどなく、引き受け能力は非常に大きいです。設立間もない大手モデル会社の場合、品質が劣悪なため、オーバーフロー需要を獲得することは困難です。
トレーニング コストが大幅に削減されない限り、GPT-4 のアーキテクチャ全体がわかったとしても、多くの企業が短期間に市場投入できる大規模なモデルを作成することは困難になります。
カスタマイズ:「勝者総取り」問題への対処
ハードウェア業界では、カスタマイズされたニーズによって早期に利益を達成し、その後、早期に利益を通じて技術的なブレークスルー (または均等化) を達成するという現象がよく見られます。しかし、大型模型業界のカスタマイズは新規参入者の活路となりにくい。
この判断についての説明は非常に簡単で、「大部分の微調整モデルは GPT-4 に追いつけない。たとえ追いついたとしても、一般化に GPT-4 を直接使用した方がコストが安く、人員も少なく、運も少ない」というものです。 . データ要件が少なくなります。 GPT-4 と他のモデルの間に大きなパフォーマンスの差が依然として存在する限り、大規模なモデル会社にとってカスタマイズは解決策ではありません。
非常に典型的な例は、微調整された GPT-3 を使用して企業顧客にサービスを提供する Jasper ですが、OpenAI が ChatGPT (GPT-3.5) を公開した後、ユーザーはすぐに離れてしまいました。なぜなら、Jasperの出力はGPT-3.5を入力するだけで得られるため、汎用性が低く企業内での利用に限定されている「後方バージョン」を使う必要がないからだ。
新しい企業と比較して、Jasper には少なくとも GPT-3 から GPT-3.5 までの開発期間があります。しかし、新興企業は現在、低コストで高速な GPT-3.5 と高性能 GPT-4 の同時押し出しに直面する必要があります。
したがって、技術的なブレークスルーを達成するためのカスタマイズによって利益を蓄積することを期待しても、生き残る可能性は非常に低いです。
微調整: 必要です。迷信を持たないでください
現在の AI 業界は、微調整に対して非現実的な期待を抱いていますが、この期待は、特定の技術実装とマクロ技術リズムの観点から過大評価されています。
現在業界で議論されている微調整とは、主に「事前に訓練されたモデルに基づいて、人間の意図と一致する答えを生成できるようにする」ことを指します。この種の微調整は、大きなモデルにインテリジェンスを追加するのではなく、人間の意図に答えを合わせる「調整」と呼ぶことができます。
多くの論文の研究結果によると、大規模モデルの知識は主に事前トレーニングから得られ、微調整は位置合わせに多く使用されます。
簡単に説明すると、事前トレーニングが脳の大きさを決定し、微調整が母国語を決定するということです。事前トレーニングされたモデルを微調整することは、「文盲を排除する」プロセスです。
しかし、業界ではファインチューニングは、モデルに「インテリジェンスを追加する」方法、つまり、ファインチューニングを通じてモデルのパフォーマンスを向上させ、モデルの知識を増やす方法として見られることがよくあります。人工知能の」に到達できます。この考え方はいくぶん偏っています。
まず、モデル自体のパフォーマンスは向上していませんが、人間の意図をよりよく一致させることができ、タスクの複雑さがモデルのパフォーマンスを超える場合、微調整では期待した結果が得られません。人間の脳に量子演算を実行させるのと同じように、量子演算に失敗するのは教育の問題ではありません。
第二に、「意図の一致」の部分で「知識の補充」が行われ、その効果はより「オウム返し」に近い。つまり、モデルは専門家の言うことを意味も理解せずに真似しているだけです。多くの業界は「オウム返し」によって良い解決策を得ることができますが (結局のところ、ほとんどの業界は複雑ではありません...)、これが長期的に追求すべき結果ではないことは明らかです。
最後に、「追加のデータセットの補足、モデルのパフォーマンスの向上、モデルの知識の増加」のトレーニングは、「増分学習/継続学習」の能力を持つモデルと見なされるべきです。つまり、モデルのすべてのパラメーターは、増分データセットの最適化。これは、いわゆる「命令の微調整」と同じカテゴリーの概念ではありません。
一般に、微調整は非常に重要ですが、現在の微調整に対して「迷信的な」態度をとるのは間違いです。特に、現在の微調整を聖杯として封印しようと急ぐのは間違いです。今日の物理学の「黒い雲が二つだけ浮かんでいる」。
一歩下がって、単純なベクトル検索を実行し、知識をコンテキストに直接接続し、単にいくつかのテンプレートを記述することによって、「知恵を増やす」というニーズが命令の微調整によって実際に解決できるのであれば、同じかそれ以上の結果が得られる確率。
誰もが微調整を好みますが、それは現代における錬金術スキルの一種の復活でもあるのかもしれません...
大規模モデルの見通し: 4 つの算術演算
(内容のこの部分は完全にディラン・パテルによって明らかにされたデータに基づいており、信頼性はまだ検証されていないことに注意してください)
GPT-4 のトレーニングは A シリーズの N カードに基づいています。トレーニング効率は 30%、トレーニング時間は約 2 か月、コストは約 6,000 万、パラメータの総量は {1 兆 7,000 億 = 1,100 億です。 × 16 のエキスパート モデル}. 単一の問題を処理でき、パラメータは約 2,800 億です。
言い換えれば、大規模なモデルのトレーニングのパターンに変化を引き起こす重要なパラメーターがいくつかあります。
•トレーニング効率: 30% から 60% に直接時間を 1 回短縮できます。
•コンピューティング能力の強化: A シリーズから H シリーズ、さらに AI 専用カードに切り替えた後、コンピューティング能力の強度が向上し、効率に影響を与える多くのアーキテクチャ上の問題を解決できます。
•コンピューティング電力コストの低下: Lao Huang (Nvidia 創設者) がグラフィックス カードを値下げした結果、大幅なコスト削減が実現しました。
•パラメータ効率の向上: モデルのパラメータ効率には改善の余地があります。過去を参照すると、通常、新しいモデルは古いモデルのパラメータ効率を何倍も向上させることができます。 GPT-4 のパラメーターを使用して同様の効果を実現します。
要約すると、GPT-4 レベルのパフォーマンスを持つモデルを最初からトレーニングするコストは、最適化の余地が 10 ~ 20 倍あり、300 万ドルから 600 万ドルに削減される可能性があり、このコストはスタートアップにとって非常に費用対効果が高いです。および大企業の方が受け入れられやすいです。
そして、この変更が完了するまでには約 2 年かかる可能性があります。
現在、主流の大型モデル技術は依然として変圧器に基づいており、インフラストラクチャは変化しておらず、錬金術を洗練し、パラメータを追加して奇跡を起こすというアイデアは枯渇していません。 GPT-4 のトレーニングは高い計算能力の制限に基づいて実行され、トレーニング時間は十分に長くありません。
パラメーターがトレーニング時間に応じて直線的に増加する場合、GPT-4 と同様のアーキテクチャを持つモデルのパラメーターの上限は約 10 兆、つまりトレーニング時間の 2 倍 (×2) と、トレーニング時間の 2 倍の長さになる可能性があります。並列グラフィックス カード (× 2) の場合、トレーニング効率は半分 (× 1.5) 速く、パラメーター効率は半分 (× 1.5) 高く、最終的には 10 倍の結果が得られます。シリコンバレーのリスク選好スタイルによれば、業績が改善したかどうかに関係なく、このパラメータは 1 年以内に達成される可能性が高くなります。
ただし、パラメータが 10 兆に達した後、LLM がパラメータを増やすというアイデアをまだ使用して奇跡を起こすことができるかどうかはまったく未知のことです。
パラメーターの数によってモデルのパフォーマンスが向上するのですが、そのマージンが減少する場合、10 兆という数がハードルとなる可能性があります。ただし、パラメータの量によるモデルのパフォーマンスの向上はわずかに増加しているという推測もあり、これは「十分に賢い人であれば、すべてをすぐに学ぶことができる」と同様です。前者は問題ありませんが、後者が実現すると、モデルのパフォーマンスが飛躍的に向上する可能性があり、そのとき何が起こるかはまったく予測できません。
万能薬を予測するのは難しいですが、企業の戦略リズムを予測するのは簡単です。合計パラメータが 10 兆のモデルは、Google/MS/APPL のような巨大企業であろうと小規模な OpenAI であろうと、ほとんどの企業にとってマイルストーン レベルのエンドポイントであり、立ち止まって技術的な調査を行うことが可能です。
企業や資本のリスク選好は「耐久時間」に換算できますが、耐久時間全体が経費を激しく消費する場合、6 か月を超えることは困難です。人間の職人技は、通常 5 年以上のサイクルで十分な速さで成長していません。したがって、5 年以内に、モデルの限界パラメータ量が 20 兆から 50 兆になるはずです。プロセス/アーキテクチャにおける大きなブレークスルーが再び起こらない限り、この桁を超える可能性は非常に低いです。
マルチモダリティ: 部屋の中の象
マルチモダリティは部屋の中の象であり、トラックの景観に大きな影響を与える可能性があります。
マルチモーダリティの簡単な定義は、複数のモーダル情報の入出力をサポートすることです。この定義は非常に緩やかで、たとえば、マルチモーダル入力を実行できると主張する市場の一部の製品は、実際にはその外側に OCR の層を備えた ChatBot です。マルチモダリティの定義を完全に満たすモデルもありますが、そのパフォーマンスは期待外れです。 GPT-4 のマルチモーダル画像入力機能もまだ広く公開されておらず、機能があまり安定していないことがわかります。
ただし、マルチモーダルな打ち上げが実現するのもそう遠くない。 GPT-5 はマルチモダリティをネイティブにサポートしている可能性が高く、構造を再設計して再トレーニングする必要があることを意味します。前述の推論によれば、大規模モデルのパラメータにはまだ 10 ~ 50 倍の成長の余地があり、マルチモーダル機能を組み込むには十分であるはずです。したがって、高可用性かつ高性能なマルチモーダル モデルは 2 年以内に登場すると予想され、楽観視すれば 1 年近くかかるでしょう。
マルチモーダルは部屋の中の象であり、最終的にはそのようなものになることは誰もが知っていますが、多くの製品、研究、戦略は重要な部分を誤算するほどその存在を無視しています。
たとえば、単一画像モデルは理論的にはマルチモーダル モデルによって大幅に抑圧される可能性がありますが、現在、ほとんどの研究/投資はこの問題を無視しており、一部の画像に焦点を当てた企業の過大評価につながっています。これらの企業は将来的に技術的な障壁をなくし、サービスプロバイダーに変わる可能性が高く、その評価システムはテクノロジー企業ではなくサービスプロバイダーを参照する必要があります。
「投資は人に依存し、同じチームがビジネス変革を行える」というストーリーを伝えたいのであれば、私はそれを言いませんでした。伝説は常に存在しますが、研究するときに伝説を信じることはできません。
GPT-4 をトレーニングできる人: はい、ただし必須ではありません
エリクサーの精製にはそれほど時間はかからず、大企業がグラフィックスカードを購入しています。非常に明白なことは、1 年後には 大企業が GPT-4 レベルのモデルをトレーニングできるようになるということです。しかし、トレーニングするかどうかは別の問題です。
ゲームの分野では、「原神と一緒に原神をプレイする」という古典的な命題があります。つまり、競合製品が原神ほど良くない場合、プレーヤーは原神または原神の競合製品をプレイすることを選択できます。 Impact、その後原神をプレイできるようになります。
この「勝者がすべてを取る」アプローチは、大規模模型業界にも当てはまります。企業が OpenAI に倣い、半年の研究開発を経て、GPT-4 に匹敵する 90% の性能を持つ独自の大型モデルを発売し、それを市場に投入することを望んでいます。このとき、同社は次のような問題に直面することになる。
• OpenAI には、クラウド リソースと低コストのスケールメリットがあります。
•OpenAIのAPIは製品コードで広く使用されており、置き換えることは困難です。
・同社の製品性能は依然としてGPT-4を超えていない
•OpenAI の次世代製品 (おそらく GPT-5) が間もなくリリースされます
企業へのプレッシャーは相当なものであることがわかります。 GPT-4 をトレーニングするよりも、(GPT-5 と比較して) 次世代モデルに直接賭けるほうが良いでしょう。そうなると問題は「類似競合製品問題」から「技術革新問題」へと変化していきます。これは中小企業には耐えられない負担です。
したがって、「誰が GPT-4 を訓練できるか」という議論は戦略的には死んだ問題であり、この問題を考えるよりも、より確実性と可能性のある方向性を見つけたほうがよいでしょう。
AI スタートアップへのアドバイス: パフォーマンスを第一に、停滞を避けてください
著者は langchain について不満を言う記事をたくさん書いてきましたが、その根本的な理由は、langchain には開発者がパフォーマンスを向上させる余地を残していないということです。 「ユニバーサルフレームワーク」と呼ばれるものですが、汎用性を確保するために、複数回の対話や微調整による形式制御など、大規模モデルの性能向上の多くは放棄されてきました。同様に、Guidance/Auto-GPT/BabyAGIなどもあり、どれも「一生使えるフレームワーク」を目指しています。
客観的な事実は、OpenAI が 5 月に Function Calling をリリースしたことです。コード内の多くの問題のある領域には、より優れた実装ソリューションがあり、より優れたソリューションを実現するには、製品コードの主要な部分を再構築する必要があります。 8 月に OpenAI は GPT-3.5 を微調整する許可をリリースし、出力の正確な制御を必要とする多くのリンクに新しいソリューションの可能性があります。
したがって、新興企業は重要な選択に直面する必要があります。①パフォーマンスを向上させて製品を継続的にリファクタリングするか、それとも②新機能の使用を減らし、開発には常に古い機能を使用するかを選択する必要があります。
新しい技術応用の起業家精神にとって、「開発」はコードを書くプロセスを表すだけでなく、製品の機能/戦略の「上限」も表します。制御できる性能が高いほど、製品の理論上の機能が増加し、戦略的な柔軟性が高まります。
技術の発展は予測不可能であり、小さな技術革新が競争環境に非常に敏感な変化をもたらす可能性があるため、スタートアップ企業には技術開発に対する脆弱性への耐性が求められます。
——人間の言葉で言えば、パフォーマンスを優先し、留まることは避けるべきです。開発レベルでは、より多くの新機能を使用し、製品面では、新機能がどのような機能を実現できるかを考え、戦略面では、新機能が戦略に与える影響を検討します。
『郭秦論』には、秦王朝の成立後、内乱の可能性を排除するために世界中の金属兵器が没収され、12体の銅像に鋳造されたと述べられている。しかし、秦王朝は短命であったことで有名です。変化を無視するよりも、変化に注意を払う方が有益です。
AI スタートアップ企業へのアドバイス: 自信を持ってアプリケーションを作成してください
新興企業の応募には、大企業の参入という非常に一般的な隠れた危険があります。ここでいう大企業には、Meta/Byte/Tencent などのアプリケーション大手だけでなく、OpenAI などの AI 業界の上流企業も含まれます。
通常、大企業が市場に参入する理由は 2 つあります。製品機会を展開するため、もう 1 つは上流と下流をカットするためです。
「レイアウト製品機会」とは文字通りの意味で、大企業はこの方向性を追求する価値があると感じており、それを実行しています。
「上流が下流を切る」というのはほとんど無力な行為で、OpenAIとベンチマークする大規模モデルを開発したからかもしれませんが、大規模モデルの勝者総取りの問題で、ユーザーがいないため、コストが無駄になり、収益がなくなり、データがなくなるため、パフォーマンスが徐々に遅れていきます。現時点では、下流に切り込み、特定のアプリケーションを開発し、独自の技術を使用する唯一の選択肢があります。
過去の経験によれば、組織構造の問題により、下流に近い企業ほど技術が後れを取る可能性が高く、技術が後れを取るほど下流での仕事が増えます。これらのいわゆるテクノロジー企業は、最終的にはアプリケーション層の企業と同じ生態学的ニッチをめぐって競争することになるでしょう。
しかし、アプリケーション層の戦場では、AI技術の普及期間が短いため、効果的かつ再利用可能なスケールメリットがなく、大企業とスタートアップの出発点は似ています。大企業に比べて、新興企業は効率性や洞察力に優れており、活用しやすいのです。
注目すべき点の 1 つは、現在、MS Azure のほぼすべての宣伝資料が OpenAI を中心に展開していることですが、マイクロソフトほどの規模の企業はプラットフォームとして完全に OpenAI に依存しており、これはスタートアップが AI の分野で当然の利点を持っていることを側面から証明しています。
もちろん、一部のクラウド ベンダーは新興企業に主導されることを受け入れられず、自社で市場を独占したいと考えているかもしれません。これは高価で、時間がかかり、差し迫った脅威ではありません。
実際には、非常に短命な AI アプリケーションのトラックもいくつかありますが、まだ発見されていない長寿命のトラックも数多くあり、AI アプリケーションは勝者総取りではありません。アプリケーションからプラットフォームまたはテクノロジーに拡張することも、より実現可能な方法です。
したがって、大企業がアプリケーション層に侵入する能力について合理的に考える必要があります。私たちの提案は、AI スタートアップが自信を持ってアプリケーションを作成できるということです。
AI スタートアップへのアドバイス: 製品のライフラインに注意を払う
前述したように、AI スタートアップは気軽にアプリケーションを作成できますが、停滞を避けるために AI モデルのパフォーマンスの問題を考慮する必要があります。この状況は、AI 製品が数か月以内に需要基盤を失い、徐々に衰退する可能性があるという事実に直接反映されており、この状況は頻繁に発生する可能性があります。
AI アプリケーションは大規模モデル サービスを使用する必要があり、大規模モデルのパフォーマンスは向上し続けています。この向上は「速度」といった単次元の向上ではなく、出力品質、出力長さ、出力制御性などの全体的な変化です。テクノロジーが大幅にアップグレードされるたびに、既存のアプリケーション層製品のテクノロジーが遅れ、新たな機会や競合他社が生まれます。
私たちは、AI アプリケーションが戦略/製品/技術において優位性と必要性を維持している時間を「ライフライン」と呼んでいます。
ライフラインが短い例をいくつか示します。
•ChatGPT/Claudeがファイルアップロードをサポートすると、ChatPDFはその必要性を失います。
•Office365がCopilotをサポートすると、AIを利用してPPTを描画する製品の利点が失われる
• GPT-3.5 が登場すると、Jasper はその必要性を失いました。
**AI産業の急速な発展を考慮すると、ライフラインが限られているのが当たり前です。したがって、ライフラインが有限であることを受け入れ、より長いライフラインを持つ開発の方向を選択しようとすることが、長期的なメリットと製品の必要性を維持することにつながります。 **
一般に、ライフラインは単純に 3/6/12 か月のレベルに分けることができます。
•3ヶ月:大企業が実装する時間が取れていない機能(Office/ChatGPTなどまだ実装する時間が取れていない機能)
•6ヶ月:実装が難しく既存のソリューションに統合できないが、AIの性能が向上するにつれて利点/必要性がなくなる(一般的なAIフレームワークなど)
•12か月: 利点/必要性は長期にわたって存在する可能性があり、大企業/技術開発の影響を受けにくい(Hugging Faceなど)
*プラットフォーム製品のライフサイクルは必ずしも長いわけではありません。結局のところ、店舗もプラットフォームです。
スタートアップが方向性を決めるのに必要なのは 6 か月のライフラインだけであり、12 か月のライフラインを手に入れるのは困難です。
製品のライフラインが終了するとき、一般に 2 つの状況が考えられます。 1 つ目は、メリットがなくなり、製品のアップグレード技術を再構築する必要がある場合です。上記の「性能第一」を参照してください。2 つ目は、必要性がなくなり、徐々に製品が置き換えられる場合です。まだ数か月の「運用期間」がある 「ライフスパン」は、スタートアップが次の方向性を選択するのに十分です。
AI スタートアップへのアドバイス: Web3+AI なら実現できます
現在、Web3+AI をテーマにした起業家プロジェクトが数多くありますが、技術開発の不確実性と市場の初期段階を考慮すると、Web3+AI のテーマは将来的にもまだ変動する部分が多くあります。
この記事の目的は、不確実性の中から高い確率で正確な確実性を見つけることですので、著者はまだいくつかのアイデアを捨てて、スタートアップ企業や興味のあるスタートアップ企業の参考になる可能性のあるいくつかのテーマや方向性を提案したいと考えています。研究者たち。
•非主権/分散化
現在、AI 業界のリーダーはクローズドソース モデルのみを提供しており、継続的なサービス提供の安定性、透明性、中立性は制御できません。非主権・分散化、つまり非主権化・分散化の基本アーキテクチャに基づいた安定的・透明性・中立的なAIサービスの提供は、AI業界における重要なテーマとなる可能性がある。
非主権化/分散化は「代替ソリューション」であり「抑止力」であり、集中化/主権化された AI 企業の非倫理的なコストを大幅に増加させ、軍事、カルト、政治などの側面で AI モデルを使用することを妨げる可能性があります。
極端なケースでは、集中型/主権型 AI サービスが何らかの理由で利用できなくなったり信頼されなくなったりすると、非主権型/分散型 AI が高可用性のサービスを提供し続けることで、個々の国や地域、さらには人類が AI を失うことを防ぐことができます。
•コンピューティング能力の実用化
ETHがPoWからPoSに移行した背景には、「マイニングは価値を生み出さない」という批判されたジレンマがあり、Web3とAIの組み合わせは、ストックコンピューティングパワーの消化を実現し、成長を促進するためのコンピューティングパワーの実用的なシナリオを提供することができます。総計算能力などの影響。
•仮想資産化
AI はコンピューティング能力とストレージにネイティブな資産です。Web3 と AI を組み合わせることで、AI を仮想資産に変換するチャネルを提供できます。AI 業界の価値をインスタンス化しながら、Web3 用の真のネイティブ仮想資産を作成できます。
•Web3 アプリケーション用の変数
Web3 と AI の組み合わせは、Web3 アプリケーションに新しい機能ポイントと成長の機会をもたらす可能性があり、既存の Web3 アプリケーションを完全にやり直すこともできます。
最後に書きました: 9月、現在のAIはまだビジネスを始める価値がありますか
結論から始めましょう。それは価値があり、この結論はおそらく旧正月まで使用できます。
人々の状況認識は偏っていることが多く、私も例外ではありません。楽観的すぎる人もいれば、悲観的すぎる人もいます。筆者はかつて 2 つのチームとコミュニケーションを取ったことがあります。1 つのチームは来年の第 1 四半期には AI エージェントを構築できると考えていますが、もう 1 つのチームは AI はナレッジ ベース管理にのみ適していると考えています。明らかに前者は楽観的すぎます。後者は悲観的すぎる。
長期的な計画を立てる場合、楽観的すぎたり、悲観的すぎたりすると落とし穴につながります。広く流布される発言はこうした非常に偏った発言であることが多いため、独立した思考は非常に貴重です。したがって、読者がこの記事の見解を受け入れることができるかどうかに関係なく、読者が読書の過程で独自の思考と判断を持っている限り、著者は非常に満足するでしょう。
最後に広告を掲載します。 AI 起業家としての優れたアイデアをお持ちの場合、またはすでにプロジェクトを立ち上げている場合は、いつでも NGC の友人 (私など) とコミュニケーションを取ることを歓迎します。
私たちは破壊的イノベーションを伴うプロジェクトを特定し、シンプルさ、コストの手頃さ、スピード、独自性、魅力的な製品市場適合性を特徴とするソリューションで問題を解決することを目指しています。