NGC Ventures: 9 月ですが、AI は今ビジネスを始める価値がありますか?

著者:Cherry、NGC Ventures

序文

この記事の初稿は8月末の休日の釣り中に完成しましたが、急遽公開したところ、多くのアドバイスをいただきましたので、笑いを避けるために筆者が加筆・修正・削除した内容を一部修正させていただきました。

この記事の内容は主にAI業界の現状を投資の観点から評価し、各社の技術・製品路線を考察・推測し、AIにおける企業の戦略を抽象化することです。業界。したがって、特定の技術に関してはどうしても抜けが生じてしまいますが、その点はご容赦ください。

しかし、結局のところ、論文を出版できる大企業は依然として互いに対立しており、この記事の内容の正確性を評価できる人は誰もいないようだ。 GPT-4 で GPT-3.5 をスコアリングするのと同じように、これは合理的なように思えますが、よく考えると少し抽象的です。

したがって、著者は、この記事は不確実な業界に関する情報収集の末に形成された「判断」であると考えることを提案します。判決である以上、立場を明確にし、意味のある発言をしなければなりません。それが正しいかどうかについては、時間をかけて検証してみましょう。

筆者は、新しい業界はうるさいので、もっと頭を使って、思い切って判断するのが正しいと常々思っています。正誤問題では、ブラインド推測の正解率は50%、3回連続で間違える確率は12.5%と、コイン投げレベルの判定であっても意味がある。判断することはひどいことではありませんが、最も恐ろしいのは、判断の精度がコインを投げるよりも低いことです。

この記事を正式に開始する前に、この記事に貴重なインスピレーションとデータ ソースを提供してくれた次の方々の功績に感謝したいと思います。もちろん、この記事の推論の多くはこれらの作品に基づいているため、そこに誤りがあったり、著者の理解が間違っていたりすると、この記事の推論は堅牢ではなくなりますので、読者はご自身で判断してください。この記事は投資アドバイスを構成するものではなく、投資アドバイスを構成するものではありません。

  • 思考連鎖ハブ: 大規模言語モデルの推論パフォーマンスを測定するための継続的な取り組み(
  • LIMA: 調整には少ない方が良い(
  • 2023 年 6 月、命令チューニングの段階的レビュー(
  • GPT-4 アーキテクチャ、インフラストラクチャ、トレーニング データセット、コスト、ビジョン、MoE(

さて、この記事を正式に始めましょう。

大型モデル: サイバーロケットを打ち上げる

2023 年の AI について議論する最初のステップは、大規模な起業がまだ可能かどうかを議論することです。

大きな模型(事前学習)がロケットの打ち上げ問題に変わり、火の起こし方と方向さえ正しければ誰でもできるようになりました。大規模モデルのトレーニングはサイバー ロケットを発射するようなものであると言えます。

直観に反するのは、投資家が大規模モデルのトレーニングの難しさを過小評価している一方で、実際のロケットの打ち上げの難しさを過大評価していることです。同じコストが 6,000 万米ドルであれば、投資家はロケットの打ち上げ失敗には二度目のチャンスがあると考えるでしょうが、大型モデルの訓練に失敗した場合はお金の無駄であると考えられます。

GPT-4 は依然として OpenAI の GPU 利用効率に 6,000 万米ドルを消費しています (約 30% に等しいと報告されています)。これは{性能=効率×コスト}の問題であり、性能が壁となるため、他のスタートアップが30%×6,000万=1,800万ドル以上の性能効果を達成できないのであれば、ユーザーはGPT-4を使ったほうが良いかもしれない。直接。

現在、大規模モデルをトレーニングすると主張する多くの企業は、100 万米ドルから 500 万米ドルの範囲の資金調達ラウンドを行っています。言い換えれば、最大額の資金を調達した企業であっても、1 回の打ち上げをサポートするのに十分な弾薬しか持っていないということです。今回の打ち上げでGPU使用率が100%に達したとしても、GPT-4を超えるのは難しいだろう。

この観点から見ると、ロケットを打ち上げたほうが良いと言えます。ロケットのほとんどは衛星を空に運ぶ打ち上げロケットであり、1回の積載量が限られているため、小規模なロケット会社は他の会社が打ち上げる時間がない衛星の注文を受けることができます。

大規模モデルは異なります。大規模モデルの水平方向の拡張の限界コストは計算能力のコストのみであり、計算能力のコストは弾力的に拡張できます。つまり、大規模モデルの企業にとって、各注文の利益は大きくなります。無償で利益が得られ、追加コストはほとんどなく、引き受け能力は非常に大きいです。設立間もない大手モデル会社の場合、品質が劣悪なため、オーバーフロー需要を獲得することは困難です。

トレーニング コストが大幅に低下しない限り、GPT-4 のアーキテクチャ全体がわかったとしても、多くの企業が短期間に市場投入できる大規模なモデルを作成することは困難です。

カスタマイズ: 「勝者がすべてを取る」問題に直面する

ハードウェア業界では、カスタマイズされたニーズによって早期に利益を達成し、その後、早期に利益を通じて技術的なブレークスルー (または均等化) を達成するという現象がよく見られます。しかし、大型模型業界のカスタマイズは新規参入者の活路となりにくい。

この判断に関して、説明は非常に簡単です: ほとんどの微調整されたモデルは GPT-4 に追いつけない、データ要件が少ない。 GPT-4 と他のモデルの間に大きなパフォーマンスの差が依然として存在する限り、大規模なモデル会社にとってカスタマイズは解決策ではありません。

非常に典型的な例は、微調整された GPT-3 を使用して企業顧客にサービスを提供する Jasper ですが、OpenAI が ChatGPT (GPT-3.5) を公開した後、ユーザーはすぐに離れてしまいました。なぜなら、Jasper の出力は、一般化機能が弱く企業内での使用に限定されている「後方バージョン」を使用するのではなく、GPT-3.5 を入力するだけで得られるからです。

新しい企業と比較すると、Jasper には少なくとも GPT-3 から GPT-3.5 までの開発期間があります。しかし、新興企業は現在、低コスト、高速の GPT-3.5 と高性能の GPT-4 の制約に同時に直面する必要があります。

したがって、カスタマイズによって利益を積み上げて技術的ブレークスルーを実現するというルートは生き残る可能性が極めて低い。

微調整: 必要です。迷信を持たないでください。

現在の AI 業界は、微調整に対して非現実的な期待を抱いており、特定の技術実装とマクロレベルの技術リズムの両方の点で過大評価されています。

現在業界で議論されているファインチューニングとは、主に「事前に訓練されたモデルをベースにして、人間の意図に沿った答えを生成させる」ことを指します。このような微調整は、大きなモデルに知恵を加えるというよりも、人間の意図に答えを合わせる「アライメント」と呼ぶことができます。

多くの論文の研究結果によると、大規模モデルの知識は主に事前トレーニングから得られ、微調整は位置合わせに多く使用されます。

簡単に説明すると、事前トレーニングが脳の大きさを決定し、微調整が母国語を決定するということです。事前トレーニングされたモデルを微調整することは、「文盲を排除する」プロセスです。

しかし、業界ではファインチューニングは、モデルに「インテリジェンスを追加する」方法、つまり、ファインチューニングを通じてモデルのパフォーマンスを向上させ、モデルの知識を増やす方法として見られることがよくあります。人工知能の」に到達できます。この考え方はいくぶん偏っています。

まず、モデル自体のパフォーマンスは向上していませんが、人間の意図をよりよく一致させることができ、タスクの複雑さがモデルのパフォーマンスを超える場合、微調整では期待した結果が得られません。人間の脳に量子計算をやらせるようなもので、それができないのは教育の問題ではありません。

第二に、「意図の一致」部分における「知識の補充」の効果は、「オウム学習」により似ています。つまり、モデルは専門家のスピーチを真似しているだけで、意味は理解していません。多くの業界は「オウム返し」によって良い解決策を得ることができますが (結局のところ、ほとんどの業界は複雑ではありません...)、これが長期的に追求すべき結果ではないことは明らかです。

最後に、「追加のデータセットの補足、モデルのパフォーマンスの向上、モデルの知識の増加」のトレーニングは、「増分学習/継続学習」の能力を持つモデルと見なされるべきです。つまり、モデルのすべてのパラメーターは、増分データセットの最適化。これは、いわゆる「命令の微調整」と同じカテゴリーの概念ではありません。

一般に、微調整は非常に重要ですが、現在の微調整に対して「迷信的な」態度をとるのは間違いです。特に、現在の微調整を聖杯として封印しようと急ぐのは間違いです。今日の物理学の「黒い雲が二つだけ浮かんでいる。」

一歩下がって、単純なベクトル検索を実行し、知識をコンテキストに直接接続し、いくつかのテンプレートを記述するだけで、命令の微調整によって「インテリジェンスの向上」のニーズが本当に解決できる場合は、高い確率で解決されます。同じかそれ以上の結果が得られるということです。

誰もが微調整を好みますが、それは現代における錬金術スキルの一種の復活でもあるのかもしれません...

大規模モデルの展望: 四則演算

(なお、この部分の内容はすべてディラン・パテル氏が開示したデータに基づいており、現時点では信頼性は検証できません)

GPT-4のトレーニングはAシリーズのNカードに基づいており、トレーニング効率は30%、トレーニング時間は約2か月、コストは約6000万、総パラメータは{1.7兆 = 1100億× 16 のエキスパート モデル}.パラメータは約 2,800 億です。

言い換えれば、大規模モデルのトレーニング パターンの変更につながる重要なパラメーターがいくつかあります。

  • トレーニング効率: 30% から 60% に増加すると、直接的に時間を 1 回短縮できます
  • 計算能力の強化: A シリーズから H シリーズ、さらに AI 専用カードに切り替えると、計算能力が向上し、効率に影響を与える多くのアーキテクチャ上の問題が解決されます。
  • コンピューティング能力のコストが下がった: Lao Huang (Nvidia の創設者) がグラフィックス カードを値引きし、コストが大幅に下がった
  • パラメータ効率の向上: モデルのパラメータ効率には改善の余地があります。以前のモデルを参照すると、旧モデルのパラメータ効率は通常数倍向上できます。旧モデルのパラメータの 30% を使用することができます。 GPT-4 も同様の効果を実現します

要約すると、GPT-4 レベルのパフォーマンスを持つモデルをゼロからトレーニングするコストは、10 ~ 20 倍の最適化スペースを持つ可能性があり、つまり、300 万米ドルから 600 万米ドルに圧縮できます。新興企業や大企業にとっては効果的ですが、より受け入れられやすいです。

この変更が完了するまでに約 2 年かかる場合があります。

現在、主流の大型モデルの技術は依然として変圧器に基づいており、基本構造は変わっておらず、錬金術とパラメーターで奇跡を起こすというアイデアは尽きていません。 GPT-4 のトレーニングは大きな計算能力制限に基づいて実行され、トレーニング時間は十分長くありません。

パラメーターがトレーニング時間に応じて直線的に増加する場合、GPT-4 と同様のアーキテクチャを持つモデルのパラメーターの上限は約 10 兆、つまりトレーニング時間の 2 倍 (× 2) と並列グラフィックス カードの数の 2 倍 ( × 2) 、学習効率は半分 (× 1.5)、パラメータ効率は半分 (× 1.5) になり、最終的には 10 倍の結果が得られます。シリコンバレーのリスク選好スタイルによれば、業績が改善したかどうかに関係なく、このパラメータは 1 年以内に達成される可能性が高くなります。

ただし、パラメータが 10 兆に達した後、LLM がパラメータを増やすというアイデアをまだ使用して奇跡を起こすことができるかどうかはまったく未知のことです。

パラメーターの数によってモデルのパフォーマンスが向上するのですが、そのマージンが減少する場合、10 兆という数がハードルとなる可能性があります。ただし、パラメータの量によるモデルのパフォーマンスの向上はわずかに増加しているという推測もあり、これは「十分に賢い人であれば、すべてをすぐに学ぶことができる」と同様です。前者は問題ありませんが、後者が真である場合、モデルのパフォーマンスが指数関数的に向上する可能性があり、そのときに何が起こるかはまったく予測できません。

錬金術を予測するのは難しいですが、企業戦略のリズムを予測するのは簡単です。 Google/MS/APPL のような巨大企業であれ、より小規模な OpenAI であれ、ほとんどの企業にとって、合計 10 兆のパラメータを持つモデルはマイルストーンのエンドポイントであり、これを使用して停止して技術的な調査を行うことができます。

企業・資本のリスク選好は「耐久時間」に換算できるが、その耐久時間全体が経費を激しく燃やす場合、6か月を超えることは困難である。人間の職人技はそれほど早く成長するものではなく、通常 1 サイクルに 5 年以上かかります。したがって、5 年以内にモデルの最終的なパラメータ量が推定され、20 兆から 50 兆になるはずです。テクノロジー/アーキテクチャにおける大きなブレークスルーが再び起こらない限り、この桁を超える可能性は非常に低いです。

マルチモーダル: 部屋の中の象

マルチモダリティは部屋の中の象であり、トラックの景観に大きな影響を与える可能性があります。

マルチモーダルの簡単な定義は、複数のモーダル情報の入出力のサポートです。この定義は非常に緩やかで、たとえば、マルチモーダル入力を実行できると主張する市場の一部の製品は、実際には ChatBot の外側にある OCR の層です。マルチモダリティの定義を完全に満たすモデルもありますが、そのパフォーマンスはお世辞にも優れていません。 GPT-4 のマルチモーダル画像入力機能もまだ広く公開されておらず、機能があまり安定していないことがわかります。

ただし、マルチモダリティの解放はそう遠くない。 GPT-5 はマルチモダリティをネイティブにサポートする可能性が高く、構造を再設計して再トレーニングする必要があります。前述の推論によれば、大規模モデルのパラメータにはまだ 10 ~ 50 倍の成長の余地があり、マルチモーダル機能を組み込むには十分なはずです。したがって、高可用性かつ高性能なマルチモーダル モデルは 2 年以内に登場すると予想され、楽観視すれば 1 年近くかかるでしょう。

マルチモダリティは部屋の中の象であり、最終的にはこのようなことが起こることは誰もが知っていますが、多くの製品、研究、戦略がその存在を無視しているため、重要な部分で誤った判断が生じています。

たとえば、単一画像モデルは理論的にはマルチモーダル モデルによって大幅に抑圧される可能性がありますが、現在、ほとんどの研究/投資はこの問題を無視しており、一部の画像に焦点を当てた企業の過大評価につながっています。これらの企業は将来的に技術的な障壁をなくし、サービスプロバイダーに変わる可能性が高く、その評価システムはテクノロジー企業ではなくサービスプロバイダーを参照する必要があります。

「投資は人に依存し、同じチームがビジネス変革を行える」というストーリーを伝えたいのであれば、私はそれを言いませんでした。伝説は常に存在しますが、研究するときに伝説を信じることはできません。

GPT-4 をトレーニングできる人: トレーニングできますが、必須ではありません

エリクサーの精製にはそれほど時間はかからず、大企業がグラフィックスカードを購入している。非常に明白なことの 1 つは、1 年以内に大企業が GPT-4 レベルのモデルをトレーニングできるようになるということです。しかし、トレーニングするかどうかは別の問題です。

ゲームの分野では、「ユアンシェンをプレイするユアンシン」と呼ばれる古典的な命題があります。つまり、プレイヤーがユアンシェンかユアンシェンの競合製品をプレイすることを選択できる場合、競合製品がユアンシェンほど良くない場合は、オリジナルの神をプレイするというものです。 。

この「勝者がすべてを取る」アプローチは、大規模模型業界にも当てはまります。企業が OpenAI に従う場合、半年間の研究開発を経て、GPT-4 に匹敵する 90% の性能を備えた独自の大型モデルを市場に投入することを目指します。このとき、同社は次のような問題に直面することになる。

  • OpenAI はクラウド リソースのスケールメリットと低コストを実現します ※OpenAIのAPIはプロダクトコードで広く使われており、置き換えが困難です。 ※同社製品の性能は依然としてGPT-4を超えていない
  • OpenAI の次世代製品 (おそらく GPT-5) が間もなくリリースされます

企業へのプレッシャーは相当なものであることがわかります。 GPT-4 をトレーニングするよりも、(GPT-5 と比較して) 次世代モデルに直接賭けるほうが良いでしょう。すると、問題は「類似競合製品の問題」から「技術革新の問題」に変換されます。これは中小企業には耐えられない負担です。

したがって、「誰が GPT-4 を訓練できるか」という議論は戦略的には死んだ問題であり、この問題を考えるよりも、より確実性と可能性のある方向性を見つけたほうがよいでしょう。

AI スタートアップへのアドバイス: パフォーマンスを第一に考え、停滞を避ける

著者は langchain について不満を言う記事をたくさん書いてきましたが、その根本的な理由は、langchain には開発者がパフォーマンスを向上させる余地を残していないということです。 「ユニバーサルフレームワーク」と呼ばれるものですが、汎用性を確保するために、複数回の対話や微調整による形式制御など、大規模モデルの性能向上の多くは放棄されてきました。同様のものには、guides/Auto-GPT/BabyAGI などがあり、いずれも「一生続くフレームワーク」を構築したいと考えています。

客観的な事実として、OpenAI は 5 月に Function Calling をリリースしましたが、コード内の多くの問題のある箇所にはより優れた実装ソリューションがあり、より優れたソリューションを実装するには、製品コードの主要な部分をリファクタリングするコストがかかります。 8 月、OpenAI は GPT-3.5 を微調整するための権限をリリースし、出力の正確な制御を必要とする多くのリンクに新しいソリューションの可能性があります。

したがって、新興企業は重要な選択に直面する必要があります。①パフォーマンスを向上させて製品を継続的にリファクタリングするか、それとも②新機能の使用を減らし、開発には常に古い機能を使用するかを選択する必要があります。

新しい技術アプリケーションの起業家精神にとって、「開発」はコードを書くプロセスを表すだけでなく、製品の機能/戦略の「上限」も表します。制御できるパフォーマンスが高いほど、製品の理論上の機能が増加し、戦略的な柔軟性が高まります。

技術の発展は予測できず、小さな技術革新が競争環境に非常に敏感な変化をもたらす可能性があるため、スタートアップ企業は技術の発展に対して脆弱であることが求められます。

——人間の言葉で言えば、パフォーマンス第一、残留は避けるということです。開発レベルでは新機能を使用し、製品では新機能でどのような機能が実現できるかを考え、戦略では新機能が戦略に与える影響を検討します。

『郭秦論』には、秦王朝の成立後、内乱の可能性を排除するために世界中の金属兵器が没収され、12体の銅像に鋳造されたと述べられている。しかし、秦王朝は短命であったことで有名です。変化を無視するよりも、変化に注意を払う方が有益です。

AI スタートアップへのアドバイス: 自信を持ってアプリケーションを作成してください

スタートアップがアプリケーションを開発する場合、非常に一般的な隠れた危険があります。それは大企業の参入です。ここでいう大企業には、Meta/Byte/Tencent などのアプリケーション大手だけでなく、OpenAI などの AI 業界の上流企業も含まれます。

通常、大企業が市場に参入する理由は 2 つあります。製品機会を展開するため、もう 1 つは上流と下流をカットするためです。

「レイアウト製品機会」とは文字通りの意味で、大企業はこの方向性を追求する価値があると感じており、それを実行しています。

「上流が下流を切る」というのはほとんど無力な行為で、OpenAIとベンチマークする大規模モデルを開発したからかもしれませんが、大規模モデルの勝者総取りの問題で、ユーザーがいないため、コストが無駄になり、収益がなくなり、データがなくなるため、パフォーマンスが徐々に遅れていきます。現時点では、下流に切り込み、特定のアプリケーションを開発し、独自の技術を使用する唯一の選択肢があります。

過去の経験によれば、組織構造の問題により、下流に近い企業ほど技術が後れを取る可能性が高く、技術が後れを取るほど下流での仕事が増えます。これらのいわゆるテクノロジー企業は、最終的にはアプリケーション層の企業と同じ生態学的ニッチをめぐって競争することになるでしょう。

しかし、アプリケーション層の戦場では、AI技術が登場してから日が浅いため、効果的かつ再利用可能なスケールメリットがなく、大企業もスタートアップも出発点は似ています。大企業に比べて、新興企業は効率性や洞察力に優れており、活用しやすいのです。

注目すべき状況は、現在、MS Azure のほぼすべての宣伝資料が OpenAI を中心に展開していることですが、マイクロソフトほどの規模の工場はプラットフォームとして OpenAI に完全に依存しており、これはスタートアップ企業が AI の分野で当然の利点を持っていることを側面から証明しています。

もちろん、一部のクラウド ベンダーは新興企業に主導されることを受け入れられず、自社で市場を独占したいと考えているかもしれません。これは高価で、時間がかかり、差し迫った脅威ではありません。

実際のところ、AI アプリケーションには確かに短命なトラックがいくつかありますが、まだ発見されていない長命なトラックも数多くあり、AI アプリケーションは勝者総取りではありません。アプリケーションからプラットフォームまたはテクノロジーに拡張することも、より実現可能な方法です。

したがって、大企業がアプリケーション層に侵入する能力について合理的に考える必要があります。私たちの提案は、AI スタートアップが自信を持ってアプリケーションを作成できるということです。

AI スタートアップへのアドバイス: 製品のライフラインに注意を払う

前述したように、AI スタートアップは自信を持ってアプリケーションを開発できますが、AI モデルのパフォーマンスの問題を考慮し、停滞を避ける必要があります。この状況は、AI 製品が数か月以内に需要基盤を失い、徐々に衰退する可能性があるという事実に直接反映されており、この状況は頻繁に発生する可能性があります。

AI アプリケーションには大規模なモデルを使用したサービスが必要ですが、大規模なモデルのパフォーマンスは向上し続けています。この向上は「速度」といった単次元の向上ではなく、出力品質、出力長さ、出力制御性などの全体的な変化です。テクノロジーが大幅にアップグレードされるたびに、既存のアプリケーション層製品は技術的に遅れをとり、新たな機会や競合他社が生まれます。

**AI活用が戦略・製品・技術において優位性や必要性を維持する時期を「ライフライン」と呼んでいます。 **

短いライフラインの例をいくつか示します。

※ChatGPT/Claudeがファイルアップロードに対応するとChatPDFは不要になります

  • Office 365 が Copilot をサポートすると、AI を使用して PPT を描画する製品の優位性が失われます ※GPT-3.5が登場するとJasperは不要になります

**AI産業が急速に発展していることを考慮すると、ライフラインが限られているのが当たり前です。したがって、ライフラインには限りがあることを受け入れ、より長いライフラインを持つ方向を選択しようとすることが、長期的なメリットと製品の必要性を維持することにつながります。 **

一般に、ライフラインは単純に 3/6/12 か月のレベルに分けることができます。

※3ヶ月:大企業がやる時間がなかった機能(office/ChatGPTがやる時間がなかった機能など) ※6ヶ月:実装が難しく既存ソリューションに統合できないが、AIの性能向上に伴いメリット・必要性がなくなる(一般的なAIフレームワークなど)

  • 12 か月: 利点/必要性が長期にわたって存在する可能性があり、大企業/技術開発の影響を受けにくい (Hugging Face など)

*プラットフォーム製品のライフサイクルは必ずしも長いわけではありません。結局のところ、店舗もプラットフォームです

スタートアップが方向性を決めるのに必要なのは 6 か月のライフラインだけであり、12 か月のライフラインを手に入れるのは困難です。

製品のライフラインが終了するとき、一般に 2 つの状況が考えられます。 1 つ目の状況は、利点がなくなり、製品のアップグレード技術を再構築する必要があることです。上記の「性能第一」を参照してください。2 つ目の状況は、必要性がなくなり、製品が徐々に置き換えられることです。製品にはまだ数か月の「動作寿命」があり、スタートアップ企業が次の方向を選択するのに十分です。

AI スタートアップへのアドバイス: Web3+AI なら実現できる

現在、Web3+AI をテーマにした起業家プロジェクトが数多くありますが、技術開発の不確実性と市場の初期段階を考慮すると、Web3+AI のテーマは将来的にもまだ変動する部分が多いと考えられます。

この記事の目的は、不確実性の中から高い確率で正確な確実性を見つけることですので、著者はまだいくつかのアイデアを捨てて、スタートアップ企業や興味のあるスタートアップ企業の参考になる可能性のあるいくつかのテーマや方向性を提案したいと考えています。研究者たち。

  • 脱主権化・地方分権化

現在、AI 業界のリーダーはクローズドソース モデルのみを提供しており、継続的なサービス提供の安定性、透明性、中立性は制御できません。非主権/分散化はAI業界における重要なテーマとなる可能性があります。つまり、非主権/分散化の基本構造に基づいて、安定的で透明性のある中立的なAIサービスを提供することです。

非主権化/分散化は「代替ソリューション」であり「抑止力」であり、集中化/主権化された AI 企業の非倫理的なコストを大幅に増加させ、軍事、カルト、政治などで AI モデルを使用することを妨げる可能性があります。

極端なケースでは、集中型/主権型 AI サービスが何らかの理由で利用できなくなったり信頼されなくなったりすると、非主権型/分散型 AI が高可用性のサービスを提供し続けることで、個々の国や地域、さらには人類が AI を失うことを防ぐことができます。

  • 計算能力の実用化

ETHがPoWからPoSへ移行する背景には、「マイニングでは価値が生まれない」というジレンマが指摘されていますが、Web3とAIを組み合わせることで実用的な計算能力のシナリオを提供することで、既存の計算能力の消化を実現し、総計算能力の成長を促進することができます。 。

  • 仮想資産化

AI はコンピューティング能力とストレージにネイティブな資産です。Web3 と AI を組み合わせることで、AI を仮想資産に変換するチャネルを提供できます。AI 業界の価値をインスタンス化しながら、Web3 用の真のネイティブ仮想資産を作成することもできます。

  • Web3 アプリケーション用の変数

Web3 と AI の組み合わせは、Web3 アプリケーションに新しい機能ポイントと成長の機会をもたらす可能性があり、既存の Web3 アプリケーションを完全にやり直すこともできます。

最後に書きました: 9 月ですが、AI は今からでもビジネスを始める価値がありますか?

結論から始めましょう。それは価値があり、この結論はおそらく旧正月まで使用できます。

人々は状況に対して偏った認識を持っていることがよくありますが、私も例外ではありません。楽観的すぎる人もいれば、悲観的すぎる人もいます。筆者はかつて 2 つのチームとコミュニケーションを取ったことがあります。1 つのチームは来年の第 1 四半期には AI エージェントを構築できると考えていますが、もう 1 つのチームは AI はナレッジ ベース管理にのみ適していると考えています。明らかに前者は楽観的すぎます。後者は悲観的すぎる。

長期的な計画を立てる場合、楽観的すぎても悲観的すぎてもどちらも落とし穴に落ちますし、広く流布される発言は大きく乖離したものであることが多いため、独立した思考は非常に貴重です。したがって、読者がこの記事の視点を受け入れることができるかどうかに関係なく、読者が読書の過程で独自の思考と判断を持っている限り、著者は非常に満足しています。

最後に広告を掲載します。 AI 起業家としての優れたアイデアをお持ちの場合、またはすでにプロジェクトを立ち上げている場合は、いつでも NGC の友人 (私など) とコミュニケーションを取ることを歓迎します。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • 共有
コメント
0/400
コメントなし
いつでもどこでも暗号資産取引
qrCode
スキャンしてGateアプリをダウンロード
コミュニティ
日本語
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)