これらはモデリングの最先端を代表する最高のモデルです。ここで、驚くべき魔法のデモが登場します。これらのモデルは、開発者がアプリケーションに対して AI ができることの限界を探ろうとするときに最初に検討することがよくあります。これらのモデルはトレーニングに費用がかかり、維持と拡張が複雑です。しかし、同じモデルで LSAT や MCAT を利用し、高校の作文を書いたり、チャットボットとして対話したりすることができます。開発者は現在、これらのモデルを実験し、エンタープライズ アプリケーションでの AI の使用を評価しています。
Lightspeed America: AI インフラストラクチャ層の将来はどこにあるのでしょうか?
原作:SenseAI
センス思考
私たちは記事の内容に基づいて、より多様な推論や考察を提案するよう努めており、意見交換を歓迎します。
モデルの能力とコストに応じて、AI モデルは「ブレイン モデル」、「チャレンジャー モデル」、「ロングテール モデル」に分けられます。ロングテール モデルは小さくて柔軟性があり、細分化されたドメインのエキスパート モデルをトレーニングするのにより適しています。ムーアの法則の周期性と重ね合わせると、将来的には計算能力の妨げはなくなり、脳モデルのアプリケーションシナリオを排除することは難しくなり、市場はアプリケーションのスペースサイズに基づいて適切なモデルを選択する可能性が高いシナリオとバリューチェーン配分ルール。
モデル側での新たなシステムの機会: 1) モデル評価フレームワーク、2) モデルの運用と保守、3) システムの拡張。考慮する必要があるのは、中国と米国の異なる市場の違い、本来のビジネスサービスの生態、資本の選好などです。
エンタープライズレベルの RAG (検索拡張) プラットフォームの機会: モデルの複雑さと多様性によってもたらされる機会、1) 運用ツール: 可観測性、セキュリティ、コンプライアンス、2) データ: ビジネス価値の差別化と社会全体への提供において、テクノロジーは価値観の間で機会をもたらします。データの収益化。
この記事の本文は合計 2426 ワードあり、じっくり読むのに約 7 分かかります
米国の確立されたファンドである Lightspeed は、過去 10 年間にわたり、企業が Gen-AI についてどのように考えているかをより深く理解するために、AI/ML 分野の優れた企業、彼らが構築するプラットフォーム、および彼らがサービスを提供する顧客と協力してきました。具体的には、Lightspeed は基礎となるモデルのエコシステムを調査し、「最良のモデルには勝者総取りのダイナミックな仕組みがあるのか?」、「すべてのエンタープライズ ユースケースはデフォルトで OpenAI の API を呼び出すのか、それとも実際にそれを使用する方が良いのか?」などの質問をします。 「多様化?」などなど。その答えによって、このエコシステムの将来の成長方向と、エネルギー、人材、資本の流れが決まります。
01. モデル生態系の分類
私たちの学習に基づいて、AI におけるモデルのカンブリア紀の爆発が近づいていると考えています。開発者と企業は「やるべき仕事」に最も適したモデルを選択しますが、探索段階での使用はより集中しているように見えるかもしれません。企業での導入の可能性が高いのは、探索には大規模なモデルを使用し、ユースケースの理解が深まるにつれて、本番環境で使用するために徐々に小型の特殊な (調整および洗練された) モデルに移行することです。以下の図は、基礎となるモデルのエコシステムの進化をどのように見ているかを概説しています。
カテゴリ 1:「脳」モデル
これらはモデリングの最先端を代表する最高のモデルです。ここで、驚くべき魔法のデモが登場します。これらのモデルは、開発者がアプリケーションに対して AI ができることの限界を探ろうとするときに最初に検討することがよくあります。これらのモデルはトレーニングに費用がかかり、維持と拡張が複雑です。しかし、同じモデルで LSAT や MCAT を利用し、高校の作文を書いたり、チャットボットとして対話したりすることができます。開発者は現在、これらのモデルを実験し、エンタープライズ アプリケーションでの AI の使用を評価しています。
ただし、汎用モデルは使用コストが高く、推論レイテンシが高く、明確に定義された制約のあるユースケースには過剰になる可能性があります。 2 番目の問題は、これらのモデルは汎用的であり、特殊なタスクでは精度が低い可能性があることです。 (コーネル大学のこの論文を参照してください) 最後に、これらはほとんどの場合ブラック ボックスでもあり、データ資産を放棄せずにこれらのモデルを活用しようとしている企業にとってプライバシーとセキュリティの課題が生じる可能性があります。 OpenAI、Anthropic、Cohere などの企業がその例です。
カテゴリー 2:「チャレンジャー」モデル
これらも、技術力においては先行する汎用大型機種に次ぐ高性能機種である。ラマ 2 とファルコンは、このカテゴリの最高の代表です。これらは通常、汎用モデルをトレーニングする企業の第 2 世代「N-1」または「N-2」モデルと同じくらい優れています。たとえば、いくつかのベンチマークによると、Llama2 は GPT-3.5-turbo と同じくらい優れています。これらのモデルをエンタープライズ データに基づいて調整すると、特定のタスクにおいては、ファーストクラスの汎用大規模モデルと同等の性能を得ることができます。
これらのモデルの多くはオープンソース (またはそれに近い) であり、リリースされるとすぐにオープンソース コミュニティから改善と最適化がもたらされます。
カテゴリー 3:「ロングテール」モデル
これらは「エキスパート」モデルです。これらは、ドキュメントの分類、画像やビデオの特定の属性の識別、ビジネス データのパターンの識別など、特定の目的を果たすために構築されています。これらのモデルは柔軟性があり、トレーニングと使用が安価であり、データセンターまたはエッジで実行できます。
Hugging Face をざっと見るだけで、幅広いユースケースに対応するこのエコシステムの現在および将来の巨大な規模を理解するのに十分です。
02. 基本的な適応と実践例
まだ初期段階ではありますが、一部の主要な開発チームや企業がエコシステムについてこの微妙なニュアンスの方法で考えているのがすでに見られます。使用方法を可能な限り最適なモデルに合わせたいと考えています。複数のモデルを使用して、より複雑なユースケースに対応することもできます。
どのモデルを使用するかを評価する際の要素には通常、次のものが含まれます。
データ プライバシーとコンプライアンスの要件: これは、モデルをエンタープライズ インフラストラクチャ上で実行する必要があるかどうか、または外部でホストされている推論エンドポイントにデータを送信できるかどうかに影響します。
微調整が可能なモデルかどうか
推論「パフォーマンス」の望ましいレベル (レイテンシー、精度、コストなど)
ただし、実際には、開発者が AI で達成したいユースケースの多様性を反映して、考慮すべき要素は上記の要素よりもはるかに長いことがよくあります。
03. チャンスはどこにありますか?
モデル評価フレームワーク: 組織は、どのユースケースにどのモデルを使用するかを評価するのに役立つツールと専門知識にアクセスする必要があります。開発者は、「実行すべき作業」に対する特定のモデルの適合性を評価する最適な方法を決定する必要があります。評価では、モデルのパフォーマンスだけでなく、コスト、実装可能な制御レベルなど、複数の要素を考慮する必要があります。
モデルの実行と保守: 企業がモデル (特に 3 番目のカテゴリーのロングテール モデル) をトレーニング、微調整、実行できるようにするプラットフォームが登場します。従来、これらのプラットフォームは ML Ops プラットフォームと広く呼ばれてきましたが、この定義が生成 AI にも拡張されると予想されます。 Databricks、Weights and Biases、Tecton などのプラットフォームは、この方向に急速に進んでいます。
拡張システム: モデル、特にホスト型 LLM では、望ましい結果を提供するために検索拡張生成が必要です。これには、次のような一連の補助的な決定が必要です。
データとメタデータの抽出: 構造化および非構造化エンタープライズ データ ソースに接続し、アクセス ポリシーなどのデータとメタデータを抽出する方法。
データの生成とストレージのエンベディング: データのエンベディングの生成に使用されるモデル。そして、それらをどのように保存するか: 特に必要なパフォーマンス、規模、機能に基づいて、どのベクトル データベースを使用するか?
これらのプラットフォームを選択して結合する複雑さを取り除く、エンタープライズ グレードの RAG プラットフォームを構築する機会があります。
可観測性: モデルは本番環境でどの程度うまく機能しますか?時間の経過とともにパフォーマンスは向上または低下しますか?将来のリリースのアプリケーション モデルの選択に影響を与える可能性のある使用パターンはありますか?
セキュリティ: AI ネイティブ アプリケーションを安全に保つ方法。これらのアプリケーションは、新しいプラットフォームを必要とする新しい攻撃ベクトルに対して脆弱ですか?
コンプライアンス: AI ネイティブ アプリケーションと LLM の使用は、関連する統治機関がすでに開発を開始しているフレームワークに準拠する必要があると予想されます。これは、プライバシー、セキュリティ、消費者保護、公平性などに関する既存のコンプライアンス体制に追加されるものです。企業には、コンプライアンスの維持、監査の実施、コンプライアンスの証拠の生成、および関連タスクを支援できるプラットフォームが必要になります。
今こそ、AI インフラストラクチャ プラットフォームを構築する絶好の機会です。人工知能の応用は業界全体を変革し続けるでしょうが、地球上のすべての企業がこの強力なテクノロジーを導入できるようにするには、インフラストラクチャ、ミドルウェア、セキュリティ、可観測性、およびオペレーティング プラットフォームをサポートする必要があります。
参考文献
著者: ベラ、イーハオ、レオ
編集と植字:ゾーイ、ヴェラ