カーネギーメロン大学、AI Now Institute、Signal Foundationの研究チームは、「Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI」と題した論文を発表し、「ラマ」の現実を調査しました。 2」および何らかの方法で「オープンソース化」されているその他の人工知能モデル。 彼らは、「オープンソース」の旗の下にあるモデルにはいくつかの「落とし穴」がある可能性があると述べました。
「オープンソース」の名の下にあるAIモデルには落とし穴があるかも?
ChatGPT の出現により、より多くの人が強力な人工知能 (AI) にアクセスできるようになりましたが、チャットボットの内部動作は未公開の秘密のままです。
その結果、AI をより「オープン」にする取り組みが、ここ数カ月でさらに注目を集めているようです。 **
今年 5 月、何者かによって Meta の「Llama」モデルが漏洩し、外部の世界がその基礎となるコードとその動作を決定するモデルの重みにアクセスできるようになりました。 7月にMetaは、誰でも無料でダウンロード、変更、再利用できると主張する、より強力なモデルLlama 2を発表した。それ以来、Meta の Llama シリーズ モデルは、多くの企業、研究者、AI アマチュアが ChatGPT のような機能を備えたツールやアプリケーションを構築するための基礎となりました。
**ソフトウェアへのアクセスを民主化し、透明性を確保し、セキュリティを向上させてきた数十年を経て、オープンソースのアプローチは人工知能にも同様の影響を与えることが期待されているようです。 **
** しかし、これでは十分ではないかもしれません。 **
カーネギーメロン大学、AI Now Institute、Signal Foundationの研究チームは、「Open (For Business): Big Tech, Concentrated Power, and the Political Economy of Open AI」と題した論文を発表し、「ラマ」の現実を調査しました。 2」および何らかの方法で「オープンソース化」されているその他の人工知能モデル。 彼らは、「オープンソース」の旗の下にあるモデルにはいくつかの「落とし穴」がある可能性があると述べました。
**このレベルの制御は、Llama 2 が Meta に大きな技術的および戦略的利点をもたらす可能性があることを意味します。たとえば、外部企業が独自のアプリケーションで Llama 2 モデルを使用する場合、Meta は有益な調整による恩恵を受けることができます。 **
非営利団体 EleutherAI の GPT Neo など、一般的なオープンソース ライセンスの下でリリースされたモデルは、よりオープンであると研究者らは述べています。しかし、これらのプロジェクトは、大企業が発売したモデルと競合するのが難しい。
第一に、高度なモデルのトレーニングに必要なデータは機密であることが多いです。第二に、そのようなモデルの構築に必要なソフトウェア フレームワークは通常、大企業によって管理されており、最も人気のある 2 つのソフトウェア フレームワークはそれぞれ TensorFlow と Pytorch です。 Google と Meta によって保守されています。さらに、大規模な人工知能モデルをトレーニングするために必要なコンピューターの能力は、通常の開発者や企業には手の届かないものであり、通常、1 回のトレーニング セッションに数千万ドルまたは数億ドルが必要です。 ; *最後に * 、これらのモデルを洗練および改善するために必要な人材も、大部分は大企業のみが入手できるリソースです。
したがって、研究チームは、現在の傾向から判断すると、ここ数十年で最も重要なテクノロジの 1 つが、OpenAI、Microsoft、Meta、Google を含むわずか数社の機能を強化および強化することになる可能性があると考えています。人工知能が本当に世界を変えることができるテクノロジーであり、より広く応用され、普及することができれば、全世界に最大の利益をもたらすことができます。
「我々の分析は、(このレベルの)オープンソースはAIを『民主化』できないだけではないことを示している」と論文著者の一人であるメレディス・ウィテカー氏はWiredに語った。権力の集中を強化し、拡大する。」
さらに、** 最もオープンな「オープン」 AI システムであっても、それ自体では AI における民主的なアクセスや有意義な競争が保証されるわけではなく、オープン性だけでは監視や検閲の問題を解決することもできません。 **
ウィテカー氏は、切望されているAI規制においてはオープンソースが重要な考慮事項であるべきであると付け加え、「特にAIシステムがヘルスケアなど特定の公衆に影響を与える非常に機密性の高い分野に統合される場合、大規模な独占企業によって定義され支配されている技術に代わる有意義な代替手段が本当に必要である」と付け加えた。この代替を可能にする条件を作り出すことは、独占禁止法改革などの規制運動と共存できるプロジェクトであり、さらにはそれによって支援されることさえある。」
研究チームはまた、大企業の力のバランスに加えて、最悪の傾向を回避しながらテクノロジーの最大の可能性を引き出すためには、AIをよりオープンにすることが重要である可能性があるとも述べている。 **
** 最先端の AI モデルの能力を理解し、展開やさらなる開発に伴うリスクを軽減したい場合は、これらのモデルを世界中の科学者が利用できるようにするのが最善です。 **
「隠蔽によるセキュリティ」ではコードが安全に実行されることを決して保証できないのと同様に、強力な AI モデルの動作を保護することが必ずしも最も賢明な方法であるとは限りません。
参考リンク: