> AI、特に大規模モデル時代のオープンソースとクローズドソースには長所と短所があり、重要なのはそれを使用する過程でどのようにうまく機能するかです。 画像ソース: Unbounded AI によって生成AI の分野では、オープンソースとクローズドソースのどちらを選択するかで常に意見が分かれてきましたが、大規模モデルの時代には、オープンソースの強力な力が静かに台頭しています。 Googleが以前に漏洩した内部文書によると、MetaのLLaMAなどのオープンソースモデルを中心に、コミュニティ全体がOpenAIやGoogleの大規模モデル機能と同様のモデルを急速に構築しているという。最近リリースされた Llama 2 など、継続的なオープンソースへの取り組みにより、Meta がオープンソースの世界の絶対的な核であることは疑いの余地がありません。しかし、良いものは風に乗って消えてしまうもので、最近メタはオープンソースのせいで「困った」状態にあります。Metaのサンフランシスコオフィスの外では、プラカードを持ったデモ参加者のグループが集まり、AIモデルを公的に公開するというMetaの戦略に抗議し、これらの公開されたモデルが潜在的に危険な技術の「不可逆的な拡散」を引き起こしたと主張した。デモ参加者の中には、メタ社が発表した大型モデルを「大量破壊兵器」と例える人もいた。これらの抗議活動参加者たちは自らを「懸念する市民」と呼び、ホリー・エルモアが指導者となっている。 LinkedIn の情報によると、彼女は AI Pause 運動の独立した支持者です。 *写真出典:ミーシャ・グレヴィッチ*彼女は、ユーザーに API 経由でのみアクセスを許可する Google や OpenAI などの大規模モデルのように、モデルが安全でないと判明した場合、API がシャットダウンされる可能性があると指摘しました。対照的に、Meta の LLaMA シリーズのオープン ソース モデルでは、モデルの重みが公開されているため、適切なハードウェアと専門知識を持つ人なら誰でも、モデルを複製したり微調整したりすることができます。モデルの重みが公開されると、出版社は AI の使用方法を制御する手段を失います。Holly Elmore 氏によると、モデルの重みを公開するのは危険な戦略であり、誰でもモデルを変更でき、これらのモデルをリコールすることはできません。 「モデルが強力であればあるほど、戦略はより危険になります。」オープンソースと比較すると、API 経由でアクセスされる大規模なモデルには、危険な応答や攻撃的な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまなセキュリティ機能が備わっていることがよくあります。モデルの重みが解放されれば、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングするのがはるかに簡単になります。これにより、これらのオープン ソース モデルを使用してフィッシング ソフトウェアを作成し、ネットワーク攻撃を実行する可能性が高まります。 *写真出典:ミーシャ・グレヴィッチ*彼女は、問題の一部は「モデルのリリースにおける安全対策が不十分」にあると考えており、モデルの安全性を確保するためのより良い方法が必要であると考えているからです。メタはこれについてまだコメントしていない。しかし、MetaのチーフAIサイエンティストであるYann LeCun氏は、「オープンソースAIは禁止されるべきだ」という発言に反応し、パリのオープンソースAI起業家コミュニティの壮大な状況を暴露したようだ。 AI 開発のオープンな戦略がテクノロジーへの信頼を確保する唯一の方法であると信じているホリー エルモアの意見に反対する人はたくさんいます。一部のネチズンは、オープンソースには長所と短所があり、人々の透明性を高め、イノベーションを強化できるが、悪意のある者による(コードなどの)悪用のリスクにも直面すると述べた。 案の定、OpenAIはまたしても「オープンソースに戻るべきだ」と揶揄された。 **オープンソースに不安を感じている人はたくさんいます**MITのAIセキュリティの博士研究員であるピーター・S・パーク氏は、「AIモデルの悪用を防ぐことは基本的に不可能であるため、高度なAIモデルの広範なリリースは将来的に特に問題となるだろう」と述べた。しかし、非営利の人工知能研究組織である EleutherAI のエグゼクティブ ディレクターであるステラ ビダーマン氏は、「これまでのところ、オープンソース モデルが特定の害を引き起こすという証拠はほとんどありません。API の背後にモデルを配置するだけで問題が解決されるかどうかは不明です」と述べています。問題です。秘密の質問です。」Biderman 氏は、「LLM 構築の基本要素は自由研究論文で公開されており、世界中の誰でも論文文献を読んで独自のモデルを開発できる」と考えています。同氏はさらに、「企業にモデルの詳細を秘密にするよう奨励すると、特に独立した研究者にとって、研究の透明性、一般の意識、この分野の科学の発展に深刻な悪影響をもたらす可能性がある」と付け加えた。オープンソースの影響についてはすでに誰もが議論していますが、Meta のアプローチが本当に十分にオープンであり、オープンソースを活用できるかどうかはまだ不明です。オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクターであるステファノ マフリ氏は、「オープンソース AI の概念は適切に定義されていません。さまざまな組織がさまざまなものを指すためにこの用語を使用しており、さまざまなレベルの『公的に利用可能なもの』を示しています。それは人々を混乱させるでしょう。」 マフリ氏は、オープンソース ソフトウェアの場合、重要な問題はソース コードが公開されており、いかなる目的でも再現できるかどうかであると指摘しています。ただし、AI モデルを再現するには、トレーニング データ、データ収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどを共有する必要がある場合があります。その中で最も重要なのは、トレーニング データにはプライバシーと著作権の問題がある可能性があるということです。OSIは昨年から「オープンソースAI」の正確な定義に取り組んでおり、おそらく今後数週間以内に初期草案をリリースする予定だ。しかし、何があっても、AI の開発にはオープンソースが不可欠であると彼は信じています。 「AIがオープンソースでなければ、信頼できる責任あるAIを実現することはできない」と同氏は述べた。今後もオープンソースとクローズドソースの違いは続くだろうが、オープンソースは止められない。*元のリンク:*
オープン モデルの重み付けは AI を制御不能にする原因として非難され、メタはプラカードで抗議された LeCun: オープンソース AI コミュニティは本格化しています。
AI の分野では、オープンソースとクローズドソースのどちらを選択するかで常に意見が分かれてきましたが、大規模モデルの時代には、オープンソースの強力な力が静かに台頭しています。 Googleが以前に漏洩した内部文書によると、MetaのLLaMAなどのオープンソースモデルを中心に、コミュニティ全体がOpenAIやGoogleの大規模モデル機能と同様のモデルを急速に構築しているという。
最近リリースされた Llama 2 など、継続的なオープンソースへの取り組みにより、Meta がオープンソースの世界の絶対的な核であることは疑いの余地がありません。しかし、良いものは風に乗って消えてしまうもので、最近メタはオープンソースのせいで「困った」状態にあります。
Metaのサンフランシスコオフィスの外では、プラカードを持ったデモ参加者のグループが集まり、AIモデルを公的に公開するというMetaの戦略に抗議し、これらの公開されたモデルが潜在的に危険な技術の「不可逆的な拡散」を引き起こしたと主張した。デモ参加者の中には、メタ社が発表した大型モデルを「大量破壊兵器」と例える人もいた。
これらの抗議活動参加者たちは自らを「懸念する市民」と呼び、ホリー・エルモアが指導者となっている。 LinkedIn の情報によると、彼女は AI Pause 運動の独立した支持者です。
彼女は、ユーザーに API 経由でのみアクセスを許可する Google や OpenAI などの大規模モデルのように、モデルが安全でないと判明した場合、API がシャットダウンされる可能性があると指摘しました。
対照的に、Meta の LLaMA シリーズのオープン ソース モデルでは、モデルの重みが公開されているため、適切なハードウェアと専門知識を持つ人なら誰でも、モデルを複製したり微調整したりすることができます。モデルの重みが公開されると、出版社は AI の使用方法を制御する手段を失います。
Holly Elmore 氏によると、モデルの重みを公開するのは危険な戦略であり、誰でもモデルを変更でき、これらのモデルをリコールすることはできません。 「モデルが強力であればあるほど、戦略はより危険になります。」
オープンソースと比較すると、API 経由でアクセスされる大規模なモデルには、危険な応答や攻撃的な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまなセキュリティ機能が備わっていることがよくあります。
モデルの重みが解放されれば、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングするのがはるかに簡単になります。これにより、これらのオープン ソース モデルを使用してフィッシング ソフトウェアを作成し、ネットワーク攻撃を実行する可能性が高まります。
彼女は、問題の一部は「モデルのリリースにおける安全対策が不十分」にあると考えており、モデルの安全性を確保するためのより良い方法が必要であると考えているからです。
メタはこれについてまだコメントしていない。しかし、MetaのチーフAIサイエンティストであるYann LeCun氏は、「オープンソースAIは禁止されるべきだ」という発言に反応し、パリのオープンソースAI起業家コミュニティの壮大な状況を暴露したようだ。
一部のネチズンは、オープンソースには長所と短所があり、人々の透明性を高め、イノベーションを強化できるが、悪意のある者による(コードなどの)悪用のリスクにも直面すると述べた。
MITのAIセキュリティの博士研究員であるピーター・S・パーク氏は、「AIモデルの悪用を防ぐことは基本的に不可能であるため、高度なAIモデルの広範なリリースは将来的に特に問題となるだろう」と述べた。
しかし、非営利の人工知能研究組織である EleutherAI のエグゼクティブ ディレクターであるステラ ビダーマン氏は、「これまでのところ、オープンソース モデルが特定の害を引き起こすという証拠はほとんどありません。API の背後にモデルを配置するだけで問題が解決されるかどうかは不明です」と述べています。問題です。秘密の質問です。」
Biderman 氏は、「LLM 構築の基本要素は自由研究論文で公開されており、世界中の誰でも論文文献を読んで独自のモデルを開発できる」と考えています。
同氏はさらに、「企業にモデルの詳細を秘密にするよう奨励すると、特に独立した研究者にとって、研究の透明性、一般の意識、この分野の科学の発展に深刻な悪影響をもたらす可能性がある」と付け加えた。
オープンソースの影響についてはすでに誰もが議論していますが、Meta のアプローチが本当に十分にオープンであり、オープンソースを活用できるかどうかはまだ不明です。
オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクターであるステファノ マフリ氏は、「オープンソース AI の概念は適切に定義されていません。さまざまな組織がさまざまなものを指すためにこの用語を使用しており、さまざまなレベルの『公的に利用可能なもの』を示しています。それは人々を混乱させるでしょう。」
OSIは昨年から「オープンソースAI」の正確な定義に取り組んでおり、おそらく今後数週間以内に初期草案をリリースする予定だ。しかし、何があっても、AI の開発にはオープンソースが不可欠であると彼は信じています。 「AIがオープンソースでなければ、信頼できる責任あるAIを実現することはできない」と同氏は述べた。
今後もオープンソースとクローズドソースの違いは続くだろうが、オープンソースは止められない。
元のリンク: