出典: Heart of the Machine 画像ソース: Unbounded AIによって生成最近、AIをどのように監督するかについての議論はますます白熱しており、大物は非常に異なる意見を持っています。例えば、チューリング賞のジェフリー・ヒントン、ヨシュア・ベンジオ、ヤン・ルカンの3人は、2つの見方をしています。 ヒントン氏とベンジオ氏は、AIの規制強化を強く求めるチームであり、それが「AIの絶滅」の危機につながる可能性がある。 LeCunは彼らの見解を共有しておらず、AIの強力な規制は必然的に巨大企業の独占につながり、その結果、AIの研究開発を支配する企業はごくわずかになると主張しています。例えば、ここ数日、ベンジオ氏、ヒントン氏らは共同書簡「Managing AI Risk in a Rapidly Evolving Era(急速に進化する時代におけるAIリスクの管理)」を発表し、研究者にAIシステムを開発する前に早急なガバナンス対策を講じるよう呼びかけました。同時に、「人工知能のセキュリティとオープン性に関する共同声明」と題する公開書簡がソーシャルメディア上で現在発酵しています。 公開書簡へのリンク:これまでに、ディープラーニングの三大巨頭の一人であるLeCun氏や、スタンフォード大学コンピュータサイエンス学部のAndrew Ng教授など、370人以上が公開書簡に署名しています。 リストは常に更新されています。「オープンで透明性が高く、幅広いアクセスにより、ソフトウェアプラットフォームの安全性と信頼性が向上します。 私も署名したMozilla Foundationからのこの公開書簡は、オープンなAIプラットフォームとシステムの必要性を主張しています。 **以下は公開書簡の内容です。>> 私たちは今、AIガバナンスの岐路に立っています。 AIシステムの現在および将来の害を軽減するには、オープン性、透明性、幅広いアクセスを受け入れる必要があります。 これはグローバルな優先事項である必要があります。 > 公開されているモデルにはリスクと脆弱性があり、AIモデルは悪意のあるアクターによって悪用されたり、十分な知識のない開発者によってデプロイされたりする可能性があります。 しかし、私たちは、あらゆる種類のプロプライエタリなテクノロジーで、一般の人々のアクセスと検閲の増加が、テクノロジーをより危険にするのではなく、より安全にするのを何度も見てきました。 基盤となるAIモデルを厳格かつ独占的に管理することが、私たちを集団被害から守る唯一の方法であるという考えは、良く言えばナイーブであり、悪く言えば危険です。>> さらに、人間開発の歴史は、間違った規制を迅速に採用すると、権力の集中につながり、競争とイノベーションを損なう可能性があることを私たちに教えています。 オープンモデルは、公開討論に情報を提供し、戦略開発を改善することができます。 私たちの目標が安全、セキュリティ、説明責任である場合、この目標を達成するためのオープン性と透明性は重要な要素です。 > AI時代における「オープン」とはどういうことかについて、ダイナミックな議論が交わされています。 この重要な議論を遅らせるべきではありません。 むしろ、AIセキュリティ競争においてオープン性を活用するための新しい方法を実験し、学び、開発することを奨励し、加速させるべきです。>>> オープンソースとオープン性に対する一連のアプローチを構築する必要があります。 > 1. 独立した調査、コラボレーション、知識の共有を通じて、AI 機能のリスクと危険性の理解を促進します。 2. 規制当局が大規模なAIシステムを監視するためのツールを採用できるように支援することにより、国民の監視と説明責任を強化する。 3. 新規プレイヤーの参入障壁を下げ、責任あるAIの開発に集中する。 > この公開書簡の署名者として、私たちは科学者、戦略家、エンジニア、活動家、起業家、教育者、ジャーナリストなど、多様なグループです。 私たちは、オープンソースAIの管理と公開の方法について、さまざまな視点からアプローチしています。 しかし、私たちは、AIの時代に私たちの安全を守るためには、オープンで説明責任があり、透明性のあるアプローチが不可欠であるという点で強く同意しています。 > AIセキュリティに関して言えば、オープン性は毒ではなく解毒剤です。**署名者:*** Arthur Mensch氏、フランスのスタートアップMistralAIの共同創業者兼CEO* Andrew Ng、DeepLearning.AI の創設者、Landing AIの創設者兼CEO、スタンフォード大学のコンピューターサイエンス教授* Yann Lecun、チューリング賞受賞者、MetaのチーフAIサイエンティスト* Julien Chaumond、Hugging Face CTO* Brian Behlendorf、Apacheの創設メンバー、OpenSSFのCTO* エリック・フォン・ヒッペルはアメリカの経済学者で、MITスローン経営大学院の教授* ......現在、わずか数日しか登場していないこの公開書簡は発酵を続けており、外国のAIコミュニティで大きな注目を集め、議論を集めているため、リストの更新に引き続き注意を払うことができます。共同書簡のアイデアに賛同する場合は、独自の署名を提出することもできます。AIの強力な規制が利益よりも害を及ぼすのか、それともメリットがデメリットを上回るのか、答えを出すには時間がかかるでしょう。
LeCun氏とNg Enda氏を含む370人以上が共同書簡に署名した:AIの厳格な管理は危険であり、オープン性は解毒剤である
出典: Heart of the Machine
最近、AIをどのように監督するかについての議論はますます白熱しており、大物は非常に異なる意見を持っています。
例えば、チューリング賞のジェフリー・ヒントン、ヨシュア・ベンジオ、ヤン・ルカンの3人は、2つの見方をしています。 ヒントン氏とベンジオ氏は、AIの規制強化を強く求めるチームであり、それが「AIの絶滅」の危機につながる可能性がある。 LeCunは彼らの見解を共有しておらず、AIの強力な規制は必然的に巨大企業の独占につながり、その結果、AIの研究開発を支配する企業はごくわずかになると主張しています。
例えば、ここ数日、ベンジオ氏、ヒントン氏らは共同書簡「Managing AI Risk in a Rapidly Evolving Era(急速に進化する時代におけるAIリスクの管理)」を発表し、研究者にAIシステムを開発する前に早急なガバナンス対策を講じるよう呼びかけました。
同時に、「人工知能のセキュリティとオープン性に関する共同声明」と題する公開書簡がソーシャルメディア上で現在発酵しています。
これまでに、ディープラーニングの三大巨頭の一人であるLeCun氏や、スタンフォード大学コンピュータサイエンス学部のAndrew Ng教授など、370人以上が公開書簡に署名しています。 リストは常に更新されています。
「オープンで透明性が高く、幅広いアクセスにより、ソフトウェアプラットフォームの安全性と信頼性が向上します。 私も署名したMozilla Foundationからのこの公開書簡は、オープンなAIプラットフォームとシステムの必要性を主張しています。
署名者:
現在、わずか数日しか登場していないこの公開書簡は発酵を続けており、外国のAIコミュニティで大きな注目を集め、議論を集めているため、リストの更新に引き続き注意を払うことができます。
共同書簡のアイデアに賛同する場合は、独自の署名を提出することもできます。
AIの強力な規制が利益よりも害を及ぼすのか、それともメリットがデメリットを上回るのか、答えを出すには時間がかかるでしょう。