つい数日前、ベンジオ氏、ヒントン氏らは共同書簡「Managing AI Risks in an Era of Rapid Development(急速な発展の時代におけるAIリスクの管理)」を発表し、AIシステムを開発する前に安全性と倫理的慣行を優先する緊急のガバナンス措置を講じるよう研究者に呼びかけ、政府にAIがもたらすリスクを管理するための行動を起こすよう呼びかけました。
ネチズンは、ヒントン氏、ベンジオ氏らが発行した共同書簡が、AIをアシスタントとして見ていたものから、当初はAIを潜在的な脅威と見なしていたものへと、人々の認識を変えたと主張する記事「'This is his climate change': The experts helping Rishi Sunak seal his legacy」に対するルカン氏の意見について、ルカン氏に尋ねた。 記事はさらに、ここ数カ月で、英国のオブザーバーは、AIが作り出している終末論的な雰囲気について、ますます多くの情報を発見していると述べている。 3月、英国政府はAIのイノベーションを阻害しないことを約束する白書を発表しました。 しかし、そのわずか2カ月後、英国はAIにガードレールを設けることについて話し始め、米国にグローバルなAIルールの計画を受け入れるよう促した。
モントリオール大学のコンピュータサイエンスおよびオペレーションズリサーチ学部の教授であるIrina Rish氏は、Mila - Quebec Institute for AIのコアメンバーでもあります。 彼女は、オープンソースのAIを支持する研究者は沈黙をやめ、新しいAIの開発をリードすべきだと述べました。
チューリング賞受賞者が議論してるし、ルカン:ベンジオ、ヒントンらのAI絶滅説はばかげている
出典:Heart of the Machine
AIのリスク問題については、あらゆる分野の大物たちも異なる意見を持っています。 一部の人々は、AIラボの即時停止を求める共同書簡に署名し、ディープラーニングの三頭政治者であるGeoffrey Hinton氏、Yoshua Bengio氏らがこの見解を支持しています。
つい数日前、ベンジオ氏、ヒントン氏らは共同書簡「Managing AI Risks in an Era of Rapid Development(急速な発展の時代におけるAIリスクの管理)」を発表し、AIシステムを開発する前に安全性と倫理的慣行を優先する緊急のガバナンス措置を講じるよう研究者に呼びかけ、政府にAIがもたらすリスクを管理するための行動を起こすよう呼びかけました。
記事では、人々がAIを悪用するのを防ぐために国家機関を関与させるなど、いくつかの緊急のガバナンス措置について言及しています。 効果的な規制を実現するには、政府がAIの開発を包括的に理解する必要があります。 規制当局は、モデル登録、内部告発者の効果的な保護、モデル開発とスーパーコンピューターの使用の監視など、さまざまな措置を講じる必要があります。 また、規制当局は、導入前に危険な能力を評価するために、高度なAIシステムにアクセスする必要があります。
それだけでなく、もう少しさかのぼると、今年の5月には、アメリカの非営利団体Center for Artificial Intelligence Securityが、人工知能を人類絶滅の危機として認識すべきだと警告する声明を発表し、その声明を支持したのもヒントン氏やベンジオ氏などでした。
5月には、ヒントン氏もAIがもたらすリスクについて発言するために、グーグルの仕事を辞めた。 ニューヨーク・タイムズ紙のインタビューで、彼は「ほとんどの人は遠いと思っている。 30年、50年、あるいはもっと先のことだろうと思っていました。 でも、今はそうは思っていません」
予想通り、ヒントン氏のようなAIの大物の目には、AIがもたらすリスクの管理は非常に緊急の課題です。
しかし、ディープラーニングのビッグスリーの1人であるYann LeCun氏は、AIの開発について非常に楽観的です。 彼は、AIのリスクに関する共同書簡に署名することに大きく反対し、AIの開発は人類に対する脅威とはほど遠いと主張しました。
ちょうど今、LeCunはXユーザーとのコミュニケーションにおけるAIのリスクに関するネチズンからのいくつかの質問に答えました。
この記事に対するLeCun氏の反応は、AIの致命的なリスクに関する英国の懸念が他国に広がることを望まなかったというものでした。
「アルトマン、ハサビス、アモデイは、大規模な企業ロビー活動に従事している。 彼らはAI業界を規制しようとしています。 そして、あなた、ジェフ、ヨシュアは、オープンなAI研究の禁止を求めてロビー活動を行う人々に「弾薬」を与えているのです。
恐怖キャンペーンが成功すれば、必然的に、あなたも私も破滅的な結果、つまり一握りの企業がAIを支配することになるでしょう。
大多数の研究者は、オープンなAIの研究開発を非常に支持しています。 あなたが説く黙示録的なシナリオを信じる人はほとんどいません。 あなた、ヨシュア、ジェフ、スチュアートは唯一の例外です。
多くの人がそうであるように、私もオープンAIプラットフォームを強く支持しているのは、人々の創造性、民主主義、市場の力、製品規制など、さまざまな力の組み合わせを信じているからです。 また、安全で私たちの管理下にあるAIシステムを作ることが可能であることも知っています。 これについては、すでに具体的な提案をしています。 これらすべてが、人々が正しいことをするように動機付けます。
あたかもAIが何もないところから生み出されたかのように、それは私たちのコントロールの及ばない自然現象であるかのように書いています。 しかし、そうではありません。 あなたや私が知っているすべての人のおかげで進歩しています。 私たちと彼らには、「正しいもの」を構築する力があります。 R&Dの規制を(製品展開とは対照的に)要求することは、これらの人々と彼らが奉仕する組織が無能で、無謀で、自己破壊的で、邪悪であるという仮定を暗示している。 しかし、そうではありません。
私は、あなたが恐れている黙示録的なシナリオがばかげていることを証明するために、多くの議論を思いつきました。 ここでは説明しません。 しかし、重要な点は、強力なAIシステムがガードレールを含む目標によって駆動される場合、それらのガードレールと目標を設定するため、安全で制御可能であるということです。 (現在の自己回帰LLMは目標駆動型ではないので、自己回帰LLMの弱点から推測するのはやめましょう)。
オープンソースに関して言えば、あなたの活動の効果は、あなたが求めているものとは正反対になります。 将来、AIシステムは人類のあらゆる知識と文化の宝庫となり、私たちに必要なのは、誰もがそれに貢献できるオープンソースで無料のプラットフォームです。 オープン性は、AIプラットフォームが人間の知識と文化を全面的に反映する唯一の方法です。 これには、ウィキペディアと同様に、これらのプラットフォームへの投稿がクラウドソーシングされる必要があります。 プラットフォームが開いていない限り、これは機能しません。
オープンソースのAIプラットフォームが規制されれば、一握りの企業がAIプラットフォームを支配し、ひいては人々のデジタルへの依存度を一握りの企業が支配することになる。 これは民主主義にとって何を意味するのでしょうか? これは文化の多様性にとって何を意味するのでしょうか? そのせいで夜も眠れません」
ルカン氏の長文ツイートの下には、彼の見解を「支持」する人もたくさんいる。
モントリオール大学のコンピュータサイエンスおよびオペレーションズリサーチ学部の教授であるIrina Rish氏は、Mila - Quebec Institute for AIのコアメンバーでもあります。 彼女は、オープンソースのAIを支持する研究者は沈黙をやめ、新しいAIの開発をリードすべきだと述べました。
ブログのモデレーターであるLex Fridmanは、この討論会でさらに楽しみにしています。