生成 AI の法律とガバナンスは、これまで誰も足を踏み入れたことのない新しい分野であり、すべての議員は外の世界からの疑惑のプレッシャーに耐えなければなりません。今年の Google I/O 開発者カンファレンスで、Google は正式に生成AI 会話型ロボットBardですが、サービス範囲は完全に欧州地域を除外しております。
このため、ヨーロッパの AI 研究者や企業の多くは「なぜヨーロッパがないのか?」という疑問を抱いています。その後、Google は「ヨーロッパのユーザーへの開放を楽しみにしている」と何度も述べたが、これはさらに Google が生成 AI に存在する法的なグレーゾーンを回避するための「ヘッジ措置」であると解釈され、EU で巨額の罰金を科せられる結果となった。 。
今日、欧州連合の「人工知能法」が発表され、その中のほぼすべての法律が、現在の AI 開発における新たな、または潜在的な問題、つまり虚偽/誤った情報の蔓延、教育/メンタルヘルスの可能性、その他の重大な問題を直接指摘しています。問題。
しかしその後、立法者たちは、この問題を解決する上でより複雑な部分は、法律をどのように決めるかにあることに気付きました。AI 分野におけるイノベーションを保護し、巨人による独占を回避し、AI の制御可能性をある程度確保する必要があるということです。 。偽のコンテンツの氾濫を避けてください。これは中国、米国、欧州の生成 AI 法の共通の中核となっていますが、実際の規制において重視している点は異なります。
欧州での人工知能に関するこれまでの訴訟の多くは、GoogleやOpenAIなどの機関から否定的な扱いを受けており、欧州の地元テクノロジー企業の多くや議員さえも、法律が厳しすぎることで欧州がAIの助けで世界をリードするレベルに戻れるのではないかと懸念している。ビジョンの実現は困難になった:「人工知能法」が正式に可決された後、欧州連合は最大3,000万ユーロ、または企業の年間収益の6%の罰金を課す権利を有する、人工知能の規制に違反する企業に対して。これは、ヨーロッパで生成 AI ビジネスを拡大したいと考えている Google や Microsoft などの企業にとって、明らかに警告であることは間違いありません。
生成 AI の誕生を巡る現在の論争、生成 AI 用の大規模言語モデルのトレーニングに使用されるデータ著作権紛争の中で、生成 AI 開発の最初の段階にあるメーカーは、高品質のコンテンツの欠如によってすでに限界を感じています。」見えない天井」という問題が浮上しましたが、同時に、数え切れないほどのクリエイターやメディアが、生成型 AI によって引き起こされる著作権問題に関して法的手続きやその他の措置を開始し始めています。生成型AIの開発に向けたコンテンツ著作権保護条項の策定が差し迫っている。
したがって、これは米国と欧州の生成 AI 法の焦点でもあります。欧州の「人工知能法」では、大規模モデルのサプライヤーに対し、著作権で保護された素材を AI のトレーニングに使用するかどうかを宣言し、同時に記録することを明確に義務付けています。クリエイターが補償金を求めるのに十分なログ情報を提供する一方で、米国著作権局は新たな調査を発表し、生成 AI によって引き起こされる広範な著作権問題について提案を求め、それらを解決するための特別立法を求めています。
ただし、生成 AI が開発に依存する大規模モデルの場合、大規模モデルの反復開発を加速するためにインターネット上のデータを検索するのが開発の法則であり、画一的な制限は問題を引き起こす可能性があります。業界全体に大打撃 さまざまなシナリオでの「免除」について言及: 欧州連合の「人工知能法」には、オープンソース開発者による AI 研究に対する免除が含まれている: オープン環境での人工知能コンポーネントの協力と構築には特別な措置が与えられる保護。同時に、「暫定措置」では、関連条項で法の適用除外範囲も明確にされています。
現段階で、米国の人工知能企業はAIの開発に伴うリスクを認識している。 AI が「悪を行わない」ことを保証することが約束されています。OpenAI は、その定められた使命は「汎用人工知能が全人類に利益をもたらすことを保証すること」であると述べました。 DeepMind の運営原則には、「人工知能の分野で責任ある先駆者となる」というコミットメントが含まれていますが、DeepMind の創設者らは致死性の人工知能研究に従事しないことを誓約しており、Google の人工知能研究原則には、Google が兵器を配備したり設計したりしないことも規定されています。人間に危害を加えるものや、監視に関する国際基準に違反する人工知能。
7 月 26 日、Anthropic、Google、Microsoft、OpenAI は、最先端の AI モデルの安全かつ責任ある開発の確保に重点を置いた業界団体である Frontier Model Forum を立ち上げました。
このフォーラムは、AI研究を推進しながら「政策立案者、学界、市民社会と協力してリスクを最小限に抑え、セキュリティリスクに関する知識を共有する」ことを目的としている。同時に、G7、OECD、その他の組織による生成型 AI に関する政策策定など、既存の国際的な多国間協力に積極的に統合します。法律や規制の概念の方向性において各国の同期を促進するため。
以前、タイム誌は、生成AIの「重要なプレーヤー」としての中国と米国と、新しい技術法制の事実上の「先駆者」であることが多い欧州との間には多くの協力の可能性があり、それが利益にかなっているとコメントした。すべての当事者が立法段階から協力を開始することは、生成型 AI の開発を促進する重要な手段の 1 つでもあります。
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ChatGPT 製品は終わりのない流れで出現しており、世界的な規制は石を感じて川を渡っています。
出典: 発電所、著者: Zhang Yongyi、編集者: Gao Yulei
7月31日、中国のAppleのApp Storeからchatgpt製品が一斉に店頭から撤去されたが、Appleによると、関連製品は運営ライセンスの取得が必要だという。
中国だけでなく、この分野での競争を目指す米国や欧州も、イノベーションを促進しながら積極的に法規制を施行している。
2021年4月、欧州委員会は機械学習アプリケーションの運用とガバナンスに関する規制構造に関する提案を初めて公表し、AIの規制を提案した。当時、AI 業界で最も人気のある見解はまだ、「今日の人工知能を心配することは、火星の人口過剰を心配するようなものだ」というウー・エンダの有名な皮肉でした。
しかし、2023 年までに、そのような見方はもはや主流にはなりえません。生成 AI が人間に取って代わり、既存の世界を完全に変える大きな可能性を世界に示すのに 6 か月もかかりませんでした。ちょうど第二次世界大戦中に開発されたのと同じです。核兵器のように。
物理学者の J ロバート オッペンハイマーは、世界初の原子爆弾の開発を主導しました。当時、第二次世界大戦は終わっていましたが、人類史上最も恐ろしい兵器として、核爆弾は依然として歴史の流れを大きく支配していました。アメリカ政府は、オッペンハイマーらの「核拡散は前例のない軍拡競争につながる」という専門家の批判や提案を採用せず、結果的には、アメリカとソ連の間で核軍拡競争が勃発することとなった。 「超核爆弾」水爆の開発、そしてキューバ危機では、人類文明のほぼ全体が救いようのない暗い深淵に引きずり込まれた。
オッペンハイマーが遭遇した危機は、人間が遭遇している現在の「AI オムニック危機」と多くの類似点があります: 人間が AI を使用して自らをより大規模で制御不可能な未来に引きずり込む前に、AI をより大規模で制御不能な未来に誘導する必要があります。おそらく最善の方法は、安全な軌道で監督を実施する。
2021 年、欧州連合の「雨の日への備え」は、最終的に人類史上初の人工知能業界の規制枠組みとなりました。これは、欧州連合の人工知能法 (AI 法) の前身でもあります。
しかし、議員らがこの法案を立案したとき、2022年末までに生成型人工知能や大規模なモデルが存在するとは予想していなかった。したがって、2023年に生成型AIが爆発的に台頭することにより、生成型AIに関するセクションもさらに追加されることになる。大規模モデルの使用の透明性、およびユーザーデータの収集/使用の規制。
現在、この法案は6月中旬に欧州議会で採決されており、最終条件に向けた次のステップは、EUの3つの意思決定機関である議会、理事会、欧州委員会の間の交渉で法律を最終決定することである。合意に達し、最終的に発効することになる。
中国でも生成型AIの法整備が進んでおり、7月13日には7省庁・委員会が共同で「生成型人工知能サービス管理に関する暫定措置」(以下、総称して「暫定措置」という)を公布した。中国サイバースペース局も含め、8月に発効する。
これは、最終的に施行される最初の生成型人工知能管理規制となる可能性があり、過去の「AI立法競争」において、中国のAI立法プロセスはこれを上回り、生成型人工知能分野で最も急速に成長している特定規制となった。あい。
英国や米国など、AI 開発の第一段階にある他の国々でも、AI に関する規制法整備が進んでいます。米国著作権局は 3 月 16 日、著作権法と政策問題を研究する取り組みを開始しました。人工知能テクノロジーから生じるもの: 人工知能ツールを使用して生成された作品の著作権の範囲、および機械学習を目的とした著作権で保護された素材の使用が含まれます。英国政府は4月4日に初のAI規制枠組みを発表した。それ以来、米国国家電気通信情報局 (NTIA) は、AI の説明責任の措置と政策に関する広範な一般のフィードバックを求めるために、AI の責任の草案を発表しました。
イノベーションと説明責任
生成 AI の法律とガバナンスは、これまで誰も足を踏み入れたことのない新しい分野であり、すべての議員は外の世界からの疑惑のプレッシャーに耐えなければなりません。今年の Google I/O 開発者カンファレンスで、Google は正式に生成AI 会話型ロボットBardですが、サービス範囲は完全に欧州地域を除外しております。
このため、ヨーロッパの AI 研究者や企業の多くは「なぜヨーロッパがないのか?」という疑問を抱いています。その後、Google は「ヨーロッパのユーザーへの開放を楽しみにしている」と何度も述べたが、これはさらに Google が生成 AI に存在する法的なグレーゾーンを回避するための「ヘッジ措置」であると解釈され、EU で巨額の罰金を科せられる結果となった。 。
7月までに、Googleはついにその理由を明らかにした:Bard製品責任者のJack Krawczyk氏はブログ投稿で次のように書いた:調査の開始時に、アイルランドデータ保護委員会(DPC)はすでにBardをヨーロッパで解放する意向を提案していたが、最終的には、情報提供を求める規制当局の要請に応えるまでに7月までかかった。
今日、欧州連合の「人工知能法」が発表され、その中のほぼすべての法律が、現在の AI 開発における新たな、または潜在的な問題、つまり虚偽/誤った情報の蔓延、教育/メンタルヘルスの可能性、その他の重大な問題を直接指摘しています。問題。
しかしその後、立法者たちは、この問題を解決する上でより複雑な部分は、法律をどのように決めるかにあることに気付きました。AI 分野におけるイノベーションを保護し、巨人による独占を回避し、AI の制御可能性をある程度確保する必要があるということです。 。偽のコンテンツの氾濫を避けてください。これは中国、米国、欧州の生成 AI 法の共通の中核となっていますが、実際の規制において重視している点は異なります。
欧州での人工知能に関するこれまでの訴訟の多くは、GoogleやOpenAIなどの機関から否定的な扱いを受けており、欧州の地元テクノロジー企業の多くや議員さえも、法律が厳しすぎることで欧州がAIの助けで世界をリードするレベルに戻れるのではないかと懸念している。ビジョンの実現は困難になった:「人工知能法」が正式に可決された後、欧州連合は最大3,000万ユーロ、または企業の年間収益の6%の罰金を課す権利を有する、人工知能の規制に違反する企業に対して。これは、ヨーロッパで生成 AI ビジネスを拡大したいと考えている Google や Microsoft などの企業にとって、明らかに警告であることは間違いありません。
EUの議員らは6月の「人工知能法」に、技術的リスクを軽減しながら責任ある人工知能のイノベーションを奨励し、人工知能を適切に監督し、人工知能を最前線に置くための新たな条項を明確に盛り込んだ。中小企業や新興企業のコンプライアンス負担を軽減するための「規制のサンドボックス」の設置など、中小企業や新興企業向けの革新的な対策を支援します。
ただし、AI サービスを販売したりシステムを市場に導入したりする前に、生成 AI はリスク管理、データ、透明性、文書化に関する一連の規制要件を満たしている必要があり、同時に重要なインフラストラクチャなどの機密分野での人工知能の使用も必要です。 「高リスク」とみなされる場合も監督対象に含まれます。
現時点では、「暫定措置」に基づくAIの仕様は既に発動されており、7月31日には中国のApp StoreでChatGPTサービスを提供していた多数のアプリがAppleによって一斉に店頭から削除され、 ChatGPT への直接アクセスは提供しませんが、AI 機能にも重点を置いており、別のバッチのアプリは当面影響を受けません。
生成 AI の誕生を巡る現在の論争、生成 AI 用の大規模言語モデルのトレーニングに使用されるデータ著作権紛争の中で、生成 AI 開発の最初の段階にあるメーカーは、高品質のコンテンツの欠如によってすでに限界を感じています。」見えない天井」という問題が浮上しましたが、同時に、数え切れないほどのクリエイターやメディアが、生成型 AI によって引き起こされる著作権問題に関して法的手続きやその他の措置を開始し始めています。生成型AIの開発に向けたコンテンツ著作権保護条項の策定が差し迫っている。
したがって、これは米国と欧州の生成 AI 法の焦点でもあります。欧州の「人工知能法」では、大規模モデルのサプライヤーに対し、著作権で保護された素材を AI のトレーニングに使用するかどうかを宣言し、同時に記録することを明確に義務付けています。クリエイターが補償金を求めるのに十分なログ情報を提供する一方で、米国著作権局は新たな調査を発表し、生成 AI によって引き起こされる広範な著作権問題について提案を求め、それらを解決するための特別立法を求めています。
現行の「暫定措置」では、4月の意見募集草案の該当条項が削除され、データソースに関する知的財産権の保護に関する規定が白紙となっており、早急に改善する必要がある。
ただし、生成 AI が開発に依存する大規模モデルの場合、大規模モデルの反復開発を加速するためにインターネット上のデータを検索するのが開発の法則であり、画一的な制限は問題を引き起こす可能性があります。業界全体に大打撃 さまざまなシナリオでの「免除」について言及: 欧州連合の「人工知能法」には、オープンソース開発者による AI 研究に対する免除が含まれている: オープン環境での人工知能コンポーネントの協力と構築には特別な措置が与えられる保護。同時に、「暫定措置」では、関連条項で法の適用除外範囲も明確にされています。
「企業や科学研究機関などが生成型人工知能サービスを公然と公衆に提供しない限り、この法律は適用されない。」
「知的財産分野の法整備には、研究と実証にまだ時間がかかる。」現在、大規模模型メーカーにサービスを提供している法律コンサルタントは記者団に対し、「中国の高品質なデータセットは英語のコンテンツよりも希少で、生成的なデータセットの特徴がある」と語った。 AIのトレーニングにより、巨大企業ですらすべてのプラットフォームおよびすべてのコンテンツクリエーターと単独で完全に契約を結ぶことは不可能であることが判明し、言うまでもなく、法外なライセンス料がスタートアップにとってすでに大きな打撃となっています。」
「おそらく、現在の問題は、より良い実用的な解決策が得られるよう、業界が発展するまで待つしかないでしょう。」競争と協力だ、とコンサルタントは付け加えた。中国と米国の競争において、AI開発は米国が中国の開発を封じ込めるための主戦場の一つとなっているが、生成AI法制の分野では、中国、米国、欧州の協力が徐々に進みつつある。主流。
現段階で、米国の人工知能企業はAIの開発に伴うリスクを認識している。 AI が「悪を行わない」ことを保証することが約束されています。OpenAI は、その定められた使命は「汎用人工知能が全人類に利益をもたらすことを保証すること」であると述べました。 DeepMind の運営原則には、「人工知能の分野で責任ある先駆者となる」というコミットメントが含まれていますが、DeepMind の創設者らは致死性の人工知能研究に従事しないことを誓約しており、Google の人工知能研究原則には、Google が兵器を配備したり設計したりしないことも規定されています。人間に危害を加えるものや、監視に関する国際基準に違反する人工知能。
7 月 26 日、Anthropic、Google、Microsoft、OpenAI は、最先端の AI モデルの安全かつ責任ある開発の確保に重点を置いた業界団体である Frontier Model Forum を立ち上げました。
このフォーラムは、AI研究を推進しながら「政策立案者、学界、市民社会と協力してリスクを最小限に抑え、セキュリティリスクに関する知識を共有する」ことを目的としている。同時に、G7、OECD、その他の組織による生成型 AI に関する政策策定など、既存の国際的な多国間協力に積極的に統合します。法律や規制の概念の方向性において各国の同期を促進するため。
これは、マサチューセッツ工科大学の教授であり、フューチャー・オブ・ライフ研究所の創設者でもあるマックス・テグマーク氏の見解とも一致しています。「中国は生成型AIの多くの分野で有利な立場にあり、制御分野でもリーダーとなる可能性が高い」人工知能。"
中国と米国の大規模モデルの数は世界の90%を占めており、中国、米国、欧州間の立法調整は世界の生成AI産業の発展傾向を決定することさえあります。 「米国の利益に適合することを前提とした中国との法的連携」が徐々に米国政界・学界のコンセンサスとなってきた。
より代表的なのはAIリスクの格付け措置である。中国の「暫定措置」には「生成型人工知能サービスに対する包括的な慎重さと分類と格付けの監督」について言及されているが、現行版では格付けについては詳しく述べられていない。現時点では「」などの段落だけが残っている。対応する分類および格付けの監督規則またはガイドラインを作成する」と書かれています。
欧州の「人工知能法」でも、AI開発者の義務に応じたリスクレベルの等級付けシステムが提案されており、現在提案されているAIの「脅威レベル」には、次の4つのカテゴリーが含まれている。
現在の「人工知能法」では、生成型AIを独立した分類として抽出すると同時に、「高リスクAI」に分類される製品を厳しく制限することとなり、リスクの可能性が高まっています。これは、中国と米国におけるAIリスクに関する将来の法案の「参考青写真」とも考えられている。
また、実際の立法プロセスから判断すると、立法プロセスに公的機関やAI研究機関を積極的に参加させることは、各国の規制当局がこの半年間の経験を通じて形成したコンセンサスであるという「影の条項」である。質問することはできません。
「生成型 AI は決して完璧ではないかもしれませんが、法律は AI 開発の重要な方向性において重要な役割を果たす運命にあります。」
オッペンハイマーが戦争での核兵器の使用に反対したにもかかわらず、ニューメキシコ州での原爆開発を決して後悔しなかったのと同じように、好奇心旺盛な研究者たちが既存のテクノロジーを利用してよりスマートなAIを開発するのを止めることは誰にもできず、科学探求のペースは決してそこで止まることはありません。 「必要かつ合理的な」監視は、AI の必死の走りの途中にある「スピードバンプ」であり、生成型人工知能が実害を及ぼすのを防ぐ「最後の防衛線」でもあります。
しかし、「規制によって引き起こされるAI競争での遅れを避ける方法」に焦点を当てることは、依然として議員にとって最も懸念される事柄の1つである。関連する法律は、より多くの経験とフィードバックによって間違いなくより完全なものになるでしょう。
「規制当局は科学立法と公開立法の精神を堅持し、適時に改正・改善を行う。」 「暫定措置」の生成AIに関する一節は、生成AI時代の立法の最良の原則かもしれない。