**これに関連して、AI は国際競争の新たな焦点となっており、世界中の国々が戦略的優位性と開発の機会をつかむために AI 開発戦略と具体的な政策を導入しています。 ** 2017 年 7 月に中国が「新世代人工知能発展計画」を発表し、AI が国家戦略に昇格、2018 年 4 月に EU が AI 戦略を発表し、EU を世界クラスの AI センターとし、 AIが人間中心であり、信頼できるものであることを保証する; 2019年2月に「米国AI計画」が発表され、AI分野における米国のリーダーシップを強化することを目的としたAI戦略が開始された; 2021年9月には、英国は AI 戦略を発表し、AI 超大国のための英国を構築することを望んでいます。各国の AI 戦略を分析すると、AI 分野における国際競争が技術革新や産業経済だけでなく、AI ガバナンスなどの側面も関与していることがわかります。 AIの普及に伴い、アルゴリズム差別、情報の繭、AIによる不当な意思決定、個人情報の悪用やプライバシー侵害、AIによってもたらされる多くの科学技術倫理問題が各界から大きな注目を集め続けています。セキュリティ、アルゴリズムのブラックボックス、責任、テクノロジーの悪用(ビッグデータ殺害、AI詐欺、合成虚偽情報など)、仕事と雇用への影響、倫理的および道徳的影響、その他のリスク課題。 [3] したがって、過去 10 年間の AI テクノロジーの急速な発展と応用に伴い、国内外のあらゆる階層が同時に AI ガバナンスを推進し、法律、倫理的枠組み、基準、認証などの複数のガバナンス手段と保証メカニズムを模索してきました。責任があり、信頼できる、人間中心の AI 開発をサポートするための業界のベスト プラクティス。
本稿では、国際的な視点に基づき、過去10年間の中国のAIガバナンス分野における重要な進歩を整理し、法律や動向を分析・総括し、今後の発展を展望する。近い将来、AIの高性能化に伴い、その応用と影響は日に日に深まり、責任あるAI(Responsible AI)の重要性はますます高まっていくでしょう。責任ある AI の進歩と導入は、合理的かつ効果的な AI ガバナンスと切り離すことができません。言い換えれば、健全な AI ガバナンスを確立することが、責任ある AI に移行し、AI の将来の発展を確実にする唯一の方法です。この記事が、将来の AI ガバナンスの継続的な開発と実装に役立つことを願っています。
AI ガバナンスの 8 つのトレンド
国家 AI 競争力を育成するためにマクロ戦略と実装政策を同時に策定
2013年2月に発出された「モノのインターネットの秩序ある健全な発展促進に関する指導意見」で「経済社会の知的発展」が打ち出されて以来、AIは国家マクロ戦略の視野に入り、重要なテーマとなっている。国のトップレベルの政策文書。例えば、2015年の「『インターネットプラス』行動の積極的な推進に関する指導意見」では、初めて「人工知能の新興産業の育成・発展」が提案された。それ以来、この国は AI にますます注目しており、中核技術が自己制御可能であることを保証し、高度な技術の自立性と自律性を促進するために、戦略レベルでの AI 開発の展開を続けています。信頼性 (表 1)。
着陸政策も同様に重要です。 AI は新興技術と新興産業の複合体であり、AI 技術革新が持続可能な産業生態系に変換され、実体経済と深く統合されて初めて、新たな成長エンジンとしての強力な役割を十分に果たすことができます。この点で、テストエリアやパイロットエリアなどの先発試行モデルが重要な役割を果たします。科学技術省は、人工知能のイノベーションと開発のパイロットゾーンの構築で顕著な成果を上げ、国は18の全国的な新世代の人工知能のイノベーションと開発のパイロットゾーンの建設を承認し、政策で良い役割を果たしましたツール、アプリケーション モデル、経験と実践、役割。 2019年以来、工業情報化部は、AIと実体経済の深い統合を促進するため、11の国家人工知能イノベーションおよびアプリケーションパイロットゾーンの建設を承認しており、「品質開発に関する指導意見」では、人工知能の問題の解決に焦点を当てています。 AIの応用と産業化を推進し、「データベース+コンピューティングパワープラットフォーム+シーンオープニング」のトロイカを活用して、AIと経済社会発展の深い統合を推進し、高品質の発展をより良くサポートします。
国家マクロ戦略と実施政策の継続的な支援により、中国のAI分野におけるイノベーションと起業家精神は引き続き活発であり、AI分野の国立研究所が次々と設立され、重要な成果をあげている。 AI分野における技術革新、産業応用、人材スケールにおいて。中国科学技術信息院が発表した「2021年世界人工知能イノベーション指数報告書」によると、現在の世界のAI開発は中国と米国が主導する全体的なパターンと主要国間の熾烈な競争を示している。 [4] 中国のAI開発は目覚ましい成果を上げており、AI技術革新のレベルは世界初の段階に入り、米国との差はさらに縮まっています。中国のスーパーコンピューティングセンター、AI企業の規模、特許登録数、人材チームの構築、科学研究力はいずれも世界をリードしており、今後も中国の経済成長と社会発展に対するAIの貢献はますます高まるだろう。プライスウォーターハウスクーパースの調査報告書は、2030 年までに世界経済に対する AI の貢献は 15.7 兆米ドルに達し、中国が AI から最大の経済利益を享受し、その額は 7 兆米ドルに達すると予測しています。中国のGDP成長率は約26.1%で、これに米国、北米が続き、3兆7000億ドルに達する見通しだ。 [5]
全体として、インターネット分野におけるアルゴリズムの監督は、セキュリティと制御可能性、権利と利益の保護、公平性と正義、公開性と透明性、悪用の防止などの複数の目的を重視しており、アルゴリズムのアプリケーションの分類と分類に基づいて、規制に焦点を当てています。リスクの高いアルゴリズムのアプリケーション。アルゴリズムのグレーディングと分類の規制は、欧州連合人工知能法における AI システムの規制と似ていますが、規制要件は異なります。これに関連して、学術コミュニティはアルゴリズムガバナンスの研究に強い関心を持っており、アルゴリズム解釈、アルゴリズム影響評価、アルゴリズム監査などの多くのアイデアを提案してきました。将来的には、アルゴリズムの適用が確実に上向きで良好であることをより確実にするために、あらゆる分野がアルゴリズム監視の方法とガバナンス措置をさらに検討し、改善する必要があります。
中国の政策立案者は、規制の手法や手段を積極的に革新しており、「規制のサンドボックス」(規制のサンドボックス、以下の紹介を参照)、パイロットプロジェクト、実証アプリケーションを通じて、新しいAIの応用をサポートおよび促進しています。自動運転車の分野では、州は自動運転車の路上試験やデモンストレーションの適用活動を奨励、支援、規制し、自動運転車の安全基準の「規制のサンドボックス」を検討するための一連の法律や規範文書を発行した。自動運転車の輸送の安全性を確保するため、道路への出入りの通行ルールを整備する。有利な規制政策により、北京、上海、広州、深センなどが次々と開発高地を占拠し、一部の都市では運転者が乗車できず有料で運行できる自動運転車の試験運行許可を発行している。 ; 深センは国内で最初に「深センインテリジェントコネクテッドビークル管理規則」を発行し、商用アプリケーションのための立法および規制の枠組みを確立しています。 AI医療の分野では、AI医療ソフトウェアは自律性、学習・進化機能、継続的反復、アルゴリズムのブラックボックス、予測不可能性など、従来の医療機器とは異なる多くの新機能を備えているため、従来の承認手続きでは難しい。 AI医療への効果的な適応 ソフトウェア開発のニーズこのため、規制当局は AI 医療機器の登録申告・承認手続きや使用管理仕様の改善に積極的に取り組んでおり、インテリジェント医療画像処理などの補助診断・治療のための AI 医療ソフトウェアの臨床応用の加速を支援している。 Tencent Miying の AI 緑内障診断ソフトウェアと肺炎 AI 支援診断システムなどのソフトウェアが中国で承認され、両方とも第 3 種医療機器登録証明書 (以下「3 種類の証明書」) として承認されました。将来的には、AI 医療アプリケーションが人々の生活と幸福をより良く改善できるよう、規制当局は AI 医療ソフトウェアの登録、申請、承認手順の改善と最適化を継続する必要があります。
中国では、Baiduの「Baijiahao」著作権侵害訴訟に対する北京電影法律事務所の訴訟で、裁判所は、自然人によって作成されたオリジナルの作品のみが著作権保護を得ることができるとの判決を下し、したがってAIによって直接かつ独自に生成された作品の著作権を否定していると指摘しています。 AI が生成したコンテンツに関連する権利および利益(競争権および利益など)は、競争法およびその他の手段によって保護できることを示しています。著作権侵害と不正競争を巡る深セン騰訊計算機システム有限公司対上海英訓科技有限公司の訴訟において、裁判所はAI分野における人間とコンピュータのコラボレーションの現実に基づき、 AI執筆ソフト「ドリームライター」の技術的に「生成」された作品は単なる創作物であり、その過程におけるつながりとして、原告が主催する複数チーム、複数人の分業によって形成される知的活動全体が含まれると指摘した。は創作の核となるリンクであることから、本件記事は原告主催の法人著作物であると判断される。ドリームライター事件の判決は、AIGC技術とその応用の現状の発展とより合致しており、今後の法律を通じてAI生成コンテンツの知的財産保護ルールをさらに明確にする上で、大きな参考となる意義がある。法制面では、2020年に新たに改正された「中華人民共和国著作権法」では、公開著作物識別方式が採用され、著作物の構成を明確にし、主な著作物類型を列挙するとともに、公開裏付けも規定されています。アプリケーションによってもたらされる新しいオブジェクトの保護により、制度上のスペースが確保されます。
標準化の構築は AI ガバナンスの重要な部分です
**「国家標準化開発概要」は、標準化が国家統治システムと統治能力の近代化を促進する上で基本的かつ主導的な役割を果たすと指摘しました。 AI 分野にとって、AI 標準は、AI の開発、進歩、広範な適用(技術標準など)をサポートおよび促進する重要な手段であるだけでなく、AI ガバナンス(ガバナンスなど)の実装を促進する効果的な方法でもあります。 AI ガバナンス基準は、「立法と監督の実施、および技術的実践のドッキング」において重要な役割を果たす可能性があるためです。さらに、AI ガバナンスの分野の標準は、法律や規制よりも機敏で柔軟で適応性があります。したがって、AI ガバナンス基準は AI 技術と産業の発展において非常に重要な基準となっており、国際社会はその実装策を提案しています。 **代表的なものとしては、欧州連合の信頼できる AI 標準、米国国立標準技術研究所 (NIST) 主導の AI リスク管理、AI 差別識別およびその他のガバナンス標準、英国の AI 認定エコシステム開発計画、IEEE の AI 倫理標準、など。実装に関しては、IEEE が業界向けの AI 倫理認証プロジェクトを立ち上げ、英国は 5 年間で数十億ポンドの価値がある世界をリードする AI 認証産業を育成し、中立的な第三者機関の AI 認証サービスに合格することを望んでいますAI システムの信頼性とコンプライアンスを評価し伝達するため(監査、評価への影響、認証を含む)。
業界は AI ガバナンスのための自己規律措置を積極的に模索し、責任あるイノベーションとテクノロジーの概念を善のために実践しています
**効果的な AI ガバナンスには、政府、企業、業界団体、学術団体、ユーザーまたは消費者、一般大衆などの複数の主体の共同参加が必要であり、その中でもテクノロジー企業の自己統治と自己規律管理は重要な課題です。 「倫理第一」の概念を実践する上で重要な部分です。 **「倫理第一」が叫ばれる理由は、AIの急速な発展に伴い、「法的遅れ」現象がますます顕在化していることが大きい。 AIの分野では、「倫理第一」はテクノロジー企業の技術倫理の自主管理に初めて現れ、大手企業のベストプラクティスが非常に優れた主導的役割を果たすことが多く、責任あるイノベーションとテクノロジーの実践を促進します。業界全体にとって良いアイデアです。
近年、業界レベルでは、企業のAI活動に対する倫理指針を提供するために、関連研究機関や業界団体がAI倫理ガイドラインや自己規律規約等を提案している。この点における代表的なものとしては、中国人工知能産業発展同盟(AIIA)の「人工知能産業自主規律条約」と「信頼できるAI運用ガイドライン」、北京市の「人工知能北京コンセンサス」と「人工知能コンセンサス」などがある。 Zhiyuan Artificial Intelligence Research Institute. 業界責任宣言」、国家情報セキュリティ標準化委員会の「ネットワーク セキュリティ標準実践ガイドライン - 人工知能の倫理的セキュリティ リスクの防止に関するガイドライン」など。
エンタープライズレベルでは、テクノロジー企業はAI技術革新と産業応用の主体として、AIの責任ある研究開発と応用という重要な責任を担っています。外国では、テクノロジー企業は比較的成熟した経験を模索し、AI の倫理原則の提案、社内の AI 倫理ガバナンス組織の確立、管理および技術ツール、さらには商用の責任ある AI ソリューションの開発に至るまで、多くのリソースを蓄積してきました。 [13] 。近年、国内のテクノロジー企業は積極的に規制要件を導入し、関連する自主規制措置を検討しています。これには主に、AI 倫理原則の公表、社内 AI ガバナンス組織 (倫理委員会など) の設立、AI 活動の倫理レビューやセキュリティ リスク評価の実施などが含まれます。関連情報、アルゴリズムの公開性と透明性を促進し、AI 倫理問題に対する技術的解決策 (合成情報コンテンツの検出および識別ツール、AI ガバナンス評価ツール、プライバシー コンピューティング ソリューションなど) を探求します。フェデレーテッド ラーニングとして) など
グローバルな AI ガバナンスの協力と競争が共存します
**世界的な AI 競争は、テクノロジーと業界間の競争だけでなく、ガバナンスのルールと標準間の競争でもあります。 **世界的なデジタル経済の発展により、データ フロー、AI ガバナンス フレームワークなど、AI とデータに関する新しい国際ルールが形成されています。近年、世界的なAIガバナンス協力が進み続けています。 2019 年 OECD/G20 AI 原則は、初の世界的な AI 政策枠組みです。 2021年11月、国連ユネスコは、現在最も包括的で広く合意された世界的なAI政策枠組みである世界初のAI倫理協定「人工知能の倫理に関する勧告」(人工知能の倫理に関する勧告)を可決した。 、倫理的影響評価、および AI の倫理的ガバナンスを強化するためのその他のメカニズム。
同時に、米国と欧州は、AI 政策分野でのリーダーシップを強化し、世界的な AI ガバナンスのルールと基準に影響を与えるために、AI 政策を加速しています。たとえば、欧州連合は調和のとれた AI 法案に取り組んでおり、2023 年に可決される予定であり、AI に対する包括的なリスクベースの規制経路が確立されます。多くの専門家は、以前のデータプライバシー法 GPDR が世界のテクノロジー業界に与えた影響と同様に、EU AI 法は「ブリュッセル効果」を AI 分野に拡大すると予測しています。これはまさに EU が AI ガバナンスの確立を望んでいることです。規制基準を通じて世界へ。 [14] 欧州評議会はAI法制に加え、世界初の「国際AI条約」の準備を進めており、これまでの「サイバー犯罪条約」や「プライバシー条約」と同様に、加盟国・非加盟国の双方が将来のAIに参加・批准できる。大会。 [15] 米国は、テクノロジーと産業の面で常に AI 分野の世界的リーダーであり、近年、AI 政策の分野でのリーダーシップを積極的に再構築し始めています。 2020 年に設立された米国・EU 貿易技術評議会の中核的な任務の 1 つは、AI ガバナンスに関する米国・EU の協力を促進することです。 [16] 結論として、世界の AI 競争は、AI 政策とガバナンスの分野におけるソフトパワー競争をますます重視しており、これは 21 世紀の技術競争の大きな変化を表していると言えます。
「第14次5カ年計画と2035年の長期目標の概要」、「中国における法の支配の構築(2020年~2025年)」、「国家の倫理的統治の強化に関する意見」などの多くの政策や規範文書。科学技術」およびその他の政策および規範文書は、AI ガバナンスが引き続き科学技術のガバナンスにおける主要な問題であることを示しています。技術倫理の中核分野。 AI分野における中国の世界競争力をさらに強化するために、中国は技術と産業のハードパワーの育成にもっと注意を払う必要があるだけでなく、ソフトパワーの形成、特にAI政策とガバナンスにおいて発言し主導する権利の形成にも焦点を当てる必要がある。 。なぜなら、AI ガバナンスは世界的な AI 競争力の重要な部分になっているからです。
過去を振り返ると、中国は開発とセキュリティに同等の注意を払い、イノベーションと倫理と並行するAIの監督とガバナンスの概念を明確にし、イノベーションと開発を支援、促進すると同時に、安全性、信頼性、制御性も確保するテクノロジーの応用例。未来に向けて、私たちは政府、業界・企業、研究機関、社会団体、ユーザー・消費者、国民、メディア、その他のステークホルダーの共同の努力をより有効に活用し、AIの健全な発展を促進し続ける必要があります。ガバナンスの実践と AI の向上により、経済的および社会的発展に利益をもたらし、人々の生活と福祉を向上させ、科学技術をより高いレベルに押し上げます。
さらに、過去の AI の「黄金の 10 年」は人々にますます強力な AI モデルをもたらし、近い将来、AI はさらに強力になるでしょう。これは、AI が社会エコシステムと相互作用する場合、人間、社会、環境に与える可能性のある影響は、これまでのテクノロジーをはるかに超えることを意味します。したがって、AI ガバナンスの主なタスクは、「責任ある AI」の概念を提唱し、実践し続けることであり、利害関係者の価値を創造し、利害関係者の幸福を向上させ、乱用、誤用、不正使用を防止することです。つまり、効果的な AI ガバナンスには、責任ある AI 実践の開発を促進し、信頼できる AI (Trustworthy AI) を作成する必要があります。
データと AI の法的枠組みを継続的に改善し、正確かつ機敏な監督を推進します
AIの健全かつ持続可能な発展は、一方では合理的かつ効果的な監督と不可分であり、他方ではAI分野におけるデータの供給と流通、利用のレベルを継続的に向上させる必要がある。実際、医療、製造、金融などの多くの分野における AI の開発と応用が直面する主な問題の 1 つは、データ取得の難しさ、データ品質の低さ、データ標準の一貫性のなさなど、データの取得と活用の問題です。したがって、将来の AI のさらなる発展は、データと AI の法的枠組みの継続的な改善に大きく依存します。英国の「デジタル規制計画」は、適切に設計された規制は開発の促進と活気に満ちたデジタル経済と社会の形成に強力な効果をもたらすことができるが、設計が不十分または制限的な規制はイノベーションを妨げる可能性があると提案しています。適切なルールは、人々が自分が使用する製品やサービスを信頼するのに役立ち、その結果、製品やサービスの人気が高まり、さらなる消費、投資、イノベーションが促進されます。 [17] AIについても同様です。
** 一方で、AI ガバナンスに関しては、正確かつ機動的な監視をより促進する必要があります。 これには以下が含まれます: まず、さまざまな AI 製品、サービス、アプリケーションに異なるルールを採用します。 **現在、AI アプリケーションはほぼ遍在しているため、画一的なルールをさまざまな業界や分野の AI アプリケーションの固有の特性、および個人や社会への影響に合理的に適応させることは困難です。そのためには、リスクベースの AI ガバナンス ポリシー フレームワークを採用する必要があります。たとえば、同じ AI テクノロジーを使用して、ユーザーの個人的な属性や個人的な好みを分析および予測し、パーソナライズされたコンテンツをプッシュするだけでなく、病気の診断や治療を支援することもできます。分類と整理は、がん腫瘍を特定します。これらのアプリケーションには、リスクレベル、結果の重要性、個人的および社会的影響の点で大きな違いがあり、一般的かつ画一的な方法で規制要件を提示することは明らかに科学的でも現実的でもありません。 **第二に、AI アプリケーションの格付けと分類に基づいて、分散化された差別化された監督の採用を強調しています。 **インターネットと同様に、AI は非常に広範で汎用的な技術であるため、統一的な監視を行うには適しておらず、困難です。外国の観点から見ると、現在、すべての AI アプリケーションに対する統一的で一般的な規制の枠組み (EU モデル) を確立しようとしているのは欧州連合だけであり、英国と米国はアプリケーションのシナリオとリスクに基づいた産業の分散型監督を重視しています (英米モデル)。英国は、原則に基づいて AI アプリケーションに革新を促進する監督を導入することを提案しており、その中心的な概念には、特定のアプリケーション シナリオに焦点を当て、リスクの程度に基づいた監督の比例性と適応性を確保すること、および、次のことが含まれます。 [18] 米国は常に業界規制と業界の自主規律を組み合わせたガバナンス路線を重視しており、例えば「AI権利章典ブループリント」では5原則を提案するだけでなく、業界当局主導による分散型規制の考え方も明確にしている。アプリケーションシナリオ指向。 [19] 中国に関する限り、これまでの AI の立法と監督は英米モデルに近いものでした。つまり、アルゴリズム推奨サービス、深層合成、自動運転など、さまざまな AI アプリケーションに対して個別の規制ルールが策定されていました。この分散化され差別化された規制モデルは、アジャイル ガバナンスの原則に準拠しており、AI テクノロジーとそのアプリケーションの急速な開発と反復の複雑な特性により適切に適応できます。 **第三に、規制ツールボックスの継続的な革新と多様な規制イニシアチブの採用が求められます。 1つはAIの「規制サンドボックス」。 ** AI 規制における欧州連合の主要な取り組みの 1 つは、提案されている AI の「規制サンドボックス」です。 [20] 規制当局とイノベーション主体の間のコミュニケーションとコラボレーションをサポートおよび促進する効果的な方法として、「規制サンドボックス」は、コンプライアンスに準拠した革新的な AI アプリケーションを開発、テスト、検証するための制御された環境を提供できます。 「規制サンドボックス」から生成されるベストプラクティスと導入ガイドラインは、企業、特に中小企業や新興企業が規制ルールを導入するのに役立ちます。 **2 つ目は、AI ガバナンス標準、認証、テスト、評価、監査などを含む AI ガバナンス ソーシャル サービスです。 **ネットワーク セキュリティの分野では、ネットワーク セキュリティ認証、テスト、リスク評価などのネットワーク セキュリティ ソーシャル サービスは、規制要件を実装するための重要な方法です。 AI ガバナンスはこのアプローチから学ぶことができます。現在、欧州連合、英国、米国、IEEE はいずれも AI ガバナンス ソーシャル サービスを推進しています。たとえば、IEEE は業界向けに AI 倫理認証を開始しました。 [21] 英国が発行した「効果的なAI認定エコシステム確立のためのロードマップ」では、中立的な第三者によるAI認定サービス(影響評価、バイアス監査、コンプライアンス監査、認証、コンプライアンス評価を含む)を通じて、世界をリードするAI認定業界を育成することを目指している。 、パフォーマンス テストなど)AI システムの信頼性とコンプライアンスを評価し、伝達します。英国は、これが数十億ポンドの価値がある新しい産業になると信じている。 [22] 中国は、健全な AI ガバナンス社会サービス システムの確立を加速し、下流の AI ガバナンス サービスを通じて上流の法律と規制要件をより適切に取り組み、実施する必要があります。さらに、政策ガイドライン、責任のセーフハーバー、パイロットプロジェクト、デモンストレーションアプリケーション、イベント後の説明責任などの規制手法はすべて、さまざまなアプリケーションシナリオで重要な役割を果たす可能性があります。
科学技術倫理ガバナンスの制度化・合法化の進展に伴い、科学技術倫理ガバナンスの強化は科学技術企業にとって「選択しなければならない」「必須の課題」の一つとなっている。 「倫理第一」の概念の下では、科学技術の倫理ガバナンスの要件は、テクノロジー企業が事後の是正措置で AI の倫理問題に対処することは期待できず、科学技術全体に関与する必要があることを意味します。設計から開発、展開までのAIライフサイクルの中で、科学技術倫理管理の主体としての責任を積極的に果たし、科学技術倫理の自己規律をさまざまな形で革新的に推進する。全体として、高度なテクノロジーとデジタル社会において、テクノロジー企業は、法務、財務、リスク管理などの既存のモジュールと同じくらい重要なモジュールとして、AI ガバナンスを自社のコーポレート ガバナンス環境に組み込むことを検討する必要があります。次の側面はさらに検討する価値があります。
**まず管理面では、AI倫理リスク管理の仕組みを確立する必要がある。 **AI の倫理リスク管理は、設計前段階、設計と開発段階、展開段階、およびこれらの段階にわたるテストと評価活動を含む AI のライフサイクル全体を通じて実行され、包括的に特定、分析、評価する必要があります。 AI の倫理的リスクを管理、統治します。これは、倫理委員会、倫理審査プロセス、その他の管理ツールなど、対応する組織構造と管理規範を確立するかどうかは企業に依存します。政策立案者はこの点に関して政策ガイドラインの発行を検討するかもしれない。
次に、デザイン面では、人を中心としたデザインの考え方を踏襲し、「Ethics by Design」**(エシックスバイデザイン)の考え方を実践する必要があります。 **倫理的な組み込み設計とは、倫理的な価値観、原則、要件、手順を AI、ロボティクス、ビッグ データ システムの設計、開発、展開に統合することを意味します。企業は、技術者が主導するAIの研究開発と応用プロセスを振り返り、AIの研究開発と応用活動の多様な背景と参加をより重視する必要がある。政策、法律、倫理、社会、哲学、その他学際的かつ学際的な人材を技術開発チームに導入することは、技術設計と開発に倫理要件を組み込む最も直接的かつ効果的な方法です。将来的には、政策立案者は業界と協力して経験と教訓をまとめ、倫理的な組み込み設計に関する技術ガイドライン、ベストプラクティス、その他の文書を発行できるようになります。
**最後に、テクノロジーの観点から言えば、AI の倫理問題に対処し、信頼できる AI アプリケーションを作成するために、技術的および市場指向のアプローチを引き続き模索する必要があります。 ** 1つはAI倫理ツールです。説明可能性、公平性、セキュリティ、プライバシー保護など、AI アプリケーションにおける多くの問題は、技術革新によって解決できます。これらの問題に焦点を当て、業界はいくつかの AI 倫理ツールと AI 監査ツールを検討してきましたが、この分野での今後の取り組みをさらに発展させる必要があります。 2つ目はAI倫理サービス(AIEthicsasaサービス)です。 [23] これは市場指向の道であり、AI倫理の大手企業やAI倫理スタートアップがAI倫理ツールやサービスを中心とした責任あるAIソリューションを開発し、商用サービスとして提供するものです。 [24] 調査およびコンサルティング会社の Forrester は、公正で透明な AI 倫理原則の実装を支援するために、ますます多くの AI テクノロジー企業や AI を応用する他の分野の企業が責任ある AI ソリューションを購入し、AI 倫理サービスの市場規模が 2 倍になると予測しています。 3つ目は、AI倫理報奨金などのテクノロジークラウドソーシング手法です。ネットワーク セキュリティ脆弱性報奨金 (バグ報奨金)、アルゴリズム差別報奨金 (アルゴリズム バイアス報奨金)、およびインターネット企業で広く使用されているその他の技術的なクラウドソーシング手法と同様に、AI 倫理問題を発見、特定、解決し、AI 監査ツールを開発し、信頼できる AI アプリケーションが重要な役割を果たすことになります。 Twitterやスタンフォード大学などの一部の外国企業や大学研究機関は、アルゴリズム差別報奨金チャレンジとAI監査チャレンジを立ち上げ、AIモデルにおけるアルゴリズム差別を特定し軽減するツールを開発するよう参加者に呼びかけている。これらのテクノロジークラウドソーシング手法を通じて AI 倫理コミュニティを育成および強化することは、AI ガバナンスにおいて重要な役割を果たします。
世界的な AI ガバナンスの協力は引き続き深化する必要がある
前述したように、グローバルな AI ガバナンスは競争状況をもたらしており、人間中心、オープンで共有されたテクノロジー、包括的な開発の概念に準拠していません。各国は引き続き国際的なAIガバナンスにおける協力を深め、AIの倫理とガバナンスに関する国際協定の策定を促進し、広範な合意を得て国際的なAIガバナンスの枠組み、基準と規範を形成し、技術、人材、産業などにおける交流と協力を強化する必要がある。 、排他主義に反対し、技術の包摂性と善のための技術を促進し、すべての国の包摂的な発展を実現します。中国が世界のテクノロジーガバナンスに深く参加するには、AIとデータの分野における国際ルール形成の新たな機会を捉え、世界のコンセンサスに適合するAIガバナンスソリューションを継続的に提案し、世界のデジタルガバナンスに中国の知恵を注入し続ける必要がある。 AI ガバナンス。同時に、私たちは国際的な発言力を強化し、私たちのアイデア、提案、実践を国際社会に統合し、さらなる認識と合意を目指して努力し、私たちの発言力と影響力を高める必要があります。
将来に向けて、AI技術の継続的な発展により、AIはますます強力になり、将来的には汎用AI(Artificial General Intelligence、略してAGI)が登場する可能性があります。一般的な AI は、人間と同等のレベルの知能を備えており、人間が実行できるあらゆる知的タスクを実行できます。理論的には、一般的な AI がより高いレベルの知能を設計し、知能の大爆発、いわゆる「特異点」をもたらし、超知能をもたらす可能性があります。現在のAI応用から将来のAGIへ、量的変化から質的変化への飛躍となるかもしれません。これにより、AGI が人間の仕事を奪い、制御不能になり、さらには人間の存在を脅かすのではないかという懸念が生じています。したがって、汎用 AI の開発とその潜在的な安全性と倫理の問題については、全人類の利益のために AI テクノロジーがより包括的で、安全で、信頼性が高く、制御可能であることを保証するために、世界が事前に計画を立て、協力する必要があります。
この記事は『上海師範大学紀要(哲学・社会科学編)』2023年4号に初掲載されました
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
責任ある AI に向けて: 中国における AI ガバナンスの動向と展望
著者: Cao Jianfeng、テンセント研究所主任研究員
21世紀はデジタル化、ネットワーク化、知能化が深化する時代であり、そのキーテクノロジーとして人工知能(AI)が各界から大きな注目を集めています。過去10年間はディープラーニングに代表されるAIの「黄金の10年」と言われています。 ** [1] ディープラーニングによりAI分野のニューラルネットワーク技術(ニューラルネットワーク)が回復に向かい、AI分野は急速な発展を遂げる「第3の春」を迎えた。これに先立ち、1956 年のダートマス会議で「人工知能」の概念が提案されて以来、AI 分野は 2 つの浮き沈みを経験してきました。具体的には、機械学習アルゴリズム、ビッグデータ、クラウド コンピューティング、AI 専用チップ、オープンソース ソフトウェア フレームワークなどの多くの技術要素の融合と開発により、AI 分野の飛躍的な進歩が促進され、その結果、AI は急速に進歩しました。新しい汎用技術であり、経済社会の知的基盤であり、経済社会のさまざまな分野で広く活用され、新たな製品やサービスをもたらします。消費者向けインターネット分野におけるアルゴリズムレコメンデーション、AI生成コンテンツ(AIGC)、チャットボットから、産業分野における無人車両、AI医療ソフトウェア、AI品質検査、社会公共サービスにおけるさまざまな便利なアプリケーションまで、AIは多大な影響を及ぼしています。質の高い社会開発の多大な価値は実証され続けています。 [2] つまり、AIは新たな技術革命と産業変革(第4次産業革命)をリードする戦略的技術として、人類の経済と社会を再構築し、生産性、労働雇用、所得分配、グローバル化など。
**これに関連して、AI は国際競争の新たな焦点となっており、世界中の国々が戦略的優位性と開発の機会をつかむために AI 開発戦略と具体的な政策を導入しています。 ** 2017 年 7 月に中国が「新世代人工知能発展計画」を発表し、AI が国家戦略に昇格、2018 年 4 月に EU が AI 戦略を発表し、EU を世界クラスの AI センターとし、 AIが人間中心であり、信頼できるものであることを保証する; 2019年2月に「米国AI計画」が発表され、AI分野における米国のリーダーシップを強化することを目的としたAI戦略が開始された; 2021年9月には、英国は AI 戦略を発表し、AI 超大国のための英国を構築することを望んでいます。各国の AI 戦略を分析すると、AI 分野における国際競争が技術革新や産業経済だけでなく、AI ガバナンスなどの側面も関与していることがわかります。 AIの普及に伴い、アルゴリズム差別、情報の繭、AIによる不当な意思決定、個人情報の悪用やプライバシー侵害、AIによってもたらされる多くの科学技術倫理問題が各界から大きな注目を集め続けています。セキュリティ、アルゴリズムのブラックボックス、責任、テクノロジーの悪用(ビッグデータ殺害、AI詐欺、合成虚偽情報など)、仕事と雇用への影響、倫理的および道徳的影響、その他のリスク課題。 [3] したがって、過去 10 年間の AI テクノロジーの急速な発展と応用に伴い、国内外のあらゆる階層が同時に AI ガバナンスを推進し、法律、倫理的枠組み、基準、認証などの複数のガバナンス手段と保証メカニズムを模索してきました。責任があり、信頼できる、人間中心の AI 開発をサポートするための業界のベスト プラクティス。
本稿では、国際的な視点に基づき、過去10年間の中国のAIガバナンス分野における重要な進歩を整理し、法律や動向を分析・総括し、今後の発展を展望する。近い将来、AIの高性能化に伴い、その応用と影響は日に日に深まり、責任あるAI(Responsible AI)の重要性はますます高まっていくでしょう。責任ある AI の進歩と導入は、合理的かつ効果的な AI ガバナンスと切り離すことができません。言い換えれば、健全な AI ガバナンスを確立することが、責任ある AI に移行し、AI の将来の発展を確実にする唯一の方法です。この記事が、将来の AI ガバナンスの継続的な開発と実装に役立つことを願っています。
AI ガバナンスの 8 つのトレンド
国家 AI 競争力を育成するためにマクロ戦略と実装政策を同時に策定
2013年2月に発出された「モノのインターネットの秩序ある健全な発展促進に関する指導意見」で「経済社会の知的発展」が打ち出されて以来、AIは国家マクロ戦略の視野に入り、重要なテーマとなっている。国のトップレベルの政策文書。例えば、2015年の「『インターネットプラス』行動の積極的な推進に関する指導意見」では、初めて「人工知能の新興産業の育成・発展」が提案された。それ以来、この国は AI にますます注目しており、中核技術が自己制御可能であることを保証し、高度な技術の自立性と自律性を促進するために、戦略レベルでの AI 開発の展開を続けています。信頼性 (表 1)。
国家マクロ戦略と実施政策の継続的な支援により、中国のAI分野におけるイノベーションと起業家精神は引き続き活発であり、AI分野の国立研究所が次々と設立され、重要な成果をあげている。 AI分野における技術革新、産業応用、人材スケールにおいて。中国科学技術信息院が発表した「2021年世界人工知能イノベーション指数報告書」によると、現在の世界のAI開発は中国と米国が主導する全体的なパターンと主要国間の熾烈な競争を示している。 [4] 中国のAI開発は目覚ましい成果を上げており、AI技術革新のレベルは世界初の段階に入り、米国との差はさらに縮まっています。中国のスーパーコンピューティングセンター、AI企業の規模、特許登録数、人材チームの構築、科学研究力はいずれも世界をリードしており、今後も中国の経済成長と社会発展に対するAIの貢献はますます高まるだろう。プライスウォーターハウスクーパースの調査報告書は、2030 年までに世界経済に対する AI の貢献は 15.7 兆米ドルに達し、中国が AI から最大の経済利益を享受し、その額は 7 兆米ドルに達すると予測しています。中国のGDP成長率は約26.1%で、これに米国、北米が続き、3兆7000億ドルに達する見通しだ。 [5]
科学技術倫理システムは継続的に改善されており、AI イノベーションの重要な保証となっています
デジタル時代において、AI などの新たなデジタル技術は、産業時代の技術応用とは異なる独自性と複雑性を持っています。主に以下の点に反映されています: (1) より広範な接続性、ネットワーク接続、データの収集と処理が遍在化されている; (2) 自律性が強化され、AI システムがさまざまな製品やサービスを人間の介入なしで独立して動作させる; (3) より深い不透明性、「アルゴリズム ブラック」 AIシステムの「ボックス」は理解し、説明するのが難しい。 [6] (4) 忠実度が高まり、AI によって生成・合成されるコンテンツ、データ、仮想世界が現実に近づきます。このため、AIなどの新技術の適用によって引き起こされる可能性のある社会的および倫理的問題は、突然性、隠蔽性、規模性、予測不可能性によってますます特徴づけられており、科学技術の倫理的ガバナンスに新たな課題をもたらしています。 AIの開発・応用の過程においては、科学技術倫理問題を同時に検討、あるいは事前に検討することがますます必要かつ重要になっています。 [7] このように、AI時代においては、科学技術倫理制度の調整・改善が重要な課題となっており、人間倫理重視から技術倫理重視への転換、知的エージェントに道徳的制約を導入し、社会倫理を構築する必要がある。優しいデジタル社会秩序。 [8] さらに、科学技術における世界的な競争がますます激化する中、科学技術倫理は技術安全保障上のリスクや課題の予防だけでなく、国家の技術競争力の構築にも関係しています。
**中国共産党第18回党大会以来、国家は科学技術倫理をますます重視しており、科学技術倫理は科学技術活動において遵守すべき価値基準であると明確に述べている。 、科学技術倫理を科学技術イノベーションの重要な支援と保証としてトップレベルの政策設計に組み込んできました。 ** 「中国の特色ある社会主義制度の堅持と改善、国家統治制度と統治能力の近代化促進に関する中国共産党中央委員会の決定」および「第14次5ヵ年計画と長期計画の概要」 「2035年目標」では科学技術倫理のトップレベルの展開が行われており、科学技術倫理ガバナンス体制の整備と科学技術倫理制度の向上が求められている。現在、国は科学技術倫理体系の確立と改善を継続し、科学技術の文化概念と永久保証メカニズムを形成している。それは主に次の 3 つの側面に反映されます。
**まず、国家科学技術倫理ガバナンスシステムの構築を指導、調整、促進する責任を負う国家科学技術倫理委員会を設立する。 **2019年7月、中央総合深化改革委員会第9回会議は「国家科学技術倫理委員会形成計画」を検討・承認し、中国の国家科学技術倫理管理組織が正式に設立された。 2022年3月に発表された「科学技術倫理ガバナンスの強化に関する意見」では、国家科学技術倫理委員会の管理責任がさらに明確化された。
**第二に、科学技術倫理ガバナンスの実施を支援するために、科学技術倫理に関する政策と規制を公布する。 ** 2021年12月に改正される「科学技術進歩法」の目玉の一つは、科学技術倫理に関する関連規定の追加であり、高等教育機関、企業、公的機関などの主体が科学の主な責任を担うことになる。技術倫理管理、科学技術活動の倫理審査を実施するとともに、科学技術の研究、開発、応用活動の法的・倫理的最終ラインを明確にする。 「科学技術の倫理ガバナンスの強化に関する意見」は、一般要件、原則、システム、制度的保証、審査と監督、教育と広報、そして、科学技術の倫理的ガバナンスを実施するための基礎を築きます。フォローアップでは、科学技術倫理の審査方法、科学技術倫理における高リスク科学技術活動リスト、細分化された分野における科学技術倫理規範などの裏付け規定も策定する。
**第三に、AI分野における科学技術の倫理的ガバナンスを強調する。 **国家新世代人工知能ガバナンス専門委員会は、「新世代人工知能ガバナンス原則 - 責任ある人工知能の開発」および「新世代人工知能倫理」を相次いで発行し、責任あるAIの開発のための倫理ガイドラインを提供しています。 「データセキュリティ法」、「インターネット情報サービスアルゴリズム勧告管理規則」、「インターネット情報サービスアルゴリズムの総合的なガバナンスの強化に関する指導意見」などの法令により、データやアルゴリズムに対する科学技術の倫理要件や管理措置が定められています。活動。 「科学技術倫理ガバナンスの強化に関する意見」では、AI、生命科学、医療を「第14次5カ年計画」期間の3つの重点分野と位置づけ、特別な科学技術倫理規範とガイドラインの策定を求めており、科学技術倫理法を強化し、関連する業界幹部に義務付ける 同省は科学技術倫理の監督措置を開始した。今後、AI分野における技術倫理の規制が強化されることが予想されます。さらに、「深セン市人工知能産業促進条例」や「上海人工知能産業発展促進条例」などの地方レベルの法律はいずれも、AIの倫理ガバナンスをAIの健全な発展をサポートするための重要な保証とみなしている。業界。
**上記の分析から、AI科学技術倫理のガバナンスに関して、科学技術倫理管理主体の責任を主な出発点とする大きな傾向が見られるが、これも同様である。インターネットプラットフォームの監督におけるプラットフォーム主体の責任の強調と、ある種の類似点がある。 **政府によるプラットフォームの監督は、プラットフォームの主な責任の実施と圧縮によって主に達成されており、インターネット分野の関連法により、イベント前、イベント中、イベント後の包括的なプラットフォーム義務制度が確立されています。監督機関が発行した「インターネット プラットフォームにおける主体の責任の実装に関するガイドライン (意見募集草案)」は、さまざまな種類のプラットフォームの主体の責任を洗練することを試みました。政府のAI規制も同様の考えを示している。現在の関連政策と規制は、科学技術倫理管理主体の責任を強化しようとしており、イノベーション主体に倫理委員会の設置、科学技術倫理の最低ラインの遵守、科学技術倫理審査の実施、科学技術倫理の実施を義務付けている。倫理リスクの監視、早期警告と評価、および科学技術倫理研修の実施。
インターネット分野でのアルゴリズムの適用は、AI 監視の主要な目的となっています
アルゴリズムの推奨、アルゴリズムの自動化された意思決定、AI 深層合成、およびインターネット分野でのその他のアルゴリズムの応用は、広範な応用、社会の注目の高さ、否定的な問題の継続的な強調などの要因により、AI 分野における政府の監督の焦点となっています。 。近年、州はインターネット分野でのアルゴリズムの適用を積極的に規制する一連の法律や規制を公布しました。 [9] 国家インターネット情報局とその他の 9 部門が発行した「インターネット情報サービス アルゴリズムの包括的ガバナンスの強化に関する指導意見」では、比較的包括的な管理要件が提示されており、約 3 年以内に健全なガバナンス メカニズムと健全な監督が確立されることが期待されています。アルゴリズムによるセキュリティの包括的なガバナンス パターン。この意見書はまた、アルゴリズムのセキュリティ責任や科学技術倫理の審査など、企業の責任の強化も強調している。
アルゴリズム推奨に関しては、「ネットワーク情報コンテンツの生態学的ガバナンスに関する規則」では、アルゴリズム推奨技術に対する人間の介入とユーザーの自己選択メカニズムを改善することが提案されています。 2022年3月1日に施行される「インターネット情報サービスアルゴリズム勧告管理条例」は、中国初のアルゴリズムガバナンスに焦点を当てた法律であり、セキュリティリスク監視、アルゴリズムセキュリティ評価、アルゴリズムセキュリティ評価などの一連の規制措置が定められている。アルゴリズムのファイリング管理により、プラットフォーム企業のアルゴリズムのセキュリティ責任がさらに強化されました。業界関係者はこれを予兆と捉え、2022年をアルゴリズム規制元年と呼んだ。
アルゴリズムによる自動意思決定に関しては、「中華人民共和国個人情報保護法」、「中華人民共和国電子商取引法」、「オンライン観光管理サービスに関する暫定規定」などの関連規定が定められています。アルゴリズムの差別化、ビッグデータの普及などに関する規定。合法的なアルゴリズムの意思決定行動を規制するために、個人に選択権を与える、影響評価を実施する、個人が説明を求め、拒否する権利を享受するなどの規制方法が提案されている。個人の権利の保護とアルゴリズムの商用利用活動のバランスをとる。
AI深層合成(主に、情報コンテンツを生成および合成するためのAI技術の使用を指します)に関しては、関連法規がAI深層合成技術の適用に関するレッドラインを積極的に線引きし、「」などの技術の積極的な適用を促進しています。 「ネットワーク音声およびビデオ情報サービス管理規則」、「ネットワーク情報コンテンツ生態ガバナンス規則、インターネット情報サービスアルゴリズム勧告管理規則などはすべて、虚偽のニュース情報およびその他の違法行為に対する深層合成アルゴリズムの使用を禁止しています。 。 2022 年 11 月に可決された「インターネット情報サービスの深層合成管理に関する規制」は、過去の規制経験を要約し、深層合成サービスプロバイダーの主な責任と深層合成情報コンテンツの管理の観点から、深層合成技術の適用を包括的に規制しています。識別、検出と識別、コンテンツのトレーサビリティなどの必要なセキュリティ対策により、深層合成技術のアプリケーションの安全性と信頼性が保証され、技術革新と開発、および積極的なアプリケーションがより効果的に促進されます。
全体として、インターネット分野におけるアルゴリズムの監督は、セキュリティと制御可能性、権利と利益の保護、公平性と正義、公開性と透明性、悪用の防止などの複数の目的を重視しており、アルゴリズムのアプリケーションの分類と分類に基づいて、規制に焦点を当てています。リスクの高いアルゴリズムのアプリケーション。アルゴリズムのグレーディングと分類の規制は、欧州連合人工知能法における AI システムの規制と似ていますが、規制要件は異なります。これに関連して、学術コミュニティはアルゴリズムガバナンスの研究に強い関心を持っており、アルゴリズム解釈、アルゴリズム影響評価、アルゴリズム監査などの多くのアイデアを提案してきました。将来的には、アルゴリズムの適用が確実に上向きで良好であることをより確実にするために、あらゆる分野がアルゴリズム監視の方法とガバナンス措置をさらに検討し、改善する必要があります。
規制イノベーションを利用して、従来の強力な規制分野での AI の適用を促進
交通や医療などの従来の強力な規制分野にとって、自動運転車、有人ドローン(無人飛行車)、AI医療ソフトウェアなどの新しいものが直面する主な問題は、それらの商用アプリケーションが依然として大きな課題に直面していることだ。そして規制上のハードル。これらの障壁は、テクノロジーに対する消費者や社会の信頼に影響を与えるだけでなく、イノベーターや投資家の意欲を失わせます。したがって、効果的な規制革新が、これらの新しいものの開発と応用の鍵となります。自動運転車を例にとると、従来の自動車と人間のドライバーを規制することを目的とした法規制の枠組みの改革を加速し、その後、新しく効果的な規制の枠組みを確立することによってのみ、自動運転車の商用化を加速することができます。
中国の政策立案者は、規制の手法や手段を積極的に革新しており、「規制のサンドボックス」(規制のサンドボックス、以下の紹介を参照)、パイロットプロジェクト、実証アプリケーションを通じて、新しいAIの応用をサポートおよび促進しています。自動運転車の分野では、州は自動運転車の路上試験やデモンストレーションの適用活動を奨励、支援、規制し、自動運転車の安全基準の「規制のサンドボックス」を検討するための一連の法律や規範文書を発行した。自動運転車の輸送の安全性を確保するため、道路への出入りの通行ルールを整備する。有利な規制政策により、北京、上海、広州、深センなどが次々と開発高地を占拠し、一部の都市では運転者が乗車できず有料で運行できる自動運転車の試験運行許可を発行している。 ; 深センは国内で最初に「深センインテリジェントコネクテッドビークル管理規則」を発行し、商用アプリケーションのための立法および規制の枠組みを確立しています。 AI医療の分野では、AI医療ソフトウェアは自律性、学習・進化機能、継続的反復、アルゴリズムのブラックボックス、予測不可能性など、従来の医療機器とは異なる多くの新機能を備えているため、従来の承認手続きでは難しい。 AI医療への効果的な適応 ソフトウェア開発のニーズこのため、規制当局は AI 医療機器の登録申告・承認手続きや使用管理仕様の改善に積極的に取り組んでおり、インテリジェント医療画像処理などの補助診断・治療のための AI 医療ソフトウェアの臨床応用の加速を支援している。 Tencent Miying の AI 緑内障診断ソフトウェアと肺炎 AI 支援診断システムなどのソフトウェアが中国で承認され、両方とも第 3 種医療機器登録証明書 (以下「3 種類の証明書」) として承認されました。将来的には、AI 医療アプリケーションが人々の生活と幸福をより良く改善できるよう、規制当局は AI 医療ソフトウェアの登録、申請、承認手順の改善と最適化を継続する必要があります。
AI の知的財産保護ルールの検討を加速します
AI生成コンテンツ(AI-Generated Content、略称AIGC)はAIの新たなフロンティアとなり、今後のAIの発展方向を示す [10] 。 AIGCはインターネット分野において、PGC(プロフェッショナルコンテンツ制作)、UGC(ユーザー制作コンテンツ)に次ぐコンテンツ制作形態であり、コンテンツ制作の自動化に大きな変化をもたらしました。現在、AIGC テクノロジーは、テキスト、画像、オーディオ、ビデオ、3D コンテンツ (3D オブジェクト、3D 仮想シーン) などを含むさまざまな形式のコンテンツを独自に生成することができます。このため、AIGC技術とその応用に関する知的財産権保護ルールは、「AIGCコンテンツの著作権保護と所有権をどのように確立するか」「AIGC技術が他人の著作権を侵害していないか」など、避けては通れない重要な課題となっています。コンテンツ」は解決すべき喫緊の課題です。 [11] 外国の学者の中には、AI技術は創造者や発明者は人間のみであるという既存のモデルを打ち破るため、特別なAI知的財産保護規則や国際条約を制定する必要があると示唆する人もいる。 [12]
国内外で、AI が生成したコンテンツに対する知的財産保護ルールの検討が活発に行われています。海外では、英国、欧州連合、日本、南アフリカなどが、英国の「著作権・意匠・特許法」におけるコンピューター生成作品の保護条項など、特別なAI知的財産保護規則を検討または策定している。欧州連合の「単一デジタル市場著作権指令」「AI技術等に基づくテキストおよびデータマイニング著作権の例外」特許に関しては、英国の政策では、AIはまだ独自に発明・創造できるほど進歩していないため、現時点で特許法を改正する必要はないが、技術の進歩に細心の注意を払い、AIを評価する必要があると指摘している。特許をタイムリーに発行します。
中国では、Baiduの「Baijiahao」著作権侵害訴訟に対する北京電影法律事務所の訴訟で、裁判所は、自然人によって作成されたオリジナルの作品のみが著作権保護を得ることができるとの判決を下し、したがってAIによって直接かつ独自に生成された作品の著作権を否定していると指摘しています。 AI が生成したコンテンツに関連する権利および利益(競争権および利益など)は、競争法およびその他の手段によって保護できることを示しています。著作権侵害と不正競争を巡る深セン騰訊計算機システム有限公司対上海英訓科技有限公司の訴訟において、裁判所はAI分野における人間とコンピュータのコラボレーションの現実に基づき、 AI執筆ソフト「ドリームライター」の技術的に「生成」された作品は単なる創作物であり、その過程におけるつながりとして、原告が主催する複数チーム、複数人の分業によって形成される知的活動全体が含まれると指摘した。は創作の核となるリンクであることから、本件記事は原告主催の法人著作物であると判断される。ドリームライター事件の判決は、AIGC技術とその応用の現状の発展とより合致しており、今後の法律を通じてAI生成コンテンツの知的財産保護ルールをさらに明確にする上で、大きな参考となる意義がある。法制面では、2020年に新たに改正された「中華人民共和国著作権法」では、公開著作物識別方式が採用され、著作物の構成を明確にし、主な著作物類型を列挙するとともに、公開裏付けも規定されています。アプリケーションによってもたらされる新しいオブジェクトの保護により、制度上のスペースが確保されます。
標準化の構築は AI ガバナンスの重要な部分です
**「国家標準化開発概要」は、標準化が国家統治システムと統治能力の近代化を促進する上で基本的かつ主導的な役割を果たすと指摘しました。 AI 分野にとって、AI 標準は、AI の開発、進歩、広範な適用(技術標準など)をサポートおよび促進する重要な手段であるだけでなく、AI ガバナンス(ガバナンスなど)の実装を促進する効果的な方法でもあります。 AI ガバナンス基準は、「立法と監督の実施、および技術的実践のドッキング」において重要な役割を果たす可能性があるためです。さらに、AI ガバナンスの分野の標準は、法律や規制よりも機敏で柔軟で適応性があります。したがって、AI ガバナンス基準は AI 技術と産業の発展において非常に重要な基準となっており、国際社会はその実装策を提案しています。 **代表的なものとしては、欧州連合の信頼できる AI 標準、米国国立標準技術研究所 (NIST) 主導の AI リスク管理、AI 差別識別およびその他のガバナンス標準、英国の AI 認定エコシステム開発計画、IEEE の AI 倫理標準、など。実装に関しては、IEEE が業界向けの AI 倫理認証プロジェクトを立ち上げ、英国は 5 年間で数十億ポンドの価値がある世界をリードする AI 認証産業を育成し、中立的な第三者機関の AI 認証サービスに合格することを望んでいますAI システムの信頼性とコンプライアンスを評価し伝達するため(監査、評価への影響、認証を含む)。
**中国はAI分野の標準化構築を重視しており、「国家標準化発展要綱」ではAI、量子情報、バイオテクノロジー分野の標準化研究を義務付けている。 **近年、AI ガバナンスの分野では、各界で国家標準、業界標準、地方標準、グループ標準の標準化が推進され続けています。例えば、国家標準化管理委員会は国家人工知能標準化総グループを設立し、国家情報技術標準化技術委員会は人工知能サブ技術委員会を設立し、いずれもAI分野における国家標準の策定を促進することを目的としています。 。 2020年7月に発行された「国家新世代人工知能標準体系構築のためのガイドライン」では、AI標準分野におけるトップレベルの設計が明確化され、AIの健全かつ持続可能な発展を促進するためのコンプライアンス体制が確立されています。将来的には、AI分野における技術革新と産業発展をより確実に保証するために、AIガバナンスに関連する基準をより迅速に策定、実装する必要があります。
業界は AI ガバナンスのための自己規律措置を積極的に模索し、責任あるイノベーションとテクノロジーの概念を善のために実践しています
**効果的な AI ガバナンスには、政府、企業、業界団体、学術団体、ユーザーまたは消費者、一般大衆などの複数の主体の共同参加が必要であり、その中でもテクノロジー企業の自己統治と自己規律管理は重要な課題です。 「倫理第一」の概念を実践する上で重要な部分です。 **「倫理第一」が叫ばれる理由は、AIの急速な発展に伴い、「法的遅れ」現象がますます顕在化していることが大きい。 AIの分野では、「倫理第一」はテクノロジー企業の技術倫理の自主管理に初めて現れ、大手企業のベストプラクティスが非常に優れた主導的役割を果たすことが多く、責任あるイノベーションとテクノロジーの実践を促進します。業界全体にとって良いアイデアです。
近年、業界レベルでは、企業のAI活動に対する倫理指針を提供するために、関連研究機関や業界団体がAI倫理ガイドラインや自己規律規約等を提案している。この点における代表的なものとしては、中国人工知能産業発展同盟(AIIA)の「人工知能産業自主規律条約」と「信頼できるAI運用ガイドライン」、北京市の「人工知能北京コンセンサス」と「人工知能コンセンサス」などがある。 Zhiyuan Artificial Intelligence Research Institute. 業界責任宣言」、国家情報セキュリティ標準化委員会の「ネットワーク セキュリティ標準実践ガイドライン - 人工知能の倫理的セキュリティ リスクの防止に関するガイドライン」など。
エンタープライズレベルでは、テクノロジー企業はAI技術革新と産業応用の主体として、AIの責任ある研究開発と応用という重要な責任を担っています。外国では、テクノロジー企業は比較的成熟した経験を模索し、AI の倫理原則の提案、社内の AI 倫理ガバナンス組織の確立、管理および技術ツール、さらには商用の責任ある AI ソリューションの開発に至るまで、多くのリソースを蓄積してきました。 [13] 。近年、国内のテクノロジー企業は積極的に規制要件を導入し、関連する自主規制措置を検討しています。これには主に、AI 倫理原則の公表、社内 AI ガバナンス組織 (倫理委員会など) の設立、AI 活動の倫理レビューやセキュリティ リスク評価の実施などが含まれます。関連情報、アルゴリズムの公開性と透明性を促進し、AI 倫理問題に対する技術的解決策 (合成情報コンテンツの検出および識別ツール、AI ガバナンス評価ツール、プライバシー コンピューティング ソリューションなど) を探求します。フェデレーテッド ラーニングとして) など
**世界的な AI 競争は、テクノロジーと業界間の競争だけでなく、ガバナンスのルールと標準間の競争でもあります。 **世界的なデジタル経済の発展により、データ フロー、AI ガバナンス フレームワークなど、AI とデータに関する新しい国際ルールが形成されています。近年、世界的なAIガバナンス協力が進み続けています。 2019 年 OECD/G20 AI 原則は、初の世界的な AI 政策枠組みです。 2021年11月、国連ユネスコは、現在最も包括的で広く合意された世界的なAI政策枠組みである世界初のAI倫理協定「人工知能の倫理に関する勧告」(人工知能の倫理に関する勧告)を可決した。 、倫理的影響評価、および AI の倫理的ガバナンスを強化するためのその他のメカニズム。
同時に、米国と欧州は、AI 政策分野でのリーダーシップを強化し、世界的な AI ガバナンスのルールと基準に影響を与えるために、AI 政策を加速しています。たとえば、欧州連合は調和のとれた AI 法案に取り組んでおり、2023 年に可決される予定であり、AI に対する包括的なリスクベースの規制経路が確立されます。多くの専門家は、以前のデータプライバシー法 GPDR が世界のテクノロジー業界に与えた影響と同様に、EU AI 法は「ブリュッセル効果」を AI 分野に拡大すると予測しています。これはまさに EU が AI ガバナンスの確立を望んでいることです。規制基準を通じて世界へ。 [14] 欧州評議会はAI法制に加え、世界初の「国際AI条約」の準備を進めており、これまでの「サイバー犯罪条約」や「プライバシー条約」と同様に、加盟国・非加盟国の双方が将来のAIに参加・批准できる。大会。 [15] 米国は、テクノロジーと産業の面で常に AI 分野の世界的リーダーであり、近年、AI 政策の分野でのリーダーシップを積極的に再構築し始めています。 2020 年に設立された米国・EU 貿易技術評議会の中核的な任務の 1 つは、AI ガバナンスに関する米国・EU の協力を促進することです。 [16] 結論として、世界の AI 競争は、AI 政策とガバナンスの分野におけるソフトパワー競争をますます重視しており、これは 21 世紀の技術競争の大きな変化を表していると言えます。
近年、中国は世界的な科学技術ガバナンスへの参加を重視し、積極的に自らの提案を打ち出し、より多くの認識と合意を得るべく努力している。たとえば、中国は「グローバル データ セキュリティ イニシアチブ」を提唱し、世界のデジタル ガバナンスに前向きなエネルギーを注入し続けています。 2022年11月、国連の特定通常兵器禁止条約の締約国会議で、中国は人工知能の倫理ガバナンスの強化に関する文書を提出し、倫理第一の遵守、自己規律の強化、人工知能の責任ある使用と国際協力の促進。
3 つのポイントの見通し
「第14次5カ年計画と2035年の長期目標の概要」、「中国における法の支配の構築(2020年~2025年)」、「国家の倫理的統治の強化に関する意見」などの多くの政策や規範文書。科学技術」およびその他の政策および規範文書は、AI ガバナンスが引き続き科学技術のガバナンスにおける主要な問題であることを示しています。技術倫理の中核分野。 AI分野における中国の世界競争力をさらに強化するために、中国は技術と産業のハードパワーの育成にもっと注意を払う必要があるだけでなく、ソフトパワーの形成、特にAI政策とガバナンスにおいて発言し主導する権利の形成にも焦点を当てる必要がある。 。なぜなら、AI ガバナンスは世界的な AI 競争力の重要な部分になっているからです。
過去を振り返ると、中国は開発とセキュリティに同等の注意を払い、イノベーションと倫理と並行するAIの監督とガバナンスの概念を明確にし、イノベーションと開発を支援、促進すると同時に、安全性、信頼性、制御性も確保するテクノロジーの応用例。未来に向けて、私たちは政府、業界・企業、研究機関、社会団体、ユーザー・消費者、国民、メディア、その他のステークホルダーの共同の努力をより有効に活用し、AIの健全な発展を促進し続ける必要があります。ガバナンスの実践と AI の向上により、経済的および社会的発展に利益をもたらし、人々の生活と福祉を向上させ、科学技術をより高いレベルに押し上げます。
さらに、過去の AI の「黄金の 10 年」は人々にますます強力な AI モデルをもたらし、近い将来、AI はさらに強力になるでしょう。これは、AI が社会エコシステムと相互作用する場合、人間、社会、環境に与える可能性のある影響は、これまでのテクノロジーをはるかに超えることを意味します。したがって、AI ガバナンスの主なタスクは、「責任ある AI」の概念を提唱し、実践し続けることであり、利害関係者の価値を創造し、利害関係者の幸福を向上させ、乱用、誤用、不正使用を防止することです。つまり、効果的な AI ガバナンスには、責任ある AI 実践の開発を促進し、信頼できる AI (Trustworthy AI) を作成する必要があります。
データと AI の法的枠組みを継続的に改善し、正確かつ機敏な監督を推進します
AIの健全かつ持続可能な発展は、一方では合理的かつ効果的な監督と不可分であり、他方ではAI分野におけるデータの供給と流通、利用のレベルを継続的に向上させる必要がある。実際、医療、製造、金融などの多くの分野における AI の開発と応用が直面する主な問題の 1 つは、データ取得の難しさ、データ品質の低さ、データ標準の一貫性のなさなど、データの取得と活用の問題です。したがって、将来の AI のさらなる発展は、データと AI の法的枠組みの継続的な改善に大きく依存します。英国の「デジタル規制計画」は、適切に設計された規制は開発の促進と活気に満ちたデジタル経済と社会の形成に強力な効果をもたらすことができるが、設計が不十分または制限的な規制はイノベーションを妨げる可能性があると提案しています。適切なルールは、人々が自分が使用する製品やサービスを信頼するのに役立ち、その結果、製品やサービスの人気が高まり、さらなる消費、投資、イノベーションが促進されます。 [17] AIについても同様です。
** 一方で、AI ガバナンスに関しては、正確かつ機動的な監視をより促進する必要があります。 これには以下が含まれます: まず、さまざまな AI 製品、サービス、アプリケーションに異なるルールを採用します。 **現在、AI アプリケーションはほぼ遍在しているため、画一的なルールをさまざまな業界や分野の AI アプリケーションの固有の特性、および個人や社会への影響に合理的に適応させることは困難です。そのためには、リスクベースの AI ガバナンス ポリシー フレームワークを採用する必要があります。たとえば、同じ AI テクノロジーを使用して、ユーザーの個人的な属性や個人的な好みを分析および予測し、パーソナライズされたコンテンツをプッシュするだけでなく、病気の診断や治療を支援することもできます。分類と整理は、がん腫瘍を特定します。これらのアプリケーションには、リスクレベル、結果の重要性、個人的および社会的影響の点で大きな違いがあり、一般的かつ画一的な方法で規制要件を提示することは明らかに科学的でも現実的でもありません。 **第二に、AI アプリケーションの格付けと分類に基づいて、分散化された差別化された監督の採用を強調しています。 **インターネットと同様に、AI は非常に広範で汎用的な技術であるため、統一的な監視を行うには適しておらず、困難です。外国の観点から見ると、現在、すべての AI アプリケーションに対する統一的で一般的な規制の枠組み (EU モデル) を確立しようとしているのは欧州連合だけであり、英国と米国はアプリケーションのシナリオとリスクに基づいた産業の分散型監督を重視しています (英米モデル)。英国は、原則に基づいて AI アプリケーションに革新を促進する監督を導入することを提案しており、その中心的な概念には、特定のアプリケーション シナリオに焦点を当て、リスクの程度に基づいた監督の比例性と適応性を確保すること、および、次のことが含まれます。 [18] 米国は常に業界規制と業界の自主規律を組み合わせたガバナンス路線を重視しており、例えば「AI権利章典ブループリント」では5原則を提案するだけでなく、業界当局主導による分散型規制の考え方も明確にしている。アプリケーションシナリオ指向。 [19] 中国に関する限り、これまでの AI の立法と監督は英米モデルに近いものでした。つまり、アルゴリズム推奨サービス、深層合成、自動運転など、さまざまな AI アプリケーションに対して個別の規制ルールが策定されていました。この分散化され差別化された規制モデルは、アジャイル ガバナンスの原則に準拠しており、AI テクノロジーとそのアプリケーションの急速な開発と反復の複雑な特性により適切に適応できます。 **第三に、規制ツールボックスの継続的な革新と多様な規制イニシアチブの採用が求められます。 1つはAIの「規制サンドボックス」。 ** AI 規制における欧州連合の主要な取り組みの 1 つは、提案されている AI の「規制サンドボックス」です。 [20] 規制当局とイノベーション主体の間のコミュニケーションとコラボレーションをサポートおよび促進する効果的な方法として、「規制サンドボックス」は、コンプライアンスに準拠した革新的な AI アプリケーションを開発、テスト、検証するための制御された環境を提供できます。 「規制サンドボックス」から生成されるベストプラクティスと導入ガイドラインは、企業、特に中小企業や新興企業が規制ルールを導入するのに役立ちます。 **2 つ目は、AI ガバナンス標準、認証、テスト、評価、監査などを含む AI ガバナンス ソーシャル サービスです。 **ネットワーク セキュリティの分野では、ネットワーク セキュリティ認証、テスト、リスク評価などのネットワーク セキュリティ ソーシャル サービスは、規制要件を実装するための重要な方法です。 AI ガバナンスはこのアプローチから学ぶことができます。現在、欧州連合、英国、米国、IEEE はいずれも AI ガバナンス ソーシャル サービスを推進しています。たとえば、IEEE は業界向けに AI 倫理認証を開始しました。 [21] 英国が発行した「効果的なAI認定エコシステム確立のためのロードマップ」では、中立的な第三者によるAI認定サービス(影響評価、バイアス監査、コンプライアンス監査、認証、コンプライアンス評価を含む)を通じて、世界をリードするAI認定業界を育成することを目指している。 、パフォーマンス テストなど)AI システムの信頼性とコンプライアンスを評価し、伝達します。英国は、これが数十億ポンドの価値がある新しい産業になると信じている。 [22] 中国は、健全な AI ガバナンス社会サービス システムの確立を加速し、下流の AI ガバナンス サービスを通じて上流の法律と規制要件をより適切に取り組み、実施する必要があります。さらに、政策ガイドライン、責任のセーフハーバー、パイロットプロジェクト、デモンストレーションアプリケーション、イベント後の説明責任などの規制手法はすべて、さまざまなアプリケーションシナリオで重要な役割を果たす可能性があります。
**一方で、データ流通・利活用のための法的枠組みの整備を加速し、AI分野におけるデータ供給レベルの向上を継続する必要がある。 ** 1 つ目は、国家レベルでオープンかつ共有される公共データのための法的枠組みを構築し、データ品質とデータ ガバナンスの標準を統一し、データのダウンロード、API インターフェイス、プライベート コンピューティング (フェデレーテッド ラーニング、安全なマルチパーティ コンピューティング、安全なセキュリティ) を使用することです。パブリックデータの最大限のオープン共有を促進するための、データスペースなどの多様な管理および技術的手法。 2つ目は、プライバシーコンピューティング技術と合成データ技術の開発と応用に対するさまざまな障害を積極的に取り除くことです。現在、さまざまなデータの流通・活用において、フェデレーテッド・ラーニングなどのプライバシー・コンピューティング技術がますます重要な役割を果たしており、「データは利用可能・数えられるが目に見えない」、「データはアルゴリズム・価値を変えない」といった効果を得ることができます。動きます」。 AI およびビッグ データ アプリケーションの開発によって推進されているフェデレーテッド ラーニングは、プライバシー コンピューティングの分野における主な推進および応用方法として、現在最も成熟した技術的パスです。次のステップでは、戦略的領域にデータ空間を構築し、プライバシー コンピューティングの業界標準を策定し、プライバシー コンピューティング テクノロジーの実装に関する法的ガイドラインを発行することにより、フェデレーション ラーニングなどのプライバシー コンピューティング テクノロジーのアプリケーションと開発をより適切にサポートできます。
AI の倫理ガバナンスは原則から実践へ移行する必要がある
科学技術倫理ガバナンスの制度化・合法化の進展に伴い、科学技術倫理ガバナンスの強化は科学技術企業にとって「選択しなければならない」「必須の課題」の一つとなっている。 「倫理第一」の概念の下では、科学技術の倫理ガバナンスの要件は、テクノロジー企業が事後の是正措置で AI の倫理問題に対処することは期待できず、科学技術全体に関与する必要があることを意味します。設計から開発、展開までのAIライフサイクルの中で、科学技術倫理管理の主体としての責任を積極的に果たし、科学技術倫理の自己規律をさまざまな形で革新的に推進する。全体として、高度なテクノロジーとデジタル社会において、テクノロジー企業は、法務、財務、リスク管理などの既存のモジュールと同じくらい重要なモジュールとして、AI ガバナンスを自社のコーポレート ガバナンス環境に組み込むことを検討する必要があります。次の側面はさらに検討する価値があります。
**まず管理面では、AI倫理リスク管理の仕組みを確立する必要がある。 **AI の倫理リスク管理は、設計前段階、設計と開発段階、展開段階、およびこれらの段階にわたるテストと評価活動を含む AI のライフサイクル全体を通じて実行され、包括的に特定、分析、評価する必要があります。 AI の倫理的リスクを管理、統治します。これは、倫理委員会、倫理審査プロセス、その他の管理ツールなど、対応する組織構造と管理規範を確立するかどうかは企業に依存します。政策立案者はこの点に関して政策ガイドラインの発行を検討するかもしれない。
次に、デザイン面では、人を中心としたデザインの考え方を踏襲し、「Ethics by Design」**(エシックスバイデザイン)の考え方を実践する必要があります。 **倫理的な組み込み設計とは、倫理的な価値観、原則、要件、手順を AI、ロボティクス、ビッグ データ システムの設計、開発、展開に統合することを意味します。企業は、技術者が主導するAIの研究開発と応用プロセスを振り返り、AIの研究開発と応用活動の多様な背景と参加をより重視する必要がある。政策、法律、倫理、社会、哲学、その他学際的かつ学際的な人材を技術開発チームに導入することは、技術設計と開発に倫理要件を組み込む最も直接的かつ効果的な方法です。将来的には、政策立案者は業界と協力して経験と教訓をまとめ、倫理的な組み込み設計に関する技術ガイドライン、ベストプラクティス、その他の文書を発行できるようになります。
**最後に、テクノロジーの観点から言えば、AI の倫理問題に対処し、信頼できる AI アプリケーションを作成するために、技術的および市場指向のアプローチを引き続き模索する必要があります。 ** 1つはAI倫理ツールです。説明可能性、公平性、セキュリティ、プライバシー保護など、AI アプリケーションにおける多くの問題は、技術革新によって解決できます。これらの問題に焦点を当て、業界はいくつかの AI 倫理ツールと AI 監査ツールを検討してきましたが、この分野での今後の取り組みをさらに発展させる必要があります。 2つ目はAI倫理サービス(AIEthicsasaサービス)です。 [23] これは市場指向の道であり、AI倫理の大手企業やAI倫理スタートアップがAI倫理ツールやサービスを中心とした責任あるAIソリューションを開発し、商用サービスとして提供するものです。 [24] 調査およびコンサルティング会社の Forrester は、公正で透明な AI 倫理原則の実装を支援するために、ますます多くの AI テクノロジー企業や AI を応用する他の分野の企業が責任ある AI ソリューションを購入し、AI 倫理サービスの市場規模が 2 倍になると予測しています。 3つ目は、AI倫理報奨金などのテクノロジークラウドソーシング手法です。ネットワーク セキュリティ脆弱性報奨金 (バグ報奨金)、アルゴリズム差別報奨金 (アルゴリズム バイアス報奨金)、およびインターネット企業で広く使用されているその他の技術的なクラウドソーシング手法と同様に、AI 倫理問題を発見、特定、解決し、AI 監査ツールを開発し、信頼できる AI アプリケーションが重要な役割を果たすことになります。 Twitterやスタンフォード大学などの一部の外国企業や大学研究機関は、アルゴリズム差別報奨金チャレンジとAI監査チャレンジを立ち上げ、AIモデルにおけるアルゴリズム差別を特定し軽減するツールを開発するよう参加者に呼びかけている。これらのテクノロジークラウドソーシング手法を通じて AI 倫理コミュニティを育成および強化することは、AI ガバナンスにおいて重要な役割を果たします。
世界的な AI ガバナンスの協力は引き続き深化する必要がある
前述したように、グローバルな AI ガバナンスは競争状況をもたらしており、人間中心、オープンで共有されたテクノロジー、包括的な開発の概念に準拠していません。各国は引き続き国際的なAIガバナンスにおける協力を深め、AIの倫理とガバナンスに関する国際協定の策定を促進し、広範な合意を得て国際的なAIガバナンスの枠組み、基準と規範を形成し、技術、人材、産業などにおける交流と協力を強化する必要がある。 、排他主義に反対し、技術の包摂性と善のための技術を促進し、すべての国の包摂的な発展を実現します。中国が世界のテクノロジーガバナンスに深く参加するには、AIとデータの分野における国際ルール形成の新たな機会を捉え、世界のコンセンサスに適合するAIガバナンスソリューションを継続的に提案し、世界のデジタルガバナンスに中国の知恵を注入し続ける必要がある。 AI ガバナンス。同時に、私たちは国際的な発言力を強化し、私たちのアイデア、提案、実践を国際社会に統合し、さらなる認識と合意を目指して努力し、私たちの発言力と影響力を高める必要があります。
将来に向けて、AI技術の継続的な発展により、AIはますます強力になり、将来的には汎用AI(Artificial General Intelligence、略してAGI)が登場する可能性があります。一般的な AI は、人間と同等のレベルの知能を備えており、人間が実行できるあらゆる知的タスクを実行できます。理論的には、一般的な AI がより高いレベルの知能を設計し、知能の大爆発、いわゆる「特異点」をもたらし、超知能をもたらす可能性があります。現在のAI応用から将来のAGIへ、量的変化から質的変化への飛躍となるかもしれません。これにより、AGI が人間の仕事を奪い、制御不能になり、さらには人間の存在を脅かすのではないかという懸念が生じています。したがって、汎用 AI の開発とその潜在的な安全性と倫理の問題については、全人類の利益のために AI テクノロジーがより包括的で、安全で、信頼性が高く、制御可能であることを保証するために、世界が事前に計画を立て、協力する必要があります。
この記事は『上海師範大学紀要(哲学・社会科学編)』2023年4号に初掲載されました