ここ数カ月で、AI のガバナンスと規制に対する世界的な関心が爆発的に高まっています。多くの人は、OpenAI の ChatGPT や DALL-E、Google の Bard、Stable Diffusion などの驚くべき機能を備えた生成 AI システムに対処するには、新しいガバナンスと規制構造が必要であると信じています。 EU 人工知能法は広く注目を集めています。実際、さまざまな AI ガバナンス モデルやフレームワークなど、他にも多くの重要な取り組みが世界中で生まれています。
この記事は、2022年5月にリリースされたシンガポールの人工知能ガバナンステストフレームワークおよびツールキット「AI Verify」についての記事です。主に3つの重要なポイントを抽出します。 ① AI ガバナンスに関するシンガポールの全体戦略と、AI 検証を開始する前に政府が発表した主要な取り組みを要約します。 ②「人工知能検証」のポイントを解説。 ③「AI Verification」は 1 年間にわたって開始され、AI 検証の将来と AI ガバナンスと規制に対するシンガポールのアプローチについて議論されています。簡単に言うと、主なポイントは次のとおりです。
シンガポールは、AI ガバナンスと規制に対して穏健な介入アプローチを採用しており、AI ガバナンス フレームワーク モデルは民間部門における AI ガバナンスのガイドラインを定めています。
「AI Verify」は、2022 年 5 月にリリースされる AI ガバナンス テスト フレームワークおよびツールキットです。これは試験段階ではあるが、AI のガバナンスと規制に関する世界的な議論をさらに発展させ、信頼できる AI システムに対する需要の高まりに応え、世界的な AI 規制枠組みの相互接続性を促進するというシンガポールの取り組みを表している。
「AI Verification」は、企業が自社の AI システムをテストする際に使用できる、国際的に認められた AI ガバナンス原則に基づくテスト フレームワークです。 「AI 検証」は倫理基準を定義することを目的としたものではなく、AI システム開発者とその所有者が AI システムのパフォーマンスを証明する声明を発行できるようにすることで検証可能性を提供することを目的としています。
シンガポールは国家人工知能戦略の中で、同国が「スケーラブルで影響力のある AI ソリューションの開発と展開の最前線に立つ」ことを目指しており、「開発、テスト、展開、拡張のリーダー」としての国の役割を強化したいと発表した。人工知能」ソリューションのグローバルハブ。 AI 導入を促進する戦略で特定された 5 つの「エコシステム実現要因」のうちの 1 つは、AI 開発のための「進歩的で信頼できる環境」、つまりイノベーションと社会的リスクの最小化の間のトレードオフであるバランスの取れた環境を促進することです。
この「進歩的で信頼できる環境」を作り出すために、シンガポールはこれまで AI 規制に対して良性かつ自主的なアプローチをとってきました。それは、同国が AI への野望について 2 つの現実を認識しているためです。
シンガポール個人データ保護委員会 (PDPC) が監督するシンガポールの AI に対する規制アプローチには、2022 年の AI Verify の開始に向けて 3 つの柱があります。
1 AI ガバナンス フレームワーク モデル (フレームワーク モデル)。
人工知能とデータの倫理的使用に関する諮問委員会(諮問委員会)。
AIガバナンスとデータ活用の研究計画(研究プロジェクト)。
以下では「フレームワークモデル」に焦点を当てます。
フレームモード
2019 年の世界経済フォーラム年次総会で初めて発表されたフレームワーク モデルは、人工知能ソリューションを大規模に責任を持って展開する際に組織を導く自主的で拘束力のないフレームワークであり、このフレームワークはシステムの開発段階から独立していることに注意してください。技術。ガイドとして、フレームワーク モデルは民間部門による AI の導入に関する実用的な推奨事項のみを提供しますが、公共部門による AI の使用は内部ガイドラインと AI およびデータ ガバナンス ツールキットによって管理されます。 **フレームワーク パターンは「生きたドキュメント」として知られており、将来のバージョンはテクノロジーと社会の進化に応じて進化します。その根拠は、テクノロジー、業界、規模、ビジネスモデルの予測不可能性にあります。 **
これらは、シンガポールの AI 規制とガバナンスの状況の将来についての考え方に影響を与えました。シンガポールの個人データ保護委員会 (PDPC) は、AI 規制に対する自主的かつ緩いアプローチを維持していますが、AI は将来的により厳しい監視にさらされることを認めています。 PDPC はまた、** AI システムおよび開発者の信頼性に対する消費者からの需要の高まりや、規制要件に照らして AI をベンチマークおよび評価するための AI 国際標準の必要性にも留意しているようです。さらに、AI 規制フレームワークの相互運用性に対する要件も高まっています。 **これを踏まえてシンガポールでは開発が始まり、最終的な成果は「AI Verify」の枠組みに統合されました。
「AI Verify」とは
「AI Verify」は、シンガポール通信情報省傘下の法定委員会であるInfocomm Media Development Authority (IMDA)と個人データ保護委員会(PDPC)が共同発行する、人工知能ガバナンステストフレームワークおよびツールキットです。 **AI Verify を使用すると、組織は技術テストとプロセスベースの検査を組み合わせて、AI システムの自主的な評価を実施できます。このシステムは、企業が AI システムが責任ある信頼できる方法で実装されていることを関係者に客観的で検証可能な証拠を提供するのに役立ちます。 **
(a) まず、IMDA は、組織が「AI 検証」を使用して AI システムのパフォーマンス ベンチマークを決定し、これらの検証されたベンチマークを消費者や従業員などの利害関係者に実証できるようになり、それによって組織の信頼構築に役立つことを期待しています。
(b) 第二に、さまざまな AI 規制およびガバナンスのフレームワーク、および信頼できる AI の共通原則を考慮して開発されたことを考慮すると、AI 検証は、組織が共通のさまざまなグローバル AI ガバナンスのフレームワークおよび規制を見つけるのを支援することを目的としています。 IMDAは今後も規制当局や標準化団体と協力して、「AI検証」のテストフレームワークを確立されたフレームワークにマッピングしていきます。この取り組みは、企業が AI 製品やサービスを複数の市場で運用または提供できるようにすると同時に、シンガポールを AI ガバナンスと規制テストの中心地にすることを目的としています。
(c) 第三に、**IMDA は、より多くの組織が「AI 検証」を実験し、そのテスト フレームワークを使用するにつれて、業界の慣行、ベンチマーク、指標を照合できるようになります。 **シンガポールがグローバル AI パートナーシップや ISO/IEC JTC1/SC 42 などのグローバル AI ガバナンス プラットフォームに参加し、AI ガバナンスの国際標準設定に関する貴重な視点を提供していることを考慮すると、これらは、AI ガバナンスの標準の開発を促進することができます。 。
IMDA が AI Verify をリリースしたとき、生成 AI への関心の波はまだ現実化していませんでした。現在の傾向に従って、AI システムのガバナンス、テスト容易性、信頼性に対する関心が大幅に高まっています。この記事に挙げたように、「人工知能検証」AI Verifyのさまざまな取り組みは、まさに現状に対応するための準備を進めているところです。
シンガポールはこれまで、AI のガバナンスと規制に関する世界的な議論と思想的リーダーシップに貢献する能力を実証してきました。リリースされたフレームワーク パターンがこれを証明しています。 AI Verify の賭け金は確かに高いですが、この取り組みに対する世界的な需要も同様です。成功するには、もっと認知され、もっと利用される必要があるかもしれません。それはいくつかの要因によって決まります。 まず、ツールのアクセシビリティが重要です: AI Verify の使用を検討している組織は、AI Verify を低コストまたは無料で使用できる必要があります。 **第二に、その価値を組織に納得させることが重要です。 **これには、IMDAが「人工知能検証」AI Verifyが技術的にも手続き的にも適切であり、より多くの新しいタイプや規模の人工知能モデルやデータセットに効果的に使用でき、独自の商業的機密性に影響を与えないことを証明する必要があります。 AI モデルまたはデータセット。 **第三に、そしておそらく最も重要なことは、国際的な規制枠組みとの相互運用性を維持する必要があることです。 **IMDA は、AI Verify が、EU AI 法、カナダの AI およびデータ法、米国 NIST AI リスク規制の枠組みやシンガポールの AI リスク規制の枠組みなど、新興の主要なグローバル AI 規制の枠組みに組織が対処し、相互運用できるよう引き続き支援する必要があります。独自の国家モデルの枠組み。
原文表示
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
AI ガバナンスを検証可能にする: シンガポールの AI 検証ツールキット
著者:JOSH LEE KOK THONG 翻訳:Li Yang 校正:Xiang Shinyi
出典: ザ・ペーパー
ここ数カ月で、AI のガバナンスと規制に対する世界的な関心が爆発的に高まっています。多くの人は、OpenAI の ChatGPT や DALL-E、Google の Bard、Stable Diffusion などの驚くべき機能を備えた生成 AI システムに対処するには、新しいガバナンスと規制構造が必要であると信じています。 EU 人工知能法は広く注目を集めています。実際、さまざまな AI ガバナンス モデルやフレームワークなど、他にも多くの重要な取り組みが世界中で生まれています。
この記事は、2022年5月にリリースされたシンガポールの人工知能ガバナンステストフレームワークおよびツールキット「AI Verify」についての記事です。主に3つの重要なポイントを抽出します。 ① AI ガバナンスに関するシンガポールの全体戦略と、AI 検証を開始する前に政府が発表した主要な取り組みを要約します。 ②「人工知能検証」のポイントを解説。 ③「AI Verification」は 1 年間にわたって開始され、AI 検証の将来と AI ガバナンスと規制に対するシンガポールのアプローチについて議論されています。簡単に言うと、主なポイントは次のとおりです。
シンガポールは、AI ガバナンスと規制に対して穏健な介入アプローチを採用しており、AI ガバナンス フレームワーク モデルは民間部門における AI ガバナンスのガイドラインを定めています。
「AI Verify」は、2022 年 5 月にリリースされる AI ガバナンス テスト フレームワークおよびツールキットです。これは試験段階ではあるが、AI のガバナンスと規制に関する世界的な議論をさらに発展させ、信頼できる AI システムに対する需要の高まりに応え、世界的な AI 規制枠組みの相互接続性を促進するというシンガポールの取り組みを表している。
「AI Verification」は、企業が自社の AI システムをテストする際に使用できる、国際的に認められた AI ガバナンス原則に基づくテスト フレームワークです。 「AI 検証」は倫理基準を定義することを目的としたものではなく、AI システム開発者とその所有者が AI システムのパフォーマンスを証明する声明を発行できるようにすることで検証可能性を提供することを目的としています。
– 成功するには、「AI 検証済み」がさらに認知され、採用される必要があるかもしれません。これは、コスト、利害関係者にその価値を説得すること、国際的な規制枠組みとの関連性や相乗効果などの要因によって決まります。
シンガポールにおける AI ガバナンスへの全体的なアプローチ
シンガポールは国家人工知能戦略の中で、同国が「スケーラブルで影響力のある AI ソリューションの開発と展開の最前線に立つ」ことを目指しており、「開発、テスト、展開、拡張のリーダー」としての国の役割を強化したいと発表した。人工知能」ソリューションのグローバルハブ。 AI 導入を促進する戦略で特定された 5 つの「エコシステム実現要因」のうちの 1 つは、AI 開発のための「進歩的で信頼できる環境」、つまりイノベーションと社会的リスクの最小化の間のトレードオフであるバランスの取れた環境を促進することです。
この「進歩的で信頼できる環境」を作り出すために、シンガポールはこれまで AI 規制に対して良性かつ自主的なアプローチをとってきました。それは、同国が AI への野望について 2 つの現実を認識しているためです。
まず、シンガポール政府は、AI が経済を成長させ、国民の生活の質を向上させるための重要な戦略的実現要素であると考えています。その結果、シンガポールはイノベーションや投資を抑制しないように、人工知能の規制に抜本的な措置を講じていない。第二に、シンガポールは、その規模を考慮すると、AI ガバナンスの議論、枠組み、規制が世界的に発展する中、政府自体が価格設定者ではなく価格設定者になる可能性があることを認識しています。 したがって、現在の戦略は人工知能の原則を一新することではなく、「世界の流れに従うものであり、世界の流れを変えるつもりはない」というものです。**(「世界を手に入れよう」世界が望む場所ではなく、それがどこにあるのか。」)
シンガポール個人データ保護委員会 (PDPC) が監督するシンガポールの AI に対する規制アプローチには、2022 年の AI Verify の開始に向けて 3 つの柱があります。
1 AI ガバナンス フレームワーク モデル (フレームワーク モデル)。
人工知能とデータの倫理的使用に関する諮問委員会(諮問委員会)。
AIガバナンスとデータ活用の研究計画(研究プロジェクト)。
以下では「フレームワークモデル」に焦点を当てます。
フレームモード
2019 年の世界経済フォーラム年次総会で初めて発表されたフレームワーク モデルは、人工知能ソリューションを大規模に責任を持って展開する際に組織を導く自主的で拘束力のないフレームワークであり、このフレームワークはシステムの開発段階から独立していることに注意してください。技術。ガイドとして、フレームワーク モデルは民間部門による AI の導入に関する実用的な推奨事項のみを提供しますが、公共部門による AI の使用は内部ガイドラインと AI およびデータ ガバナンス ツールキットによって管理されます。 **フレームワーク パターンは「生きたドキュメント」として知られており、将来のバージョンはテクノロジーと社会の進化に応じて進化します。その根拠は、テクノロジー、業界、規模、ビジネスモデルの予測不可能性にあります。 **
基本的に、フレームワーク パターンは、AI に対する信頼と理解を促進する 2 つの基本原則によって導かれます。 **まず、意思決定に AI を使用する組織は、意思決定プロセスが説明可能で、透明性があり、公平であることを保証する必要があります。第二に、AI システムは人間中心であるべきです。人間の幸福と安全を保護することが、AI の設計、開発、使用において最優先に考慮されるべきです。 **
このフレームワークは、これらの指導原則を、組織の意思決定およびテクノロジー開発プロセスの 4 つの主要領域における実行可能なアクションに変換します。
(a) 内部ガバナンスの構造と実践。
(b) AI によって強化された意思決定への人間の関与のレベルを決定する。
(c) 運用管理。
(d) 利害関係者の対話とコミュニケーション。
以下の表は、これらの主要な分野で提案される考慮事項、アプローチ、および対策をまとめたものです。
シンガポールが 2020 年の世界経済フォーラムでフレームワーク モデルの第 2 版を発表したとき、これには他に 2 つの文書が付属していました。それは、「組織のための実装および自己評価ガイド (ISAGO)」と「ユースケースの概要 (編集 - 第 1 巻と第 2 巻)」です。 。 ISAGO は、組織が AI ガバナンス プロセスとモデル フレームワークとの整合性を評価するのに役立つチェックリストです。この大要は、セクター、ユースケース、管轄区域を超えてフレームワークの推奨事項を採用した実際の例を提供します。
一般に、「フレームワーク モデル」とその裏付け文書は、シンガポールにおける人工知能規制の実質的な考え方を定着させ、概説します。これらの取り組みにより、シンガポールは 2019 年に国連情報社会サミット賞を受賞し、AI ガバナンスにおけるリーダーシップが認められました。
2020 年 1 月は、AI 規制に関する世界的な議論の転換点となりました。 2020 年 1 月 17 日、欧州委員会が発表した白書により、国際社会は人工知能技術に対する政府による規制の可能性にさらに注目するようになりました。 2020年2月、欧州委員会は「人工知能に関する白書」を正式に発表し、人工知能の規制枠組みを構築する計画を打ち出した。数か月後、欧州委員会は次期人工知能法案の草案を提出しました。これは、AI システムの開発と使用を水平的に規制するための実質的な規則を導入する政府機関による初めての本格的な試みです。 AI法には法外な効果も期待されており、欧州以外でAIシステムを開発している企業も新法の対象となる可能性がある。
これらは、シンガポールの AI 規制とガバナンスの状況の将来についての考え方に影響を与えました。シンガポールの個人データ保護委員会 (PDPC) は、AI 規制に対する自主的かつ緩いアプローチを維持していますが、AI は将来的により厳しい監視にさらされることを認めています。 PDPC はまた、** AI システムおよび開発者の信頼性に対する消費者からの需要の高まりや、規制要件に照らして AI をベンチマークおよび評価するための AI 国際標準の必要性にも留意しているようです。さらに、AI 規制フレームワークの相互運用性に対する要件も高まっています。 **これを踏まえてシンガポールでは開発が始まり、最終的な成果は「AI Verify」の枠組みに統合されました。
「AI Verify」とは
「AI Verify」は、シンガポール通信情報省傘下の法定委員会であるInfocomm Media Development Authority (IMDA)と個人データ保護委員会(PDPC)が共同発行する、人工知能ガバナンステストフレームワークおよびツールキットです。 **AI Verify を使用すると、組織は技術テストとプロセスベースの検査を組み合わせて、AI システムの自主的な評価を実施できます。このシステムは、企業が AI システムが責任ある信頼できる方法で実装されていることを関係者に客観的で検証可能な証拠を提供するのに役立ちます。 **
人工知能のテスト方法、標準、指標、ツールの継続的な開発を考慮すると、「人工知能の検証」(AI Verify)は現在「実用最小限の製品」(MVP)の段階にあります。これには 2 つの意味があります。まず、MVP バージョンには技術的な制限があり、テストまたは分析できる AI モデルまたはデータセットの種類とサイズによって制限されます。第 2 に、AI テスト機能が成熟するにつれて、AI 検証も進化すると予想されます。
「AI Verified」MVP バージョンの開発目標は次の 4 つです。
(a) まず、IMDA は、組織が「AI 検証」を使用して AI システムのパフォーマンス ベンチマークを決定し、これらの検証されたベンチマークを消費者や従業員などの利害関係者に実証できるようになり、それによって組織の信頼構築に役立つことを期待しています。
(b) 第二に、さまざまな AI 規制およびガバナンスのフレームワーク、および信頼できる AI の共通原則を考慮して開発されたことを考慮すると、AI 検証は、組織が共通のさまざまなグローバル AI ガバナンスのフレームワークおよび規制を見つけるのを支援することを目的としています。 IMDAは今後も規制当局や標準化団体と協力して、「AI検証」のテストフレームワークを確立されたフレームワークにマッピングしていきます。この取り組みは、企業が AI 製品やサービスを複数の市場で運用または提供できるようにすると同時に、シンガポールを AI ガバナンスと規制テストの中心地にすることを目的としています。
(c) 第三に、**IMDA は、より多くの組織が「AI 検証」を実験し、そのテスト フレームワークを使用するにつれて、業界の慣行、ベンチマーク、指標を照合できるようになります。 **シンガポールがグローバル AI パートナーシップや ISO/IEC JTC1/SC 42 などのグローバル AI ガバナンス プラットフォームに参加し、AI ガバナンスの国際標準設定に関する貴重な視点を提供していることを考慮すると、これらは、AI ガバナンスの標準の開発を促進することができます。 。
(d) 第 4 に、**IMDA は、AI 開発者とシステム所有者 (AI システムのテストを求める)、テクノロジー プロバイダー (AI ガバナンスの実装とテスト ソリューション)、コンサルティング サービス プロバイダー(テストと認証のサポートを専門とする)、および研究者(テスト技術、ベンチマーク、実践方法を開発している)。
「AI 検証」に関するいくつかの潜在的な誤解を明確にすることも重要です。まず、**「AI 検証」は倫理基準を定義しようとするものではありません。 **AI システムの分類を示すものではなく、検証可能性を提供することで、AI システムの開発者や所有者が AI システムのパフォーマンスに関する主張を証明できるようになります。第二に、「AI 検証」を使用する政府機関は、テストされた AI システムにリスクや偏見がないこと、または完全に「安全」で「倫理的」であることを保証できません。 **第 3 に、「AI 検証」は、組織が AI システムに関する機密情報 (基盤となるコードやトレーニング データなど) を不用意に公開することを防ぐことを目的としています。 AI システムの開発者と所有者によって自己テストされる「**AI 検証」という重要な保護手段が採用されています。これにより、組織のデータとモデルを組織の運用環境内に残すことができます。 **
「AI検証」の仕組み
「AI検証」は2部構成となっております。 1 つ目はテスト フレームワークで、国際的に認められた 11 の AI 倫理およびガバナンスの原則が 5 つの柱にまとめられています。 2 つ目は、組織がテスト フレームワークで技術テストと文書プロセス チェックを実行するために使用するツールキットです。
「人工知能検証」のテストフレームワーク
「AI 検証」テスト フレームワークの 5 つの柱と 11 の原則、およびその対象となる評価は以下のとおりです。
***(a) 定義: *** テスト フレームワークは、各 AI 原則のわかりやすい定義を提供します。たとえば、解釈可能性は、「AI システムの決定、その全体的な動作、結果、影響につながる要因を評価する能力」と定義されます。
***(b) テスト可能な基準: ***各原則に対して、一連のテスト可能な基準が提供されます。これらの基準では、このガバナンス原則の意図した成果の達成に寄与する技術的および/または非技術的要素(プロセス、手順、組織構造など)が考慮されています。
解釈可能性を例として挙げると、テスト可能な基準が 2 つ与えられます。開発者は説明可能メソッドを実行して、何が AI モデルを駆動するのかをユーザーが理解できるようにすることができます。開発者は、決定を説明する AI モデルの開発を優先するか、デフォルトでそうすることもできます。
***(c) テスト プロセス: *** 「AI 検証」は、テスト可能な基準ごとに、実行するプロセスまたは実行可能なステップを提供します。これは、定量的なもの (統計的または技術的なテストなど) の場合もあれば、定性的なもの (例:工程検査中に作成された証拠文書)。
解釈可能性に関する限り、技術的なテストには実証的な分析と、モデル出力に対する機能の寄与の決定が含まれる場合があります。プロセスベースのテストでは、AI モデルの理論的根拠、リスク評価、トレードオフを文書化します。
***(d) メトリック: ***これらは、テスト可能な各基準の証拠を測定または提供するために使用される定量的または定性的なパラメーターです。
上記の解釈可能性の例を使用すると、特徴の寄与を決定するために使用されるメトリクスは、SHAP や LIME などの技術ツールから取得されたモデル出力の寄与特徴を検査します。最終モデルを選択する場合、プロセスベースの指標を使用して、リスク評価やトレードオフの演習などの評価を文書化できます。
***(e) しきい値 (該当する場合): *** 利用可能な場合、テスト フレームワークは、選択したメトリクスの許容値またはベンチマークを提供します。これらの値、つまりベンチマークは、規制機関、業界団体、またはその他の認知された標準設定組織によって定義できます。 「AI 検証」の MVP モデルには、AI テクノロジーの急速な発展、そのユースケース、AI システムのテスト方法を考慮して、しきい値は設けられていません。しかし、AI ガバナンス空間が成熟し、「AI Verify」の使用が増加するにつれて、IMDA はコンテキスト固有の指標としきい値を照合して開発し、テスト フレームワークに追加する予定です。
「人工知能検証」AI検証ツールキット
AI Verify の「人工知能検証」用ツールキットは現在、AI Verify MVP プログラムに登録した組織のみが利用できますが、IMDA はこのツールキットを組織が技術テストを実施するための「ワンストップ」ツールであると説明しています。具体的には、このツールキットはオープンソースのテスト ライブラリを広範囲に利用しています。これらのツールには、説明可能性のための SHAP (Shapley Additive ExPlanations)、堅牢性のための Adversarial Robustness Toolkit、公平性のための AIF360 と Fair Learning が含まれます。
「AI Verification」のユーザーは、ツールキットを社内環境にインストールできます。ユーザーは、ユーザー インターフェイスのガイダンスに従ってテスト プロセスを実行します。たとえば、このツールには、ユーザーが自分のユースケースに関連する公平性の指標を特定するための「ガイド付き公平性ツリー」が含まれています。最後に、AI Verify は、システム開発者と所有者がテスト結果を解釈するのに役立つ概要レポートを生成します。プロセス検査については、レポートには、テストフレームワークで指定されている文書証拠の有無のチェックリストが提供されます。テスト結果は、デプロイメントのために Docker® コンテナーにパッケージ化されます。
## 結論は
IMDA が AI Verify をリリースしたとき、生成 AI への関心の波はまだ現実化していませんでした。現在の傾向に従って、AI システムのガバナンス、テスト容易性、信頼性に対する関心が大幅に高まっています。この記事に挙げたように、「人工知能検証」AI Verifyのさまざまな取り組みは、まさに現状に対応するための準備を進めているところです。
シンガポールはこれまで、AI のガバナンスと規制に関する世界的な議論と思想的リーダーシップに貢献する能力を実証してきました。リリースされたフレームワーク パターンがこれを証明しています。 AI Verify の賭け金は確かに高いですが、この取り組みに対する世界的な需要も同様です。成功するには、もっと認知され、もっと利用される必要があるかもしれません。それはいくつかの要因によって決まります。 まず、ツールのアクセシビリティが重要です: AI Verify の使用を検討している組織は、AI Verify を低コストまたは無料で使用できる必要があります。 **第二に、その価値を組織に納得させることが重要です。 **これには、IMDAが「人工知能検証」AI Verifyが技術的にも手続き的にも適切であり、より多くの新しいタイプや規模の人工知能モデルやデータセットに効果的に使用でき、独自の商業的機密性に影響を与えないことを証明する必要があります。 AI モデルまたはデータセット。 **第三に、そしておそらく最も重要なことは、国際的な規制枠組みとの相互運用性を維持する必要があることです。 **IMDA は、AI Verify が、EU AI 法、カナダの AI およびデータ法、米国 NIST AI リスク規制の枠組みやシンガポールの AI リスク規制の枠組みなど、新興の主要なグローバル AI 規制の枠組みに組織が対処し、相互運用できるよう引き続き支援する必要があります。独自の国家モデルの枠組み。