Tác giả: JOSH LEE KOK THONG Biên dịch: Li Yang Hiệu đính: Xiang Xinyi
Nguồn: The Paper
Nguồn hình ảnh: Được tạo bởi Unbounded AI
Mối quan tâm toàn cầu về quản trị và điều tiết AI đã bùng nổ trong những tháng gần đây. Nhiều người tin rằng cần có các cấu trúc quản trị và quy định mới để đối phó với các hệ thống AI tổng quát — những hệ thống có khả năng đáng kinh ngạc, chẳng hạn như ChatGPT và DALL-E của OpenAI, Bard của Google, Khuếch tán ổn định và các hệ thống khác. Đạo luật trí tuệ nhân tạo của EU đã nhận được sự quan tâm rộng rãi. Trên thực tế, nhiều sáng kiến quan trọng khác đang nổi lên trên khắp thế giới, bao gồm các mô hình và khuôn khổ quản trị AI khác nhau.
Bài viết này viết về Bộ công cụ và Khung kiểm tra quản trị trí tuệ nhân tạo của Singapore - "AI Verify" được phát hành vào tháng 5 năm 2022. Bài viết chủ yếu trích ra ba điểm chính. ① Tóm tắt chiến lược tổng thể của Singapore về quản trị AI và các sáng kiến quan trọng do chính phủ ban hành trước khi triển khai xác minh AI. ② Giải thích chìa khóa của "xác minh trí tuệ nhân tạo". ③ "Xác minh AI" đã ra mắt được một năm, thảo luận về tương lai của xác minh AI và cách tiếp cận của Singapore đối với quản trị và quy định AI. Tóm lại, những điểm chính như sau:
Singapore đã áp dụng cách tiếp cận can thiệp vừa phải đối với quản trị và quy định về AI, với Mô hình khung quản trị AI đưa ra các hướng dẫn về quản trị AI trong khu vực tư nhân.
"AI Verify" là bộ công cụ và khung thử nghiệm quản trị AI, ra mắt vào tháng 5 năm 2022. Mặc dù đang trong giai đoạn thử nghiệm, nhưng nó thể hiện nỗ lực của Singapore trong việc phát triển hơn nữa diễn ngôn toàn cầu về quản trị và quy định AI, cố gắng đáp ứng nhu cầu ngày càng tăng đối với các hệ thống AI đáng tin cậy và thúc đẩy khả năng kết nối của khuôn khổ quy định AI toàn cầu.
"Xác minh AI" là một khuôn khổ thử nghiệm dựa trên các nguyên tắc quản trị AI được quốc tế công nhận mà các công ty có thể sử dụng khi thử nghiệm hệ thống AI của riêng họ. "Xác minh AI" không nhằm mục đích xác định các tiêu chuẩn đạo đức mà nhằm cung cấp khả năng xác minh bằng cách cho phép các nhà phát triển hệ thống AI và chủ sở hữu của họ đưa ra tuyên bố chứng thực hiệu suất của hệ thống AI của họ.
– Để thành công, “được xác minh bằng AI” có thể cần được công nhận và áp dụng nhiều hơn. Điều này phụ thuộc vào các yếu tố như chi phí, việc thuyết phục các bên liên quan về giá trị của nó, cũng như mức độ phù hợp và hiệp lực của nó với khung pháp lý quốc tế.
Phương pháp tiếp cận tổng thể đối với quản trị AI tại Singapore
Trong Chiến lược Trí tuệ Nhân tạo Quốc gia, Singapore tuyên bố rằng quốc gia này đặt mục tiêu "đi đầu trong việc phát triển và triển khai các giải pháp AI có tác động, có thể mở rộng" và hy vọng củng cố vai trò của quốc gia là "nhà lãnh đạo trong việc phát triển, thử nghiệm, triển khai và mở rộng quy mô". trí tuệ nhân tạo." trung tâm giải pháp toàn cầu. Một trong năm "yếu tố hỗ trợ hệ sinh thái" được xác định trong chiến lược tăng cường áp dụng AI đang thúc đẩy "môi trường tiến bộ và đáng tin cậy" để phát triển AI—một sự đánh đổi giữa đổi mới và giảm thiểu rủi ro xã hội.
Để tạo ra "môi trường tiến bộ và đáng tin cậy" này, Singapore cho đến nay đã thực hiện một cách tiếp cận lành tính và tự nguyện đối với quy định về AI. Đó là bởi vì quốc gia này nhận ra hai thực tế về tham vọng AI của mình.
Đầu tiên, chính phủ Singapore** coi AI là yếu tố quyết định chiến lược quan trọng** để phát triển nền kinh tế và cải thiện chất lượng cuộc sống của người dân. Do đó, Singapore đã không thực hiện các bước quyết liệt trong việc điều chỉnh trí tuệ nhân tạo để không kìm hãm sự đổi mới và đầu tư. Thứ hai, với quy mô của mình, Singapore nhận ra rằng bản thân chính phủ có thể là người chấp nhận giá hơn là người định giá khi diễn ngôn, khuôn khổ và quy định quản trị AI phát triển trên toàn cầu. Do đó, chiến lược hiện tại không phải là làm mới các nguyên tắc của trí tuệ nhân tạo, mà là "đi theo xu hướng của thế giới và không có ý định thay đổi xu hướng của thế giới."("Hãy đón đầu thế giới nó đang ở đâu, hơn là nơi nó hy vọng thế giới sẽ ở đó.")
Cách tiếp cận theo quy định của Singapore đối với AI - được giám sát bởi Ủy ban bảo vệ dữ liệu cá nhân của Singapore (PDPC) - có ba trụ cột trước khi ra mắt AI Verify vào năm 2022:
1 Mô hình khung quản trị AI (Mô hình khung).
Ủy ban Cố vấn về Sử dụng Dữ liệu và Trí tuệ Nhân tạo có Đạo đức (Ủy ban Cố vấn).
Kế hoạch nghiên cứu quản trị AI và sử dụng dữ liệu (dự án nghiên cứu).
Phần sau đây tập trung vào "Mô hình khung".
chế độ khung hình
Mô hình Khung, lần đầu tiên được ra mắt tại Hội nghị thường niên của Diễn đàn Kinh tế Thế giới vào năm 2019, là một khung tự nguyện và không ràng buộc, hướng dẫn các tổ chức triển khai có trách nhiệm các giải pháp trí tuệ nhân tạo trên quy mô lớn, lưu ý rằng khung này độc lập với giai đoạn phát triển của công nghệ . Theo hướng dẫn, Mô hình khung chỉ cung cấp các khuyến nghị thực tế cho việc triển khai AI của các thực thể thuộc khu vực tư nhân, trong khi việc sử dụng AI của khu vực công được điều chỉnh bởi các hướng dẫn nội bộ và bộ công cụ quản trị dữ liệu và AI. **Các Mẫu Khung được gọi là "tài liệu sống" và các phiên bản trong tương lai sẽ phát triển khi công nghệ và xã hội phát triển. Cơ sở của nó nằm ở tính không thể đoán trước của công nghệ, ngành, quy mô và mô hình kinh doanh. **
Về cơ bản, mẫu khung được hướng dẫn bởi hai nguyên tắc cơ bản nhằm thúc đẩy sự tin tưởng và hiểu biết trong AI. **Đầu tiên, các tổ chức sử dụng AI trong quá trình ra quyết định phải đảm bảo rằng quy trình ra quyết định của họ có thể giải thích được, minh bạch và công bằng. Thứ hai, các hệ thống AI nên lấy con người làm trung tâm: bảo vệ sức khỏe và sự an toàn của con người nên được cân nhắc hàng đầu trong thiết kế, phát triển và sử dụng AI. **
Khung chuyển đổi các nguyên tắc hướng dẫn này thành các hành động khả thi trong bốn lĩnh vực chính của quá trình ra quyết định của tổ chức và phát triển công nghệ:
(a) cơ cấu và thông lệ quản trị nội bộ;
(b) xác định mức độ tham gia của con người vào quá trình ra quyết định do AI tăng cường;
(c) quản lý hoạt động;
(d) Tương tác và liên lạc với các bên liên quan.
Bảng dưới đây tóm tắt một số cân nhắc, cách tiếp cận và biện pháp được đề xuất trong các lĩnh vực chính này.
Các sáng kiến khác đi kèm với Mô hình Khung
Khi Singapore ra mắt phiên bản thứ hai của Mô hình khung tại Diễn đàn kinh tế thế giới 2020, nó được kèm theo hai tài liệu khác: Hướng dẫn triển khai và tự đánh giá cho các tổ chức (ISAGO) và Bản tổng hợp các trường hợp sử dụng (Biên soạn - Tập 1 và tập 2) . ISAGO là một danh sách kiểm tra để giúp các tổ chức đánh giá sự liên kết của các quy trình quản trị AI của họ với khung mô hình. Bản tổng hợp cung cấp các ví dụ thực tế về việc áp dụng các khuyến nghị của Khung trong các lĩnh vực, trường hợp sử dụng và khu vực pháp lý.
Nhìn chung, "Mô hình khung" và các tài liệu hỗ trợ của nó neo và phác thảo tư duy thực chất về quy định trí tuệ nhân tạo ở Singapore. Những sáng kiến này đã giúp Singapore giành được Giải thưởng Xã hội thông tin tại Hội nghị thượng đỉnh thế giới của Liên hợp quốc vào năm 2019, công nhận vai trò lãnh đạo của Singapore trong quản trị AI.
Tháng 1 năm 2020 đánh dấu một bước ngoặt trong cuộc thảo luận toàn cầu về quy định AI. Vào ngày 17 tháng 1 năm 2020, một sách trắng do Ủy ban Châu Âu công bố đã khiến cộng đồng quốc tế chú ý hơn đến khả năng chính phủ điều chỉnh công nghệ trí tuệ nhân tạo. Vào tháng 2 năm 2020, Ủy ban Châu Âu đã chính thức công bố "Sách trắng về trí tuệ nhân tạo", đặt ra kế hoạch tạo ra một khung pháp lý cho trí tuệ nhân tạo. Vài tháng sau, Ủy ban Châu Âu đã trình bày bản dự thảo Dự luật Trí tuệ Nhân tạo sắp tới của mình. Đây là nỗ lực nghiêm túc đầu tiên của một cơ quan chính phủ nhằm đưa ra các quy tắc thực chất để điều chỉnh theo chiều ngang việc phát triển và sử dụng các hệ thống AI. Có thể dự đoán rằng Đạo luật AI cũng sẽ có những tác động ngoài thẩm quyền và các công ty phát triển hệ thống AI bên ngoài châu Âu có thể phải tuân theo luật mới.
Những điều này đã ảnh hưởng đến suy nghĩ về tương lai của bối cảnh quản trị và điều tiết AI của Singapore. Mặc dù Ủy ban Bảo vệ Dữ liệu Cá nhân (PDPC) của Singapore duy trì cách tiếp cận tự nguyện và lỏng lẻo đối với quy định về AI, nhưng họ thừa nhận rằng AI sẽ phải đối mặt với sự giám sát chặt chẽ hơn trong tương lai. PDPC dường như cũng lưu tâm đến nhu cầu ngày càng tăng từ ** người tiêu dùng về độ tin cậy của các hệ thống và nhà phát triển AI, cũng như nhu cầu về các tiêu chuẩn quốc tế về AI để đo điểm chuẩn và đánh giá AI theo các yêu cầu quy định. Ngoài ra, các yêu cầu về khả năng tương tác của các khung pháp lý AI cũng ngày càng tăng. **Theo quan điểm này, Singapore bắt đầu phát triển và kết quả cuối cùng được hợp nhất vào khuôn khổ "Xác minh AI".
"Xác minh AI" là gì
"AI Verify" được đồng phát hành bởi Cơ quan Phát triển Truyền thông Infocomm (IMDA), một ủy ban theo luật định thuộc Bộ Thông tin và Truyền thông Singapore và Ủy ban Bảo vệ Dữ liệu Cá nhân (PDPC). Đây là một khung và bộ công cụ kiểm tra quản trị trí tuệ nhân tạo. **Khi sử dụng AI Verify, các tổ chức có thể tiến hành đánh giá tự nguyện hệ thống AI của mình bằng cách sử dụng kết hợp kiểm tra kỹ thuật và kiểm tra dựa trên quy trình. Đổi lại, hệ thống giúp các công ty cung cấp bằng chứng khách quan và có thể kiểm chứng cho các bên liên quan rằng hệ thống AI của họ đang được triển khai một cách có trách nhiệm và đáng tin cậy. **
Trước sự phát triển không ngừng của các phương pháp, tiêu chuẩn, chỉ số và công cụ kiểm tra trí tuệ nhân tạo, "xác minh trí tuệ nhân tạo" (AI Verify) hiện đang ở giai đoạn "sản phẩm khả thi tối thiểu" (MVP). Điều này có hai ý nghĩa. Đầu tiên, phiên bản MVP có các giới hạn kỹ thuật và bị giới hạn bởi loại và kích thước của các mô hình AI hoặc bộ dữ liệu có thể được kiểm tra hoặc phân tích. Thứ hai, xác minh AI dự kiến sẽ phát triển khi khả năng kiểm tra AI trưởng thành.
Bốn mục tiêu để phát triển phiên bản MVP "AI Verified" là:
(a) Đầu tiên, IMDA hy vọng rằng các tổ chức sẽ có thể sử dụng "xác thực AI" để xác định điểm chuẩn hiệu suất của hệ thống AI của họ và chứng minh các điểm chuẩn đã được xác thực này cho các bên liên quan như người tiêu dùng và nhân viên, từ đó giúp các tổ chức xây dựng lòng tin.
(b) Thứ hai, do sự phát triển của nó có tính đến các khuôn khổ quản trị và quy định AI khác nhau, cũng như các nguyên tắc AI đáng tin cậy phổ biến, Xác thực AI nhằm mục đích giúp các tổ chức tìm thấy các khuôn khổ và quy định quản trị AI toàn cầu khác nhau. IMDA sẽ tiếp tục làm việc với các cơ quan quản lý và tổ chức tiêu chuẩn để ánh xạ khuôn khổ thử nghiệm cho "Xác thực AI" vào khuôn khổ đã thiết lập. Những nỗ lực này nhằm mục đích cho phép các công ty vận hành hoặc cung cấp các sản phẩm và dịch vụ AI ở nhiều thị trường, đồng thời biến Singapore thành một trung tâm kiểm tra quy định và quản trị AI.
(c) Thứ ba, **IMDA sẽ có thể đối chiếu các thông lệ, điểm chuẩn và số liệu trong ngành khi nhiều tổ chức thử nghiệm “Xác thực AI” và sử dụng khung thử nghiệm của nó. **Xét rằng Singapore đang tham gia vào các nền tảng quản trị AI toàn cầu như Đối tác AI toàn cầu và ISO/IEC JTC1/SC 42, cung cấp các quan điểm có giá trị về thiết lập tiêu chuẩn quốc tế cho quản trị AI, những điều này có thể tạo điều kiện thuận lợi cho việc phát triển các tiêu chuẩn quản trị AI được đưa vào .
(d) Thứ tư, IMDA muốn "Xác minh AI" để giúp tạo ra một cộng đồng thử nghiệm AI tại Singapore bao gồm các nhà phát triển AI và chủ sở hữu hệ thống (đang tìm cách thử nghiệm các hệ thống AI), các nhà cung cấp công nghệ (đang phát triển triển khai quản trị AI và giải pháp thử nghiệm), các nhà cung cấp dịch vụ tư vấn (chuyên hỗ trợ thử nghiệm và chứng nhận) và các nhà nghiên cứu (những người đang phát triển các kỹ thuật thử nghiệm, tiêu chuẩn và thực hành).
Điều quan trọng là phải làm rõ một số quan niệm sai lầm tiềm ẩn về "xác thực AI". Đầu tiên, **"Xác thực AI" không cố gắng xác định các tiêu chuẩn đạo đức. **Nó không cố gắng báo hiệu việc phân loại các hệ thống AI, mà thay vào đó cung cấp khả năng xác minh, cho phép các nhà phát triển và chủ sở hữu hệ thống AI chứng minh tuyên bố của họ về hiệu suất hệ thống AI của họ. Thứ hai, các tổ chức chính phủ sử dụng "xác minh AI" không thể đảm bảo rằng các hệ thống AI được thử nghiệm không có rủi ro hoặc sai lệch hoặc chúng hoàn toàn "an toàn" và "có đạo đức". **Thứ ba, "Xác thực AI" nhằm mục đích ngăn các tổ chức vô tình tiết lộ thông tin nhạy cảm về hệ thống AI của họ (chẳng hạn như mã cơ bản hoặc dữ liệu đào tạo). Nó đã áp dụng một biện pháp bảo vệ quan trọng - "**Xác minh AI" sẽ được các nhà phát triển và chủ sở hữu hệ thống AI tự kiểm tra. Điều này cho phép dữ liệu và mô hình của tổ chức được duy trì trong môi trường hoạt động của tổ chức. **
Cách hoạt động của "Xác minh AI"
"Xác thực AI" bao gồm hai phần. Đầu tiên là Khung kiểm tra, trong đó trích dẫn 11 nguyên tắc quản trị và đạo đức AI được quốc tế công nhận, được tổ chức thành năm trụ cột. Thứ hai là bộ công cụ mà các tổ chức sử dụng để thực hiện kiểm tra kỹ thuật và kiểm tra quy trình tài liệu trong khung kiểm tra.
Khung thử nghiệm cho "xác minh trí tuệ nhân tạo"
Năm trụ cột và mười một nguyên tắc của khung thử nghiệm "Xác thực AI" và các đánh giá dự định của chúng được liệt kê bên dưới:
Khung kiểm tra thực tế, bao gồm các phần chính sau:
***(a) Định nghĩa: *** Khung kiểm tra cung cấp các định nghĩa dễ hiểu cho từng nguyên tắc AI. Ví dụ: khả năng diễn giải được định nghĩa là "khả năng đánh giá các yếu tố dẫn đến quyết định của hệ thống AI, hành vi, kết quả và tác động tổng thể của nó".
***(b) Tiêu chí có thể kiểm tra: ***Đối với mỗi nguyên tắc, một bộ tiêu chí có thể kiểm tra được cung cấp. Các tiêu chuẩn này tính đến các yếu tố kỹ thuật và/hoặc phi kỹ thuật (chẳng hạn như quy trình, thủ tục hoặc cơ cấu tổ chức) góp phần đạt được kết quả dự kiến của nguyên tắc quản trị này.
Lấy khả năng diễn giải làm ví dụ, hai tiêu chí có thể kiểm tra được đưa ra. Các nhà phát triển có thể chạy các phương pháp giải thích để giúp người dùng hiểu điều gì thúc đẩy các mô hình AI. Các nhà phát triển cũng có thể chứng minh sở thích phát triển các mô hình AI giải thích các quyết định của họ hoặc làm như vậy theo mặc định.
***(c) Quy trình kiểm tra: *** Đối với mỗi tiêu chí có thể kiểm tra, "Xác thực AI" cung cấp một quy trình hoặc các bước có thể hành động được thực hiện, có thể là định lượng (chẳng hạn như kiểm tra thống kê hoặc kỹ thuật), cũng có thể là định tính (ví dụ: bằng chứng tài liệu được tạo ra trong quá trình kiểm tra quá trình).
Xét về khả năng diễn giải, thử nghiệm kỹ thuật có thể liên quan đến phân tích thực nghiệm và xác định sự đóng góp của các tính năng vào đầu ra của mô hình. Thử nghiệm dựa trên quy trình sẽ ghi lại cơ sở lý luận, đánh giá rủi ro và sự đánh đổi của mô hình AI.
***(d) Số liệu: ***Đây là các thông số định lượng hoặc định tính được sử dụng để đo lường hoặc cung cấp bằng chứng cho từng tiêu chí có thể kiểm tra.
Sử dụng ví dụ về khả năng diễn giải ở trên, các số liệu được sử dụng để xác định các đóng góp của tính năng kiểm tra các tính năng đóng góp của đầu ra mô hình thu được từ các công cụ kỹ thuật như SHAP và LIME. Khi chọn mô hình cuối cùng, các số liệu dựa trên quy trình có thể được sử dụng để ghi lại quá trình đánh giá, chẳng hạn như đánh giá rủi ro và các bài tập đánh đổi.
***(e) Ngưỡng (nếu có): ***Nếu có, khung thử nghiệm sẽ cung cấp các giá trị hoặc điểm chuẩn được chấp nhận cho các chỉ số đã chọn. Các giá trị hoặc điểm chuẩn này có thể được xác định bởi các cơ quan quản lý, hiệp hội ngành hoặc các tổ chức thiết lập tiêu chuẩn được công nhận khác. Không có ngưỡng nào được cung cấp cho mô hình MVP của "Xác thực AI", có tính đến sự phát triển nhanh chóng của công nghệ AI, các trường hợp sử dụng và phương pháp kiểm tra hệ thống AI. Tuy nhiên, khi không gian quản trị AI trưởng thành và việc sử dụng "Xác minh AI" tăng lên, IMDA dự định đối chiếu và phát triển các chỉ số và ngưỡng cụ thể theo ngữ cảnh để thêm vào khung thử nghiệm.
Bộ công cụ xác minh AI "Xác minh trí tuệ nhân tạo"
Mặc dù bộ công cụ "xác minh trí tuệ nhân tạo" của AI Verify hiện chỉ khả dụng cho các tổ chức đăng ký thành công chương trình AI Verify MVP, IMDA mô tả bộ công cụ này là công cụ "một cửa" để các tổ chức tiến hành kiểm tra kỹ thuật. Cụ thể, bộ công cụ sử dụng rộng rãi các thư viện thử nghiệm mã nguồn mở. Những công cụ này bao gồm SHAP (Shapley Additive ExPlanations) để giải thích khả năng giải thích, Adversarial Robustness Toolkit để đảm bảo tính mạnh mẽ và AIF360 và Fair Learning để đảm bảo sự công bằng.
Người dùng "Xác minh AI" có thể cài đặt bộ công cụ trong môi trường nội bộ của họ. Người dùng sẽ thực hiện quy trình thử nghiệm dưới sự hướng dẫn của giao diện người dùng. Ví dụ: công cụ bao gồm một "cây công bằng có hướng dẫn" để người dùng xác định các chỉ số công bằng liên quan đến trường hợp sử dụng của họ. Cuối cùng, AI Verify sẽ tạo một báo cáo tóm tắt để giúp các nhà phát triển và chủ sở hữu hệ thống diễn giải kết quả kiểm tra. Đối với kiểm tra quy trình, báo cáo cung cấp một danh sách kiểm tra về việc có hay không có bằng chứng tài liệu như được chỉ định trong khuôn khổ kiểm tra. Kết quả kiểm tra sau đó được đóng gói vào bộ chứa Docker® để triển khai.
Tóm lại là
Khi IMDA phát hành AI Verify, làn sóng quan tâm đến AI tổng quát vẫn chưa thành hiện thực. Theo xu hướng hiện tại, sự quan tâm đến khả năng quản trị, khả năng kiểm tra và độ tin cậy của các hệ thống AI đã tăng lên đáng kể. Như được liệt kê trong bài viết này, các sáng kiến khác nhau về "xác minh trí tuệ nhân tạo" AI Verify chỉ đang chuẩn bị để ứng phó với tình hình hiện tại.
Singapore trước đây đã thể hiện khả năng đóng góp vào diễn ngôn toàn cầu và lãnh đạo tư tưởng về quản trị và điều tiết AI. Framework Patterns đã phát hành là bằng chứng cho điều đó. Cổ phần của AI Verify chắc chắn là cao, nhưng nhu cầu toàn cầu đối với sáng kiến này cũng vậy. Để thành công, nó có thể cần được công nhận nhiều hơn và sử dụng nhiều hơn. Nó phụ thuộc vào nhiều yếu tố. Đầu tiên, khả năng truy cập của công cụ là rất quan trọng: Các tổ chức muốn sử dụng AI Verify cần có thể sử dụng công cụ này với chi phí thấp hoặc miễn phí. **Thứ hai, thuyết phục tổ chức về giá trị của nó là rất quan trọng. **Điều này yêu cầu IMDA chứng minh rằng "xác minh trí tuệ nhân tạo" AI Verify hợp lý về mặt kỹ thuật và thủ tục, nó có thể được sử dụng hiệu quả cho nhiều loại và quy mô mô hình trí tuệ nhân tạo và tập dữ liệu mới hơn, đồng thời sẽ không ảnh hưởng đến quyền sở hữu Tính nhạy cảm thương mại của mô hình AI hoặc bộ dữ liệu. **Thứ ba, và có lẽ là quan trọng nhất, nó phải duy trì khả năng tương tác với các khuôn khổ pháp lý quốc tế. **IMDA cần đảm bảo rằng AI Verify tiếp tục giúp các tổ chức giải quyết và tương tác trong các khuôn khổ pháp lý AI toàn cầu mới nổi như Đạo luật AI của EU, Đạo luật AI và dữ liệu của Canada và khuôn khổ Quy định rủi ro AI của NIST của Hoa Kỳ, cũng như của Singapore khuôn khổ mô hình quốc gia riêng.
Xem bản gốc
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Làm cho quản trị AI có thể kiểm chứng được: Bộ công cụ kiểm chứng AI của Singapore
Tác giả: JOSH LEE KOK THONG Biên dịch: Li Yang Hiệu đính: Xiang Xinyi
Nguồn: The Paper
Mối quan tâm toàn cầu về quản trị và điều tiết AI đã bùng nổ trong những tháng gần đây. Nhiều người tin rằng cần có các cấu trúc quản trị và quy định mới để đối phó với các hệ thống AI tổng quát — những hệ thống có khả năng đáng kinh ngạc, chẳng hạn như ChatGPT và DALL-E của OpenAI, Bard của Google, Khuếch tán ổn định và các hệ thống khác. Đạo luật trí tuệ nhân tạo của EU đã nhận được sự quan tâm rộng rãi. Trên thực tế, nhiều sáng kiến quan trọng khác đang nổi lên trên khắp thế giới, bao gồm các mô hình và khuôn khổ quản trị AI khác nhau.
Bài viết này viết về Bộ công cụ và Khung kiểm tra quản trị trí tuệ nhân tạo của Singapore - "AI Verify" được phát hành vào tháng 5 năm 2022. Bài viết chủ yếu trích ra ba điểm chính. ① Tóm tắt chiến lược tổng thể của Singapore về quản trị AI và các sáng kiến quan trọng do chính phủ ban hành trước khi triển khai xác minh AI. ② Giải thích chìa khóa của "xác minh trí tuệ nhân tạo". ③ "Xác minh AI" đã ra mắt được một năm, thảo luận về tương lai của xác minh AI và cách tiếp cận của Singapore đối với quản trị và quy định AI. Tóm lại, những điểm chính như sau:
Singapore đã áp dụng cách tiếp cận can thiệp vừa phải đối với quản trị và quy định về AI, với Mô hình khung quản trị AI đưa ra các hướng dẫn về quản trị AI trong khu vực tư nhân.
"AI Verify" là bộ công cụ và khung thử nghiệm quản trị AI, ra mắt vào tháng 5 năm 2022. Mặc dù đang trong giai đoạn thử nghiệm, nhưng nó thể hiện nỗ lực của Singapore trong việc phát triển hơn nữa diễn ngôn toàn cầu về quản trị và quy định AI, cố gắng đáp ứng nhu cầu ngày càng tăng đối với các hệ thống AI đáng tin cậy và thúc đẩy khả năng kết nối của khuôn khổ quy định AI toàn cầu.
"Xác minh AI" là một khuôn khổ thử nghiệm dựa trên các nguyên tắc quản trị AI được quốc tế công nhận mà các công ty có thể sử dụng khi thử nghiệm hệ thống AI của riêng họ. "Xác minh AI" không nhằm mục đích xác định các tiêu chuẩn đạo đức mà nhằm cung cấp khả năng xác minh bằng cách cho phép các nhà phát triển hệ thống AI và chủ sở hữu của họ đưa ra tuyên bố chứng thực hiệu suất của hệ thống AI của họ.
– Để thành công, “được xác minh bằng AI” có thể cần được công nhận và áp dụng nhiều hơn. Điều này phụ thuộc vào các yếu tố như chi phí, việc thuyết phục các bên liên quan về giá trị của nó, cũng như mức độ phù hợp và hiệp lực của nó với khung pháp lý quốc tế.
Phương pháp tiếp cận tổng thể đối với quản trị AI tại Singapore
Trong Chiến lược Trí tuệ Nhân tạo Quốc gia, Singapore tuyên bố rằng quốc gia này đặt mục tiêu "đi đầu trong việc phát triển và triển khai các giải pháp AI có tác động, có thể mở rộng" và hy vọng củng cố vai trò của quốc gia là "nhà lãnh đạo trong việc phát triển, thử nghiệm, triển khai và mở rộng quy mô". trí tuệ nhân tạo." trung tâm giải pháp toàn cầu. Một trong năm "yếu tố hỗ trợ hệ sinh thái" được xác định trong chiến lược tăng cường áp dụng AI đang thúc đẩy "môi trường tiến bộ và đáng tin cậy" để phát triển AI—một sự đánh đổi giữa đổi mới và giảm thiểu rủi ro xã hội.
Để tạo ra "môi trường tiến bộ và đáng tin cậy" này, Singapore cho đến nay đã thực hiện một cách tiếp cận lành tính và tự nguyện đối với quy định về AI. Đó là bởi vì quốc gia này nhận ra hai thực tế về tham vọng AI của mình.
Đầu tiên, chính phủ Singapore** coi AI là yếu tố quyết định chiến lược quan trọng** để phát triển nền kinh tế và cải thiện chất lượng cuộc sống của người dân. Do đó, Singapore đã không thực hiện các bước quyết liệt trong việc điều chỉnh trí tuệ nhân tạo để không kìm hãm sự đổi mới và đầu tư. Thứ hai, với quy mô của mình, Singapore nhận ra rằng bản thân chính phủ có thể là người chấp nhận giá hơn là người định giá khi diễn ngôn, khuôn khổ và quy định quản trị AI phát triển trên toàn cầu. Do đó, chiến lược hiện tại không phải là làm mới các nguyên tắc của trí tuệ nhân tạo, mà là "đi theo xu hướng của thế giới và không có ý định thay đổi xu hướng của thế giới."("Hãy đón đầu thế giới nó đang ở đâu, hơn là nơi nó hy vọng thế giới sẽ ở đó.")
Cách tiếp cận theo quy định của Singapore đối với AI - được giám sát bởi Ủy ban bảo vệ dữ liệu cá nhân của Singapore (PDPC) - có ba trụ cột trước khi ra mắt AI Verify vào năm 2022:
1 Mô hình khung quản trị AI (Mô hình khung).
Ủy ban Cố vấn về Sử dụng Dữ liệu và Trí tuệ Nhân tạo có Đạo đức (Ủy ban Cố vấn).
Kế hoạch nghiên cứu quản trị AI và sử dụng dữ liệu (dự án nghiên cứu).
Phần sau đây tập trung vào "Mô hình khung".
chế độ khung hình
Mô hình Khung, lần đầu tiên được ra mắt tại Hội nghị thường niên của Diễn đàn Kinh tế Thế giới vào năm 2019, là một khung tự nguyện và không ràng buộc, hướng dẫn các tổ chức triển khai có trách nhiệm các giải pháp trí tuệ nhân tạo trên quy mô lớn, lưu ý rằng khung này độc lập với giai đoạn phát triển của công nghệ . Theo hướng dẫn, Mô hình khung chỉ cung cấp các khuyến nghị thực tế cho việc triển khai AI của các thực thể thuộc khu vực tư nhân, trong khi việc sử dụng AI của khu vực công được điều chỉnh bởi các hướng dẫn nội bộ và bộ công cụ quản trị dữ liệu và AI. **Các Mẫu Khung được gọi là "tài liệu sống" và các phiên bản trong tương lai sẽ phát triển khi công nghệ và xã hội phát triển. Cơ sở của nó nằm ở tính không thể đoán trước của công nghệ, ngành, quy mô và mô hình kinh doanh. **
Về cơ bản, mẫu khung được hướng dẫn bởi hai nguyên tắc cơ bản nhằm thúc đẩy sự tin tưởng và hiểu biết trong AI. **Đầu tiên, các tổ chức sử dụng AI trong quá trình ra quyết định phải đảm bảo rằng quy trình ra quyết định của họ có thể giải thích được, minh bạch và công bằng. Thứ hai, các hệ thống AI nên lấy con người làm trung tâm: bảo vệ sức khỏe và sự an toàn của con người nên được cân nhắc hàng đầu trong thiết kế, phát triển và sử dụng AI. **
Khung chuyển đổi các nguyên tắc hướng dẫn này thành các hành động khả thi trong bốn lĩnh vực chính của quá trình ra quyết định của tổ chức và phát triển công nghệ:
(a) cơ cấu và thông lệ quản trị nội bộ;
(b) xác định mức độ tham gia của con người vào quá trình ra quyết định do AI tăng cường;
(c) quản lý hoạt động;
(d) Tương tác và liên lạc với các bên liên quan.
Bảng dưới đây tóm tắt một số cân nhắc, cách tiếp cận và biện pháp được đề xuất trong các lĩnh vực chính này.
Khi Singapore ra mắt phiên bản thứ hai của Mô hình khung tại Diễn đàn kinh tế thế giới 2020, nó được kèm theo hai tài liệu khác: Hướng dẫn triển khai và tự đánh giá cho các tổ chức (ISAGO) và Bản tổng hợp các trường hợp sử dụng (Biên soạn - Tập 1 và tập 2) . ISAGO là một danh sách kiểm tra để giúp các tổ chức đánh giá sự liên kết của các quy trình quản trị AI của họ với khung mô hình. Bản tổng hợp cung cấp các ví dụ thực tế về việc áp dụng các khuyến nghị của Khung trong các lĩnh vực, trường hợp sử dụng và khu vực pháp lý.
Nhìn chung, "Mô hình khung" và các tài liệu hỗ trợ của nó neo và phác thảo tư duy thực chất về quy định trí tuệ nhân tạo ở Singapore. Những sáng kiến này đã giúp Singapore giành được Giải thưởng Xã hội thông tin tại Hội nghị thượng đỉnh thế giới của Liên hợp quốc vào năm 2019, công nhận vai trò lãnh đạo của Singapore trong quản trị AI.
Tháng 1 năm 2020 đánh dấu một bước ngoặt trong cuộc thảo luận toàn cầu về quy định AI. Vào ngày 17 tháng 1 năm 2020, một sách trắng do Ủy ban Châu Âu công bố đã khiến cộng đồng quốc tế chú ý hơn đến khả năng chính phủ điều chỉnh công nghệ trí tuệ nhân tạo. Vào tháng 2 năm 2020, Ủy ban Châu Âu đã chính thức công bố "Sách trắng về trí tuệ nhân tạo", đặt ra kế hoạch tạo ra một khung pháp lý cho trí tuệ nhân tạo. Vài tháng sau, Ủy ban Châu Âu đã trình bày bản dự thảo Dự luật Trí tuệ Nhân tạo sắp tới của mình. Đây là nỗ lực nghiêm túc đầu tiên của một cơ quan chính phủ nhằm đưa ra các quy tắc thực chất để điều chỉnh theo chiều ngang việc phát triển và sử dụng các hệ thống AI. Có thể dự đoán rằng Đạo luật AI cũng sẽ có những tác động ngoài thẩm quyền và các công ty phát triển hệ thống AI bên ngoài châu Âu có thể phải tuân theo luật mới.
Những điều này đã ảnh hưởng đến suy nghĩ về tương lai của bối cảnh quản trị và điều tiết AI của Singapore. Mặc dù Ủy ban Bảo vệ Dữ liệu Cá nhân (PDPC) của Singapore duy trì cách tiếp cận tự nguyện và lỏng lẻo đối với quy định về AI, nhưng họ thừa nhận rằng AI sẽ phải đối mặt với sự giám sát chặt chẽ hơn trong tương lai. PDPC dường như cũng lưu tâm đến nhu cầu ngày càng tăng từ ** người tiêu dùng về độ tin cậy của các hệ thống và nhà phát triển AI, cũng như nhu cầu về các tiêu chuẩn quốc tế về AI để đo điểm chuẩn và đánh giá AI theo các yêu cầu quy định. Ngoài ra, các yêu cầu về khả năng tương tác của các khung pháp lý AI cũng ngày càng tăng. **Theo quan điểm này, Singapore bắt đầu phát triển và kết quả cuối cùng được hợp nhất vào khuôn khổ "Xác minh AI".
"Xác minh AI" là gì
"AI Verify" được đồng phát hành bởi Cơ quan Phát triển Truyền thông Infocomm (IMDA), một ủy ban theo luật định thuộc Bộ Thông tin và Truyền thông Singapore và Ủy ban Bảo vệ Dữ liệu Cá nhân (PDPC). Đây là một khung và bộ công cụ kiểm tra quản trị trí tuệ nhân tạo. **Khi sử dụng AI Verify, các tổ chức có thể tiến hành đánh giá tự nguyện hệ thống AI của mình bằng cách sử dụng kết hợp kiểm tra kỹ thuật và kiểm tra dựa trên quy trình. Đổi lại, hệ thống giúp các công ty cung cấp bằng chứng khách quan và có thể kiểm chứng cho các bên liên quan rằng hệ thống AI của họ đang được triển khai một cách có trách nhiệm và đáng tin cậy. **
Trước sự phát triển không ngừng của các phương pháp, tiêu chuẩn, chỉ số và công cụ kiểm tra trí tuệ nhân tạo, "xác minh trí tuệ nhân tạo" (AI Verify) hiện đang ở giai đoạn "sản phẩm khả thi tối thiểu" (MVP). Điều này có hai ý nghĩa. Đầu tiên, phiên bản MVP có các giới hạn kỹ thuật và bị giới hạn bởi loại và kích thước của các mô hình AI hoặc bộ dữ liệu có thể được kiểm tra hoặc phân tích. Thứ hai, xác minh AI dự kiến sẽ phát triển khi khả năng kiểm tra AI trưởng thành.
Bốn mục tiêu để phát triển phiên bản MVP "AI Verified" là:
(a) Đầu tiên, IMDA hy vọng rằng các tổ chức sẽ có thể sử dụng "xác thực AI" để xác định điểm chuẩn hiệu suất của hệ thống AI của họ và chứng minh các điểm chuẩn đã được xác thực này cho các bên liên quan như người tiêu dùng và nhân viên, từ đó giúp các tổ chức xây dựng lòng tin.
(b) Thứ hai, do sự phát triển của nó có tính đến các khuôn khổ quản trị và quy định AI khác nhau, cũng như các nguyên tắc AI đáng tin cậy phổ biến, Xác thực AI nhằm mục đích giúp các tổ chức tìm thấy các khuôn khổ và quy định quản trị AI toàn cầu khác nhau. IMDA sẽ tiếp tục làm việc với các cơ quan quản lý và tổ chức tiêu chuẩn để ánh xạ khuôn khổ thử nghiệm cho "Xác thực AI" vào khuôn khổ đã thiết lập. Những nỗ lực này nhằm mục đích cho phép các công ty vận hành hoặc cung cấp các sản phẩm và dịch vụ AI ở nhiều thị trường, đồng thời biến Singapore thành một trung tâm kiểm tra quy định và quản trị AI.
(c) Thứ ba, **IMDA sẽ có thể đối chiếu các thông lệ, điểm chuẩn và số liệu trong ngành khi nhiều tổ chức thử nghiệm “Xác thực AI” và sử dụng khung thử nghiệm của nó. **Xét rằng Singapore đang tham gia vào các nền tảng quản trị AI toàn cầu như Đối tác AI toàn cầu và ISO/IEC JTC1/SC 42, cung cấp các quan điểm có giá trị về thiết lập tiêu chuẩn quốc tế cho quản trị AI, những điều này có thể tạo điều kiện thuận lợi cho việc phát triển các tiêu chuẩn quản trị AI được đưa vào .
(d) Thứ tư, IMDA muốn "Xác minh AI" để giúp tạo ra một cộng đồng thử nghiệm AI tại Singapore bao gồm các nhà phát triển AI và chủ sở hữu hệ thống (đang tìm cách thử nghiệm các hệ thống AI), các nhà cung cấp công nghệ (đang phát triển triển khai quản trị AI và giải pháp thử nghiệm), các nhà cung cấp dịch vụ tư vấn (chuyên hỗ trợ thử nghiệm và chứng nhận) và các nhà nghiên cứu (những người đang phát triển các kỹ thuật thử nghiệm, tiêu chuẩn và thực hành).
Điều quan trọng là phải làm rõ một số quan niệm sai lầm tiềm ẩn về "xác thực AI". Đầu tiên, **"Xác thực AI" không cố gắng xác định các tiêu chuẩn đạo đức. **Nó không cố gắng báo hiệu việc phân loại các hệ thống AI, mà thay vào đó cung cấp khả năng xác minh, cho phép các nhà phát triển và chủ sở hữu hệ thống AI chứng minh tuyên bố của họ về hiệu suất hệ thống AI của họ. Thứ hai, các tổ chức chính phủ sử dụng "xác minh AI" không thể đảm bảo rằng các hệ thống AI được thử nghiệm không có rủi ro hoặc sai lệch hoặc chúng hoàn toàn "an toàn" và "có đạo đức". **Thứ ba, "Xác thực AI" nhằm mục đích ngăn các tổ chức vô tình tiết lộ thông tin nhạy cảm về hệ thống AI của họ (chẳng hạn như mã cơ bản hoặc dữ liệu đào tạo). Nó đã áp dụng một biện pháp bảo vệ quan trọng - "**Xác minh AI" sẽ được các nhà phát triển và chủ sở hữu hệ thống AI tự kiểm tra. Điều này cho phép dữ liệu và mô hình của tổ chức được duy trì trong môi trường hoạt động của tổ chức. **
Cách hoạt động của "Xác minh AI"
"Xác thực AI" bao gồm hai phần. Đầu tiên là Khung kiểm tra, trong đó trích dẫn 11 nguyên tắc quản trị và đạo đức AI được quốc tế công nhận, được tổ chức thành năm trụ cột. Thứ hai là bộ công cụ mà các tổ chức sử dụng để thực hiện kiểm tra kỹ thuật và kiểm tra quy trình tài liệu trong khung kiểm tra.
Khung thử nghiệm cho "xác minh trí tuệ nhân tạo"
Năm trụ cột và mười một nguyên tắc của khung thử nghiệm "Xác thực AI" và các đánh giá dự định của chúng được liệt kê bên dưới:
***(a) Định nghĩa: *** Khung kiểm tra cung cấp các định nghĩa dễ hiểu cho từng nguyên tắc AI. Ví dụ: khả năng diễn giải được định nghĩa là "khả năng đánh giá các yếu tố dẫn đến quyết định của hệ thống AI, hành vi, kết quả và tác động tổng thể của nó".
***(b) Tiêu chí có thể kiểm tra: ***Đối với mỗi nguyên tắc, một bộ tiêu chí có thể kiểm tra được cung cấp. Các tiêu chuẩn này tính đến các yếu tố kỹ thuật và/hoặc phi kỹ thuật (chẳng hạn như quy trình, thủ tục hoặc cơ cấu tổ chức) góp phần đạt được kết quả dự kiến của nguyên tắc quản trị này.
Lấy khả năng diễn giải làm ví dụ, hai tiêu chí có thể kiểm tra được đưa ra. Các nhà phát triển có thể chạy các phương pháp giải thích để giúp người dùng hiểu điều gì thúc đẩy các mô hình AI. Các nhà phát triển cũng có thể chứng minh sở thích phát triển các mô hình AI giải thích các quyết định của họ hoặc làm như vậy theo mặc định.
***(c) Quy trình kiểm tra: *** Đối với mỗi tiêu chí có thể kiểm tra, "Xác thực AI" cung cấp một quy trình hoặc các bước có thể hành động được thực hiện, có thể là định lượng (chẳng hạn như kiểm tra thống kê hoặc kỹ thuật), cũng có thể là định tính (ví dụ: bằng chứng tài liệu được tạo ra trong quá trình kiểm tra quá trình).
Xét về khả năng diễn giải, thử nghiệm kỹ thuật có thể liên quan đến phân tích thực nghiệm và xác định sự đóng góp của các tính năng vào đầu ra của mô hình. Thử nghiệm dựa trên quy trình sẽ ghi lại cơ sở lý luận, đánh giá rủi ro và sự đánh đổi của mô hình AI.
***(d) Số liệu: ***Đây là các thông số định lượng hoặc định tính được sử dụng để đo lường hoặc cung cấp bằng chứng cho từng tiêu chí có thể kiểm tra.
Sử dụng ví dụ về khả năng diễn giải ở trên, các số liệu được sử dụng để xác định các đóng góp của tính năng kiểm tra các tính năng đóng góp của đầu ra mô hình thu được từ các công cụ kỹ thuật như SHAP và LIME. Khi chọn mô hình cuối cùng, các số liệu dựa trên quy trình có thể được sử dụng để ghi lại quá trình đánh giá, chẳng hạn như đánh giá rủi ro và các bài tập đánh đổi.
***(e) Ngưỡng (nếu có): ***Nếu có, khung thử nghiệm sẽ cung cấp các giá trị hoặc điểm chuẩn được chấp nhận cho các chỉ số đã chọn. Các giá trị hoặc điểm chuẩn này có thể được xác định bởi các cơ quan quản lý, hiệp hội ngành hoặc các tổ chức thiết lập tiêu chuẩn được công nhận khác. Không có ngưỡng nào được cung cấp cho mô hình MVP của "Xác thực AI", có tính đến sự phát triển nhanh chóng của công nghệ AI, các trường hợp sử dụng và phương pháp kiểm tra hệ thống AI. Tuy nhiên, khi không gian quản trị AI trưởng thành và việc sử dụng "Xác minh AI" tăng lên, IMDA dự định đối chiếu và phát triển các chỉ số và ngưỡng cụ thể theo ngữ cảnh để thêm vào khung thử nghiệm.
Bộ công cụ xác minh AI "Xác minh trí tuệ nhân tạo"
Mặc dù bộ công cụ "xác minh trí tuệ nhân tạo" của AI Verify hiện chỉ khả dụng cho các tổ chức đăng ký thành công chương trình AI Verify MVP, IMDA mô tả bộ công cụ này là công cụ "một cửa" để các tổ chức tiến hành kiểm tra kỹ thuật. Cụ thể, bộ công cụ sử dụng rộng rãi các thư viện thử nghiệm mã nguồn mở. Những công cụ này bao gồm SHAP (Shapley Additive ExPlanations) để giải thích khả năng giải thích, Adversarial Robustness Toolkit để đảm bảo tính mạnh mẽ và AIF360 và Fair Learning để đảm bảo sự công bằng.
Người dùng "Xác minh AI" có thể cài đặt bộ công cụ trong môi trường nội bộ của họ. Người dùng sẽ thực hiện quy trình thử nghiệm dưới sự hướng dẫn của giao diện người dùng. Ví dụ: công cụ bao gồm một "cây công bằng có hướng dẫn" để người dùng xác định các chỉ số công bằng liên quan đến trường hợp sử dụng của họ. Cuối cùng, AI Verify sẽ tạo một báo cáo tóm tắt để giúp các nhà phát triển và chủ sở hữu hệ thống diễn giải kết quả kiểm tra. Đối với kiểm tra quy trình, báo cáo cung cấp một danh sách kiểm tra về việc có hay không có bằng chứng tài liệu như được chỉ định trong khuôn khổ kiểm tra. Kết quả kiểm tra sau đó được đóng gói vào bộ chứa Docker® để triển khai.
Tóm lại là
Khi IMDA phát hành AI Verify, làn sóng quan tâm đến AI tổng quát vẫn chưa thành hiện thực. Theo xu hướng hiện tại, sự quan tâm đến khả năng quản trị, khả năng kiểm tra và độ tin cậy của các hệ thống AI đã tăng lên đáng kể. Như được liệt kê trong bài viết này, các sáng kiến khác nhau về "xác minh trí tuệ nhân tạo" AI Verify chỉ đang chuẩn bị để ứng phó với tình hình hiện tại.
Singapore trước đây đã thể hiện khả năng đóng góp vào diễn ngôn toàn cầu và lãnh đạo tư tưởng về quản trị và điều tiết AI. Framework Patterns đã phát hành là bằng chứng cho điều đó. Cổ phần của AI Verify chắc chắn là cao, nhưng nhu cầu toàn cầu đối với sáng kiến này cũng vậy. Để thành công, nó có thể cần được công nhận nhiều hơn và sử dụng nhiều hơn. Nó phụ thuộc vào nhiều yếu tố. Đầu tiên, khả năng truy cập của công cụ là rất quan trọng: Các tổ chức muốn sử dụng AI Verify cần có thể sử dụng công cụ này với chi phí thấp hoặc miễn phí. **Thứ hai, thuyết phục tổ chức về giá trị của nó là rất quan trọng. **Điều này yêu cầu IMDA chứng minh rằng "xác minh trí tuệ nhân tạo" AI Verify hợp lý về mặt kỹ thuật và thủ tục, nó có thể được sử dụng hiệu quả cho nhiều loại và quy mô mô hình trí tuệ nhân tạo và tập dữ liệu mới hơn, đồng thời sẽ không ảnh hưởng đến quyền sở hữu Tính nhạy cảm thương mại của mô hình AI hoặc bộ dữ liệu. **Thứ ba, và có lẽ là quan trọng nhất, nó phải duy trì khả năng tương tác với các khuôn khổ pháp lý quốc tế. **IMDA cần đảm bảo rằng AI Verify tiếp tục giúp các tổ chức giải quyết và tương tác trong các khuôn khổ pháp lý AI toàn cầu mới nổi như Đạo luật AI của EU, Đạo luật AI và dữ liệu của Canada và khuôn khổ Quy định rủi ro AI của NIST của Hoa Kỳ, cũng như của Singapore khuôn khổ mô hình quốc gia riêng.