المؤلف: JOSH LEE KOK THONG الترجمة: Li Yang التدقيق اللغوي: Xiang Xinyi
المصدر: الورقة
مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI
ازداد الاهتمام العالمي بحوكمة وتنظيم الذكاء الاصطناعي في الأشهر الأخيرة. يعتقد الكثيرون أن هناك حاجة إلى حوكمة وهياكل تنظيمية جديدة للتعامل مع أنظمة الذكاء الاصطناعي التوليدية - التي تعد قدراتها مذهلة ، مثل ChatGPT و DALL-E من OpenAI و Google Bard و Stable Diffusion وغيرها. حظي قانون الذكاء الاصطناعي في الاتحاد الأوروبي باهتمام واسع النطاق. في الواقع ، تظهر العديد من المبادرات المهمة الأخرى حول العالم ، بما في ذلك العديد من نماذج وأطر حوكمة الذكاء الاصطناعي.
تتناول هذه المقالة إطار عمل ومجموعة أدوات اختبار حوكمة الذكاء الاصطناعي في سنغافورة - "التحقق من الذكاء الاصطناعي" الصادر في مايو 2022. ويستخلص بشكل أساسي ثلاث نقاط رئيسية. ① لخص استراتيجية سنغافورة العامة بشأن حوكمة الذكاء الاصطناعي والمبادرات الرئيسية الصادرة عن الحكومة قبل إطلاق التحقق من الذكاء الاصطناعي. ② شرح مفتاح "التحقق من الذكاء الاصطناعي". ③ تم إطلاق "التحقق من الذكاء الاصطناعي" لمدة عام ، حيث ناقش مستقبل التحقق من الذكاء الاصطناعي ، ونهج سنغافورة في إدارة وتنظيم الذكاء الاصطناعي. باختصار ، النقاط الرئيسية هي كما يلي:
اتبعت سنغافورة نهج تدخل معتدل في حوكمة وتنظيم الذكاء الاصطناعي ، مع نموذج إطار حوكمة الذكاء الاصطناعي الذي يحدد المبادئ التوجيهية لحوكمة الذكاء الاصطناعي في القطاع الخاص.
"AI Verify" هو إطار ومجموعة أدوات لاختبار حوكمة الذكاء الاصطناعي ، تم إطلاقه في مايو 2022. على الرغم من أنه في مرحلة تجريبية ، إلا أنه يمثل جهود سنغافورة لتطوير الخطاب العالمي حول حوكمة وتنظيم الذكاء الاصطناعي ، في محاولة لتلبية الطلب المتزايد على أنظمة الذكاء الاصطناعي الجديرة بالثقة ، وتعزيز الترابط بين الإطار التنظيمي العالمي للذكاء الاصطناعي.
"التحقق من الذكاء الاصطناعي" هو إطار اختبار يعتمد على مبادئ حوكمة الذكاء الاصطناعي المعترف بها دوليًا والتي يمكن للشركات استخدامها عند اختبار أنظمة الذكاء الاصطناعي الخاصة بها. لا يهدف "التحقق من الذكاء الاصطناعي" إلى تحديد المعايير الأخلاقية ، ولكن لتوفير إمكانية التحقق من خلال السماح لمطوري أنظمة الذكاء الاصطناعي ومالكيها بإصدار بيانات تشهد على أداء أنظمة الذكاء الاصطناعي الخاصة بهم.
لكي تكون ناجحًا ، قد يحتاج "تم التحقق من الذكاء الاصطناعي" إلى مزيد من الاعتراف والاعتماد. يعتمد هذا على عوامل مثل التكلفة ، وإقناع أصحاب المصلحة بقيمتها ، وأهميتها وأوجه التآزر مع الإطار التنظيمي الدولي.
** النهج العام لحوكمة الذكاء الاصطناعي في سنغافورة **
في استراتيجيتها الوطنية للذكاء الاصطناعي ، أعلنت سنغافورة أن الدولة تهدف إلى أن تكون "في طليعة تطوير ونشر حلول ذكاء اصطناعي مؤثرة وقابلة للتطوير" وتأمل في تعزيز دور الدولة "كرائدة في التطوير والاختبار والنشر والتوسع. الذكاء الاصطناعي. "مركز عالمي للحلول. واحدة من خمسة "عوامل تمكين النظام البيئي" التي تم تحديدها في إستراتيجية لزيادة تبني الذكاء الاصطناعي هي تعزيز "بيئة تقدمية وجديرة بالثقة" لتطوير الذكاء الاصطناعي - وهي المفاضلة بين الابتكار وتقليل المخاطر المجتمعية. بيئة متوازنة.
لخلق هذه "البيئة التقدمية والجديرة بالثقة" ، اتبعت سنغافورة حتى الآن نهجًا حميدًا وتطوعيًا لتنظيم الذكاء الاصطناعي. وذلك لأن الدولة تدرك حقيقتين من طموحاتها في مجال الذكاء الاصطناعي.
أولاً ، ترى حكومة سنغافورة ** أن الذكاء الاصطناعي عامل تمكين استراتيجي رئيسي ** لتنمية الاقتصاد وتحسين نوعية حياة مواطنيها. نتيجة لذلك ، لم تتخذ سنغافورة خطوات جذرية في تنظيم الذكاء الاصطناعي ، حتى لا تخنق الابتكار والاستثمار. ثانيًا ، نظرًا لحجمها ، تدرك سنغافورة أن الحكومة نفسها قد تكون متحمسة للأسعار بدلاً من تحديد الأسعار حيث يتطور خطاب حوكمة الذكاء الاصطناعي وأطر العمل واللوائح على مستوى العالم. ** لذلك فإن الإستراتيجية الحالية ليست تحديث مبادئ الذكاء الإصطناعي ، ولكن ** "إتباع اتجاه العالم ، وليس لديهم نية لتغيير إتجاه العالم". *** ("خذ العالم" حيث هي ، وليس حيث تأمل أن يكون العالم. ") *
نهج سنغافورة التنظيمي للذكاء الاصطناعي - الذي تشرف عليه لجنة حماية البيانات الشخصية في سنغافورة (PDPC) - له ثلاث ركائز قبل إطلاق AI Verify في عام 2022:
1 نموذج إطار حوكمة الذكاء الاصطناعي (نموذج إطاري).
اللجنة الاستشارية حول الاستخدام الأخلاقي للذكاء الاصطناعي والبيانات (اللجنة الاستشارية).
خطة بحثية حول حوكمة الذكاء الاصطناعي واستخدام البيانات (مشروع بحثي).
يركز ما يلي على "نموذج الإطار".
** وضع الإطار **
نموذج الإطار ، الذي تم إطلاقه لأول مرة في الاجتماع السنوي للمنتدى الاقتصادي العالمي في عام 2019 ، هو إطار طوعي وغير ملزم يوجه المنظمات في النشر المسؤول لحلول الذكاء الاصطناعي على نطاق واسع ، مع ملاحظة أن الإطار مستقل عن مرحلة تطوير التكنولوجيا. كدليل ، يقدم نموذج الإطار توصيات عملية فقط لنشر كيانات القطاع الخاص للذكاء الاصطناعي ، بينما يخضع استخدام القطاع العام للذكاء الاصطناعي لإرشادات داخلية ومجموعات أدوات حوكمة البيانات والذكاء الاصطناعي. ** تُعرف أنماط الإطار باسم "المستند الحي" وستتطور الإصدارات المستقبلية مع تطور التكنولوجيا والمجتمع. أساسها يكمن في عدم القدرة على التنبؤ بالتكنولوجيا والصناعة والحجم ونموذج الأعمال. **
بشكل أساسي ، يسترشد نمط الإطار بمبدأين أساسيين يعززان الثقة والتفاهم في الذكاء الاصطناعي. ** أولاً ، يجب أن تضمن المنظمات التي تستخدم الذكاء الاصطناعي في صنع القرار أن عمليات صنع القرار لديها قابلة للتفسير وشفافة وعادلة. ثانيًا ، يجب أن تركز أنظمة الذكاء الاصطناعي على الإنسان: يجب أن تكون حماية رفاهية الإنسان وسلامته الاعتبار الأساسي في تصميم وتطوير واستخدام الذكاء الاصطناعي. **
يترجم إطار العمل هذه المبادئ التوجيهية إلى إجراءات قابلة للتنفيذ في أربعة مجالات رئيسية لصنع القرار التنظيمي وعمليات تطوير التكنولوجيا:
(أ) هياكل وممارسات الإدارة الداخلية ؛
(ب) تحديد مستوى المشاركة البشرية في صنع القرار المعزز بالذكاء الاصطناعي ؛
(ج) إدارة العمليات.
(د) التفاعل والتواصل مع أصحاب المصلحة.
يلخص الجدول أدناه بعض الاعتبارات والنهج والتدابير المقترحة في هذه المجالات الرئيسية.
** مبادرات أخرى مصاحبة للنموذج الإطاري **
عندما أطلقت سنغافورة الإصدار الثاني من النموذج الإطاري في المنتدى الاقتصادي العالمي 2020 ، كانت مصحوبة بوثيقتين أخريين: دليل التنفيذ والتقييم الذاتي للمنظمات (ISAGO) وخلاصة وافية لحالات الاستخدام (التجميع - المجلد 1 والمجلدان) . ISAGO هي قائمة مرجعية لمساعدة المؤسسات على تقييم مواءمة عمليات حوكمة الذكاء الاصطناعي الخاصة بها مع إطار العمل النموذجي. تقدم الخلاصة أمثلة واقعية لاعتماد توصيات الإطار عبر القطاعات وحالات الاستخدام والولايات القضائية.
بشكل عام ، يعمل "نموذج الإطار" والوثائق الداعمة له على إرساء الخطوط العريضة للتفكير الموضوعي لتنظيم الذكاء الاصطناعي في سنغافورة. وشهدت هذه المبادرات فوز سنغافورة بجائزة الأمم المتحدة للقمة العالمية لمجتمع المعلومات في عام 2019 ، تقديراً لريادتها في حوكمة الذكاء الاصطناعي.
كان يناير 2020 بمثابة نقطة تحول في المناقشة العالمية حول تنظيم الذكاء الاصطناعي. في 17 يناير 2020 ، دفع الكتاب الأبيض الذي أصدرته المفوضية الأوروبية المجتمع الدولي إلى إيلاء المزيد من الاهتمام لإمكانية التنظيم الحكومي لتكنولوجيا الذكاء الاصطناعي. في فبراير 2020 ، أصدرت المفوضية الأوروبية رسميًا "الكتاب الأبيض حول الذكاء الاصطناعي" ، الذي وضع خططًا لإنشاء إطار تنظيمي للذكاء الاصطناعي. بعد بضعة أشهر ، قدمت المفوضية الأوروبية مشروع قانون الذكاء الاصطناعي المرتقب. هذه هي المحاولة الأولى الجادة من قبل وكالة حكومية لإدخال قواعد موضوعية لتنظيم تطوير واستخدام أنظمة الذكاء الاصطناعي أفقيًا. من المتوقع أن يكون لقانون الذكاء الاصطناعي أيضًا تأثيرات خارج نطاق القانون ، وقد تخضع الشركات التي تطور أنظمة الذكاء الاصطناعي خارج أوروبا للقانون الجديد.
وقد أثر ذلك على التفكير في مستقبل المشهد التنظيمي والحوكمة للذكاء الاصطناعي في سنغافورة. بينما تحافظ لجنة حماية البيانات الشخصية في سنغافورة (PDPC) على نهجها الطوعي والمتراخي لتنظيم الذكاء الاصطناعي ، فإنها تقر بأن الذكاء الاصطناعي سيواجه إشرافًا أكثر صرامة في المستقبل. يبدو أن PDPC أيضًا تدرك الطلب المتزايد من ** المستهلكين على مصداقية أنظمة الذكاء الاصطناعي والمطورين ، والحاجة إلى معايير دولية للذكاء الاصطناعي لقياس وتقييم الذكاء الاصطناعي مقابل المتطلبات التنظيمية. بالإضافة إلى ذلك ، تتزايد أيضًا متطلبات قابلية التشغيل البيني للأطر التنظيمية للذكاء الاصطناعي. ** في ضوء ذلك ، بدأت سنغافورة في التطور ، وتم دمج النتائج النهائية في إطار "AI Verify".
** ما هو "AI Verify" **
تم إصدار "AI Verify" بشكل مشترك من قبل Infocomm Media Development Authority (IMDA) ، وهي لجنة قانونية تابعة لوزارة الاتصالات والمعلومات في سنغافورة ، ولجنة حماية البيانات الشخصية (PDPC). وهو عبارة عن إطار اختبار حوكمة الذكاء الاصطناعي ومجموعة أدوات. ** باستخدام AI Verify ، يمكن للمؤسسات إجراء تقييم طوعي لأنظمة الذكاء الاصطناعي الخاصة بها باستخدام مزيج من الاختبارات الفنية وعمليات التفتيش القائمة على العمليات. بدوره ، يساعد النظام الشركات على تقديم دليل موضوعي وقابل للتحقق لأصحاب المصلحة على أن أنظمة الذكاء الاصطناعي الخاصة بهم يتم تنفيذها بطريقة مسؤولة وجديرة بالثقة. **
في ضوء التطوير المستمر لأساليب ومعايير ومؤشرات وأدوات اختبار الذكاء الاصطناعي ، فإن "التحقق من الذكاء الاصطناعي" (AI Verify) هو حاليًا في مرحلة "الحد الأدنى من المنتجات القابلة للتطبيق" (MVP). هذا له نتيجتان. أولاً ، يحتوي إصدار MVP على قيود فنية ويقتصر على نوع وحجم نماذج الذكاء الاصطناعي أو مجموعات البيانات التي يمكن اختبارها أو تحليلها. ثانيًا ، من المتوقع أن يتطور التحقق من الذكاء الاصطناعي مع نضوج قدرات اختبار الذكاء الاصطناعي.
الأهداف الأربعة لتطوير إصدار MVP "معتمد من منظمة العفو الدولية" هي:
(أ) أولاً ، تأمل IMDA أن تتمكن المنظمات من استخدام "التحقق من صحة الذكاء الاصطناعي" لتحديد معايير أداء أنظمة الذكاء الاصطناعي الخاصة بها وإظهار هذه المعايير التي تم التحقق من صحتها لأصحاب المصلحة مثل المستهلكين والموظفين ، وبالتالي مساعدة المنظمات على بناء الثقة.
(ب) ثانيًا ، نظرًا لتطورها مع الأخذ في الاعتبار مختلف الأطر التنظيمية والحوكمة للذكاء الاصطناعي ، فضلاً عن مبادئ الذكاء الاصطناعي المشتركة الجديرة بالثقة ، تهدف ** AI Validation إلى مساعدة المنظمات على إيجاد أطر ولوائح عالمية لحوكمة الذكاء الاصطناعي مشتركة **. ستواصل IMDA العمل مع المنظمين ومنظمات المعايير لتعيين إطار اختبار "التحقق من صحة الذكاء الاصطناعي" إلى إطار العمل المعمول به. تهدف الجهود إلى تمكين الشركات من تشغيل أو تقديم منتجات وخدمات الذكاء الاصطناعي في أسواق متعددة ، مع جعل سنغافورة مركزًا لإدارة الذكاء الاصطناعي والاختبار التنظيمي.
(ج) ثالثًا ، ** ستكون IMDA قادرة على تجميع ممارسات الصناعة والمعايير والمقاييس مع قيام المزيد من المؤسسات بتجربة "التحقق من صحة الذكاء الاصطناعي" واستخدام إطار الاختبار الخاص بها. ** بالنظر إلى أن سنغافورة تشارك في منصات حوكمة الذكاء الاصطناعي العالمية ، مثل الشراكة العالمية للذكاء الاصطناعي و ISO / IEC JTC1 / SC 42 ، مما يوفر وجهات نظر قيمة حول وضع المعايير الدولية لحوكمة الذكاء الاصطناعي ، يمكن أن تسهل هذه وضع معايير لحوكمة الذكاء الاصطناعي. في.
(د) رابعًا ، ** تريد IMDA "التحقق من الذكاء الاصطناعي" للمساعدة في إنشاء مجتمع محلي لاختبار الذكاء الاصطناعي في سنغافورة ** يتألف من مطوري الذكاء الاصطناعي ومالكي الأنظمة (الذين يسعون لاختبار أنظمة الذكاء الاصطناعي) ومقدمي التكنولوجيا (الذين يطورون تنفيذ حوكمة الذكاء الاصطناعي و حلول الاختبار) ومقدمي الخدمات الاستشارية (المتخصصين في دعم الاختبارات والاعتماد) والباحثين (الذين يطورون تقنيات الاختبار والمعايير والممارسات).
من المهم أيضًا توضيح العديد من المفاهيم الخاطئة المحتملة حول "التحقق من صحة الذكاء الاصطناعي". أولاً ، لا تحاول ** "AI Validation" تحديد المعايير الأخلاقية. ** لا تحاول الإشارة إلى تصنيف أنظمة الذكاء الاصطناعي ، ولكنها بدلاً من ذلك توفر إمكانية التحقق ، مما يسمح لمطوري ومالكي أنظمة الذكاء الاصطناعي بإثبات ادعاءاتهم حول أداء نظام الذكاء الاصطناعي الخاص بهم. ثانيًا ، لا يمكن للمنظمات الحكومية التي تستخدم "التحقق من الذكاء الاصطناعي" أن تضمن أن أنظمة الذكاء الاصطناعي التي تم اختبارها خالية من المخاطر أو التحيز ، أو أنها "آمنة" و "أخلاقية" تمامًا. ** ثالثًا ، تهدف "AI Validation" إلى منع المنظمات من الكشف عن غير قصد عن معلومات حساسة حول أنظمة الذكاء الاصطناعي الخاصة بها (مثل التعليمات البرمجية الأساسية أو بيانات التدريب). وقد تبنت إجراء وقائيًا رئيسيًا - "** التحقق من الذكاء الاصطناعي" والذي سيتم اختباره ذاتيًا بواسطة مطوري ومالكي أنظمة الذكاء الاصطناعي. هذا يسمح لبيانات المنظمة ونماذجها بالبقاء داخل بيئة تشغيل المنظمة. **
** كيف يعمل "AI Verification" **
يتكون "التحقق من صحة الذكاء الاصطناعي" من جزأين. الأول هو إطار الاختبار ، الذي يستشهد بـ 11 من مبادئ أخلاقيات الذكاء الاصطناعي والحوكمة المعترف بها دوليًا منظمة في خمس ركائز. والثاني هو مجموعة الأدوات التي تستخدمها المؤسسات لإجراء الاختبارات الفنية وعمليات فحص المستندات في إطار عمل الاختبار.
إطار اختبار "التحقق من الذكاء الاصطناعي"
الركائز الخمس والمبادئ الأحد عشر لإطار اختبار "التحقق من صحة الذكاء الاصطناعي" وتقييماتها المقصودة مذكورة أدناه:
إطار الاختبار الفعلي ، بما في ذلك الأجزاء الرئيسية التالية:
*** (أ) التعريفات: *** يوفر إطار الاختبار تعريفات سهلة الفهم لكل مبدأ من مبادئ الذكاء الاصطناعي. على سبيل المثال ، يتم تعريف القابلية للتفسير على أنها "القدرة على تقييم العوامل التي تؤدي إلى قرار نظام الذكاء الاصطناعي وسلوكه العام ونتائجه وتأثيره".
*** (ب) المعايير القابلة للاختبار: *** لكل مبدأ ، يتم توفير مجموعة من المعايير القابلة للاختبار. تأخذ هذه المعايير في الاعتبار العوامل الفنية و / أو غير الفنية (مثل العمليات أو الإجراءات أو الهياكل التنظيمية) التي تساهم في تحقيق النتائج المرجوة من مبدأ الحوكمة هذا.
بأخذ القابلية للتفسير كمثال ، يتم إعطاء معيارين قابلين للاختبار. يمكن للمطورين تشغيل طرق شرح لمساعدة المستخدمين على فهم ما يدفع نماذج الذكاء الاصطناعي. يمكن للمطورين أيضًا إظهار تفضيلهم لتطوير نماذج الذكاء الاصطناعي التي تشرح قراراتهم ، أو تفعل ذلك بشكل افتراضي.
*** (ج) عملية الاختبار: *** لكل معيار قابل للاختبار ، يوفر "التحقق من صحة الذكاء الاصطناعي" عملية أو خطوات قابلة للتنفيذ يمكن إجراؤها ، والتي قد تكون كمية (مثل الاختبارات الإحصائية أو التقنية) ، ويمكن أيضًا أن تكون نوعية (على سبيل المثال الأدلة الوثائقية التي تم إنتاجها أثناء عمليات التفتيش).
بقدر ما يتعلق الأمر بقابلية التفسير ، قد يتضمن الاختبار الفني تحليلًا تجريبيًا وتحديد مساهمة الميزات في إخراج النموذج. سيوثق الاختبار القائم على العمليات الأساس المنطقي وتقييم المخاطر والمفاضلات الخاصة بنموذج الذكاء الاصطناعي.
*** (د) المقاييس: *** هذه هي المعايير الكمية أو النوعية المستخدمة لقياس أو تقديم دليل لكل معيار قابل للاختبار.
باستخدام مثال التفسير أعلاه ، تفحص المقاييس المستخدمة لتحديد مساهمات الميزات الميزات المساهمة لمخرجات النموذج التي تم الحصول عليها من الأدوات التقنية مثل SHAP و LIME. عند اختيار النموذج النهائي ، يمكن استخدام المقاييس المستندة إلى العملية لتوثيق التقييم ، مثل تقييم المخاطر وتمارين المقايضة.
*** (هـ) العتبات (إن وجدت): *** حيثما كان ذلك متاحًا ، سيوفر إطار عمل الاختبار القيم أو المعايير المقبولة للمقاييس المحددة. يمكن تحديد هذه القيم أو المعايير من قبل الهيئات التنظيمية أو الجمعيات الصناعية أو غيرها من المنظمات المعترف بها لوضع المعايير. لم يتم توفير عتبة لنموذج MVP الخاص بـ "التحقق من صحة الذكاء الاصطناعي" ، مع مراعاة التطور السريع لتقنيات الذكاء الاصطناعي وحالات استخدامها وطرق اختبار أنظمة الذكاء الاصطناعي. ومع ذلك ، مع نضوج مساحة حوكمة الذكاء الاصطناعي وزيادة استخدام "التحقق من الذكاء الاصطناعي" ، تعتزم IMDA تجميع وتطوير المقاييس والعتبات الخاصة بالسياق لإضافتها إلى إطار الاختبار.
مجموعة أدوات التحقق من الذكاء الاصطناعي
في حين أن مجموعة أدوات AI Verify لـ "التحقق من الذكاء الاصطناعي" متاحة حاليًا فقط للمؤسسات التي تنضم بنجاح إلى برنامج AI Verify MVP ، يصف IMDA مجموعة الأدوات بأنها أداة "وقفة واحدة" للمؤسسات لإجراء الاختبارات الفنية. على وجه التحديد ، تستخدم مجموعة الأدوات على نطاق واسع مكتبات اختبار مفتوحة المصدر. تتضمن هذه الأدوات SHAP (Shapley Additive ExPlanations) لقابلية الشرح ، ومجموعة أدوات المتانة العدائية من أجل المتانة ، و AIF360 والتعلم العادل من أجل الإنصاف.
يمكن لمستخدمي "AI Verification" تثبيت مجموعة الأدوات في بيئتهم الداخلية. سيقوم المستخدم بتنفيذ عملية الاختبار بتوجيه من واجهة المستخدم. على سبيل المثال ، تتضمن الأداة "شجرة الإنصاف الموجهة" للمستخدمين لتحديد مقاييس الإنصاف ذات الصلة بحالة الاستخدام الخاصة بهم. أخيرًا ، ستقوم AI Verify بإنشاء تقرير موجز لمساعدة مطوري ومالكي النظام على تفسير نتائج الاختبار. بالنسبة لعمليات التفتيش على العمليات ، يقدم التقرير قائمة تحقق بوجود أو عدم وجود أدلة وثائقية على النحو المحدد في إطار الاختبار. ثم يتم حزم نتائج الاختبار في حاويات Docker® للنشر.
ختاماً
عندما أصدرت IMDA AI Verify ، لم تتحقق موجة الاهتمام بالذكاء الاصطناعي التوليدي بعد. وفقًا للاتجاه الحالي ، نما الاهتمام بحوكمة أنظمة الذكاء الاصطناعي وقابلية اختبارها وموثوقيتها بشكل كبير. كما هو مذكور في هذا المقال ، فإن المبادرات المختلفة لـ "التحقق من الذكاء الاصطناعي" AI Verify تستعد للتو للاستجابة للوضع الحالي.
لقد أثبتت سنغافورة سابقًا قدرتها على المساهمة في الخطاب العالمي وقيادة الفكر حول حوكمة وتنظيم الذكاء الاصطناعي. نماذج الإطار التي تم إصدارها هي دليل على ذلك. إن مخاطر AI Verify عالية بالتأكيد ، ولكن الطلب العالمي على هذه المبادرة هو الآخر أيضًا. لكي تكون ناجحًا ، قد تحتاج إلى مزيد من التعرف عليها واستخدامها بشكل أكبر. ذلك يعتمد على عدة عوامل. ** أولاً ، تعد إمكانية الوصول إلى الأداة أمرًا بالغ الأهمية **: يتعين على المنظمات التي تتطلع إلى استخدام AI Verify أن تكون قادرة على استخدامها بتكلفة منخفضة أو بدون تكلفة. ** ثانيًا ، إن إقناع المنظمة بقيمتها أمر بالغ الأهمية. ** يتطلب هذا من IMDA إثبات أن "التحقق من الذكاء الاصطناعي" AI Verify سليم تقنيًا وإجرائيًا ، ويمكن استخدامه بشكل فعال لأنواع ومقاييس أكثر وأحدث من نماذج الذكاء الاصطناعي ومجموعات البيانات ، ولن يؤثر على الحساسية التجارية لـ نموذج الذكاء الاصطناعي أو مجموعة البيانات. ** ثالثًا ، وربما الأهم ، يجب أن تحافظ على قابلية التشغيل البيني مع الأطر التنظيمية الدولية. ** تحتاج IMDA إلى ضمان استمرار AI Verify في مساعدة المنظمات على التعامل والتفاعل مع الأطر التنظيمية العالمية الناشئة الرئيسية للذكاء الاصطناعي مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي ، وقانون الذكاء الاصطناعي والبيانات الكندي ، والإطار التنظيمي لمخاطر الذكاء الاصطناعي في الولايات المتحدة NIST ، بالإضافة إلى سنغافورة نموذج وطني خاص بها.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
جعل حوكمة الذكاء الاصطناعي قابلة للتحقق: مجموعة أدوات التحقق من الذكاء الاصطناعي في سنغافورة
المؤلف: JOSH LEE KOK THONG الترجمة: Li Yang التدقيق اللغوي: Xiang Xinyi
المصدر: الورقة
ازداد الاهتمام العالمي بحوكمة وتنظيم الذكاء الاصطناعي في الأشهر الأخيرة. يعتقد الكثيرون أن هناك حاجة إلى حوكمة وهياكل تنظيمية جديدة للتعامل مع أنظمة الذكاء الاصطناعي التوليدية - التي تعد قدراتها مذهلة ، مثل ChatGPT و DALL-E من OpenAI و Google Bard و Stable Diffusion وغيرها. حظي قانون الذكاء الاصطناعي في الاتحاد الأوروبي باهتمام واسع النطاق. في الواقع ، تظهر العديد من المبادرات المهمة الأخرى حول العالم ، بما في ذلك العديد من نماذج وأطر حوكمة الذكاء الاصطناعي.
تتناول هذه المقالة إطار عمل ومجموعة أدوات اختبار حوكمة الذكاء الاصطناعي في سنغافورة - "التحقق من الذكاء الاصطناعي" الصادر في مايو 2022. ويستخلص بشكل أساسي ثلاث نقاط رئيسية. ① لخص استراتيجية سنغافورة العامة بشأن حوكمة الذكاء الاصطناعي والمبادرات الرئيسية الصادرة عن الحكومة قبل إطلاق التحقق من الذكاء الاصطناعي. ② شرح مفتاح "التحقق من الذكاء الاصطناعي". ③ تم إطلاق "التحقق من الذكاء الاصطناعي" لمدة عام ، حيث ناقش مستقبل التحقق من الذكاء الاصطناعي ، ونهج سنغافورة في إدارة وتنظيم الذكاء الاصطناعي. باختصار ، النقاط الرئيسية هي كما يلي:
اتبعت سنغافورة نهج تدخل معتدل في حوكمة وتنظيم الذكاء الاصطناعي ، مع نموذج إطار حوكمة الذكاء الاصطناعي الذي يحدد المبادئ التوجيهية لحوكمة الذكاء الاصطناعي في القطاع الخاص.
"AI Verify" هو إطار ومجموعة أدوات لاختبار حوكمة الذكاء الاصطناعي ، تم إطلاقه في مايو 2022. على الرغم من أنه في مرحلة تجريبية ، إلا أنه يمثل جهود سنغافورة لتطوير الخطاب العالمي حول حوكمة وتنظيم الذكاء الاصطناعي ، في محاولة لتلبية الطلب المتزايد على أنظمة الذكاء الاصطناعي الجديرة بالثقة ، وتعزيز الترابط بين الإطار التنظيمي العالمي للذكاء الاصطناعي.
"التحقق من الذكاء الاصطناعي" هو إطار اختبار يعتمد على مبادئ حوكمة الذكاء الاصطناعي المعترف بها دوليًا والتي يمكن للشركات استخدامها عند اختبار أنظمة الذكاء الاصطناعي الخاصة بها. لا يهدف "التحقق من الذكاء الاصطناعي" إلى تحديد المعايير الأخلاقية ، ولكن لتوفير إمكانية التحقق من خلال السماح لمطوري أنظمة الذكاء الاصطناعي ومالكيها بإصدار بيانات تشهد على أداء أنظمة الذكاء الاصطناعي الخاصة بهم.
لكي تكون ناجحًا ، قد يحتاج "تم التحقق من الذكاء الاصطناعي" إلى مزيد من الاعتراف والاعتماد. يعتمد هذا على عوامل مثل التكلفة ، وإقناع أصحاب المصلحة بقيمتها ، وأهميتها وأوجه التآزر مع الإطار التنظيمي الدولي.
** النهج العام لحوكمة الذكاء الاصطناعي في سنغافورة **
في استراتيجيتها الوطنية للذكاء الاصطناعي ، أعلنت سنغافورة أن الدولة تهدف إلى أن تكون "في طليعة تطوير ونشر حلول ذكاء اصطناعي مؤثرة وقابلة للتطوير" وتأمل في تعزيز دور الدولة "كرائدة في التطوير والاختبار والنشر والتوسع. الذكاء الاصطناعي. "مركز عالمي للحلول. واحدة من خمسة "عوامل تمكين النظام البيئي" التي تم تحديدها في إستراتيجية لزيادة تبني الذكاء الاصطناعي هي تعزيز "بيئة تقدمية وجديرة بالثقة" لتطوير الذكاء الاصطناعي - وهي المفاضلة بين الابتكار وتقليل المخاطر المجتمعية. بيئة متوازنة.
لخلق هذه "البيئة التقدمية والجديرة بالثقة" ، اتبعت سنغافورة حتى الآن نهجًا حميدًا وتطوعيًا لتنظيم الذكاء الاصطناعي. وذلك لأن الدولة تدرك حقيقتين من طموحاتها في مجال الذكاء الاصطناعي.
أولاً ، ترى حكومة سنغافورة ** أن الذكاء الاصطناعي عامل تمكين استراتيجي رئيسي ** لتنمية الاقتصاد وتحسين نوعية حياة مواطنيها. نتيجة لذلك ، لم تتخذ سنغافورة خطوات جذرية في تنظيم الذكاء الاصطناعي ، حتى لا تخنق الابتكار والاستثمار. ثانيًا ، نظرًا لحجمها ، تدرك سنغافورة أن الحكومة نفسها قد تكون متحمسة للأسعار بدلاً من تحديد الأسعار حيث يتطور خطاب حوكمة الذكاء الاصطناعي وأطر العمل واللوائح على مستوى العالم. ** لذلك فإن الإستراتيجية الحالية ليست تحديث مبادئ الذكاء الإصطناعي ، ولكن ** "إتباع اتجاه العالم ، وليس لديهم نية لتغيير إتجاه العالم". *** ("خذ العالم" حيث هي ، وليس حيث تأمل أن يكون العالم. ") *
نهج سنغافورة التنظيمي للذكاء الاصطناعي - الذي تشرف عليه لجنة حماية البيانات الشخصية في سنغافورة (PDPC) - له ثلاث ركائز قبل إطلاق AI Verify في عام 2022:
1 نموذج إطار حوكمة الذكاء الاصطناعي (نموذج إطاري).
اللجنة الاستشارية حول الاستخدام الأخلاقي للذكاء الاصطناعي والبيانات (اللجنة الاستشارية).
خطة بحثية حول حوكمة الذكاء الاصطناعي واستخدام البيانات (مشروع بحثي).
يركز ما يلي على "نموذج الإطار".
** وضع الإطار **
نموذج الإطار ، الذي تم إطلاقه لأول مرة في الاجتماع السنوي للمنتدى الاقتصادي العالمي في عام 2019 ، هو إطار طوعي وغير ملزم يوجه المنظمات في النشر المسؤول لحلول الذكاء الاصطناعي على نطاق واسع ، مع ملاحظة أن الإطار مستقل عن مرحلة تطوير التكنولوجيا. كدليل ، يقدم نموذج الإطار توصيات عملية فقط لنشر كيانات القطاع الخاص للذكاء الاصطناعي ، بينما يخضع استخدام القطاع العام للذكاء الاصطناعي لإرشادات داخلية ومجموعات أدوات حوكمة البيانات والذكاء الاصطناعي. ** تُعرف أنماط الإطار باسم "المستند الحي" وستتطور الإصدارات المستقبلية مع تطور التكنولوجيا والمجتمع. أساسها يكمن في عدم القدرة على التنبؤ بالتكنولوجيا والصناعة والحجم ونموذج الأعمال. **
بشكل أساسي ، يسترشد نمط الإطار بمبدأين أساسيين يعززان الثقة والتفاهم في الذكاء الاصطناعي. ** أولاً ، يجب أن تضمن المنظمات التي تستخدم الذكاء الاصطناعي في صنع القرار أن عمليات صنع القرار لديها قابلة للتفسير وشفافة وعادلة. ثانيًا ، يجب أن تركز أنظمة الذكاء الاصطناعي على الإنسان: يجب أن تكون حماية رفاهية الإنسان وسلامته الاعتبار الأساسي في تصميم وتطوير واستخدام الذكاء الاصطناعي. **
يترجم إطار العمل هذه المبادئ التوجيهية إلى إجراءات قابلة للتنفيذ في أربعة مجالات رئيسية لصنع القرار التنظيمي وعمليات تطوير التكنولوجيا:
(أ) هياكل وممارسات الإدارة الداخلية ؛
(ب) تحديد مستوى المشاركة البشرية في صنع القرار المعزز بالذكاء الاصطناعي ؛
(ج) إدارة العمليات.
(د) التفاعل والتواصل مع أصحاب المصلحة.
يلخص الجدول أدناه بعض الاعتبارات والنهج والتدابير المقترحة في هذه المجالات الرئيسية.
عندما أطلقت سنغافورة الإصدار الثاني من النموذج الإطاري في المنتدى الاقتصادي العالمي 2020 ، كانت مصحوبة بوثيقتين أخريين: دليل التنفيذ والتقييم الذاتي للمنظمات (ISAGO) وخلاصة وافية لحالات الاستخدام (التجميع - المجلد 1 والمجلدان) . ISAGO هي قائمة مرجعية لمساعدة المؤسسات على تقييم مواءمة عمليات حوكمة الذكاء الاصطناعي الخاصة بها مع إطار العمل النموذجي. تقدم الخلاصة أمثلة واقعية لاعتماد توصيات الإطار عبر القطاعات وحالات الاستخدام والولايات القضائية.
بشكل عام ، يعمل "نموذج الإطار" والوثائق الداعمة له على إرساء الخطوط العريضة للتفكير الموضوعي لتنظيم الذكاء الاصطناعي في سنغافورة. وشهدت هذه المبادرات فوز سنغافورة بجائزة الأمم المتحدة للقمة العالمية لمجتمع المعلومات في عام 2019 ، تقديراً لريادتها في حوكمة الذكاء الاصطناعي.
كان يناير 2020 بمثابة نقطة تحول في المناقشة العالمية حول تنظيم الذكاء الاصطناعي. في 17 يناير 2020 ، دفع الكتاب الأبيض الذي أصدرته المفوضية الأوروبية المجتمع الدولي إلى إيلاء المزيد من الاهتمام لإمكانية التنظيم الحكومي لتكنولوجيا الذكاء الاصطناعي. في فبراير 2020 ، أصدرت المفوضية الأوروبية رسميًا "الكتاب الأبيض حول الذكاء الاصطناعي" ، الذي وضع خططًا لإنشاء إطار تنظيمي للذكاء الاصطناعي. بعد بضعة أشهر ، قدمت المفوضية الأوروبية مشروع قانون الذكاء الاصطناعي المرتقب. هذه هي المحاولة الأولى الجادة من قبل وكالة حكومية لإدخال قواعد موضوعية لتنظيم تطوير واستخدام أنظمة الذكاء الاصطناعي أفقيًا. من المتوقع أن يكون لقانون الذكاء الاصطناعي أيضًا تأثيرات خارج نطاق القانون ، وقد تخضع الشركات التي تطور أنظمة الذكاء الاصطناعي خارج أوروبا للقانون الجديد.
وقد أثر ذلك على التفكير في مستقبل المشهد التنظيمي والحوكمة للذكاء الاصطناعي في سنغافورة. بينما تحافظ لجنة حماية البيانات الشخصية في سنغافورة (PDPC) على نهجها الطوعي والمتراخي لتنظيم الذكاء الاصطناعي ، فإنها تقر بأن الذكاء الاصطناعي سيواجه إشرافًا أكثر صرامة في المستقبل. يبدو أن PDPC أيضًا تدرك الطلب المتزايد من ** المستهلكين على مصداقية أنظمة الذكاء الاصطناعي والمطورين ، والحاجة إلى معايير دولية للذكاء الاصطناعي لقياس وتقييم الذكاء الاصطناعي مقابل المتطلبات التنظيمية. بالإضافة إلى ذلك ، تتزايد أيضًا متطلبات قابلية التشغيل البيني للأطر التنظيمية للذكاء الاصطناعي. ** في ضوء ذلك ، بدأت سنغافورة في التطور ، وتم دمج النتائج النهائية في إطار "AI Verify".
** ما هو "AI Verify" **
تم إصدار "AI Verify" بشكل مشترك من قبل Infocomm Media Development Authority (IMDA) ، وهي لجنة قانونية تابعة لوزارة الاتصالات والمعلومات في سنغافورة ، ولجنة حماية البيانات الشخصية (PDPC). وهو عبارة عن إطار اختبار حوكمة الذكاء الاصطناعي ومجموعة أدوات. ** باستخدام AI Verify ، يمكن للمؤسسات إجراء تقييم طوعي لأنظمة الذكاء الاصطناعي الخاصة بها باستخدام مزيج من الاختبارات الفنية وعمليات التفتيش القائمة على العمليات. بدوره ، يساعد النظام الشركات على تقديم دليل موضوعي وقابل للتحقق لأصحاب المصلحة على أن أنظمة الذكاء الاصطناعي الخاصة بهم يتم تنفيذها بطريقة مسؤولة وجديرة بالثقة. **
في ضوء التطوير المستمر لأساليب ومعايير ومؤشرات وأدوات اختبار الذكاء الاصطناعي ، فإن "التحقق من الذكاء الاصطناعي" (AI Verify) هو حاليًا في مرحلة "الحد الأدنى من المنتجات القابلة للتطبيق" (MVP). هذا له نتيجتان. أولاً ، يحتوي إصدار MVP على قيود فنية ويقتصر على نوع وحجم نماذج الذكاء الاصطناعي أو مجموعات البيانات التي يمكن اختبارها أو تحليلها. ثانيًا ، من المتوقع أن يتطور التحقق من الذكاء الاصطناعي مع نضوج قدرات اختبار الذكاء الاصطناعي.
الأهداف الأربعة لتطوير إصدار MVP "معتمد من منظمة العفو الدولية" هي:
(أ) أولاً ، تأمل IMDA أن تتمكن المنظمات من استخدام "التحقق من صحة الذكاء الاصطناعي" لتحديد معايير أداء أنظمة الذكاء الاصطناعي الخاصة بها وإظهار هذه المعايير التي تم التحقق من صحتها لأصحاب المصلحة مثل المستهلكين والموظفين ، وبالتالي مساعدة المنظمات على بناء الثقة.
(ب) ثانيًا ، نظرًا لتطورها مع الأخذ في الاعتبار مختلف الأطر التنظيمية والحوكمة للذكاء الاصطناعي ، فضلاً عن مبادئ الذكاء الاصطناعي المشتركة الجديرة بالثقة ، تهدف ** AI Validation إلى مساعدة المنظمات على إيجاد أطر ولوائح عالمية لحوكمة الذكاء الاصطناعي مشتركة **. ستواصل IMDA العمل مع المنظمين ومنظمات المعايير لتعيين إطار اختبار "التحقق من صحة الذكاء الاصطناعي" إلى إطار العمل المعمول به. تهدف الجهود إلى تمكين الشركات من تشغيل أو تقديم منتجات وخدمات الذكاء الاصطناعي في أسواق متعددة ، مع جعل سنغافورة مركزًا لإدارة الذكاء الاصطناعي والاختبار التنظيمي.
(ج) ثالثًا ، ** ستكون IMDA قادرة على تجميع ممارسات الصناعة والمعايير والمقاييس مع قيام المزيد من المؤسسات بتجربة "التحقق من صحة الذكاء الاصطناعي" واستخدام إطار الاختبار الخاص بها. ** بالنظر إلى أن سنغافورة تشارك في منصات حوكمة الذكاء الاصطناعي العالمية ، مثل الشراكة العالمية للذكاء الاصطناعي و ISO / IEC JTC1 / SC 42 ، مما يوفر وجهات نظر قيمة حول وضع المعايير الدولية لحوكمة الذكاء الاصطناعي ، يمكن أن تسهل هذه وضع معايير لحوكمة الذكاء الاصطناعي. في.
(د) رابعًا ، ** تريد IMDA "التحقق من الذكاء الاصطناعي" للمساعدة في إنشاء مجتمع محلي لاختبار الذكاء الاصطناعي في سنغافورة ** يتألف من مطوري الذكاء الاصطناعي ومالكي الأنظمة (الذين يسعون لاختبار أنظمة الذكاء الاصطناعي) ومقدمي التكنولوجيا (الذين يطورون تنفيذ حوكمة الذكاء الاصطناعي و حلول الاختبار) ومقدمي الخدمات الاستشارية (المتخصصين في دعم الاختبارات والاعتماد) والباحثين (الذين يطورون تقنيات الاختبار والمعايير والممارسات).
من المهم أيضًا توضيح العديد من المفاهيم الخاطئة المحتملة حول "التحقق من صحة الذكاء الاصطناعي". أولاً ، لا تحاول ** "AI Validation" تحديد المعايير الأخلاقية. ** لا تحاول الإشارة إلى تصنيف أنظمة الذكاء الاصطناعي ، ولكنها بدلاً من ذلك توفر إمكانية التحقق ، مما يسمح لمطوري ومالكي أنظمة الذكاء الاصطناعي بإثبات ادعاءاتهم حول أداء نظام الذكاء الاصطناعي الخاص بهم. ثانيًا ، لا يمكن للمنظمات الحكومية التي تستخدم "التحقق من الذكاء الاصطناعي" أن تضمن أن أنظمة الذكاء الاصطناعي التي تم اختبارها خالية من المخاطر أو التحيز ، أو أنها "آمنة" و "أخلاقية" تمامًا. ** ثالثًا ، تهدف "AI Validation" إلى منع المنظمات من الكشف عن غير قصد عن معلومات حساسة حول أنظمة الذكاء الاصطناعي الخاصة بها (مثل التعليمات البرمجية الأساسية أو بيانات التدريب). وقد تبنت إجراء وقائيًا رئيسيًا - "** التحقق من الذكاء الاصطناعي" والذي سيتم اختباره ذاتيًا بواسطة مطوري ومالكي أنظمة الذكاء الاصطناعي. هذا يسمح لبيانات المنظمة ونماذجها بالبقاء داخل بيئة تشغيل المنظمة. **
** كيف يعمل "AI Verification" **
يتكون "التحقق من صحة الذكاء الاصطناعي" من جزأين. الأول هو إطار الاختبار ، الذي يستشهد بـ 11 من مبادئ أخلاقيات الذكاء الاصطناعي والحوكمة المعترف بها دوليًا منظمة في خمس ركائز. والثاني هو مجموعة الأدوات التي تستخدمها المؤسسات لإجراء الاختبارات الفنية وعمليات فحص المستندات في إطار عمل الاختبار.
إطار اختبار "التحقق من الذكاء الاصطناعي"
الركائز الخمس والمبادئ الأحد عشر لإطار اختبار "التحقق من صحة الذكاء الاصطناعي" وتقييماتها المقصودة مذكورة أدناه:
*** (أ) التعريفات: *** يوفر إطار الاختبار تعريفات سهلة الفهم لكل مبدأ من مبادئ الذكاء الاصطناعي. على سبيل المثال ، يتم تعريف القابلية للتفسير على أنها "القدرة على تقييم العوامل التي تؤدي إلى قرار نظام الذكاء الاصطناعي وسلوكه العام ونتائجه وتأثيره".
*** (ب) المعايير القابلة للاختبار: *** لكل مبدأ ، يتم توفير مجموعة من المعايير القابلة للاختبار. تأخذ هذه المعايير في الاعتبار العوامل الفنية و / أو غير الفنية (مثل العمليات أو الإجراءات أو الهياكل التنظيمية) التي تساهم في تحقيق النتائج المرجوة من مبدأ الحوكمة هذا.
بأخذ القابلية للتفسير كمثال ، يتم إعطاء معيارين قابلين للاختبار. يمكن للمطورين تشغيل طرق شرح لمساعدة المستخدمين على فهم ما يدفع نماذج الذكاء الاصطناعي. يمكن للمطورين أيضًا إظهار تفضيلهم لتطوير نماذج الذكاء الاصطناعي التي تشرح قراراتهم ، أو تفعل ذلك بشكل افتراضي.
*** (ج) عملية الاختبار: *** لكل معيار قابل للاختبار ، يوفر "التحقق من صحة الذكاء الاصطناعي" عملية أو خطوات قابلة للتنفيذ يمكن إجراؤها ، والتي قد تكون كمية (مثل الاختبارات الإحصائية أو التقنية) ، ويمكن أيضًا أن تكون نوعية (على سبيل المثال الأدلة الوثائقية التي تم إنتاجها أثناء عمليات التفتيش).
بقدر ما يتعلق الأمر بقابلية التفسير ، قد يتضمن الاختبار الفني تحليلًا تجريبيًا وتحديد مساهمة الميزات في إخراج النموذج. سيوثق الاختبار القائم على العمليات الأساس المنطقي وتقييم المخاطر والمفاضلات الخاصة بنموذج الذكاء الاصطناعي.
*** (د) المقاييس: *** هذه هي المعايير الكمية أو النوعية المستخدمة لقياس أو تقديم دليل لكل معيار قابل للاختبار.
باستخدام مثال التفسير أعلاه ، تفحص المقاييس المستخدمة لتحديد مساهمات الميزات الميزات المساهمة لمخرجات النموذج التي تم الحصول عليها من الأدوات التقنية مثل SHAP و LIME. عند اختيار النموذج النهائي ، يمكن استخدام المقاييس المستندة إلى العملية لتوثيق التقييم ، مثل تقييم المخاطر وتمارين المقايضة.
*** (هـ) العتبات (إن وجدت): *** حيثما كان ذلك متاحًا ، سيوفر إطار عمل الاختبار القيم أو المعايير المقبولة للمقاييس المحددة. يمكن تحديد هذه القيم أو المعايير من قبل الهيئات التنظيمية أو الجمعيات الصناعية أو غيرها من المنظمات المعترف بها لوضع المعايير. لم يتم توفير عتبة لنموذج MVP الخاص بـ "التحقق من صحة الذكاء الاصطناعي" ، مع مراعاة التطور السريع لتقنيات الذكاء الاصطناعي وحالات استخدامها وطرق اختبار أنظمة الذكاء الاصطناعي. ومع ذلك ، مع نضوج مساحة حوكمة الذكاء الاصطناعي وزيادة استخدام "التحقق من الذكاء الاصطناعي" ، تعتزم IMDA تجميع وتطوير المقاييس والعتبات الخاصة بالسياق لإضافتها إلى إطار الاختبار.
مجموعة أدوات التحقق من الذكاء الاصطناعي
في حين أن مجموعة أدوات AI Verify لـ "التحقق من الذكاء الاصطناعي" متاحة حاليًا فقط للمؤسسات التي تنضم بنجاح إلى برنامج AI Verify MVP ، يصف IMDA مجموعة الأدوات بأنها أداة "وقفة واحدة" للمؤسسات لإجراء الاختبارات الفنية. على وجه التحديد ، تستخدم مجموعة الأدوات على نطاق واسع مكتبات اختبار مفتوحة المصدر. تتضمن هذه الأدوات SHAP (Shapley Additive ExPlanations) لقابلية الشرح ، ومجموعة أدوات المتانة العدائية من أجل المتانة ، و AIF360 والتعلم العادل من أجل الإنصاف.
يمكن لمستخدمي "AI Verification" تثبيت مجموعة الأدوات في بيئتهم الداخلية. سيقوم المستخدم بتنفيذ عملية الاختبار بتوجيه من واجهة المستخدم. على سبيل المثال ، تتضمن الأداة "شجرة الإنصاف الموجهة" للمستخدمين لتحديد مقاييس الإنصاف ذات الصلة بحالة الاستخدام الخاصة بهم. أخيرًا ، ستقوم AI Verify بإنشاء تقرير موجز لمساعدة مطوري ومالكي النظام على تفسير نتائج الاختبار. بالنسبة لعمليات التفتيش على العمليات ، يقدم التقرير قائمة تحقق بوجود أو عدم وجود أدلة وثائقية على النحو المحدد في إطار الاختبار. ثم يتم حزم نتائج الاختبار في حاويات Docker® للنشر.
ختاماً
عندما أصدرت IMDA AI Verify ، لم تتحقق موجة الاهتمام بالذكاء الاصطناعي التوليدي بعد. وفقًا للاتجاه الحالي ، نما الاهتمام بحوكمة أنظمة الذكاء الاصطناعي وقابلية اختبارها وموثوقيتها بشكل كبير. كما هو مذكور في هذا المقال ، فإن المبادرات المختلفة لـ "التحقق من الذكاء الاصطناعي" AI Verify تستعد للتو للاستجابة للوضع الحالي.
لقد أثبتت سنغافورة سابقًا قدرتها على المساهمة في الخطاب العالمي وقيادة الفكر حول حوكمة وتنظيم الذكاء الاصطناعي. نماذج الإطار التي تم إصدارها هي دليل على ذلك. إن مخاطر AI Verify عالية بالتأكيد ، ولكن الطلب العالمي على هذه المبادرة هو الآخر أيضًا. لكي تكون ناجحًا ، قد تحتاج إلى مزيد من التعرف عليها واستخدامها بشكل أكبر. ذلك يعتمد على عدة عوامل. ** أولاً ، تعد إمكانية الوصول إلى الأداة أمرًا بالغ الأهمية **: يتعين على المنظمات التي تتطلع إلى استخدام AI Verify أن تكون قادرة على استخدامها بتكلفة منخفضة أو بدون تكلفة. ** ثانيًا ، إن إقناع المنظمة بقيمتها أمر بالغ الأهمية. ** يتطلب هذا من IMDA إثبات أن "التحقق من الذكاء الاصطناعي" AI Verify سليم تقنيًا وإجرائيًا ، ويمكن استخدامه بشكل فعال لأنواع ومقاييس أكثر وأحدث من نماذج الذكاء الاصطناعي ومجموعات البيانات ، ولن يؤثر على الحساسية التجارية لـ نموذج الذكاء الاصطناعي أو مجموعة البيانات. ** ثالثًا ، وربما الأهم ، يجب أن تحافظ على قابلية التشغيل البيني مع الأطر التنظيمية الدولية. ** تحتاج IMDA إلى ضمان استمرار AI Verify في مساعدة المنظمات على التعامل والتفاعل مع الأطر التنظيمية العالمية الناشئة الرئيسية للذكاء الاصطناعي مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي ، وقانون الذكاء الاصطناعي والبيانات الكندي ، والإطار التنظيمي لمخاطر الذكاء الاصطناعي في الولايات المتحدة NIST ، بالإضافة إلى سنغافورة نموذج وطني خاص بها.