اللغز التنظيمي للذكاء الاصطناعي: كيف تتغلب على السحر بالسحر

المصدر الأصلي: China News Weekly

المؤلف: حالك

مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI‌

تسارعت عملية التشريع العالمي للذكاء الاصطناعي بشكل كبير ، واللوائح في جميع أنحاء العالم تلاحق تطور الذكاء الاصطناعي.

في 14 يونيو ، بالتوقيت المحلي ، صوت البرلمان الأوروبي لصالح 499 صوتًا مقابل 28 ضده وامتنع 93 عن التصويت ، وأقر مسودة التفويض التفاوضي لقانون الذكاء الاصطناعي (قانون الذكاء الاصطناعي). وفقًا للعملية التشريعية للاتحاد الأوروبي ، سيبدأ البرلمان الأوروبي والدول الأعضاء في الاتحاد الأوروبي والمفوضية الأوروبية "مفاوضات ثلاثية" لتحديد الشروط النهائية لمشروع القانون.

قال البرلمان الأوروبي إنه "مستعد للمفاوضات" لسن أول قانون للذكاء الاصطناعي على الإطلاق. أصدر الرئيس الأمريكي بايدن إشارة للتحكم في الذكاء الاصطناعي ، وقدم بعض أعضاء الكونجرس الأمريكي مقترحات لتشريع تنظيمي للذكاء الاصطناعي. كشف زعيم الديمقراطيين في مجلس الشيوخ الأمريكي تشاك شومر عن "إطار عمل ابتكارات أمان الذكاء الاصطناعي" ويخطط لسن مشروع قانون فيدرالي للذكاء الاصطناعي في غضون "أشهر قليلة".

كما تم وضع تشريعات بلدي ذات الصلة على جدول الأعمال ، وسيتم تقديم مشروع قانون الذكاء الاصطناعي إلى اللجنة الدائمة للمجلس الوطني لنواب الشعب الصيني لمناقشته خلال هذا العام. في 20 يونيو ، تم أيضًا إصدار الدفعة الأولى من قوائم ملفات خوارزمية خدمة التوليف المتعمقة المحلية ، مع 26 شركة بما في ذلك Baidu و Alibaba و Tencent ، وما مجموعه 41 خوارزمية في القائمة.

على الرغم من أن الصين والولايات المتحدة والاتحاد الأوروبي جميعهم يؤيدون المفاهيم التنظيمية للذكاء الاصطناعي مثل الدقة والأمان والشفافية ، إلا أن هناك العديد من الاختلافات في الأفكار والأساليب المحددة. إن إصدار قوانين شاملة للذكاء الاصطناعي هو وراء ناتج قواعده الخاصة ، ويريد فهم مزايا القواعد.

دعا بعض الخبراء المحليين إلى التطوير السريع للوائح القانونية الخاصة بالذكاء الاصطناعي ، ولكن لا يمكن تجاهل المشاكل العملية الحالية. بالإضافة إلى ذلك ، هناك اعتبار مهم آخر: التنظيم أو التطوير. هذا ليس خيارًا ثنائيًا ، ولكن في العالم الرقمي ، ليس من السهل تحقيق التوازن بين الاثنين.

** العدو السريع في الاتحاد الأوروبي ، وتسريع الصين والولايات المتحدة **

إذا سارت الأمور على ما يرام ، فمن المتوقع أن تتم الموافقة على مشروع قانون الذكاء الاصطناعي الذي أقره البرلمان الأوروبي بحلول نهاية هذا العام. من المرجح أن يهبط أول قانون تنظيمي شامل للذكاء الاصطناعي في العالم في الاتحاد الأوروبي.

"ستؤثر هذه المسودة على البلدان الأخرى التي تقف على الهامش لتسريع التشريعات. ولوقت طويل ، كان ما إذا كان ينبغي إدراج تكنولوجيا الذكاء الاصطناعي في نطاق الإشراف القانوني أمرًا مثيرًا للجدل دائمًا. بالنظر إليه الآن ، بعد" قانون الذكاء الاصطناعي "تم تنفيذه ، ومنصات الشبكة ذات الصلة ، مثل محتوى الأعمال ومنصات المستخدمين التي تركز على توليد المعلومات لا بد أن تتحمل التزامات تدقيق أعلى."

كجزء من الاستراتيجية الرقمية ، يأمل الاتحاد الأوروبي في تنظيم الذكاء الاصطناعي بشكل شامل من خلال "قانون الذكاء الاصطناعي" ، كما تم وضع التخطيط الاستراتيجي وراءه على الطاولة.

قال بنغ شياويان ، المدير التنفيذي لشركة بكين وانشانغ تيانكين (هانغتشو) القانونية ، لصحيفة تشاينا نيوز ويكلي إن "قانون الذكاء الاصطناعي" لا ينطبق فقط على الاتحاد الأوروبي ، ولكنه ينظم أيضًا مزودي النظام الموجودين خارج الاتحاد الأوروبي ولكن يتم استخدام بيانات مخرجات النظام الخاصة بهم في الاتحاد الأوروبي. أو المستخدم. تم توسيع نطاق الولاية القضائية وتطبيق القانون بشكل كبير ، ويمكن أيضًا إلقاء نظرة على أدلة استباق الاختصاص القضائي لعناصر البيانات.

كما كتب جين لينغ ، نائب مدير وباحث المعهد الأوروبي التابع للمعهد الصيني للدراسات الدولية ، في مقال بعنوان "أول تشريع للذكاء الاصطناعي في العالم: توازن صعب بين الابتكار والتنظيم" أن "قانون الذكاء الاصطناعي" يسلط الضوء على المعنويات الأخلاقية. مزايا حوكمة الذكاء الاصطناعي في الاتحاد الأوروبي ، هي محاولة أخرى من جانب الاتحاد الأوروبي لإفساح المجال كاملاً لقوته المعيارية وتعويض أوجه القصور الفنية من خلال مزايا القواعد. إنه يعكس النية الإستراتيجية للاتحاد الأوروبي للاستيلاء على الأرضية الأخلاقية العالية في مجال الذكاء الاصطناعي.

مضى عامان على إعداد قانون الذكاء الاصطناعي. في أبريل 2021 ، قدمت المفوضية الأوروبية اقتراحًا لتشريع الذكاء الاصطناعي بناءً على إطار "تصنيف المخاطر" ، والذي تمت مناقشته ومراجعته بعد عدة جولات. بعد شعبية الذكاء الاصطناعي التوليدي مثل ChatGPT ، أضاف المشرعون في الاتحاد الأوروبي "بقعًا" على وجه السرعة.

تغيير جديد هو أن أحدث مسودة "قانون الذكاء الاصطناعي" قد عززت متطلبات الشفافية للذكاء الاصطناعي للأغراض العامة. على سبيل المثال ، يجب أن يقوم الذكاء الاصطناعي التوليدي المستند إلى النموذج الأساسي بتسمية المحتوى الذي تم إنشاؤه ، ومساعدة المستخدمين على تمييز التزييف العميق عن المعلومات الحقيقية ، والتأكد من منع إنشاء المحتوى غير القانوني. يحتاج مقدمو النماذج الأساسية مثل OpenAI و Google أيضًا إلى الكشف عن تفاصيل بيانات التدريب إذا كانوا يستخدمون بيانات محمية بحقوق الطبع والنشر أثناء تدريب النموذج.

بالإضافة إلى ذلك ، تم تعديل تقنية القياسات الحيوية عن بُعد في الوقت الفعلي في الأماكن العامة من مستوى "المخاطر العالية" إلى المستوى "المحظور" ، أي أنه يجب عدم استخدام تقنية الذكاء الاصطناعي للتعرف على الوجوه في الأماكن العامة في دول الاتحاد الأوروبي.

كما تزيد المسودة الأخيرة من مقدار العقوبات على المخالفات ، حيث تم تغيير الحد الأقصى البالغ 30 مليون يورو أو 6٪ من حجم التداول العالمي للشركة المخالفة في السنة المالية السابقة إلى حد أقصى قدره 40 مليون يورو أو 7٪ من السنة المالية العالمية. رقم أعمال الشركة المخالفة في العام السابق. وهذا أعلى بكثير من اللائحة العامة لحماية البيانات ، وهي قانون أمان بيانات التوقيع في أوروبا ، والتي يمكن أن تفرض غرامات تصل إلى 4 في المائة من الإيرادات العالمية ، أو 20 مليون يورو.

وقال بنغ شياويان لصحيفة تشاينا نيوز ويكلي إن الزيادة في مقدار العقوبة تعكس تصميم وقوة سلطات الاتحاد الأوروبي للإشراف على الذكاء الاصطناعي. بالنسبة لعمالقة التكنولوجيا مثل غوغل ومايكروسوفت وآبل الذين يبلغ دخلهم مئات المليارات من الدولارات ، إذا انتهكوا أحكام "قانون الذكاء الاصطناعي" ، فقد تصل الغرامات إلى عشرات المليارات من الدولارات.

في الولايات المتحدة على الجانب الآخر من المحيط ، بينما كانت واشنطن منشغلة بالاستجابة لدعوة ماسك والآخرين من أجل تحكم أقوى في الذكاء الاصطناعي ، في 20 يونيو ، التقى الرئيس الأمريكي بايدن مع مجموعة من خبراء الذكاء الاصطناعي والباحثين في سان فرانسيسكو لمناقشة كيفية إدارة مخاطر هذه التكنولوجيا الجديدة. قال بايدن في ذلك الوقت إنه أثناء استغلال الإمكانات الهائلة للذكاء الاصطناعي ، من الضروري إدارة المخاطر التي يشكلها على المجتمع والاقتصاد والأمن القومي.

خلفية إدارة المخاطر والرقابة التي أصبحت موضوعًا ساخنًا في الذكاء الاصطناعي هي أن الولايات المتحدة لم تعتمد تدابير صارمة لمكافحة الاحتكار ضد تكنولوجيا الذكاء الاصطناعي ، ولم تقدم بعد قوانين تنظيمية شاملة للذكاء الاصطناعي على المستوى الفيدرالي.

كانت أول غزو رسمي للحكومة الفيدرالية الأمريكية في مجال تنظيم الذكاء الاصطناعي في يناير 2020 ، عندما أصدرت "المبادئ التوجيهية التنظيمية لتطبيق الذكاء الاصطناعي" لتقديم إرشادات بشأن التدابير التنظيمية وغير التنظيمية لقضايا الذكاء الاصطناعي الناشئة. يُعد "قانون مبادرة الذكاء الاصطناعي الوطنية 2020" الذي تم تقديمه في عام 2021 مخططًا للسياسة في مجال الذكاء الاصطناعي ، ولا تزال هناك مسافة معينة من حوكمة الذكاء الاصطناعي والإشراف القوي. بعد مرور عام ، قدم مخطط قانون حقوق الذكاء الاصطناعي ("مخطط") الذي أصدره البيت الأبيض في أكتوبر 2022 إطارًا داعمًا لحوكمة الذكاء الاصطناعي ، ولكنه ليس سياسة رسمية للولايات المتحدة وليست ملزمة.

تم إحراز تقدم ضئيل في تشريعات الذكاء الاصطناعي في الولايات المتحدة ، مما تسبب في استياء الكثيرين. انتقد العديد من الناس أن الولايات المتحدة قد تخلفت عن الاتحاد الأوروبي والصين في صياغة قواعد الاقتصاد الرقمي. ومع ذلك ، ولعله يرى أن "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي على وشك تجاوز "العقبة" الأخيرة ، فقد أظهر الكونجرس الأمريكي مؤخرًا بوادر تشريعات متسارعة.

في يوم مؤتمر بايدن للذكاء الاصطناعي ، قدم النواب الديمقراطيون ، تيد دبليو ليو وآنا إيشو ، جنبًا إلى جنب مع النائب الجمهوري كين باك ، اقتراح قانون المجلس الوطني للذكاء الاصطناعي ". وفي الوقت نفسه ، سيقدم السناتور الديمقراطي بريان شاتز تشريعات مصاحبة في مجلس الشيوخ تركز على تنظيم الذكاء الاصطناعي.

وفقًا لمحتوى مشروع القانون ، ستتألف لجنة الذكاء الاصطناعي من 20 خبيرًا من الحكومة والصناعة والمجتمع المدني وعلوم الكمبيوتر. وسيراجعون الأساليب التنظيمية الحالية للذكاء الاصطناعي في الولايات المتحدة ويطورون بشكل مشترك إطارًا تنظيميًا شاملاً .

وقال تيد ليو في بيان: "الذكاء الاصطناعي يقوم بأشياء مذهلة في المجتمع. إذا تُرك دون رقابة وتنظيم ، فإنه يمكن أن يتسبب في ضرر كبير. يجب ألا يقف الكونجرس مكتوفي الأيدي".

بعد ذلك بيوم ، في 21 يونيو ، ألقى الزعيم الديمقراطي في مجلس الشيوخ تشاك شومر كلمة في مركز الدراسات الاستراتيجية والدولية (CSIS) ، وكشف عن "إطار عمل الابتكار الأمني للذكاء الاصطناعي" ("إطار عمل الذكاء الاصطناعي") - - تشجيع الابتكار مع التقدم السلامة والمساءلة والأساس والتفسير ، مرددًا الخطة الكبرى بما في ذلك المخطط. واقترح إطار العمل في أبريل ، لكنه قدم تفاصيل قليلة في ذلك الوقت.

وراء إطار عمل الذكاء الاصطناعي ، توجد استراتيجية تشريعية وضعها تشاك شومر. وفي هذا الخطاب ، قال إن مشروع قانون فيدرالي بشأن الذكاء الاصطناعي سيصدر في غضون "أشهر قليلة". ومع ذلك ، فإن العملية التشريعية الأمريكية مرهقة ، فهي لا تحتاج فقط إلى التصويت من قبل مجلس الشيوخ ومجلس النواب ، ولكنها تحتاج أيضًا إلى المرور بجولات متعددة من جلسات الاستماع ، والتي تستغرق وقتًا طويلاً.

من أجل تسريع التقدم ، كجزء من إطار عمل الذكاء الاصطناعي ، يخطط تشاك شومر لعقد سلسلة من منتديات رؤى الذكاء الاصطناعي اعتبارًا من سبتمبر من هذا العام ، والتي تغطي 10 موضوعات بما في ذلك الابتكار والملكية الفكرية والأمن القومي والخصوصية. وقال للعالم الخارجي إن منتدى إنسايت لن يحل محل جلسات الاستماع في الكونغرس بشأن الذكاء الاصطناعي ، ولكنه سيعقد بالتوازي حتى يتمكن المجلس التشريعي من تقديم سياسة بشأن التكنولوجيا في شهور بدلاً من سنوات. وتوقع أن الأمر قد يستغرق حتى الخريف "لبدء رؤية بعض الأشياء الملموسة" في تشريعات الذكاء الاصطناعي الأمريكية.

على الرغم من أن التقدم لم يواكب الاتحاد الأوروبي ، فقد تم وضع التشريعات ذات الصلة في بلدي على جدول الأعمال. في بداية شهر يونيو ، أصدر المكتب العام لمجلس الدولة "خطة العمل التشريعي لعام 2023 لمجلس الدولة" ، والتي ذكرت أنه تم إعداد مشروع قانون الذكاء الاصطناعي لتقديمه إلى اللجنة الدائمة للمجلس الوطني لنواب الشعب الصيني لمناقشته. .

وفقا لأحكام "القانون التشريعي" لبلدي ، بعد أن يقترح مجلس الدولة مشروع قانون على اللجنة الدائمة للمجلس الوطني لنواب الشعب ، يقرر اجتماع الرئيس إدراجه في جدول أعمال اجتماع اللجنة الدائمة ، أو تقديمه أولاً إلى اللجنة الخاصة ذات الصلة للتداول وتقديم تقرير ، ثم تقرر إدراجه في اللجنة الدائمة. يحتاج جدول أعمال الاجتماع عمومًا إلى المرور بثلاث مداولات قبل التصويت عليه.

منذ بداية هذا العام ، قامت العديد من الدول بتسريع تشريعات الذكاء الاصطناعي ، ويعتقد بنغ شياويان أن هذا هو نتيجة المنافسة والتطور التكنولوجي.

"أصبحت عناصر البيانات على نحو متزايد عناصر استراتيجية وطنية ، وتأمل البلدان أيضًا في إنشاء ولاية قضائية من خلال التشريعات والاستيلاء على الحق في التحدث في الذكاء الاصطناعي. وفي الوقت نفسه ، أتاح التحديث المتكرر لتقنيات الذكاء الاصطناعي مثل ChatGPT للمجتمع أن يرى آمال جديدة لتطوير ذكاء اصطناعي قوي. جديد سوف يؤدي تطوير التكنولوجيا لا محالة إلى مشاكل اجتماعية جديدة وتناقضات اجتماعية ، الأمر الذي يتطلب تدخلًا تنظيميًا وتعديلًا ، وقد شجع تطوير التكنولوجيا على تحديث التشريعات إلى حد ما ". قال شياويان.

** الاختلاف يفوق بكثير التقارب **

تعد الصين والولايات المتحدة والاتحاد الأوروبي القوى الدافعة الرئيسية لتطوير الذكاء الاصطناعي العالمي ، ولكن هناك أيضًا بعض الاختلافات في تشريعات الذكاء الاصطناعي بين الثلاثة.

يقسم "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي مخاطر تطبيقات الذكاء الاصطناعي إلى أربعة مستويات من منظور الاستخدام والوظيفة. وبغض النظر عن عدد جولات التنقيحات التي مرت بها المسودة ، فإن "تصنيف المخاطر" لا يزال هو المفهوم الأساسي للاتحاد الأوروبي حوكمة الذكاء الاصطناعي.

ينبغي أن يشكل الجزء العلوي من الهرم خطرا "غير مقبول" على الأمن البشري. على سبيل المثال ، سيتم حظر أنظمة التسجيل التي تصنف الأشخاص بناءً على سلوكهم الاجتماعي أو خصائصهم الشخصية وما إلى ذلك تمامًا.

في المسودة الأخيرة ، وسع البرلمان الأوروبي قائمة "المخاطر غير المقبولة" لمنع أنظمة الذكاء الاصطناعي المتطفلة والتمييزية. ستة أنواع من أنظمة الذكاء الاصطناعي ، مثل التعرف على القياسات الحيوية في الأماكن العامة ، والتعرف على المشاعر ، والشرطة التنبؤية (بناءً على التنميط ، أو الموقع ، أو السلوك الإجرامي السابق) ، والاستيلاء العشوائي على صور الوجه من الإنترنت ، محظورة تمامًا.

الفئة الثانية هي أنظمة الذكاء الاصطناعي التي تؤثر سلبًا على الأمن البشري أو الحقوق الأساسية وتعتبر "عالية الخطورة". على سبيل المثال ، أنظمة الذكاء الاصطناعي المستخدمة في منتجات مثل الطيران والسيارات والمعدات الطبية ، بالإضافة إلى ثمانية مجالات محددة يجب تسجيلها في قاعدة بيانات الاتحاد الأوروبي ، والتي تغطي البنية التحتية الحيوية والتعليم والتدريب وإنفاذ القانون وغير ذلك. وفقًا للوائح منظمة العفو الدولية وتقييم المطابقة المسبق ، سيتم السماح لأنظمة الذكاء الاصطناعي "عالية المخاطر" بدخول سوق الاتحاد الأوروبي وفقًا لمجموعة من المتطلبات والالتزامات.

بالإضافة إلى ذلك ، سيتم وضع أنظمة الذكاء الاصطناعي التي تؤثر على الناخبين ونتائج الانتخابات ، وكذلك أنظمة التوصية التي تستخدمها منصات التواصل الاجتماعي مع أكثر من 45 مليون مستخدم ، مثل Facebook و Twitter و Instagram ، على قائمة المخاطر العالية ضمن قانون الخدمات الرقمية للاتحاد الأوروبي.

في أسفل الهرم توجد أنظمة ذكاء اصطناعي ذات مخاطر محدودة أو قليلة أو معدومة. الأول لديه التزامات شفافية محددة ويحتاج إلى إبلاغ المستخدمين بأنهم يتفاعلون مع أنظمة الذكاء الاصطناعي ، في حين أن الأخير ليس له لوائح إلزامية وغير منظم بشكل أساسي ، مثل التطبيقات مثل مرشحات البريد العشوائي.

نظرًا لأحكامه التنظيمية الصارمة ، يعتبر العديد من المطلعين في الصناعة أن "قانون الذكاء الاصطناعي" يتمتع بالعديد من "الأسنان" الحادة. ومع ذلك ، يحاول مشروع القانون أيضًا تحقيق توازن بين التنظيم القوي والابتكار.

على سبيل المثال ، تتطلب المسودة الأخيرة من الدول الأعضاء إنشاء "صندوق حماية تنظيمي" واحد على الأقل يمكن استخدامه مجانًا من قبل الشركات الصغيرة والمتوسطة الحجم والشركات الناشئة ، في سيناريو خاضع للإشراف وآمن ويمكن التحكم فيه ، لاختبار أنظمة الاستخبارات قبل استخدامها ، حتى يتم استيفاء متطلبات الامتثال. يعتقد الاتحاد الأوروبي عمومًا أن الاقتراح لن يسمح للسلطات بالاهتمام بالتغييرات التكنولوجية في الوقت الفعلي فحسب ، بل سيساعد أيضًا شركات الذكاء الاصطناعي على مواصلة الابتكار مع تقليل الضغط التنظيمي.

قال جين لينغ في المقالة المذكورة أعلاه إنه من ناحية ، تتطلب طريقة حوكمة المنبع في الاتحاد الأوروبي من الشركات تحمل المزيد من التكاليف الأولية ، ومن ناحية أخرى ، يؤثر عدم اليقين بشأن تقييم المخاطر أيضًا على حماس الاستثمار للشركات. لذلك ، بينما أكدت المفوضية مرارًا وتكرارًا أن تشريعات الذكاء الاصطناعي ستدعم الابتكار والنمو في الاقتصاد الرقمي الأوروبي ، لا يبدو أن التحليل الاقتصادي الواقعي يدعم هذا الاستنتاج. يعكس مشروع القانون الصراع المتأصل في الاتحاد الأوروبي بين تعزيز الابتكار وحماية الحقوق الذي يصعب تحقيق التوازن فيه بشكل فعال.

مثل الاتحاد الأوروبي والصين ، تدعم الولايات المتحدة نهجًا تنظيميًا قائمًا على المخاطر للذكاء الاصطناعي ، ويدعو إلى الدقة والأمن والشفافية. ومع ذلك ، من وجهة نظر Zhao Jingwu ، فإن التفكير التنظيمي الأمريكي يركز بشكل أكبر على استخدام الذكاء الاصطناعي لتعزيز الابتكار والتطوير في صناعة الذكاء الاصطناعي ، وفي النهاية للحفاظ على القيادة والقدرة التنافسية للولايات المتحدة.

"تختلف عن المفهوم التنظيمي" للوقاية من المخاطر والأمن التقني "الذي تتبناه الصين والاتحاد الأوروبي ، تركز الولايات المتحدة على التنمية التجارية كأولوية. يركز كل من الصين والاتحاد الأوروبي على أمن تطبيق تكنولوجيا الذكاء الاصطناعي لمنع وقال تشاو جينغوو إن إساءة استخدام تكنولوجيا الذكاء الاصطناعي من التعدي على حقوق الأفراد ، في حين أن الولايات المتحدة تقوم على التنمية الصناعية هو محور الإشراف ".

لقد وجدت الدراسات أن تشريعات الكونجرس الأمريكي تركز بشكل أساسي على تشجيع الحكومة وتوجيهها لاستخدام الذكاء الاصطناعي. على سبيل المثال ، قدم مجلس الشيوخ الأمريكي قانون ابتكار الذكاء الاصطناعي في عام 2021 ، والذي يتطلب من وزارة الدفاع الأمريكية تنفيذ برنامج تجريبي لضمان وصولها إلى أفضل قدرات برامج الذكاء الاصطناعي والتعلم الآلي.

في الخطاب المذكور أعلاه ، اعتبر تشاك شومر الابتكار على أنه نجم الشمال ، وإطار عمل الذكاء الاصطناعي الخاص به هو إطلاق العنان للإمكانات العظيمة للذكاء الاصطناعي ودعم الابتكار الذي تقوده الولايات المتحدة في تكنولوجيا الذكاء الاصطناعي. في بداية "المبادئ التوجيهية للإشراف على تطبيقات الذكاء الاصطناعي" ، من الواضح أنه ينبغي الاستمرار في تعزيز تقدم التكنولوجيا والابتكار. الهدف النهائي لقانون مبادرة الذكاء الاصطناعي الوطنية لعام 2020 هو أيضًا ضمان احتفاظ الولايات المتحدة بمكانة رائدة في مجال تكنولوجيا الذكاء الاصطناعي العالمي من خلال زيادة الاستثمار البحثي وإنشاء نظام للقوى العاملة.

قال بنغ شياويان إنه من منظور توجيه تصميم المواصفات ، فإن تطوير الذكاء الاصطناعي في الولايات المتحدة لا يزال في حالة إشراف ضعيف على المستويين التشريعي والمؤسسي ، ويشجع المجتمع بنشاط الابتكار والتوسع في تكنولوجيا الذكاء الاصطناعي باستخدام موقف منفتح.

بالمقارنة مع الاتحاد الأوروبي ، الذي يتمتع بسلطات تحقيق أوضح وتغطية تنظيمية شاملة ، اعتمدت الولايات المتحدة نهجًا لامركزيًا لتنظيم الذكاء الاصطناعي ، مع قيام بعض الدول والمؤسسات بتطوير حوكمة الذكاء الاصطناعي بدرجة أقل. ونتيجة لذلك ، فإن المبادرات التنظيمية الوطنية للذكاء الاصطناعي واسعة للغاية وقائمة على المبادئ.

على سبيل المثال ، يعد "المخطط" حدثًا بارزًا في سياسة حوكمة الذكاء الاصطناعي في الولايات المتحدة. فقد صاغ خمسة مبادئ أساسية بما في ذلك الأنظمة الآمنة والفعالة ، ومنع التمييز الخوارزمي ، وحماية خصوصية البيانات ، والإخطار والتفسير ، والمشاركة البشرية في اتخاذ القرار - صنع: لا توجد أحكام أكثر تفصيلا.

يعتقد Peng Xiaoyan أن "المخطط" لا يصوغ تدابير تنفيذ محددة ، ولكنه يبني إطارًا أساسيًا لتطوير الذكاء الاصطناعي بطريقة مبدئية ، بهدف توجيه تصميم واستخدام ونشر أنظمة الذكاء الاصطناعي.

"معايير مثل هذه ليست إلزامية. هذا لأن الولايات المتحدة تنظر في دعم تطوير صناعة الذكاء الاصطناعي. في الوقت الحالي ، لا يزال الذكاء الاصطناعي في مرحلة ناشئة من التطور ، والإشراف عالي الكثافة لا بد أن يحد من التنمية الصناعية و الابتكار إلى حد ما. لذلك ، تحافظ الولايات المتحدة على موقف متواضع نسبيًا في التشريع ".

"بدون قوانين تمنح الوكالات سلطات جديدة ، يمكنها فقط تنظيم استخدام الذكاء الاصطناعي وفقًا للسلطات التي تمتلكها بالفعل. من ناحية أخرى ، تظل المبادئ الأخلاقية المتعلقة بالذكاء الاصطناعي أقل تنظيمًا ، ويمكن للوكالات أن تقرر كيفية تنظيمها بنفسها وفقًا لمحلل كارنيجي هادرين بوجيت ، فإن هذا يجعل الوكالات الفيدرالية التي يقودها البيت الأبيض مقيدة ومجانية.

إن مفهوم حوكمة الذكاء الاصطناعي الذي يهيمن عليه الاستخدام والابتكار لا يكون صعبًا للغاية على "قبضة" الولايات المتحدة. أشار أليكس إنجلر ، الباحث في معهد بروكينغز ، وهو مركز أبحاث أمريكي معروف ، إلى أن الاتحاد الأوروبي والولايات المتحدة يتبنون مناهج تنظيمية مختلفة للذكاء الاصطناعي لها آثار اجتماعية مثل التعليم والتمويل والتوظيف.

فيما يتعلق بتطبيقات الذكاء الاصطناعي المحددة ، فإن "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي لديه متطلبات الشفافية لروبوتات الدردشة ، بينما لا توجد لوائح فيدرالية في الولايات المتحدة. يعتبر التعرف على الوجه "خطرًا غير مقبول" من قبل الاتحاد الأوروبي ، وتوفر الولايات المتحدة المعلومات العامة من خلال برنامج اختبار بائع التعرف على الوجه التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST) ، ولكنها لا تفرض قواعد.

"لا يغطي النطاق التنظيمي للاتحاد الأوروبي نطاقًا أوسع من التطبيقات فحسب ، بل يحدد المزيد من القواعد لتطبيقات الذكاء الاصطناعي هذه. في حين أن نهج الولايات المتحدة يقتصر بشكل أكبر على تكييف المنظمين المؤسسيين الحاليين لمحاولة التحكم في الذكاء الاصطناعي ، فإن نطاق الذكاء الاصطناعي هو أيضًا كثير أكثر محدودية. ”يقول أليكس إنجلر إن هناك اختلافات أكثر بكثير من أوجه التقارب في إدارة مخاطر الذكاء الاصطناعي ، على الرغم من المبادئ المتطابقة على نطاق واسع.

لخص Zhao Jingwu النماذج التنظيمية للذكاء الاصطناعي في الصين والاتحاد الأوروبي والولايات المتحدة ، ووجد أن الصين مقصورة على سيناريوهات تطبيق تكنولوجيا الذكاء الاصطناعي ، وقد صاغت قواعد تنظيمية خاصة لسيناريوهات التطبيق مثل تقنية التعرف على الوجوه والتوليف العميق والتوصية الآلية. يسترشد الاتحاد الأوروبي بمستوى المخاطر ، اعتمادًا على ما إذا كان مستوى مخاطر تطبيقات الذكاء الاصطناعي هو مستوى مقبول. تحكم الولايات المتحدة في شرعية تطبيق تكنولوجيا الذكاء الاصطناعي في إطار النظام القانوني التقليدي الحالي.

بالإضافة إلى ذلك ، ركزت الولايات المتحدة أيضًا مزيدًا من الاهتمام على أبحاث الذكاء الاصطناعي واستثمرت المزيد من الأموال فيها. في أوائل شهر مايو فقط ، أعلن البيت الأبيض عن استثمار حوالي 140 مليون دولار أمريكي لإنشاء سبعة معاهد وطنية جديدة لبحوث الذكاء الاصطناعي. يعتقد بعض الباحثين أن هذه الخطوة من قبل الولايات المتحدة تأمل في فهم الذكاء الاصطناعي بشكل أفضل ، وبالتالي تخفيف المخاوف الناشئة عن العملية التنظيمية.

قال بنغ شياويان إن بلدي قد اتخذ تدابير لتشجيع تطوير تكنولوجيا الذكاء الاصطناعي مع تنظيم إدارة المجالات ذات الصلة بطريقة محدودة ، وتوجيه تطوير تكنولوجيا الذكاء الاصطناعي بسياسات متناسقة ومتطلبات إدارية.

** تشريعات بلادي تواجه العديد من المشاكل العملية **

يعمل الاتحاد الأوروبي على تسريع تنفيذ أول مشروع قانون تنظيمي للذكاء الاصطناعي في العالم. وصرح تشاو جينغو لصحيفة تشاينا نيوز ويكلي أن إجراءات تنظيم الذكاء الاصطناعي في "نظام مستوى المخاطر" في الاتحاد الأوروبي ، وهو المفهوم التنظيمي "للنموذج العام" المقترح في "قانون الذكاء الاصطناعي" ، واللوائح الخاصة بـ ChatGPT. تعد التزامات الكشف والتزامات الامتثال لحقوق الطبع والنشر للبيانات لتطبيقات الذكاء الاصطناعي التوليفية ذات قيمة مرجعية لتشريعات الذكاء الاصطناعي في بلدي.

في الواقع ، لقد بدأت بالفعل تشريعات بلدي بشأن الذكاء الاصطناعي. في عام 2017 ، أصدر مجلس الدولة "خطة تطوير الذكاء الاصطناعي للجيل الجديد" ، والتي اقترحت أنه بحلول عام 2025 ، يجب أن تكون قوانين ولوائح الذكاء الاصطناعي ، والمعايير الأخلاقية ، وأنظمة السياسات أنشئت في البداية ، وينبغي تشكيل تقييمات وسياسات أمن الذكاء الاصطناعي.قدرة التحكم.

محليًا ، في عام 2022 ، أصدرت مدينة Shenzhen "لوائح تعزيز صناعة الذكاء الاصطناعي في منطقة Shenzhen الاقتصادية الخاصة" ، والتي تعتبر أول تشريع خاص في بلدي لصناعة الذكاء الاصطناعي. وذكرت "اللوائح" أنه يجب تحسين آلية الإشراف في مجال الذكاء الاصطناعي لمنع المخاطر الأمنية الأخلاقية المحتملة ومخاطر الامتثال التي قد تنشأ في منتجات وخدمات الذكاء الاصطناعي.

في الوقت الحالي ، يتم الترويج بشكل مشترك لتنظيم الذكاء الاصطناعي في بلدي بشكل مشترك من قبل العديد من الوزارات واللجان الرئيسية ، والتي تعزز تنظيم وتطوير الذكاء الاصطناعي في مختلف المجالات. الوثائق المعيارية مثل "اللوائح الخاصة بإدارة توصيات الخوارزمية لخدمات معلومات الإنترنت" ، و "اللوائح الخاصة بإدارة التوليف العميق لخدمات معلومات الإنترنت" ، و "الإجراءات الإدارية لخدمات الذكاء الاصطناعي التوليفية (مسودة للتعليق)" صدر.

"من منظور معايير الإدارة التاريخية ، فإن لوائح بلدي المتعلقة بمجال الذكاء الاصطناعي تتخذ تدابير للتمييز بين مجالات الأعمال والتوجهات التقنية ، وتميل معايير الإدارة إلى اللامركزية. وعندما يتم تقديم المعايير ، فإنها غالبًا ما تتميز بخصائص أنها تأتي في الوقت المناسب قال بنغ شياويان: "بعد ظهور تقنيات محددة ، ضع لوائح تنظيمية خاصة. يتم إصدار اللوائح من قبل الدائرة الإدارية ، مع التركيز على الإشراف ، ولم يتم ترقيتها إلى القوانين على مستوى التنظيم".

تجدر الإشارة إلى أنه في 20 يونيو ، تم إصدار الدفعة الأولى من قوائم حفظ خوارزمية خدمة التوليف المتعمقة المحلية.كانت 26 شركة بما في ذلك Baidu و Alibaba و Tencent و ByteDance و Meituan ، وما مجموعه 41 خوارزمية في القائمة.

مع اشتداد حرارة تشريعات الذكاء الاصطناعي ، بدأ الخبراء المحليون في الدعوة إلى التطوير السريع للوائح القانونية للذكاء الاصطناعي. ومع ذلك ، من وجهة نظر Zhao Jingwu ، فإن التشريع الخاص لبلدي بشأن الذكاء الاصطناعي ممكن ، لكنه يواجه أيضًا العديد من المشكلات العملية.

"الأول هو مشكلة اتصال النظام بين الوثائق التشريعية. فالعلاقة القابلة للتطبيق بين التشريعات الخاصة بالذكاء الاصطناعي والوثائق المعيارية الأخرى لم يتم حلها بعد ، ولا سيما المحتوى المتداخل للتشريعات الخاصة والتشريعات الحالية التي تحتاج إلى حل عاجل. والثاني هو تقنية الذكاء الاصطناعي ، حيث تتسارع سرعة التحديث والتكرار ، ويصعب ضمان التطوير المتزامن للقانون والتكنولوجيا ؛ ثالثًا ، تفتقر القواعد التنظيمية للذكاء الاصطناعي إلى النزاهة ، والقواعد التنظيمية للعناصر الأساسية الثلاثة من البيانات والخوارزميات وقوة الحوسبة لا تزال في المرحلة الاستكشافية ؛ رابعًا ، يعتبر تشريع الذكاء الاصطناعي أكثر إثارة للجدل سواء كان التركيز على إدارة المخاطر الأمنية أو على التنمية الصناعية ".

سواء كان الأمر يتعلق بـ "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي ، أو اللوائح والمبادرات والخطط الخاصة بالذكاء الاصطناعي في الصين والولايات المتحدة ودول أخرى ، فإنهم يحاولون بناء إطار تنظيمي شامل لا يضمن السلامة فحسب ، بل ينشئ أيضًا ظروف أفضل للذكاء الاصطناعي.

بناءً على مبدأ العالمية هذا ، أخبر بنغ شياويان صحيفة China News Weekly أن إنشاء قوانين الذكاء الاصطناعي في بلدي يجب أن يعتمد أولاً على التشجيع الفعال للتطوير والابتكار ، بحيث يمكن تنظيم الذكاء الاصطناعي وتطويره في مساحة مفتوحة نسبيًا. خط أحمر.

"بالإضافة إلى ذلك ، يجب حل المشكلات القانونية في مجال الذكاء الاصطناعي التي يهتم بها الجميع الآن ، بما في ذلك على سبيل المثال لا الحصر حظر المحتوى غير القانوني في الذكاء الاصطناعي ، وحماية أمن بيانات الذكاء الاصطناعي ، وحماية الذكاء الاصطناعي الأخلاق والأمن ، ومنع التعدي على الملكية الفكرية ، وما إلى ذلك "قال بنغ شياويان.

يعتقد Zhao Jingwu أنه يجب على بلدي وضع قانون ذكاء اصطناعي موجه نحو حماية التنمية الصناعية.

"إلى حد ما ، يمكن للتشريعات الحالية أن تلبي بشكل أساسي احتياجات الإشراف على تطبيقات تكنولوجيا الذكاء الاصطناعي. إن منع المخاطر التكنولوجية وضمان الأمن التكنولوجي هي مجرد عملية حوكمة ، ولا يزال هدفها النهائي بحاجة إلى العودة إلى مستوى تطوير الذكاء الاصطناعي الصناعة. بعد كل شيء ، قوانين الذكاء الاصطناعي لا تقيد تنمية الصناعات ، ولكن لتوجيه وضمان التنمية السليمة للصناعات ذات الصلة. "قال تشاو جينغو.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت