نحو ذكاء اصطناعي مسؤول: اتجاهات وآفاق حوكمة الذكاء الاصطناعي في الصين

المؤلف: Cao Jianfeng ، باحث أول ، معهد أبحاث Tencent

مصدر الصورة: تم إنشاؤه بواسطة Unbounded AI

القرن الحادي والعشرون هو عصر التطور المتعمق للرقمنة والشبكات والذكاء ، وقد اجتذب الذكاء الاصطناعي (AI) ، باعتباره تقنية رئيسية ، اهتمامًا كبيرًا من جميع مناحي الحياة. تعتبر السنوات العشر الماضية "العقد الذهبي" للذكاء الاصطناعي الذي يمثله التعلم العميق. ** [1] من خلال التعلم العميق ، أدت تقنية الشبكة العصبية (الشبكات العصبية) في مجال الذكاء الاصطناعي إلى التعافي ، مما أدى إلى "الربيع الثالث" من التطور السريع في مجال الذكاء الاصطناعي. قبل ذلك ، منذ اقتراح مفهوم "الذكاء الاصطناعي" في مؤتمر دارتموث عام 1956 ، شهد مجال الذكاء الاصطناعي تقلبتين صعودًا وهبوطًا. على وجه التحديد ، أدى التقارب وتطوير العديد من العناصر التقنية مثل خوارزميات التعلم الآلي ، والبيانات الضخمة ، والحوسبة السحابية ، والرقائق الخاصة بالذكاء الاصطناعي ، وأطر البرمجيات مفتوحة المصدر إلى تعزيز التقدم الهائل في مجال الذكاء الاصطناعي. ونتيجة لذلك ، أصبح الذكاء الاصطناعي سريعًا تقنية جديدة للأغراض العامة وقاعدة ذكية للاقتصاد والمجتمع ، وتستخدم على نطاق واسع في مختلف مجالات الاقتصاد والمجتمع ، مما يوفر منتجات وخدمات جديدة. من توصيات الخوارزمية ، والمحتوى الذي يتم إنشاؤه بواسطة AI (AIGC) ، وروبوتات الدردشة في مجال الإنترنت للمستهلك ، إلى المركبات غير المأهولة في المجال الصناعي ، والبرمجيات الطبية للذكاء الاصطناعي ، وفحص جودة الذكاء الاصطناعي ، والعديد من التطبيقات المريحة في الخدمات العامة الاجتماعية ، للذكاء الاصطناعي تأثير كبير على الاقتصاد: يتواصل إثبات القيمة الضخمة للتنمية الاجتماعية عالية الجودة. [2] باختصار ، باعتبارها تقنية إستراتيجية تقود جولة جديدة من الثورة التكنولوجية والتحول الصناعي (الثورة الصناعية الرابعة) ، من المتوقع أن يعيد الذكاء الاصطناعي تشكيل الاقتصاد البشري والمجتمع ، وسيكون له تأثير كبير على الإنتاجية ، وتوظيف العمالة ، وتوزيع الدخل ، العولمة ، إلخ.

** في هذا السياق ، أصبح الذكاء الاصطناعي محط تركيز جديد للمنافسة الدولية ، وقد أدخلت البلدان في جميع أنحاء العالم استراتيجيات تطوير الذكاء الاصطناعي وسياسات محددة لاغتنام المرتفعات الاستراتيجية وفرص التطوير. ** في يوليو 2017 ، أصدرت الصين "خطة تطوير الجيل الجديد للذكاء الاصطناعي" ، وتم الارتقاء بالذكاء الاصطناعي إلى استراتيجية وطنية ؛ في أبريل 2018 ، أصدر الاتحاد الأوروبي استراتيجية ذكاء اصطناعي تهدف إلى جعل الاتحاد الأوروبي مركزًا عالميًا للذكاء الاصطناعي ضمان أن يكون الذكاء الاصطناعي موجهًا للأشخاص وذوي مصداقية ؛ في فبراير 2019 ، تم إصدار "خطة الذكاء الاصطناعي الأمريكية" ، لإطلاق استراتيجية الذكاء الاصطناعي ، والتي تهدف إلى تعزيز قيادة الولايات المتحدة في مجال الذكاء الاصطناعي ؛ في سبتمبر 2021 ، أصدرت المملكة المتحدة استراتيجية الذكاء الاصطناعي ، على أمل بناء المملكة المتحدة لقوى عظمى في مجال الذكاء الاصطناعي. عند تحليل استراتيجيات الذكاء الاصطناعي في مختلف البلدان ، ليس من الصعب رؤية أن المنافسة الدولية في مجال الذكاء الاصطناعي لا تتعلق فقط بالابتكار التكنولوجي والاقتصاد الصناعي ، ولكنها تتضمن أيضًا أبعادًا مثل حوكمة الذكاء الاصطناعي. مع التطبيق الواسع النطاق للذكاء الاصطناعي ، لا تزال العديد من القضايا الأخلاقية العلمية والتكنولوجية التي أحدثها الذكاء الاصطناعي تستقطب اهتمامًا كبيرًا من جميع مناحي الحياة ، مثل التمييز الخوارزمي ، وشرنقة المعلومات ، واتخاذ القرارات غير العادلة في مجال الذكاء الاصطناعي ، وإساءة استخدام المعلومات الشخصية ، وانتهاك الخصوصية ، والذكاء الاصطناعي الأمان ، والصندوق الأسود للخوارزمية ، والمسؤولية ، وإساءة استخدام التكنولوجيا (مثل قتل البيانات الضخمة ، والاحتيال بالذكاء الاصطناعي والمعلومات الكاذبة الاصطناعية) ، وتأثير العمل والتوظيف ، والتأثير الأخلاقي والمعنوي وتحديات المخاطر الأخرى. [3] لذلك ، إلى جانب التطور السريع وتطبيق تكنولوجيا الذكاء الاصطناعي في السنوات العشر الماضية ، عززت جميع مناحي الحياة في الداخل والخارج في الوقت نفسه حوكمة الذكاء الاصطناعي ، واستكشفت إجراءات حوكمة متعددة وآليات ضمان مثل التشريعات والأطر الأخلاقية والمعايير والشهادات ، وأفضل الممارسات الصناعية لدعم تطوير الذكاء الاصطناعي المسؤول والموثوق والمتمحور حول الإنسان.

استنادًا إلى منظور دولي ، تفرز هذه المقالة التقدم المهم الذي أحرزته الصين في مجال حوكمة الذكاء الاصطناعي في السنوات العشر الماضية ، وتحلل وتلخص القوانين والاتجاهات ، وتتطلع إلى التطور المستقبلي. في المستقبل المنظور ، عندما يصبح الذكاء الاصطناعي أكثر قدرة ، فإن تطبيقه وتأثيره سيتعمقان يومًا بعد يوم ، لذلك ، سيصبح الذكاء الاصطناعي المسؤول (AI المسؤول) أكثر أهمية. لا ينفصل النهوض بالذكاء الاصطناعي المسؤول وتطبيقه عن حوكمة الذكاء الاصطناعي المعقولة والفعالة. وبعبارة أخرى ، فإن إنشاء حوكمة سليمة للذكاء الاصطناعي هو الطريقة الوحيدة للتحرك نحو الذكاء الاصطناعي المسؤول وضمان التطوير المستقبلي للذكاء الاصطناعي. من المأمول أن تكون هذه المقالة مفيدة في التطوير والتنفيذ المستمر لحوكمة الذكاء الاصطناعي في المستقبل.

** الاتجاهات الثمانية لحوكمة الذكاء الاصطناعي **

** تم تطوير إستراتيجية الكلية وسياسة التنفيذ في وقت واحد لتنمية القدرة التنافسية الوطنية للذكاء الاصطناعي **

منذ طرح "الآراء التوجيهية حول تعزيز التنمية المنظمة والصحية لإنترنت الأشياء" الصادر في فبراير 2013 "التنمية الاقتصادية والاجتماعية الذكية" ، دخل الذكاء الاصطناعي في مجال رؤية الاستراتيجية الوطنية الكلية وأصبح موضوعًا مهمًا من وثائق السياسة الوطنية عالية المستوى. على سبيل المثال ، في عام 2015 ، اقترحت "الآراء التوجيهية بشأن التعزيز الفعال لإجراءات" Internet Plus "لأول مرة" تنمية وتطوير صناعات الذكاء الاصطناعي الناشئة ". منذ ذلك الحين ، أولت الدولة اهتمامًا متزايدًا بالذكاء الاصطناعي ، واستمرت في نشر عمليات تطوير للذكاء الاصطناعي على المستوى الاستراتيجي لضمان أن التقنيات الأساسية يمكن التحكم فيها ذاتيًا وتعزيز الاعتماد على الذات التكنولوجي عالي المستوى والاعتماد على الذات. الاعتماد (الجدول 1).

سياسات الهبوط لا تقل أهمية. الذكاء الاصطناعي عبارة عن مجموعة معقدة من التقنيات الناشئة والصناعات الناشئة. فقط عندما يتم تحويل الابتكار التكنولوجي للذكاء الاصطناعي إلى بيئة صناعية مستدامة ومتكامل بعمق مع الاقتصاد الحقيقي ، يمكن أن يلعب دوره القوي بشكل كامل كمحرك نمو جديد. في هذا الصدد ، يلعب نموذج التجربة الأولى مثل منطقة الاختبار والمنطقة التجريبية دورًا مهمًا. حققت وزارة العلوم والتكنولوجيا إنجازات ملحوظة في بناء مناطق تجريبية لتطوير وابتكار الذكاء الاصطناعي.وافقت الدولة على بناء 18 منطقة تجريبية لتطوير وابتكار الذكاء الاصطناعي من الجيل الجديد ، والتي لعبت دورًا جيدًا في السياسة الأدوات ونماذج التطبيق والخبرة والممارسات. الدور. منذ عام 2019 ، وافقت وزارة الصناعة وتكنولوجيا المعلومات على إنشاء 11 منطقة وطنية تجريبية للابتكار والتطبيق في مجال الذكاء الاصطناعي لتعزيز التكامل العميق للذكاء الاصطناعي والاقتصاد الحقيقي ؛ "الآراء التوجيهية حول تطوير الجودة" ، والتركيز على حل مشاكل تطبيق الذكاء الاصطناعي والتصنيع ، واستخدام ثلاثية "قاعدة البيانات + منصة طاقة الحوسبة + فتح المشهد" لدفع التكامل العميق للذكاء الاصطناعي والتنمية الاقتصادية والاجتماعية ، ودعم التطوير عالي الجودة بشكل أفضل.

مع الدعم المستمر للاستراتيجية الكلية الوطنية وسياسات التنفيذ ، استمر نشاط الابتكار وريادة الأعمال في مجال الذكاء الاصطناعي في الصين. وقد تم إنشاء المختبرات الوطنية في مجال الذكاء الاصطناعي واحدة تلو الأخرى ، وتم تحقيق إنجازات مهمة في الابتكار التكنولوجي والتطبيق الصناعي ومقياس المواهب في مجال الذكاء الاصطناعي. يُظهر "تقرير مؤشر الابتكار العالمي للذكاء الاصطناعي لعام 2021" الصادر عن معهد المعلومات العلمية والتكنولوجية في الصين أن التطور العالمي الحالي للذكاء الاصطناعي يمثل نمطًا عامًا تقوده الصين والولايات المتحدة ومنافسة شرسة بين الدول الكبرى. [4] حقق تطوير الذكاء الاصطناعي في الصين نتائج ملحوظة ، حيث دخل مستوى الابتكار في الذكاء الاصطناعي إلى المستوى الأول في العالم ، كما تم تضييق الفجوة مع الولايات المتحدة بشكل أكبر. مراكز الحوسبة الفائقة في الصين ، وحجم مؤسسات الذكاء الاصطناعي ، وعدد تسجيلات براءات الاختراع ، وبناء فريق المواهب ، وقوة البحث العلمي كلها تتصدر العالم.في المستقبل ، ستستمر مساهمة الذكاء الاصطناعي في النمو الاقتصادي والتنمية الاجتماعية في الصين في الزيادة. يتنبأ تقرير بحثي صادر عن شركة PricewaterhouseCoopers أنه بحلول عام 2030 ، ستصل مساهمة الذكاء الاصطناعي في الاقتصاد العالمي إلى 15.7 تريليون دولار أمريكي ، وستجني الصين أكبر الفوائد الاقتصادية من الذكاء الاصطناعي ، لتصل إلى 7 تريليون دولار أمريكي ، مما يعني أن الذكاء الاصطناعي سوف يعزز نمو الناتج المحلي الإجمالي للصين بنحو 26.1٪ ، تليها الولايات المتحدة وأمريكا الشمالية ، سيصل إلى 3.7 تريليون دولار أمريكي. [5]

** تم تحسين نظام الأخلاقيات العلمية والتكنولوجية باستمرار وأصبح ضمانًا مهمًا للابتكار في الذكاء الاصطناعي **

في العصر الرقمي ، تتميز التقنيات الرقمية الناشئة مثل الذكاء الاصطناعي بالتفرد والتعقيد اللذين يختلفان عن التطبيقات التكنولوجية في العصر الصناعي. ينعكس بشكل رئيسي في: (1) اتصال أوسع واتصال شبكة وجمع البيانات ومعالجتها في كل مكان ؛ (2) استقلالية أقوى ، يقود نظام AI العديد من المنتجات والخدمات للعمل بشكل مستقل دون تدخل بشري ؛ (3) عتامة أعمق ، "أسود حسابي" مربع "من نظام الذكاء الاصطناعي يصعب فهمه وتفسيره ؛ [6] (4) دقة أعلى ، المحتوى والبيانات والعالم الافتراضي الذي تم إنشاؤه وتوليفه بواسطة الذكاء الاصطناعي يقترب من الواقع. ولهذا السبب ، فإن القضايا الاجتماعية والأخلاقية التي قد تكون ناجمة عن تطبيق التقنيات الجديدة مثل الذكاء الاصطناعي تتميز بشكل متزايد بالفجأة والإخفاء والحجم وعدم القدرة على التنبؤ ، مما يشكل تحديات جديدة للحوكمة الأخلاقية للعلم والتكنولوجيا. في عملية تطوير الذكاء الاصطناعي وتطبيقه ، أصبح من الضروري والمهم أكثر فأكثر النظر أو حتى النظر في قضايا الأخلاقيات العلمية والتكنولوجية مسبقًا. [7] أصبح تعديل وتحسين نظام الأخلاقيات العلمية والتكنولوجية قضية مهمة في عصر الذكاء الاصطناعي ، فمن الضروري التحول من التركيز على أخلاقيات الإنسان إلى التركيز على الأخلاقيات التقنية ، وتنفيذ القيود الأخلاقية على الفاعلين الأذكياء ، وبناء نظام اجتماعي رقمي ودي. [8] علاوة على ذلك ، مع تزايد حدة المنافسة العالمية في مجال العلم والتكنولوجيا ، فإن أخلاقيات العلم والتكنولوجيا لا تتعلق فقط بمنع المخاطر والتحديات الأمنية التكنولوجية ، ولكن أيضًا ببناء القدرة التنافسية التكنولوجية الوطنية.

** منذ المؤتمر الوطني الثامن عشر للحزب الشيوعي الصيني ، أولت الدولة اهتمامًا متزايدًا بأخلاقيات العلوم والتكنولوجيا. وقد نصت بوضوح على أن أخلاقيات العلوم والتكنولوجيا هي معيار قيم يجب اتباعه في الأنشطة العلمية والتكنولوجية ، وأدرجت أخلاقيات العلم والتكنولوجيا في تصميم السياسات على أعلى مستوى كدعم وضمانة هامة للابتكار العلمي والتكنولوجي. ** "قرار اللجنة المركزية للحزب الشيوعي الصيني بشأن الالتزام بالنظام الاشتراكي ذي الخصائص الصينية وتحسينه وتعزيز تحديث نظام الحكم الوطني وقدرات الحكم" و "الخطة الخمسية الرابعة عشرة والمخطط العام الطويل - أهداف المدى لعام 2035 "قامت بعمليات نشر عالية المستوى لأخلاقيات العلوم والتكنولوجيا ، وهي مطلوبة لتحسين نظام إدارة الأخلاقيات العلمية والتكنولوجية وتحسين نظام الأخلاقيات العلمية والتكنولوجية. في الوقت الحاضر ، تواصل الدولة إنشاء وتحسين نظام أخلاقيات العلوم والتكنولوجيا ، وتشكيل المفهوم الثقافي وآلية ضمان العلوم والتكنولوجيا إلى الأبد. ينعكس بشكل رئيسي في الجوانب الثلاثة التالية:

** أولاً ، إنشاء اللجنة الوطنية لأخلاقيات العلوم والتكنولوجيا ، المسؤولة عن توجيه وتنسيق وتعزيز بناء النظام الوطني لإدارة أخلاقيات العلوم والتكنولوجيا. ** في يوليو 2019 ، قام الاجتماع التاسع للجنة المركزية الشاملة لإصلاح التعميق بمراجعة واعتماد "خطة تشكيل لجنة أخلاقيات العلوم والتكنولوجيا الوطنية" ، مما أدى رسميًا إلى إنشاء منظمة إدارة أخلاقيات العلوم والتكنولوجيا الوطنية في الصين. أوضحت "الآراء حول تعزيز حوكمة أخلاقيات العلوم والتكنولوجيا" الصادرة في مارس 2022 المسؤوليات الإدارية للجنة أخلاقيات العلوم والتكنولوجيا الوطنية.

** ثانياً ، إصدار السياسات واللوائح المتعلقة بأخلاقيات العلوم والتكنولوجيا لدعم تطبيق حوكمة أخلاقيات العلوم والتكنولوجيا. ** من النقاط البارزة في "قانون التقدم العلمي والتكنولوجي" الذي تم تعديله في ديسمبر 2021 إضافة الأحكام ذات الصلة بشأن الأخلاقيات العلمية والتكنولوجية. يجب أن تؤدي مواضيع مثل مؤسسات التعليم العالي والشركات والمؤسسات العامة المسؤولية الرئيسية عن العلوم وإدارة الأخلاقيات التكنولوجية ، وإجراء مراجعة أخلاقية للأنشطة العلمية والتكنولوجية ، وفي نفس الوقت توضيح المحصلة القانونية والأخلاقية لأنشطة البحث والتطوير والتطبيق العلمي والتكنولوجي. تضع "آراء حول تعزيز الإدارة الأخلاقية للعلم والتكنولوجيا" متطلبات أكثر شمولاً للحوكمة الأخلاقية للعلم والتكنولوجيا ، والتي تشمل ستة جوانب رئيسية: المتطلبات العامة ، والمبادئ ، والنظم ، والضمانات المؤسسية ، والمراجعة والإشراف ، والتعليم والإعلان ، ويضع الأساس لتنفيذ الحوكمة الأخلاقية للعلم والتكنولوجيا. ستعمل المتابعة أيضًا على صياغة اللوائح الداعمة مثل طرق مراجعة الأخلاقيات العلمية والتكنولوجية ، وقائمة الأنشطة العلمية والتكنولوجية عالية المخاطر في الأخلاقيات العلمية والتكنولوجية ، وقواعد الأخلاق العلمية والتكنولوجية في المجالات الفرعية.

** ثالثًا ، التأكيد على الحوكمة الأخلاقية للعلوم والتكنولوجيا في مجال الذكاء الاصطناعي. ** أصدرت اللجنة المتخصصة في حوكمة الجيل الجديد للذكاء الاصطناعي على التوالي "مبادئ حوكمة الجيل الجديد للذكاء الاصطناعي - تطوير الذكاء الاصطناعي المسؤول" و "أخلاقيات الذكاء الاصطناعي للجيل الجديد" ، مما يوفر إرشادات أخلاقية لتطوير الذكاء الاصطناعي المسؤول. وضع "قانون أمان البيانات" و "لوائح إدارة توصيات خوارزمية خدمة معلومات الإنترنت" و "آراء توجيهية حول تعزيز الإدارة الشاملة لخوارزميات خدمة معلومات الإنترنت" والقوانين واللوائح الأخرى المتطلبات الأخلاقية العلمية والتكنولوجية والتدابير الإدارية للبيانات والخوارزميات أنشطة. تعتبر "آراء حول تعزيز إدارة أخلاقيات العلوم والتكنولوجيا" الذكاء الاصطناعي وعلوم الحياة والطب باعتبارها المجالات الرئيسية الثلاثة خلال فترة "الخطة الخمسية الرابعة عشرة" ، وتتطلب صياغة قواعد وإرشادات خاصة بأخلاقيات العلوم والتكنولوجيا ، يقوي تشريعات أخلاقيات العلوم والتكنولوجيا ، ويتطلب المديرين التنفيذيين في الصناعة ذات الصلة. أطلق القسم تدبيراً لمراقبة الأخلاقيات العلمية والتكنولوجية. من المتوقع أن يتم تعزيز تنظيم الأخلاقيات التكنولوجية في مجال الذكاء الاصطناعي في المستقبل. بالإضافة إلى ذلك ، يعتبر التشريع على المستوى المحلي مثل "لوائح تعزيز صناعة الذكاء الاصطناعي في شينزين" و "لوائح شنغهاي بشأن تعزيز تنمية صناعة الذكاء الاصطناعي" كلا من الحوكمة الأخلاقية للذكاء الاصطناعي ضمانًا مهمًا لدعم التنمية الصحية للذكاء الاصطناعي. صناعة.

** من التحليل أعلاه ، يمكن ملاحظة أنه فيما يتعلق بإدارة أخلاقيات علوم وتكنولوجيا الذكاء الاصطناعي ، هناك اتجاه كبير يتمثل في تحمل مسؤولية موضوع إدارة أخلاقيات العلوم والتكنولوجيا كنقطة انطلاق رئيسية ، وهو أمر مشابه. للتأكيد على مسؤولية موضوع المنصة في الإشراف على منصة الإنترنت ، هناك تشابه معين. ** يتم تحقيق إشراف الحكومة على المنصة إلى حد كبير من خلال تنفيذ وضغط المسؤولية الرئيسية للمنصة. وقد أنشأت التشريعات ذات الصلة في مجال الإنترنت نظامًا شاملاً لالتزامات المنصة قبل الحدث وأثناءه وبعده. إدارة الدولة للسوق إصدار الإشراف حاولت "المبادئ التوجيهية لتنفيذ المسؤوليات الموضوعية على منصات الإنترنت (مسودة للتعليق)" تنقيح المسؤوليات الموضوعية لأنواع مختلفة من المنصات. يظهر تنظيم الحكومة للذكاء الاصطناعي فكرة مماثلة. تحاول السياسات واللوائح الحالية ذات الصلة صقل مسؤوليات موضوعات إدارة الأخلاقيات العلمية والتكنولوجية ، والتي تتطلب موضوعات الابتكار لإنشاء لجان الأخلاقيات ، والالتزام بالخط الأساسي للأخلاقيات العلمية والتكنولوجية ، وإجراء مراجعة الأخلاقيات العلمية والتكنولوجية ، والقيام بمهام علمية وتكنولوجية مراقبة المخاطر الأخلاقية والإنذار المبكر والتقييم وإجراء التدريب على الأخلاقيات العلمية والتكنولوجية.

** أصبح تطبيق الخوارزميات في مجال الإنترنت هو الهدف الرئيسي لإشراف الذكاء الاصطناعي **

أصبحت توصية الخوارزمية واتخاذ القرارات الآلية الخوارزمية والتوليف العميق للذكاء الاصطناعي وتطبيقات الخوارزمية الأخرى في مجال الإنترنت محور الإشراف الحكومي في مجال الذكاء الاصطناعي بسبب عوامل مثل التطبيق الواسع والاهتمام العام الكبير والتركيز المستمر على المشاكل السلبية . في السنوات الأخيرة ، أصدرت الدولة سلسلة من القوانين واللوائح لتنظيم تطبيق الخوارزميات في مجال الإنترنت. [9] طرحت "الآراء الإرشادية بشأن تعزيز الحوكمة الشاملة لخوارزميات خدمة معلومات الإنترنت" الصادرة عن مكتب معلومات الإنترنت بالولاية وتسع إدارات أخرى متطلبات إدارة شاملة نسبيًا. ومن المأمول أنه في غضون ثلاث سنوات تقريبًا ، سيتم وضع آلية إدارة سليمة وإشراف سليم النظام ، وسيتم وضع معيار بيئي حسابي تدريجياً.نمط حوكمة شامل للأمن الخوارزمي. يؤكد الرأي أيضًا على تعزيز مسؤوليات الشركات ، بما في ذلك مسؤوليات أمن الخوارزمية ومراجعة الأخلاقيات العلمية والتكنولوجية.

من حيث توصية الخوارزمية ، تقترح "اللوائح الخاصة بالحوكمة البيئية لمحتوى معلومات الشبكة" تحسين التدخل البشري وآلية الاختيار الذاتي للمستخدم لتقنية توصية الخوارزمية. "اللوائح الخاصة بإدارة توصيات الخوارزمية لخدمات معلومات الإنترنت" ، التي سيتم تنفيذها في 1 مارس 2022 ، هي أول تشريع في الصين يركز على إدارة الخوارزمية. سلسلة من التدابير التنظيمية مثل مراقبة المخاطر الأمنية وتقييم أمان الخوارزمية و عززت إدارة ملفات الخوارزمية بشكل أكبر مسؤولية أمان الخوارزمية لشركات المنصات. أخذ المطلعون في الصناعة هذا كعلامة وأطلقوا على عام 2022 السنة الأولى من تنظيم الخوارزمية.

فيما يتعلق باتخاذ القرار الآلي الخوارزمي ، فإن "قانون حماية المعلومات الشخصية لجمهورية الصين الشعبية" و "قانون التجارة الإلكترونية لجمهورية الصين الشعبية" و "الأحكام المؤقتة لخدمات إدارة السياحة عبر الإنترنت" والأحكام الأخرى ذات الصلة أحكام بشأن تمييز الخوارزمية ، والتعريف بالبيانات الضخمة ، وما إلى ذلك. من أجل تنظيم سلوكيات اتخاذ القرار الخوارزمية المشروعة ، تُقترح طرق التنظيم مثل تزويد الأفراد بحقوق الاختيار ، وإجراء تقييمات الأثر ، ويمكن للأفراد طلب تفسيرات والتمتع بحقوق الرفض لتحسين تحقيق التوازن بين حماية الحقوق الشخصية وأنشطة التطبيقات التجارية للخوارزميات.

فيما يتعلق بالتوليف العميق للذكاء الاصطناعي (الذي يشير بشكل أساسي إلى استخدام تقنية الذكاء الاصطناعي لإنشاء محتوى المعلومات وتوليفه) ، تحدد التشريعات ذات الصلة بنشاط الخط الأحمر لتطبيق تقنية التوليف العميق للذكاء الاصطناعي وتعزز التطبيق الإيجابي للتكنولوجيا ، مثل " لوائح إدارة خدمات معلومات الصوت والفيديو للشبكة "،" الشبكة اللوائح الخاصة بالحوكمة البيئية لمحتوى المعلومات ، واللوائح الخاصة بإدارة توصيات خوارزمية خدمة معلومات الإنترنت ، وما إلى ذلك ، كلها تحظر استخدام خوارزميات التوليف العميق للمعلومات الإخبارية الكاذبة والأنشطة غير القانونية الأخرى . تلخص "اللوائح الخاصة بإدارة التوليف العميق لخدمات معلومات الإنترنت" التي تم إقرارها في نوفمبر 2022 الخبرة التنظيمية السابقة وتنظم بشكل شامل تطبيق تقنية التوليف العميق من حيث المسؤولية الرئيسية لمقدمي خدمات التوليف العميق وإدارة محتوى معلومات التوليف العميق تحديد الهوية: تضمن التدابير الأمنية الضرورية مثل التحديد والكشف والتعرف وإمكانية تتبع المحتوى أن يكون تطبيق تكنولوجيا التوليف العميق آمنًا وموثوقًا به ، ويعزز الابتكار التكنولوجي والتطوير والتطبيقات الإيجابية بشكل أفضل.

بشكل عام ، يؤكد إشراف الخوارزمية في مجال الإنترنت على أغراض متعددة مثل الأمان وإمكانية التحكم ، وحماية الحقوق والمصالح ، والإنصاف والعدالة ، والانفتاح والشفافية ، ومنع إساءة الاستخدام. وعلى أساس تصنيف وتصنيف تطبيق الخوارزمية ، فإنه يركز على التنظيم تطبيقات خوارزمية عالية الخطورة. تنظيم تصنيف وتصنيف الخوارزميات مشابه لتنظيم أنظمة الذكاء الاصطناعي في قانون الاتحاد الأوروبي للذكاء الاصطناعي.المتطلبات التنظيمية المختلفة. في هذا السياق ، يهتم المجتمع الأكاديمي بشدة ببحوث الحوكمة الخوارزمية ، وقد اقترح العديد من الأفكار مثل تفسير الخوارزمية ، وتقييم تأثير الخوارزمية ، وتدقيق الخوارزمية. في المستقبل ، تحتاج جميع مناحي الحياة إلى مزيد من استكشاف وتحسين أساليب ومقاييس الحوكمة للإشراف على الخوارزمية ، وذلك لضمان تحسين تطبيق الخوارزميات بشكل أفضل.

** استخدام الابتكار التنظيمي لتعزيز تطبيق الذكاء الاصطناعي في المجالات التنظيمية التقليدية القوية **

بالنسبة للمجالات التنظيمية التقليدية القوية مثل النقل والرعاية الطبية ، فإن المشكلة الرئيسية التي تواجه أشياء جديدة مثل السيارات ذاتية القيادة ، والطائرات بدون طيار (السيارات الطائرة بدون طيار) ، والبرمجيات الطبية للذكاء الاصطناعي ، وما إلى ذلك ، هي أن تطبيقاتها التجارية لا تزال تواجه تحديات قانونية أكبر. والعقبات التنظيمية. لا تؤثر هذه الحواجز على ثقة المستهلك والجمهور في التكنولوجيا فحسب ، بل إنها تثبط عزيمة المبتكرين والمستثمرين أيضًا. لذلك ، فإن الابتكار التنظيمي الفعال هو مفتاح تطوير وتطبيق هذه الأشياء الجديدة. بأخذ السيارات ذاتية القيادة كمثال ، لا يمكن تسريع التطبيق التجاري للسيارات ذاتية القيادة إلا من خلال تسريع إصلاح الإطار التشريعي والتنظيمي الهادف إلى تنظيم السيارات التقليدية والسائقين البشريين ، ومن ثم إنشاء إطار تنظيمي جديد وفعال.

يعمل صانعو السياسات في الصين بنشاط على ابتكار أساليب ووسائل تنظيمية ، ويدعمون ويعززون تطبيق أشياء جديدة للذكاء الاصطناعي من خلال "البيئة التجريبية التنظيمية" (وضع الحماية التنظيمية ، انظر المقدمة أدناه) ، والمشاريع التجريبية ، والتطبيقات الإيضاحية. في مجال السيارات ذاتية القيادة ، أصدرت الدولة سلسلة من التشريعات والوثائق المعيارية لتشجيع ودعم وتنظيم أنشطة اختبار الطريق والتطبيق التوضيحي للسيارات ذاتية القيادة ، واستكشاف "صندوق الحماية التنظيمي" لمعايير السلامة الذاتية. - قيادة السيارات وتحسين توحيد السيارات ذاتية القيادة قواعد المرور للدخول والدخول للطريق لضمان سلامة نقل السيارات ذاتية القيادة. نظرًا للسياسات التنظيمية المواتية ، استولت أماكن مثل بكين وشنغهاي وقوانغتشو وشنتشن على مرتفعات التطوير واحدة تلو الأخرى. وقد أصدرت بعض المدن تراخيص تشغيل تجريبية للسيارات ذاتية القيادة التي لا تسمح بوجود سائق في السيارة ويمكن تشغيلها مقابل رسوم ؛ شنتشن هي الأولى في البلاد التي تصدر "اللوائح الخاصة بإدارة المركبات المتصلة الذكية في Shenzhen تضع إطارًا تشريعيًا وتنظيميًا للتطبيقات التجارية. في مجال الرعاية الطبية بالذكاء الاصطناعي ، نظرًا لأن البرامج الطبية للذكاء الاصطناعي تحتوي على العديد من الميزات الجديدة المختلفة عن الأجهزة الطبية التقليدية ، بما في ذلك الاستقلالية ، وقدرات التعلم والتطور ، والتكرار المستمر ، والصندوق الأسود للخوارزمية ، وعدم القدرة على التنبؤ ، وما إلى ذلك ، فمن الصعب على إجراءات الموافقة التقليدية أن تتكيف بشكل فعال مع الرعاية الطبية بالذكاء الاصطناعي.احتياجات تطوير البرمجيات. تحقيقا لهذه الغاية ، تعمل السلطات التنظيمية بنشاط على تحسين إجراءات إعلان التسجيل والموافقة واستخدام مواصفات إدارة الأجهزة الطبية للذكاء الاصطناعي ، ودعم التطبيق السريري المعجل للبرامج الطبية للذكاء الاصطناعي للتشخيص والعلاج الإضافي مثل التصوير الطبي الذكي ؛ حاليًا ، الذكاء الاصطناعي الطبي تمت الموافقة على برنامج في الصين ، مثل برنامج تشخيص الجلوكوما بمساعدة الذكاء الاصطناعي من Tencent Miying ونظام تشخيص الالتهاب الرئوي بمساعدة الذكاء الاصطناعي ، وقد تمت الموافقة عليهما للحصول على شهادة تسجيل الأجهزة الطبية من الدرجة الثالثة ("ثلاثة أنواع من الشهادات"). في المستقبل ، تحتاج السلطات التنظيمية إلى مواصلة تحسين وتحسين إجراءات التسجيل والتطبيق والموافقة للبرامج الطبية للذكاء الاصطناعي ، بحيث يمكن للتطبيقات الطبية للذكاء الاصطناعي تحسين معيشة الناس ورفاههم.

** تسريع استكشاف قواعد حماية الملكية الفكرية للذكاء الاصطناعي **

أصبح المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي (المحتويات المولدة بالذكاء الاصطناعي ، AIGC للاختصار) جبهة جديدة للذكاء الاصطناعي ، تمثل اتجاه التطوير المستقبلي للذكاء الاصطناعي [10] . في مجال الإنترنت ، AIGC هو نموذج إنتاج المحتوى بعد PGC (إنتاج محتوى احترافي) و UGC (محتوى إنتاج المستخدم) ، مما أدى إلى إحداث تغيير كبير في إنتاج المحتوى الآلي. في الوقت الحالي ، تمكنت تقنية AIGC من إنتاج أشكال مختلفة من المحتوى بشكل مستقل ، بما في ذلك النصوص والصور والصوت والفيديو والمحتوى ثلاثي الأبعاد (كائنات ثلاثية الأبعاد ومشاهد افتراضية ثلاثية الأبعاد) ، إلخ. أصبحت قواعد حماية حقوق الملكية الفكرية لتكنولوجيا AIGC وتطبيقاتها قضية مهمة لا يمكن تجنبها. قضايا مثل "كيفية إنشاء حماية حقوق التأليف والنشر وملكية محتوى AIGC" و "ما إذا كانت تقنية AIGC تنتهك حقوق الطبع والنشر لأشخاص آخرين المحتوى "هي قضايا ملحة يتعين حلها. [11] اقترح بعض العلماء الأجانب أنه من الضروري وضع قواعد خاصة لحماية الملكية الفكرية للذكاء الاصطناعي ومعاهدات دولية ، لأن تكنولوجيا الذكاء الاصطناعي تكسر النموذج الحالي القائل بأن المبدعين والمخترعين يمكن أن يكونوا بشرًا فقط. [12]

في الداخل والخارج ، تم استكشاف قواعد حماية الملكية الفكرية للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي بنشاط. في الخارج ، تدرس المملكة المتحدة ، والاتحاد الأوروبي ، واليابان ، وجنوب إفريقيا ، وما إلى ذلك ، قواعد خاصة لحماية الملكية الفكرية للذكاء الاصطناعي أو صاغت قواعد خاصة لحماية الملكية الفكرية للذكاء الاصطناعي ، مثل بنود حماية المصنفات التي يتم إنشاؤها بواسطة الكمبيوتر في "قانون حقوق النشر والتصميم وبراءات الاختراع" البريطاني و "توجيه حقوق الطبع والنشر للسوق الرقمي الموحد" الخاص بالاتحاد الأوروبي. "استثناءات حقوق الطبع والنشر لاستخراج النصوص والبيانات استنادًا إلى تقنية الذكاء الاصطناعي ، وما إلى ذلك. فيما يتعلق ببراءات الاختراع ، تشير سياسة المملكة المتحدة إلى أنه نظرًا لأن الذكاء الاصطناعي لم يتقدم بعد بما يكفي للاختراع والإبداع بشكل مستقل ، فلا داعي لتعديل قانون براءات الاختراع في الوقت الحالي ، ولكن من الضروري إيلاء اهتمام وثيق للتقدم التكنولوجي وتقييم الذكاء الاصطناعي. قضايا براءات الاختراع في الوقت المناسب.

في الصين ، في قضية شركة Beijing Film Law Firm ضد قضية انتهاك حقوق الطبع والنشر التي رفعتها شركة Baidu "Baijiahao" ، رأت المحكمة أن الأعمال الأصلية التي أنشأها أشخاص طبيعيون فقط هي التي يمكنها الحصول على حماية حقوق الطبع والنشر ، وبالتالي رفض حقوق الطبع والنشر للأعمال التي تم إنشاؤها بشكل مباشر ومستقل بواسطة AI. من أن الحقوق والمصالح ذات الصلة (مثل الحقوق والمصالح التنافسية) للمحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يمكن حمايتها من خلال قوانين المنافسة والوسائل الأخرى. في قضية شركة Shenzhen Tencent Computer System Co.، Ltd. ضد Shanghai Yingxun Technology Co.، Ltd. لانتهاك حقوق الطبع والنشر ونزاعات المنافسة غير العادلة ، فإن المحكمة ، بناءً على واقع التعاون بين الإنسان والحاسوب في مجال الذكاء الاصطناعي ، أشار إلى أن الأعمال "المولدة" تقنيًا لكاتب برنامج Dream للكتابة بالذكاء الاصطناعي هي فقط إبداعات. وكحلقة وصل في العملية ، يكون النشاط الفكري العام الذي يتكون من تقسيم العمل متعدد الفرق ومتعدد الأشخاص الذي يستضيفه المدعي هو الرابط الأساسي للإنشاء ، ومن ثم يتقرر أن المادة المتضمنة في القضية هي عمل شخص اعتباري يستضيفه المدعي. يتماشى تحديد حالة كاتب الحلم مع التطور الحالي لتكنولوجيا AIGC وتطبيقاتها ، وله أهمية مرجعية كبيرة لزيادة توضيح قواعد حماية الملكية الفكرية للمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي من خلال التشريعات في المستقبل. فيما يتعلق بالتشريعات ، يتبنى "قانون حقوق الطبع والنشر لجمهورية الصين الشعبية" المنقح حديثًا في عام 2020 طريقة تحديد العمل المفتوح. وبينما يوضح تكوين الأعمال وتعداد الأنواع الرئيسية للأعمال ، فإنه ينص أيضًا على فتح ذهاب وإياب البنود ، التي توفر AIGC والتقنيات الجديدة الأخرى ، وحماية الأشياء الجديدة الناتجة عن التطبيقات تحتفظ بمساحة مؤسسية.

** بناء التقييس هو جزء أساسي من حوكمة الذكاء الاصطناعي **

** أشار "مخطط تطوير التقييس الوطني" إلى أن التقييس يلعب دوراً أساسياً ورائداً في تعزيز تحديث نظام الحكم الوطني وقدرات الحوكمة. بالنسبة لمجال الذكاء الاصطناعي ، فإن معايير الذكاء الاصطناعي ليست فقط وسيلة مهمة لدعم وتعزيز التطوير والتقدم والتطبيق الواسع للذكاء الاصطناعي (مثل المعايير التقنية) ، ولكنها أيضًا وسيلة فعالة لتعزيز تنفيذ حوكمة الذكاء الاصطناعي (مثل الحوكمة المعايير ، والمعايير الأخلاقية) ، لأن معايير حوكمة الذكاء الاصطناعي يمكن أن تلعب دورًا مهمًا في "إصدار التشريعات والإشراف ، وإرساء الممارسات الفنية". علاوة على ذلك ، فإن المعايير في مجال حوكمة الذكاء الاصطناعي أكثر مرونة ومرونة وقابلية للتكيف من التشريعات واللوائح. لذلك ، أصبحت معايير حوكمة الذكاء الاصطناعي ذروة بارزة في تطوير تكنولوجيا وصناعة الذكاء الاصطناعي ، وقد اقترح المجتمع الدولي تدابير للتنفيذ. ** يشمل الممثلون النموذجيون معايير الذكاء الاصطناعي الموثوقة في الاتحاد الأوروبي ، وإدارة مخاطر الذكاء الاصطناعي بقيادة المعهد الوطني الأمريكي للمعايير والتكنولوجيا (NIST) ، وتحديد التمييز بالذكاء الاصطناعي ومعايير الحوكمة الأخرى ، وخطة تطوير النظام البيئي لشهادة الذكاء الاصطناعي في المملكة المتحدة ، ومعايير IEEE الأخلاقية للذكاء الاصطناعي ، الخ. فيما يتعلق بالتنفيذ ، أطلقت IEEE مشروع اعتماد أخلاقيات الذكاء الاصطناعي للصناعة ؛ وتأمل المملكة المتحدة في تنمية صناعة شهادات الذكاء الاصطناعي الرائدة عالميًا بقيمة مليارات الجنيهات الاسترلينية في 5 سنوات ، واجتياز خدمات اعتماد الذكاء الاصطناعي لطرف ثالث محايد. (بما في ذلك التدقيق والتأثير في التقييم وإصدار الشهادات) لتقييم وإبلاغ مصداقية أنظمة الذكاء الاصطناعي والامتثال لها.

** تولي الصين أهمية كبيرة لبناء التقييس في مجال الذكاء الاصطناعي. يتطلب "مخطط تطوير التقييس الوطني" إجراء بحث معياري في مجالات الذكاء الاصطناعي والمعلومات الكمومية والتكنولوجيا الحيوية. ** في السنوات الأخيرة ، واصلت جميع مناحي الحياة تعزيز توحيد المعايير الوطنية ومعايير الصناعة والمعايير المحلية والمعايير الجماعية في مجال حوكمة الذكاء الاصطناعي. على سبيل المثال ، أنشأت لجنة إدارة التقييس الوطنية المجموعة العامة الوطنية لتقييس الذكاء الاصطناعي ، وأنشأت اللجنة الفنية الوطنية لتقييس تكنولوجيا المعلومات اللجنة الفنية الفرعية للذكاء الاصطناعي ، وكلاهما يهدف إلى تعزيز صياغة المعايير الوطنية في مجال الذكاء الاصطناعي. . توضح "المبادئ التوجيهية لبناء النظام المعياري الوطني للجيل الجديد للذكاء الاصطناعي" الصادرة في يوليو 2020 التصميم عالي المستوى في مجال معايير الذكاء الاصطناعي ، ويؤسس الذكاء الاصطناعي نظام امتثال لتعزيز التنمية الصحية والمستدامة للذكاء الاصطناعي. في المستقبل ، يجب صياغة المعايير المتعلقة بحوكمة الذكاء الاصطناعي وتنفيذها بسرعة أكبر ، وذلك لتوفير المزيد من الضمانات للابتكار التكنولوجي والتنمية الصناعية في مجال الذكاء الاصطناعي.

** تستكشف الصناعة بنشاط تدابير الانضباط الذاتي لحوكمة الذكاء الاصطناعي ، وتمارس مفهوم الابتكار والتكنولوجيا المسؤولين من أجل الخير **

** تتطلب الحوكمة الفعالة للذكاء الاصطناعي المشاركة المشتركة للعديد من الموضوعات مثل الحكومة والمؤسسات والمنظمات الصناعية والمجموعات الأكاديمية والمستخدمين أو المستهلكين والجمهور. ومن بينها ، تعد الإدارة الذاتية والانضباط الذاتي لشركات التكنولوجيا أحد جزء مهم من تنفيذ مفهوم "الأخلاق أولا". الطريق. ** يعود سبب الدعوة إلى "الأخلاق أولاً" إلى حد كبير إلى حقيقة أنه في مواجهة التطور السريع للذكاء الاصطناعي ، أصبحت ظاهرة "التأخر القانوني" أكثر وضوحًا. في مجال الذكاء الاصطناعي ، تتجلى "الأخلاقيات أولاً" أولاً في إدارة الانضباط الذاتي للأخلاقيات التكنولوجية لشركات التكنولوجيا ، وغالبًا ما تلعب أفضل ممارسات الشركات الرائدة دورًا رائدًا جيدًا للغاية ، مما يعزز ممارسة الابتكار المسؤول والتكنولوجيا من أجل الخير في فكرة الصناعة بأكملها.

على مستوى الصناعة ، في السنوات الأخيرة ، اقترحت المؤسسات البحثية والمنظمات الصناعية ذات الصلة المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي واتفاقيات الانضباط الذاتي ، وما إلى ذلك ، لتوفير التوجيه الأخلاقي لأنشطة الذكاء الاصطناعي للشركات. ومن بين الممثلين النموذجيين في هذا الصدد "اتفاقية الانضباط الذاتي لصناعة الذكاء الاصطناعي" و "إرشادات تشغيل الذكاء الاصطناعي الموثوقة" لتحالف تطوير صناعة الذكاء الاصطناعي الصيني (AIIA) ، و "إجماع بكين للذكاء الاصطناعي" و "إجماع الذكاء الاصطناعي" في بكين. معهد تشيوان لبحوث الذكاء الاصطناعي. إعلان مسؤولية الصناعة "، اللجنة الوطنية لتوحيد معايير أمن المعلومات ،" إرشادات ممارسات معايير أمان الشبكة - إرشادات لمنع مخاطر الأمن الأخلاقي للذكاء الاصطناعي "، إلخ.

على مستوى المؤسسات ، تتحمل شركات التكنولوجيا ، باعتبارها الهيئة الرئيسية للابتكار التكنولوجي والتطبيق الصناعي للذكاء الاصطناعي ، المسؤولية الهامة للبحث والتطوير والتطبيق المسؤولين للذكاء الاصطناعي. في البلدان الأجنبية ، استكشفت شركات التكنولوجيا خبرة ناضجة نسبيًا وجمعت الكثير من الموارد من اقتراح المبادئ الأخلاقية للذكاء الاصطناعي ، وإنشاء منظمات داخلية للحوكمة الأخلاقية للذكاء الاصطناعي ، وتطوير أدوات إدارية وتقنية وحتى حلول ذكاء اصطناعي مسؤولة تجاريًا. الممارسات المعززة (الجدول 2) [13] . في السنوات الأخيرة ، نفذت شركات التكنولوجيا المحلية بنشاط المتطلبات التنظيمية واستكشفت تدابير التنظيم الذاتي ذات الصلة ، بما في ذلك بشكل أساسي: نشر المبادئ الأخلاقية للذكاء الاصطناعي ، وإنشاء منظمات حوكمة داخلية للذكاء الاصطناعي (مثل لجان الأخلاقيات) ، وإجراء المراجعات الأخلاقية أو تقييمات المخاطر الأمنية لأنشطة الذكاء الاصطناعي ، والكشف عن الخوارزميات للعالم الخارجي. المعلومات ذات الصلة ، وتعزيز انفتاح وشفافية الخوارزميات ، واستكشاف الحلول التقنية للقضايا الأخلاقية للذكاء الاصطناعي (مثل أدوات الكشف والتعريف لمحتوى المعلومات التركيبية ، وأدوات تقييم حوكمة الذكاء الاصطناعي ، وحلول حوسبة الخصوصية مثل مثل التعلم الفيدرالي) ، إلخ.

** يتعايش التعاون العالمي في مجال حوكمة الذكاء الاصطناعي والمنافسة **

** المنافسة العالمية للذكاء الاصطناعي ليست فقط منافسة بين التكنولوجيا والصناعة ، ولكنها أيضًا منافسة بين قواعد ومعايير الحوكمة. ** يؤدي تطور الاقتصاد الرقمي العالمي إلى تشكيل قواعد دولية جديدة للذكاء الاصطناعي والبيانات ، مثل تدفق البيانات ، وإطار حوكمة الذكاء الاصطناعي ، وما إلى ذلك. في السنوات الأخيرة ، استمر التعاون العالمي في مجال حوكمة الذكاء الاصطناعي في التقدم. مبادئ منظمة التعاون الاقتصادي والتنمية / مجموعة العشرين للذكاء الاصطناعي لعام 2019 هي أول إطار عمل عالمي لسياسة الذكاء الاصطناعي. في تشرين الثاني (نوفمبر) 2021 ، أقرت منظمة الأمم المتحدة لليونسكو اتفاقية أخلاقيات الذكاء الاصطناعي الأولى في العالم بعنوان "توصية بشأن أخلاقيات الذكاء الاصطناعي" (توصية بشأن أخلاقيات الذكاء الاصطناعي) ، والتي تعد حاليًا إطار سياسة الذكاء الاصطناعي الأكثر شمولاً وتوافقًا على نطاق واسع. المسؤولون وتقييم الأثر الأخلاقي وآليات أخرى لتعزيز الحوكمة الأخلاقية للذكاء الاصطناعي.

في الوقت نفسه ، تعمل الولايات المتحدة وأوروبا على تسريع سياسات الذكاء الاصطناعي من أجل تعزيز قيادتهما في مجال سياسات الذكاء الاصطناعي والتأثير على قواعد ومعايير حوكمة الذكاء الاصطناعي العالمية. على سبيل المثال ، يعمل الاتحاد الأوروبي على مشروع قانون منسق للذكاء الاصطناعي ، عندما يُتوقع إقراره في عام 2023 ، سيضع مسارًا تنظيميًا شاملاً قائمًا على المخاطر للذكاء الاصطناعي. يتوقع العديد من الخبراء أنه ، تمامًا مثل تأثير التشريع السابق لخصوصية البيانات GPDR على صناعة التكنولوجيا العالمية ، فإن قانون الاتحاد الأوروبي للذكاء الاصطناعي سيوسع "تأثير بروكسل" ليشمل مجال الذكاء الاصطناعي ، وهو بالضبط ما يأمل الاتحاد الأوروبي في تأسيس حوكمة الذكاء الاصطناعي للعالم من خلال معيار التنظيم. [14] بالإضافة إلى تشريعات الذكاء الاصطناعي ، لا يزال مجلس أوروبا يعد أول "اتفاقية دولية للذكاء الاصطناعي". تمامًا مثل "اتفاقية الجرائم الإلكترونية" و "اتفاقية الخصوصية" السابقة ، يمكن للدول الأعضاء والدول غير الأعضاء الانضمام والتصديق على الذكاء الاصطناعي في المستقبل. مؤتمر. [15] لطالما كانت الولايات المتحدة رائدة عالميًا في مجال الذكاء الاصطناعي من حيث التكنولوجيا والصناعة ، وبدأت في السنوات الأخيرة في إعادة تشكيل قيادتها بنشاط في مجال سياسة الذكاء الاصطناعي. تتمثل إحدى المهام الأساسية لمجلس التجارة والتكنولوجيا بين الولايات المتحدة والاتحاد الأوروبي الذي أنشئ في عام 2020 في تعزيز التعاون بين الولايات المتحدة والاتحاد الأوروبي بشأن حوكمة الذكاء الاصطناعي. [16] في الختام ، تؤكد المنافسة العالمية للذكاء الاصطناعي بشكل متزايد على منافسة القوة الناعمة في مجال سياسة وحوكمة الذكاء الاصطناعي ، والتي يمكن القول إنها تمثل تحولًا كبيرًا في المنافسة التكنولوجية في القرن الحادي والعشرين.

في السنوات الأخيرة ، أولت الصين أهمية كبيرة للمشاركة في حوكمة العلوم والتكنولوجيا العالمية ، وقدمت مقترحاتها الخاصة بنشاط ، وسعت جاهدة لمزيد من الاعتراف والتوافق. على سبيل المثال ، طرحت الصين "مبادرة أمن البيانات العالمية" ، التي تواصل ضخ طاقة إيجابية في الحوكمة الرقمية العالمية. في نوفمبر 2022 ، في مؤتمر الدول الأطراف في اتفاقية الأمم المتحدة بشأن أسلحة تقليدية معينة ، قدمت الصين وثيقة بشأن تعزيز الحوكمة الأخلاقية للذكاء الاصطناعي ، وقدمت مقترحات مثل الالتزام بالأخلاقيات أولاً ، وتعزيز الانضباط الذاتي ، الاستخدام المسؤول للذكاء الاصطناعي ، وتشجيع التعاون الدولي.

** نظرة مستقبلية على ثلاث نقاط **

العديد من السياسات والوثائق المعيارية مثل "الخطة الخمسية الرابعة عشرة ومخطط الأهداف طويلة الأجل في عام 2035" ، "بناء سيادة القانون في الصين (2020-2025)" ، "آراء حول تعزيز الإدارة الأخلاقية لـ العلوم والتكنولوجيا "وغيرها من السياسات والوثائق المعيارية تظهر أن حوكمة الذكاء الاصطناعي لا تزال قضية رئيسية في حوكمة العلوم والتكنولوجيا. المجالات الأساسية لأخلاقيات التكنولوجيا. لزيادة تعزيز القدرة التنافسية العالمية للصين في مجال الذكاء الاصطناعي ، لا تحتاج الصين فقط إلى إيلاء المزيد من الاهتمام لتنمية التكنولوجيا والقوة الصناعية الصلبة ، بل تحتاج أيضًا إلى التركيز على تشكيل القوة الناعمة ، وخاصة الحق في التحدث والقيادة في سياسة وحوكمة الذكاء الاصطناعي. . لأن حوكمة الذكاء الاصطناعي أصبحت جزءًا مهمًا من القدرة التنافسية العالمية للذكاء الاصطناعي.

بالنظر إلى الماضي ، أوضحت الصين فكرة الإشراف على الذكاء الاصطناعي والحوكمة التي تولي اهتمامًا متساويًا بالتنمية والأمن ، وتوازي الابتكار والأخلاق.عندما تدعم وتعزز الابتكار والتطوير ، فإنها تضمن أيضًا السلامة والموثوقية وإمكانية التحكم من تطبيقات التكنولوجيا. لمواجهة المستقبل ، نحتاج إلى الاستفادة بشكل أفضل من الجهود المشتركة للحكومة والصناعات / المؤسسات والمؤسسات البحثية والمنظمات الاجتماعية والمستخدمين / المستهلكين والجمهور ووسائل الإعلام وأصحاب المصلحة الآخرين لمواصلة تعزيز التنمية السليمة للذكاء الاصطناعي ممارسات الحوكمة وتجعل الذكاء الاصطناعي أفضل يعود بالفائدة على التنمية الاقتصادية والاجتماعية ، وتحسين معيشة الناس ورفاههم ، ودفع العلوم والتكنولوجيا إلى مستوى أعلى.

علاوة على ذلك ، جلب "العقد الذهبي" للذكاء الاصطناعي الماضي نماذج ذكاء اصطناعي قوية بشكل متزايد ، وفي المستقبل المنظور ، سيصبح الذكاء الاصطناعي أكثر قوة. هذا يعني أنه عندما يتفاعل الذكاء الاصطناعي مع النظام البيئي الاجتماعي ، فإن آثاره البشرية والاجتماعية والبيئية المحتملة ستتجاوز بكثير أي تقنية سابقة. لذلك ، فإن المهمة الأساسية لحوكمة الذكاء الاصطناعي هي الاستمرار في الدفاع عن مفهوم "الذكاء الاصطناعي المسؤول" وممارسته ؛ وخلق قيمة لأصحاب المصلحة وتعزيز رفاهيتهم ، ومنع إساءة الاستخدام وسوء الاستخدام والاستخدام السيئ. باختصار ، تحتاج حوكمة الذكاء الاصطناعي الفعالة إلى تعزيز تطوير ممارسات الذكاء الاصطناعي المسؤولة وإنشاء ذكاء اصطناعي جدير بالثقة (ذكاء اصطناعي جدير بالثقة).

** الاستمرار في تحسين البيانات والإطار القانوني للذكاء الاصطناعي ، وتعزيز الإشراف الدقيق والسريع **

لا يمكن فصل التنمية الصحية والمستدامة للذكاء الاصطناعي عن الإشراف المعقول والفعال من ناحية ، ومن ناحية أخرى ، يحتاج إلى التحسين المستمر لمستوى توفير البيانات وتداولها واستخدامها في مجال الذكاء الاصطناعي. في الواقع ، تتمثل إحدى المشكلات الرئيسية التي تواجه تطوير وتطبيق الذكاء الاصطناعي في العديد من المجالات مثل الرعاية الطبية والتصنيع والتمويل في مشكلة الحصول على البيانات واستخدامها ، بما في ذلك صعوبة الحصول على البيانات ، وضعف جودة البيانات ، وعدم اتساق معايير البيانات. لذلك ، فإن التطوير الإضافي للذكاء الاصطناعي في المستقبل يعتمد إلى حد كبير على التحسين المستمر للبيانات والإطار القانوني للذكاء الاصطناعي. تقترح "خطة التنظيم الرقمي" في المملكة المتحدة أن التنظيم المصمم جيدًا يمكن أن يكون له تأثير قوي على تعزيز التنمية وتشكيل اقتصاد ومجتمع رقمي نابضين بالحيوية ، ولكن التنظيم السيئ التصميم أو التقييد يمكن أن يعيق الابتكار. يمكن للقواعد الصحيحة أن تساعد الناس على الوثوق بالمنتجات والخدمات التي يستخدمونها ، وهو ما سيؤدي بدوره إلى زيادة شعبية المنتجات والخدمات وزيادة الاستهلاك والاستثمار والابتكار. [17] وينطبق الشيء نفسه على الذكاء الاصطناعي.

** من ناحية أخرى ، بالنسبة لحوكمة الذكاء الاصطناعي ، من الضروري تعزيز الإشراف الدقيق والمرن بشكل أفضل. ** يشمل ذلك: ** أولاً ، اعتماد قواعد مختلفة لمنتجات وخدمات وتطبيقات الذكاء الاصطناعي المختلفة. ** نظرًا لأن تطبيقات الذكاء الاصطناعي منتشرة في كل مكان تقريبًا الآن ، فمن الصعب أن تتكيف قاعدة مقاس واحد يناسب الجميع بشكل معقول مع الخصائص الفريدة لتطبيقات الذكاء الاصطناعي في مختلف الصناعات والمجالات وتأثيرها على الأفراد والمجتمع. وهذا يتطلب منا اعتماد إطار سياسة حوكمة للذكاء الاصطناعي قائم على المخاطر. على سبيل المثال ، يمكن استخدام تقنية الذكاء الاصطناعي نفسها ليس فقط لتحليل السمات الشخصية للمستخدم وتفضيلاته الشخصية والتنبؤ بها ، ودفع المحتوى المخصص ، ولكن أيضًا للمساعدة في تشخيص الأمراض وعلاجها ؛ يمكن أيضًا استخدام التصنيف والتنظيم في التعرف على الأورام السرطانية. هذه التطبيقات لها اختلافات كبيرة من حيث مستوى المخاطر ، وأهمية النتائج ، والتأثير الشخصي والاجتماعي ، ومن الواضح أنه من غير العلمي ولا الواقعي طرح المتطلبات التنظيمية بطريقة عامة وواحدة تناسب الجميع. ** ثانياً ، يؤكد اعتماد الإشراف اللامركزي والمتمايز على أساس تصنيف وتصنيف تطبيقات الذكاء الاصطناعي. ** تمامًا مثل الإنترنت ، يعد الذكاء الاصطناعي تقنية واسعة جدًا وذات أغراض عامة ، وهي غير مناسبة ويصعب إجراء إشراف موحد. من منظور أجنبي ، يحاول الاتحاد الأوروبي فقط حاليًا إنشاء إطار تنظيمي عام وموحد لجميع تطبيقات الذكاء الاصطناعي (نموذج الاتحاد الأوروبي) ، بينما تؤكد المملكة المتحدة والولايات المتحدة على الإشراف اللامركزي على الصناعات بناءً على سيناريوهات التطبيق والمخاطر ( النموذج الأنجلو أمريكي). تقترح المملكة المتحدة الاسترشاد بالمبادئ واعتماد الإشراف المعزز للابتكار على تطبيقات الذكاء الاصطناعي. وتشمل مفاهيمها الأساسية: التركيز على سيناريوهات تطبيق محددة ، وضمان تناسب الإشراف وقابليته للتكيف بناءً على درجة المخاطر ؛ [18] لطالما شددت الولايات المتحدة على مسار الحوكمة الذي يجمع بين تنظيم الصناعة والانضباط الذاتي للصناعة. على سبيل المثال ، لا يقترح "مخطط قانون حقوق الذكاء الاصطناعي" خمسة مبادئ فحسب ، بل يوضح أيضًا فكرة التنظيم اللامركزي بقيادة السلطات الصناعية وتطبيق سيناريو المنحى. [19] بقدر ما يتعلق الأمر بالصين ، فإن التشريعات والإشراف على الذكاء الاصطناعي في الماضي أقرب إلى النموذج الأنجلو أمريكي ، أي أنه تم صياغة قواعد تنظيمية منفصلة لتطبيقات الذكاء الاصطناعي المختلفة مثل خدمات توصية الخوارزمية والتوليف العميق والقيادة الذاتية. يتوافق هذا النموذج التنظيمي اللامركزي والمتمايز مع مبادئ الحوكمة الرشيقة ويمكن أن يتكيف بشكل أفضل مع الخصائص المعقدة للتطوير والتكرار السريع لتكنولوجيا الذكاء الاصطناعي وتطبيقاتها. ** ثالثًا ، يدعو إلى الابتكار المستمر في مجموعة الأدوات التنظيمية واعتماد تدابير تنظيمية متنوعة. الأول هو "صندوق الحماية التنظيمي" للذكاء الاصطناعي. ** إحدى المبادرات الرئيسية للاتحاد الأوروبي في مجال تنظيم الذكاء الاصطناعي هي "بيئة الحماية التنظيمية" المقترحة للذكاء الاصطناعي. [20] كطريقة فعالة لدعم وتعزيز الاتصال والتعاون بين المنظمين وموضوعات الابتكار ، يمكن لـ "بيئة الحماية التنظيمية" توفير بيئة خاضعة للرقابة لتطوير واختبار والتحقق من تطبيقات الذكاء الاصطناعي المبتكرة في الامتثال. ستساعد أفضل الممارسات والمبادئ التوجيهية للتنفيذ الناتجة عن "بيئة الحماية التنظيمية" الشركات ، ولا سيما الشركات الصغيرة والمتوسطة والمتناهية الصغر والشركات المبتدئة على تنفيذ القواعد التنظيمية. ** والثاني هو الخدمات الاجتماعية لحوكمة الذكاء الاصطناعي ، بما في ذلك معايير حوكمة الذكاء الاصطناعي ، والشهادات ، والاختبار ، والتقييم ، والتدقيق ، وما إلى ذلك. ** في مجال أمان الشبكة ، تعد الخدمات الاجتماعية لأمن الشبكة مثل شهادة أمان الشبكة والاختبار وتقييم المخاطر طريقة مهمة لتنفيذ المتطلبات التنظيمية. يمكن لحوكمة الذكاء الاصطناعي أن تتعلم من هذا النهج. في الوقت الحالي ، يعمل الاتحاد الأوروبي والمملكة المتحدة والولايات المتحدة و IEEE على الترويج للخدمات الاجتماعية لحوكمة الذكاء الاصطناعي. على سبيل المثال ، أطلقت IEEE شهادة أخلاقيات الذكاء الاصطناعي للصناعة ؛ [21] تأمل "خارطة الطريق لإنشاء نظام إيكولوجي فعال لشهادة الذكاء الاصطناعي" الصادرة عن المملكة المتحدة في تنمية صناعة شهادات ذكاء اصطناعي رائدة عالميًا ، من خلال خدمات شهادات منظمة العفو الدولية المحايدة من طرف ثالث (بما في ذلك تقييم الأثر ، ومراجعة التحيز ومراجعة الامتثال ، والشهادة ، وتقييم الامتثال) ، واختبار الأداء ، وما إلى ذلك) لتقييم ونشر مصداقية وامتثال أنظمة الذكاء الاصطناعي. تعتقد المملكة المتحدة أن هذه ستكون صناعة جديدة بمليارات الجنيهات الاسترلينية. [22] تحتاج الصين إلى الإسراع في إنشاء نظام خدمة اجتماعية سليم لحوكمة الذكاء الاصطناعي ، وتنفيذ تشريعات أولية ومتطلبات تنظيمية وتنفيذها بشكل أفضل من خلال خدمات حوكمة الذكاء الاصطناعي. بالإضافة إلى ذلك ، يمكن للطرق التنظيمية مثل المبادئ التوجيهية للسياسة والمرافئ الآمنة للمسؤولية والمشروعات التجريبية والتطبيقات الإيضاحية والمساءلة بعد الحدث أن تلعب دورًا مهمًا في سيناريوهات التطبيق المختلفة.

** من ناحية أخرى ، من الضروري الإسراع في تحسين الإطار القانوني لتداول البيانات واستخدامها ، ومواصلة تحسين مستوى توفير البيانات في مجال الذكاء الاصطناعي. ** الأول هو بناء إطار عمل قانوني للبيانات العامة المفتوحة والمشتركة على المستوى الوطني ، وتوحيد جودة البيانات ومعايير حوكمة البيانات ، واستخدام تنزيلات البيانات ، وواجهات API ، والحوسبة الخاصة (التعلم الموحد ، والحوسبة الآمنة متعددة الأطراف ، والآمنة وبيئات الحوسبة الموثوقة ، وما إلى ذلك) ، وإدارة البيانات المتنوعة والأساليب التقنية مثل مساحة البيانات لتعزيز أقصى مشاركة مفتوحة للبيانات العامة. والثاني هو إزالة العوائق المختلفة التي تعترض تطوير وتطبيق تكنولوجيا حوسبة الخصوصية وتكنولوجيا البيانات التركيبية. في الوقت الحالي ، في تداول واستخدام البيانات المختلفة ، تلعب تقنيات حوسبة الخصوصية مثل التعلم الموحد دورًا متزايد الأهمية ، ويمكن أن تحقق تأثيرات مثل "البيانات متاحة / قابلة للعد وغير مرئية" ، "البيانات لا تغير الخوارزمية / القيمة التحركات". مدفوعًا بتطوير الذكاء الاصطناعي وتطبيقات البيانات الضخمة ، يعد التعلم الموحد ، باعتباره طريقة الترويج والتطبيق الرئيسية في مجال حوسبة الخصوصية ، حاليًا المسار التقني الأكثر نضجًا. في الخطوة التالية ، يمكننا دعم تطبيق وتطوير تقنيات حوسبة الخصوصية بشكل أفضل مثل التعلم الموحد من خلال بناء مساحات بيانات في المجالات الاستراتيجية ، وصياغة معايير الصناعة لحوسبة الخصوصية ، وإصدار إرشادات قانونية لتنفيذ تقنيات حوسبة الخصوصية.

** تحتاج الحوكمة الأخلاقية للذكاء الاصطناعي إلى الانتقال من المبدأ إلى التطبيق **

مع تطور إضفاء الطابع المؤسسي وإضفاء الشرعية على الحوكمة الأخلاقية العلمية والتكنولوجية ، أصبح تعزيز الحوكمة الأخلاقية العلمية والتكنولوجية أحد "الأسئلة التي يجب الاختيار" و "الإلزامية" لمؤسسات العلوم والتكنولوجيا. بموجب مفهوم "الأخلاق أولاً" ، تعني متطلبات الحوكمة الأخلاقية للعلم والتكنولوجيا أنه لا يمكن لشركات التكنولوجيا أن تأمل في التعامل مع القضايا الأخلاقية للذكاء الاصطناعي بطريقة الإجراءات العلاجية اللاحقة للوقائع ، ولكنها تحتاج إلى المشاركة في دورة حياة الذكاء الاصطناعي من التصميم إلى التطوير إلى النشر ، ومن بينها ، الوفاء بفعالية بمسؤولية الهيئة الرئيسية لإدارة أخلاقيات العلوم والتكنولوجيا ، وتعزيز الانضباط الذاتي لأخلاقيات العلوم والتكنولوجيا بطرق مختلفة. بشكل عام ، في مجتمع رقمي عالي التقنية ، تحتاج شركات التكنولوجيا إلى التفكير في دمج حوكمة الذكاء الاصطناعي في مشهد حوكمة الشركات الخاص بها كوحدة لا تقل أهمية عن الوحدات الحالية مثل الشؤون القانونية والتمويل ومراقبة المخاطر. الجوانب التالية تستحق المزيد من الاستكشاف:

** أولاً ، من حيث الإدارة ، من الضروري إنشاء آلية أخلاقية لإدارة المخاطر بالذكاء الاصطناعي. ** تحتاج إدارة المخاطر الأخلاقية للذكاء الاصطناعي إلى العمل خلال دورة حياة الذكاء الاصطناعي بالكامل ، بما في ذلك مرحلة ما قبل التصميم ومرحلة التصميم والتطوير ومرحلة النشر وأنشطة الاختبار والتقييم خلال هذه المراحل ، وذلك من أجل التحديد والتحليل والتقييم بشكل شامل وإدارة وإدارة المخاطر الأخلاقية للذكاء الاصطناعي. يعتمد هذا على المؤسسة لإنشاء الهيكل التنظيمي المقابل والمعايير الإدارية ، مثل لجنة الأخلاقيات وعملية مراجعة الأخلاقيات وأدوات الإدارة الأخرى. قد ينظر صانعو السياسات في إصدار مبادئ توجيهية للسياسات في هذا الصدد.

ثانيًا ، من حيث التصميم ، من الضروري اتباع مفهوم التصميم الموجه للأشخاص وممارسة مفهوم "الأخلاق حسب التصميم" ** (Ethicsby Design). ** يعني التصميم الأخلاقي المضمن دمج القيم والمبادئ والمتطلبات والإجراءات الأخلاقية في تصميم وتطوير ونشر أنظمة الذكاء الاصطناعي والروبوتات والبيانات الضخمة. تحتاج الشركات إلى التفكير في البحث والتطوير في مجال الذكاء الاصطناعي وعملية التطبيق التي يقودها الفنيون ، والتركيز بشكل أكبر على الخلفية المتنوعة والمشاركة في أنشطة البحث والتطوير والتطبيقات في مجال الذكاء الاصطناعي. يعد تقديم السياسة والقانون والأخلاق والمجتمع والفلسفة وغيرهم من الموظفين متعددي التخصصات ومتعدد التخصصات في فريق تطوير التكنولوجيا الطريقة الأكثر مباشرة وفعالية لتضمين المتطلبات الأخلاقية في تصميم التكنولوجيا وتطويرها. في المستقبل ، يمكن لواضعي السياسات أن يتعاونوا مع الصناعة لتلخيص الخبرات والدروس ، وإصدار الإرشادات الفنية وأفضل الممارسات والوثائق الأخرى للتصميم الأخلاقي المضمّن.

** أخيرًا ، فيما يتعلق بالتكنولوجيا ، من الضروري الاستمرار في استكشاف الأساليب التقنية والموجهة نحو السوق للتعامل مع القضايا الأخلاقية للذكاء الاصطناعي وإنشاء تطبيقات ذكاء اصطناعي موثوقة. ** الأول هو الأداة الأخلاقية للذكاء الاصطناعي. يمكن حل العديد من المشكلات في تطبيقات الذكاء الاصطناعي ، مثل القابلية للتفسير والإنصاف والأمن وحماية الخصوصية وما إلى ذلك ، من خلال الابتكار التكنولوجي. بالتركيز على هذه القضايا ، استكشفت الصناعة بعض أدوات أخلاقيات الذكاء الاصطناعي وأدوات تدقيق الذكاء الاصطناعي ، والعمل المستقبلي في هذا المجال بحاجة إلى مزيد من التطوير. والثاني هو خدمة أخلاقيات الذكاء الاصطناعي (AIEthicsasa Service). [23] إنه مسار موجه نحو السوق.تقوم الشركات الرائدة في مجال أخلاقيات الذكاء الاصطناعي والشركات الناشئة في مجال أخلاقيات الذكاء الاصطناعي بتطوير حلول مسؤولة للذكاء الاصطناعي تركز على أدوات وخدمات أخلاقيات الذكاء الاصطناعي ، وتقدمها كخدمات تجارية. [24] تتوقع شركة Forrester للأبحاث والاستشارات أن المزيد والمزيد من شركات وشركات تكنولوجيا الذكاء الاصطناعي في المجالات الأخرى التي تطبق الذكاء الاصطناعي ستشتري حلولًا مسؤولة للذكاء الاصطناعي لمساعدتها على تنفيذ مبادئ أخلاقية عادلة وشفافة للذكاء الاصطناعي ، وسيتضاعف حجم السوق لخدمات أخلاقيات الذكاء الاصطناعي. والثالث هو طرق التعهيد الجماعي للتكنولوجيا مثل AI Ethics Bounty. على غرار مكافأة الثغرات الأمنية للشبكة (Bug bounty) ، ومكافأة تمييز الخوارزمية (Algorithmic Bias Bounty) وطرق التعهيد الجماعي التقنية الأخرى المستخدمة على نطاق واسع من قبل شركات الإنترنت ، يمكنها اكتشاف المشكلات الأخلاقية للذكاء الاصطناعي وتحديدها وحلها ، وتطوير أدوات تدقيق الذكاء الاصطناعي ، وإنشاء ستلعب تطبيقات الذكاء الاصطناعي الجديرة بالثقة دورًا مهمًا. أطلقت بعض الشركات الأجنبية والمؤسسات البحثية الجامعية ، مثل تويتر وجامعة ستانفورد ، تحدي مكافأة التمييز الخوارزمي وتحدي مراجعة الذكاء الاصطناعي ، ودعت المشاركين إلى تطوير أدوات لتحديد وتخفيف التمييز الخوارزمي في نماذج الذكاء الاصطناعي. ستلعب تنمية وتقوية المجتمع الأخلاقي للذكاء الاصطناعي من خلال أساليب التعهيد الجماعي للتكنولوجيا دورًا مهمًا في حوكمة الذكاء الاصطناعي.

** يجب أن يستمر تعميق التعاون العالمي في مجال حوكمة الذكاء الاصطناعي **

كما ذكرنا سابقًا ، تقدم الحوكمة العالمية للذكاء الاصطناعي وضعًا تنافسيًا لا يتوافق مع مفاهيم التكنولوجيا المنفتحة والمشتركة الموجهة للأفراد والتنمية الشاملة. تحتاج البلدان إلى مواصلة تعميق التعاون في الحوكمة الدولية للذكاء الاصطناعي ، وتعزيز صياغة الاتفاقيات الدولية بشأن أخلاقيات الذكاء الاصطناعي وحوكمته ، وتشكيل إطار دولي لحوكمة الذكاء الاصطناعي ومعاييره وقواعده بتوافق واسع ، وتعزيز التبادلات والتعاون في التكنولوجيا والمواهب والصناعات ، إلخ. . ، ومعارضة الإقصاء ، وتعزيز الشمول التكنولوجي والتكنولوجيا من أجل الخير ، وتحقيق التنمية الشاملة لجميع البلدان. تحتاج مشاركة الصين العميقة في حوكمة التكنولوجيا العالمية إلى اغتنام الجولة الجديدة من فرص وضع القواعد الدولية في مجالات الذكاء الاصطناعي والبيانات ، واقتراح حلول حوكمة الذكاء الاصطناعي التي تتوافق مع الإجماع العالمي باستمرار ، ومواصلة ضخ الحكمة الصينية في الحوكمة الرقمية العالمية و حوكمة الذكاء الاصطناعي. في الوقت نفسه ، نحتاج إلى تقوية صوتنا الدولي ، ودمج أفكارنا ومقترحاتنا وممارساتنا في المجتمع الدولي ، والسعي لمزيد من الاعتراف والإجماع ، وزيادة صوتنا وتأثيرنا.

مواجهة المستقبل ، مع التطوير المستمر لتكنولوجيا الذكاء الاصطناعي ، سيصبح الذكاء الاصطناعي أكثر قوة ، وقد يظهر الذكاء الاصطناعي العام (الذكاء العام الاصطناعي ، اختصارًا AGI) في المستقبل. سيكون للذكاء الاصطناعي العام مستوى ذكاء مكافئ للإنسان ويكون قادرًا على أداء أي مهمة فكرية يستطيع الإنسان القيام بها. من الناحية النظرية ، قد يصمم الذكاء الاصطناعي العام مستوى أعلى من الذكاء ، مما يؤدي إلى انفجار كبير في الذكاء ، يسمى "التفرد" ، مما يؤدي إلى الذكاء الخارق. من تطبيق الذكاء الاصطناعي الحالي إلى الذكاء الاصطناعي العام المستقبلي ، قد يكون قفزة من التغيير الكمي إلى التغيير النوعي. وقد أثار هذا مخاوف بشأن استبدال الذكاء الاصطناعي العام للوظائف البشرية ، والخروج عن نطاق السيطرة ، بل وحتى تهديد الوجود البشري. لذلك ، من أجل تطوير الذكاء الاصطناعي للأغراض العامة وقضايا السلامة والأخلاق المحتملة ، يحتاج العالم إلى التخطيط المسبق والعمل معًا لضمان أن تكون تقنية الذكاء الاصطناعي أكثر شمولاً وأمانًا وموثوقية ويمكن التحكم فيها لصالح البشرية جمعاء.

** ظهر هذا المقال لأول مرة في العدد 4 ، 2023 من "Journal of Shanghai Normal University (Philosophy and Social Sciences Edition)" **

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت