تظهر منتجات ChatGPT في تيار لا نهاية له ، والتنظيم العالمي يعبر النهر من خلال الشعور بالحجارة

المصدر: Power Plant، المؤلف: Zhang Yongyi، Editor: Gao Yulei

* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *

في 31 يوليو ، تم إزالة منتجات الدردشة في متجر تطبيقات Apple في الصين بشكل جماعي.وفقًا لشركة Apple ، تحتاج المنتجات ذات الصلة إلى الحصول على ترخيص تشغيل.

ليس فقط الصين ، ولكن أيضًا الولايات المتحدة وأوروبا ، المصممتان على المنافسة في هذا المجال ، تعمل بنشاط على إنفاذ التشريعات واللوائح مع تشجيع الابتكار.

في أبريل 2021 ، نشرت المفوضية الأوروبية لأول مرة اقتراحًا لهيكل تنظيمي لتشغيل وإدارة تطبيقات التعلم الآلي ، مقترحة تنظيم الذكاء الاصطناعي. في ذلك الوقت ، كان الرأي الأكثر شيوعًا في صناعة الذكاء الاصطناعي لا يزال مزحة وو إندا الشهيرة بأن "القلق بشأن الذكاء الاصطناعي اليوم يشبه القلق بشأن الزيادة السكانية على كوكب المريخ."

ولكن بحلول عام 2023 ، لم يعد من الممكن أن تصبح مثل هذه الرؤية سائدة: لقد استغرق الأمر أقل من 6 أشهر للذكاء الاصطناعي التوليدي ليُظهر للعالم الإمكانات العظيمة لاستبدال البشر وتغيير العالم الحالي تمامًا - تمامًا كما تم تطويره في الحرب العالمية الثانية. مثل سلاح نووي.

قاد الفيزيائي جي روبرت أوبنهايمر تطوير أول قنبلة ذرية في العالم. في ذلك الوقت ، انتهت الحرب العالمية الثانية ، لكن القنبلة النووية ، باعتبارها أكثر الأسلحة رعباً في تاريخ البشرية ، لا تزال تهيمن على الاتجاه التاريخي إلى حد كبير: الولايات المتحدة لم تتبن الحكومة انتقادات واقتراحات الخبراء مثل أوبنهايمر بأن "الانتشار النووي سيؤدي إلى سباق تسلح غير مسبوق" ، مما أدى في النهاية إلى اندلاع سباق تسلح نووي بين الولايات المتحدة والاتحاد السوفيتي ممثلاً بـ تطوير القنبلة الهيدروجينية ذات "القنبلة النووية الخارقة" - وفي أثناء أزمة الصواريخ الكوبية ، تم جر الحضارة الإنسانية بأكملها تقريبًا إلى هاوية مظلمة لا يمكن استردادها.

تتشابه الأزمة التي واجهها أوبنهايمر مع "أزمة الذكاء الاصطناعي الشاملة" الحالية التي واجهها البشر: قبل أن يستخدم البشر الذكاء الاصطناعي لجر أنفسهم إلى مستقبل أكبر لا يمكن السيطرة عليه ، قم بتوجيهه إلى مستقبل أكثر ضخامة ولا يمكن السيطرة عليه. ولعل أفضل طريقة هي لتنفيذ الإشراف في مسار آمن.

في عام 2021 ، أصبح "استعداد الاتحاد الأوروبي ليوم ممطر" في النهاية أول إطار تنظيمي لصناعة الذكاء الاصطناعي في تاريخ البشرية - وهو أيضًا سلف قانون الاتحاد الأوروبي للذكاء الاصطناعي (قانون الذكاء الاصطناعي).

ومع ذلك ، عندما صمم المشرعون مشروع القانون هذا ، لم يتوقعوا وجود ذكاء اصطناعي توليدي أو نماذج كبيرة بحلول نهاية عام 2022. لذلك ، فإن الارتفاع الهائل للذكاء الاصطناعي التوليدي في عام 2023 قد أضاف أيضًا المزيد القسم الخاص بالذكاء الاصطناعي التوليدي: بما في ذلك شفافية استخدامه للنماذج الكبيرة وتنظيم جمع / استخدام بيانات المستخدم.

في الوقت الحالي ، تم التصويت على هذا القانون من قبل البرلمان الأوروبي في منتصف شهر يونيو ، والخطوة التالية للشروط النهائية هي وضع اللمسات الأخيرة على القانون في المفاوضات بين هيئات صنع القرار الثلاثة في الاتحاد الأوروبي - البرلمان والمجلس والمفوضية. سيتم التوصل إلى اتفاق ودخل حيز التنفيذ في النهاية.

في الصين ، هناك أيضًا تشريع بشأن الذكاء الاصطناعي التوليدي قيد التقدم: في 13 يوليو ، تم إصدار "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي" (يشار إليها فيما يلي باسم "الإجراءات المؤقتة") بشكل مشترك من قبل سبع وزارات ولجان بما في ذلك إدارة الفضاء الإلكتروني في الصين ، وسيدخل حيز التنفيذ في أغسطس.

قد يصبح هذا هو أول تنظيم عام لإدارة الذكاء الاصطناعي سيتم تنفيذه أخيرًا. في الجولة الماضية من "العرق التشريعي للذكاء الاصطناعي" ، تجاوزت عملية تشريعات الذكاء الاصطناعي في الصين ذلك ، وأصبحت اللائحة المحددة الأسرع نموًا في مجال التوليف. منظمة العفو الدولية.

في البلدان الأخرى التي هي في المستوى الأول من تطوير الذكاء الاصطناعي ، مثل المملكة المتحدة والولايات المتحدة ، يجري أيضًا التشريع التنظيمي بشأن الذكاء الاصطناعي: في 16 مارس ، أطلق مكتب حقوق الطبع والنشر الأمريكي مبادرة لدراسة قانون حقوق الطبع والنشر وقضايا السياسة الناشئة عن تكنولوجيا الذكاء الاصطناعي: بما في ذلك نطاق حقوق الطبع والنشر في الأعمال التي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي ، واستخدام المواد المحمية بحقوق الطبع والنشر لأغراض التعلم الآلي. أصدرت حكومة المملكة المتحدة أول إطار تنظيمي للذكاء الاصطناعي في 4 أبريل. منذ ذلك الحين ، أصدرت الإدارة الوطنية للاتصالات والمعلومات في الولايات المتحدة (NTIA) مسودة مساءلة تتعلق بالذكاء الاصطناعي لالتماس تعليقات عامة أوسع حول إجراءات وسياسات المساءلة في الذكاء الاصطناعي.

"هل يجب أن نطور تفكيرًا غير بشري قد يحل في النهاية محل البشر تمامًا من حيث الكمية والذكاء؟" هذا هو السؤال الذي أثير في خطاب مفتوح وقعه عدد من الرؤساء التنفيذيين والباحثين المعروفين في مارس من هذا العام. إذا نظرنا إلى الوراء الآن ، في طريق تطوير الذكاء الاصطناعي التوليدي ، فإن دعوة "الجميع يوقف البحث لمدة ستة أشهر" هي دعوة مثالية للغاية. في الوقت الحالي ، قد تكون فقط الدول التي تروج للقوانين التوليدية المتعلقة بالذكاء الاصطناعي والتي تلعب دورًا تنظيميًا فعالة. السبب.

** الابتكار والمساءلة **

يعد تشريع وحوكمة الذكاء الاصطناعي التوليدي مجالًا جديدًا لم يطأه أحد من قبل ، ويتعين على كل مشرع أن يتحمل ضغوط الشكوك من العالم الخارجي: في مؤتمر مطوري Google I / O لهذا العام ، أصدرت Google رسميًا مجموعتها الذكاء الاصطناعي التوليدي روبوت المحادثة Bard ، لكن نطاق الخدمة يستبعد تمامًا المنطقة الأوروبية.

هذا يجعل العديد من الباحثين / الشركات الأوروبية في مجال الذكاء الاصطناعي يتساءلون: لماذا أوروبا مفقودة؟ لاحقًا ، صرحت Google مرات عديدة أنها "تتطلع إلى الانفتاح على المستخدمين الأوروبيين" ، والذي تم تفسيره أيضًا على أنه "إجراء تحوط" لـ Google لتجنب المنطقة الرمادية القانونية الموجودة في الذكاء الاصطناعي التوليدي ، مما أدى إلى فرض غرامات ضخمة في الاتحاد الأوروبي .

بحلول يوليو ، كشفت Google أخيرًا عن السبب: كتب Jack Krawczyk ، رئيس منتج Bard ، في منشور مدونة: في بداية البحث ، اقترحت لجنة حماية البيانات الأيرلندية (DPC) بالفعل نية إطلاق Bard في أوروبا ، ولكن في النهاية ، فقد استغرق الأمر حتى يوليو لتلبية طلب المنظم لتقديم المعلومات.

اليوم ، تم إصدار "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي ، ويشير كل قانون تقريبًا بشكل مباشر إلى المشكلات الناشئة أو المحتملة في التطور الحالي للذكاء الاصطناعي: انتشار المعلومات الخاطئة / الخاطئة ، والتعليم المحتمل / الصحة العقلية وغيرها من المجالات الرئيسية. مشاكل.

ولكن بعد ذلك وجد المشرعون أن الجزء الأكثر تعقيدًا في حل هذه المشكلة يكمن في كيفية تحديد التشريع: من الضروري حماية الابتكار / تجنب احتكار الشركات العملاقة في مجال الذكاء الاصطناعي ، ولضمان إمكانية التحكم في الذكاء الاصطناعي إلى حد معين. . تجنب الإغراق بالمحتوى الزائف. لقد أصبح النواة المشتركة للتشريعات التوليدية للذكاء الاصطناعي في الصين والولايات المتحدة وأوروبا ، لكن التركيز عليها مختلف في اللوائح الفعلية.

تسببت العديد من القضايا الأوروبية السابقة المتعلقة بالذكاء الاصطناعي في معاملة سلبية من مؤسسات مثل Google و OpenAI. يشعر العديد من شركات التكنولوجيا الأوروبية المحلية وحتى المشرعين بالقلق من أن التشريعات الصارمة للغاية ستسمح لأوروبا بالعودة إلى المستوى الرائد في العالم بمساعدة الذكاء الاصطناعي. الصناعة. أصبح تحقيق الرؤية أمرًا صعبًا: بعد إقرار "قانون الذكاء الاصطناعي" رسميًا ، يحق للاتحاد الأوروبي إصدار غرامة تصل إلى 30 مليون يورو ، أو 6٪ من إيرادات الشركة السنوية ، ضد الشركات التي تنتهك أنظمة الذكاء الاصطناعي. يعد هذا بلا شك تحذيرًا واضحًا لشركات مثل Google و Microsoft التي ترغب في توسيع أعمال الذكاء الاصطناعي التوليدية في أوروبا.

في إصدار حزيران / يونيو من "قانون الذكاء الاصطناعي" ، أدرج المشرعون في الاتحاد الأوروبي بوضوح أحكامًا جديدة لتشجيع الابتكار المسؤول في مجال الذكاء الاصطناعي مع الحد من المخاطر التكنولوجية ، والإشراف المناسب على الذكاء الاصطناعي ، ووضعه في المقدمة. موقف هام: المادة 1 من مشروع القانون بوضوح يدعم التدابير المبتكرة للمؤسسات الصغيرة والمتوسطة الحجم والشركات الناشئة ، بما في ذلك إنشاء "صناديق حماية تنظيمية" وتدابير أخرى لتقليل عبء الامتثال على الشركات الصغيرة والمتوسطة الحجم والشركات الناشئة.

ومع ذلك ، قبل بيع خدمات الذكاء الاصطناعي أو نشر الأنظمة في السوق ، يجب أن يفي الذكاء الاصطناعي التوليدي بسلسلة من المتطلبات التنظيمية لإدارة المخاطر والبيانات والشفافية والتوثيق. وفي الوقت نفسه ، استخدام الذكاء الاصطناعي في المجالات الحساسة مثل البنية التحتية الحيوية سوف تعتبر "عالية المخاطر" يتم تضمينها في نطاق الإشراف.

في الوقت الحالي ، اتخذت مواصفات الذكاء الاصطناعي المستندة إلى "الإجراءات المؤقتة" إجراءات بالفعل: في 31 يوليو ، تمت إزالة عدد كبير من التطبيقات التي قدمت خدمات ChatGPT في متجر التطبيقات في الصين بشكل جماعي من قبل Apple ، وفعلت ذلك. لا توفر وصولاً مباشرًا إلى ChatGPT ، ولكنها تركز أيضًا على وظائف AI. لن تتأثر مجموعة أخرى من التطبيقات في الوقت الحالي.

في الرد على المطورين ، فإن اقتراح المراجعة الرسمي لشركة Apple هو أن "خدمات الذكاء الاصطناعي التوليدية يجب أن تفي بمتطلبات الترخيص للعمل في الصين ، بما في ذلك الحصول على ترخيص من وزارة الصناعة وتكنولوجيا المعلومات." هذا التغيير في مواصفات المراجعة يتوافق أيضًا بشكل مباشر إلى فئة "تقديم الخدمات للجمهور" في "الإجراءات المؤقتة".

كما تشير المادة 15 من "الإجراءات المؤقتة" الصينية بوضوح إلى طريقة الإدارة لإنشاء محتوى محفوف بالمخاطر "يجب على مقدمي الخدمة اتخاذ تدابير على الفور مثل إيقاف التوليد ، ووقف الإرسال ، والقضاء ، واتخاذ تدابير مثل التدريب على تحسين النموذج لإجراء التصحيح". تم ذكر هذا بالفعل في "مسودة للتعليقات" ؛ ومع ذلك ، مقارنة بالإصدار السابق ، يعد الوصف في "الإجراءات المؤقتة" أكثر اعتدالًا ، وتم حذف وصف الموعد النهائي مثل "التصحيح في غضون ثلاثة أشهر" .

من بين الخلافات الحالية حول ولادة الذكاء الاصطناعي التوليدي ، الخلافات المتعلقة بحقوق الطبع والنشر للبيانات المستخدمة لتدريب النماذج اللغوية واسعة النطاق للذكاء الاصطناعي التوليدي ، شعرت الشركات المصنعة في المستوى الأول من تطوير الذكاء الاصطناعي بأنها محدودة بالفعل بسبب الافتقار إلى محتوى عالي الجودة. سقف غير مرئي "، ولكن في الوقت نفسه ، بدأ عدد لا يحصى من المبدعين ووسائل الإعلام في الشروع في إجراءات قانونية وإجراءات أخرى بشأن قضايا حقوق الطبع والنشر الناجمة عن الذكاء الاصطناعي. من الوشيك صياغة بنود حماية حقوق الطبع والنشر للمحتوى لتطوير الذكاء الاصطناعي التوليدي.

لذلك ، هذا أيضًا هو محور التشريع التوليدي للذكاء الاصطناعي في الولايات المتحدة وأوروبا: يتطلب "قانون الذكاء الاصطناعي" الأوروبي بوضوح من موردي النماذج على نطاق واسع إعلان ما إذا كانوا يستخدمون مواد محمية بحقوق الطبع والنشر لتدريب الذكاء الاصطناعي ، وفي نفس الوقت تسجيل معلومات سجل كافية للمبدعين للحصول على تعويض ؛ بينما أصدر مكتب حقوق الطبع والنشر الأمريكي مراجعة جديدة ، وطلب اقتراحات بشأن قضايا حقوق النشر الواسعة التي أثارها الذكاء الاصطناعي التوليدي ، والسعي إلى تشريع خاص لحلها.

في "الإجراءات المؤقتة" الحالية ، تم حذف الفقرات ذات الصلة في المسودة للتعليقات في أبريل ، وتركت "الإجراءات المؤقتة" الحالية مع أحكام فارغة بشأن حماية حقوق الملكية الفكرية فيما يتعلق بمصادر البيانات ، والتي تحتاج إلى تحسين على وجه السرعة.

ومع ذلك ، بالنسبة للنماذج الكبيرة التي يعتمد عليها الذكاء الاصطناعي في التنمية ؛ فإن قانون التطوير هو البحث عن البيانات على الإنترنت لتسريع التطوير التكراري للنماذج الكبيرة ، ومن المرجح أن تتسبب القيود ذات الحجم الواحد المناسب للجميع ضربة كبيرة للصناعة بأكملها. "الإعفاء" المذكور في سيناريوهات مختلفة: في "قانون الذكاء الاصطناعي" الخاص بالاتحاد الأوروبي ، تم تضمين إعفاء لبحوث الذكاء الاصطناعي من قبل مطوري البرامج مفتوحة المصدر: التعاون وبناء مكونات الذكاء الاصطناعي في بيئة مفتوحة ستتلقى خاصة حماية. في الوقت نفسه ، في "التدابير المؤقتة" ، توضح البنود ذات الصلة أيضًا نطاق الإعفاء من القانون:

"طالما أن الشركات ومؤسسات البحث العلمي وما إلى ذلك لا تقدم خدمات ذكاء اصطناعي توليدية علانية للجمهور ، فإن هذا القانون لا ينطبق".

"التشريع في مجال الملكية الفكرية لا يزال بحاجة إلى مزيد من الوقت للبحث والتوضيح." وقال مستشار قانوني يخدم حاليًا مصنعي النماذج الكبيرة للصحفيين: "مجموعات البيانات الصينية عالية الجودة نادرة أكثر من المحتوى الإنجليزي ، وخصائص إنتاجية يحدد تدريب الذكاء الاصطناعي أنه حتى الشركات العملاقة لا يمكنها توقيع العقود بشكل كامل مع كل منصة وكل منشئ محتوى بشكل مستقل ، ناهيك عن أن رسوم الترخيص المرتفعة تمثل بالفعل ضربة هائلة للشركات الناشئة ".

"ربما لا يمكن ترك المشكلة الحالية إلا للوقت لتطوير الصناعة للحصول على حلول عملية أفضل." وأضاف المستشار المنافسة والتعاون. على الرغم من المنافسة بين الصين والولايات المتحدة ، فقد أصبح تطوير الذكاء الاصطناعي أحد ساحات القتال الرئيسية للولايات المتحدة لاحتواء تنمية الصين ، ولكن في مجال تشريعات الذكاء الاصطناعي التوليدية ، أصبح التعاون بين الصين والولايات المتحدة وأوروبا يتطور تدريجياً. التيار.

في هذه المرحلة ، أدركت شركات الذكاء الاصطناعي في الولايات المتحدة المخاطر التي تصاحب تطوير الذكاء الاصطناعي. قُطعت وعود لضمان أن الذكاء الاصطناعي "لا يفعل الشر": صرحت شركة OpenAI أن مهمتها المعلنة هي "ضمان أن يستفيد الذكاء العام الاصطناعي البشرية جمعاء". تتضمن مبادئ تشغيل DeepMind الالتزام بـ "أن تكون رائدًا مسؤولاً في مجال الذكاء الاصطناعي" ، بينما يتعهد مؤسسو DeepMind بعدم الانخراط في أبحاث الذكاء الاصطناعي الفتاكة ، كما تنص مبادئ أبحاث الذكاء الاصطناعي في Google أيضًا على أن Google لن تنشر أو تصمم أسلحة التي تضر بالبشر ، أو الذكاء الاصطناعي الذي ينتهك المعايير الدولية للمراقبة.

في 26 يوليو ، أطلقت Anthropic و Google و Microsoft و OpenAI منتدى Frontier Model Forum ، وهي هيئة صناعية تركز على ضمان التطوير الآمن والمسؤول لنماذج الذكاء الاصطناعي المتطورة.

يهدف المنتدى إلى "العمل مع صانعي السياسات والأوساط الأكاديمية والمجتمع المدني لتقليل المخاطر وتبادل المعرفة حول المخاطر الأمنية" مع تطوير أبحاث الذكاء الاصطناعي. في الوقت نفسه ، الاندماج بنشاط في التعاون الدولي متعدد الأطراف القائم: بما في ذلك صياغة سياسات مجموعة الدول السبع ومنظمة التعاون والتنمية في الميدان الاقتصادي والمنظمات الأخرى بشأن الذكاء الاصطناعي التوليدي. من أجل تعزيز التزامن بين الدول في اتجاه التشريعات والمفاهيم التنظيمية.

في وقت سابق ، علقت مجلة تايم على أن هناك العديد من الاحتمالات للتعاون بين الصين والولايات المتحدة باعتبارهما "لاعبين مهمين" في الذكاء الاصطناعي التوليدي ، وأوروبا ، والتي غالبًا ما كانت "رائدة" بحكم الواقع في تشريعات التكنولوجيا الجديدة ، فهي في مصلحة من جميع الأطراف لبدء التعاون في المرحلة التشريعية ، وهو أيضًا أحد الوسائل المهمة لتعزيز تطوير الذكاء الاصطناعي التوليدي.

يتوافق هذا أيضًا مع آراء Max Tegmark ، الأستاذ في معهد ماساتشوستس للتكنولوجيا ومؤسس معهد Future of Life: "تتمتع الصين بمكانة مميزة في العديد من مجالات الذكاء الاصطناعي التوليدي ، ومن المرجح أن تصبح رائدة في التحكم الذكاء الاصطناعي."

يمثل عدد النماذج واسعة النطاق في الصين والولايات المتحدة 90٪ من العالم ، لذا فإن التنسيق التشريعي بين الصين والولايات المتحدة وأوروبا سيحدد اتجاه التنمية في صناعة الذكاء الاصطناعي التوليدية العالمية. أصبح "التنسيق القانوني مع الصين على أساس التوافق مع مصالح الولايات المتحدة" إجماعًا للأوساط السياسية والأكاديمية الأمريكية.

تغطية قصة ميزة السلكية

الأكثر تمثيلا هي مقاييس الدرجات لمخاطر الذكاء الاصطناعي: ذكرت "التدابير المؤقتة" في الصين "الحكمة الشاملة والتصنيف والإشراف على الدرجات لخدمات الذكاء الاصطناعي التوليدية" ، لكنها لم تشرح بالتفصيل التصنيف في الإصدار الحالي في الوقت الحالي ، فقط فقرات مثل " وضع قواعد أو مبادئ توجيهية بشأن التصنيف والتصنيف المقابل ".

يقترح "قانون الذكاء الاصطناعي" الأوروبي أيضًا نظام درجات يتوافق مع التزامات مطوري الذكاء الاصطناعي بمستويات مخاطر مختلفة. يتضمن "مستوى التهديد" الحالي للذكاء الاصطناعي أربع فئات:

  • الذكاء الاصطناعي ذو المخاطر المحدودة
  • الذكاء الاصطناعي عالي الخطورة
  • مستوى غير مقبول من المخاطر
  • الذكاء الاصطناعي التوليدي: منتجات مثل ChatGPT

في الإصدار الحالي ، يستخرج "قانون الذكاء الاصطناعي" الذكاء الاصطناعي التوليدي كتصنيف مستقل ، وفي الوقت نفسه يقيد بشكل صارم المنتجات المصنفة على أنها "ذكاء اصطناعي عالي الخطورة". إمكانية المخاطرة. يعتبر هذا أيضًا "مخططًا مرجعيًا" للتشريعات المستقبلية بشأن مخاطر الذكاء الاصطناعي في الصين والولايات المتحدة.

بالإضافة إلى ذلك ، انطلاقا من العملية التشريعية الفعلية ، فإن دعوة الجمهور ومؤسسات أبحاث الذكاء الاصطناعي للمشاركة في العملية التشريعية هي إجماع تشكلت من قبل الهيئات التنظيمية في مختلف البلدان من خلال التجربة في الأشهر الستة الماضية. وهو "شرط الظل" الذي لا يمكن استجوابه.

"قد لا يكون الذكاء الاصطناعي التوليدي مثالياً أبدًا ، ولكن القانون مقدر له أن يلعب دورًا رئيسيًا في الاتجاه الرئيسي لتطوير الذكاء الاصطناعي"

تمامًا كما لم يندم أوبنهايمر أبدًا على تطوير القنبلة الذرية في نيو مكسيكو على الرغم من أنه عارض استخدام الأسلحة النووية في الحرب ، لا يمكن لأحد أن يمنع الباحثين الفضوليين من استخدام التكنولوجيا الحالية لتطوير ذكاء اصطناعي أكثر ذكاءً ، علمًا لن تتوقف وتيرة الاستكشاف عند هذا الحد. الإشراف "الضروري والمعقول" هو "مطب السرعة" على طريق التشغيل المحموم للذكاء الاصطناعي ، وهو أيضًا "خط الدفاع الأخير" لمنع الذكاء الاصطناعي التوليدي من التسبب في ضرر حقيقي.

لكن التركيز على "كيفية تجنب التخلف عن الركب في سباق الذكاء الاصطناعي الناجم عن التنظيم" لا يزال أحد أكثر الأشياء التي تثير قلق المشرعين. مما لا شك فيه أن التشريعات ذات الصلة ستصبح أكثر اكتمالا مع المزيد من الخبرة والتغذية الراجعة.

"ستتمسك الوكالات التنظيمية بروح التشريعات العلمية والتشريعات المفتوحة ، وتجري المراجعات والتحسينات في الوقت المناسب." قد يكون المقطع المتعلق بالذكاء الاصطناعي التوليدي في "الإجراءات المؤقتة" هو أفضل مبدأ للتشريع في عصر الذكاء الاصطناعي التوليدي.

شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • أعجبني
  • تعليق
  • مشاركة
تعليق
0/400
لا توجد تعليقات
  • تثبيت