تريد هيئة المنافسة والأسواق في المملكة المتحدة منع استخدام الذكاء الاصطناعي لتقويض ثقة المستهلك.
قالت هيئة مراقبة المنافسة في المملكة المتحدة إن هناك "خطرًا حقيقيًا" من أن تنتهي التطورات في صناعة الذكاء الاصطناعي مع سيطرة عدد قليل من الشركات على السوق وتعرض المستهلكين لوابل من المعلومات الضارة.
وفي تقرير صدر في 18 سبتمبر/أيلول، قامت هيئة المنافسة والأسواق بالتحقيق في النماذج الأساسية للذكاء الاصطناعي وخلصت إلى أنه في حين أن الذكاء الاصطناعي لديه القدرة على تغيير الطريقة التي يعيش بها الناس ويعملون، فإن "هذه التغييرات قد تحدث بسرعة ويكون لها تأثير كبير". التأثير على المنافسة والمستهلكين."
وحذرت هيئة مراقبة المنافسة من أنه على المدى القصير، قد يواجه المستهلكون زيادة في المعلومات المضللة أو الاحتيال في مجال الذكاء الاصطناعي إذا كانت المنافسة ضعيفة أو فشل المطورون في الامتثال لقوانين حماية المستهلك.
وقال التقرير إنه على المدى الطويل، من المرجح أن ينتهي الأمر بعدد صغير من الشركات إلى اكتساب أو تعزيز قوة السوق، مما قد يؤدي إلى عدم قدرتها على تقديم أفضل المنتجات أو الخدمات، أو فرض أسعار مرتفعة.
وقالت هيئة أسواق المال: "من المهم عدم حدوث هذه النتائج"، وأضافت الرئيسة التنفيذية سارة كارديل: "لا يزال هناك خطر حقيقي من أن يتطور استخدام الذكاء الاصطناعي بطريقة تقوض ثقة المستهلك، أو يهيمن عليه عدد صغير من الشركات". إنهم يستخدمون قوى السوق لمنع الاقتصاد بأكمله من الاستفادة الكاملة.
ولمعالجة هذه المشكلة، اقترحت الهيئة التنظيمية عدة "مبادئ توجيهية" لضمان "حماية المستهلك والمنافسة الصحية مع السماح بتحقيق فوائد اقتصادية كاملة".
ويبدو أن المبادئ التوجيهية تركز على زيادة الوصول والشفافية - وخاصة عندما يتعلق الأمر بمنع الشركات من اكتساب ميزة من خلال استخدام نماذج الذكاء الاصطناعي.
وقالت هيئة تنظيم المنافسة في المملكة المتحدة إنها ستنشر تحديثًا للمبادئ واعتمادها في أوائل عام 2024، بالإضافة إلى رؤى حول التطوير الإضافي للنظام البيئي للذكاء الاصطناعي. وقالت إنها تعاونت مع مطوري الذكاء الاصطناعي والشركات التي تنشر التكنولوجيا.
ليست هذه هي المرة الأولى التي تدق فيها المملكة المتحدة ناقوس الخطر بشأن التطور السريع للذكاء الاصطناعي. وفي يونيو/حزيران، قال مات كليفورد، مستشار فريق عمل الذكاء الاصطناعي التابع لرئيس الوزراء، إن التكنولوجيا ستحتاج إلى التنظيم والسيطرة على مدى العامين المقبلين للحد من المخاطر الوجودية الكبيرة.
وفي يونيو أيضًا، أصدرت هيئة مراقبة الخصوصية اليابانية تحذيرًا للشركة الأم لـ ChatGPT، OpenAI، بشأن طرق جمع البيانات الخاصة بها.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
هيئة تنظيمية في المملكة المتحدة: المنافسة الضعيفة في سباق الذكاء الاصطناعي قد تضر المستهلكين
تريد هيئة المنافسة والأسواق في المملكة المتحدة منع استخدام الذكاء الاصطناعي لتقويض ثقة المستهلك.
قالت هيئة مراقبة المنافسة في المملكة المتحدة إن هناك "خطرًا حقيقيًا" من أن تنتهي التطورات في صناعة الذكاء الاصطناعي مع سيطرة عدد قليل من الشركات على السوق وتعرض المستهلكين لوابل من المعلومات الضارة.
وفي تقرير صدر في 18 سبتمبر/أيلول، قامت هيئة المنافسة والأسواق بالتحقيق في النماذج الأساسية للذكاء الاصطناعي وخلصت إلى أنه في حين أن الذكاء الاصطناعي لديه القدرة على تغيير الطريقة التي يعيش بها الناس ويعملون، فإن "هذه التغييرات قد تحدث بسرعة ويكون لها تأثير كبير". التأثير على المنافسة والمستهلكين."
وحذرت هيئة مراقبة المنافسة من أنه على المدى القصير، قد يواجه المستهلكون زيادة في المعلومات المضللة أو الاحتيال في مجال الذكاء الاصطناعي إذا كانت المنافسة ضعيفة أو فشل المطورون في الامتثال لقوانين حماية المستهلك.
وقال التقرير إنه على المدى الطويل، من المرجح أن ينتهي الأمر بعدد صغير من الشركات إلى اكتساب أو تعزيز قوة السوق، مما قد يؤدي إلى عدم قدرتها على تقديم أفضل المنتجات أو الخدمات، أو فرض أسعار مرتفعة.
وقالت هيئة أسواق المال: "من المهم عدم حدوث هذه النتائج"، وأضافت الرئيسة التنفيذية سارة كارديل: "لا يزال هناك خطر حقيقي من أن يتطور استخدام الذكاء الاصطناعي بطريقة تقوض ثقة المستهلك، أو يهيمن عليه عدد صغير من الشركات". إنهم يستخدمون قوى السوق لمنع الاقتصاد بأكمله من الاستفادة الكاملة.
ولمعالجة هذه المشكلة، اقترحت الهيئة التنظيمية عدة "مبادئ توجيهية" لضمان "حماية المستهلك والمنافسة الصحية مع السماح بتحقيق فوائد اقتصادية كاملة".
ويبدو أن المبادئ التوجيهية تركز على زيادة الوصول والشفافية - وخاصة عندما يتعلق الأمر بمنع الشركات من اكتساب ميزة من خلال استخدام نماذج الذكاء الاصطناعي.
وقالت هيئة تنظيم المنافسة في المملكة المتحدة إنها ستنشر تحديثًا للمبادئ واعتمادها في أوائل عام 2024، بالإضافة إلى رؤى حول التطوير الإضافي للنظام البيئي للذكاء الاصطناعي. وقالت إنها تعاونت مع مطوري الذكاء الاصطناعي والشركات التي تنشر التكنولوجيا.
ليست هذه هي المرة الأولى التي تدق فيها المملكة المتحدة ناقوس الخطر بشأن التطور السريع للذكاء الاصطناعي. وفي يونيو/حزيران، قال مات كليفورد، مستشار فريق عمل الذكاء الاصطناعي التابع لرئيس الوزراء، إن التكنولوجيا ستحتاج إلى التنظيم والسيطرة على مدى العامين المقبلين للحد من المخاطر الوجودية الكبيرة.
وفي يونيو أيضًا، أصدرت هيئة مراقبة الخصوصية اليابانية تحذيرًا للشركة الأم لـ ChatGPT، OpenAI، بشأن طرق جمع البيانات الخاصة بها.