* مصدر الصورة: تم إنشاؤه بواسطة أداة Unbounded AI *
دخلت "حرب النموذج الألف" التي أطلقتها GPT تدريجياً "لعبة البيانات الحاسمة".
أصبحت "البيانات عالية الجودة" و "حجم البيانات" المفتاح للنماذج الكبيرة لوضع الحواجز بسرعة والتنافس من أجل المستقبل. وفقًا لو تشاو ، مدير لجنة خبراء CITIC Think Tank ومدير معهد الصين لأبحاث الأوراق المالية ، "في المستقبل ، سيتم تحديد 20٪ من النموذج بواسطة الخوارزميات ، و 80٪ من خلال جودة البيانات. بعد ذلك ، ستكون البيانات عالية الجودة هي المفتاح لتحسين أداء النموذج."
ومع ذلك ، فإن البيانات الواقعية أصبحت نادرة. قد تنفد برامج الروبوت المدعومة بالذكاء الاصطناعي مثل ChatGPT قريبًا من النص في الكون.
دراسة مشتركة "هل ستنفد البيانات لدينا؟" "يعطي حدًا زمنيًا: قد تصبح البيانات التي منشؤها الإنسان نادرة بشكل متزايد في المستقبل ، وقد يتم استنفاد بيانات اللغة الطبيعية عالية الجودة بواسطة نماذج اللغات الكبيرة في أقرب وقت ممكن بحلول عام 2026.
كيف تضمن دفقًا ثابتًا من البيانات لتوفير تدريب نموذج كبير؟ بينما تحاول المنظمات الدولية مفتوحة المصدر وعمالقة الأعمال التجارية باستمرار ، فإنها تعاني أيضًا من الخلاف.هناك أسئلة لا حصر لها حول حماية حقوق الملكية وخصوصية البيانات وأمن الشبكة الناتجة عن جمع البيانات.
في مارس من هذا العام ، أبلغ العديد من مستخدمي Windows 11 أنهم "أُجبروا على فتح نافذة منبثقة" ، مما دفعهم إلى "معالجة بياناتك خارج البلد أو المنطقة التي تتواجد فيها" ، ولا يوجد خيار "للإلغاء" ، ويمكنهم فقط النقر فوق خيار "التالي" ، وإلا فلن يتمكنوا من الدخول إلى سطح مكتب النظام.
أثارت هذه الخطوة مخاوف بين مستخدمي نظام التشغيل Windows بشأن تسرب البيانات الخاصة في الخارج. في هذا الصدد ، صرحت Microsoft أنه بعد قيام المستخدمين بتحديث Windows 11 واستخدامه ، سيتم إرسال البيانات من الصين. نظرًا لأن مركز تسجيل برامج Microsoft موجود في الولايات المتحدة ، بعد دمج ChatGPT في بحث Bing ومتصفح Edge ، فإنه يحتاج أيضًا إلى دعم مركز البيانات الأمريكي ، لذلك قد يتم إرسال بيانات المستخدمين الصينيين إلى الخارج.
صديق مايكروسوفت الحميم Open AI ، بينما كان يستفيد من البيانات الضخمة السابقة ، واجه أيضًا شكوكًا. في نهاية شهر يونيو ، تعرضت شركة OpenAI لدعوى جماعية ، بتهمة سرقة "كمية كبيرة من البيانات الشخصية" لتدريب ChatGPT. فرض المسك حدا مؤقتا لعدد التغريدات المقروءة في 1 يوليو لهذا السبب.
حذرت Alphabet الموظفين من استخدام برامج الدردشة الآلية بشكل أعمى ، بما في ذلك Google Bard ، التي تروج لها في الأسواق العالمية. في 1 حزيران (يونيو) ، قامت Google بتحديث بيان الخصوصية الخاص بها ، محذرة المستخدمين إلى "الرجاء عدم تضمين معلومات سرية أو حساسة في المحادثات مع Bard."
من ناحية ، يبني Crazy All-in حذافة بيانات للمستخدمين العالميين ، ومن ناحية أخرى ، فإنه يتوخى الحذر بشأن بيانات الأعمال الخاصة به. وقد أجبر هذا النوع من "المعايير المزدوجة" معظم الشركات في جميع أنحاء العالم على تبني "الدفاع النشط". بدأت العديد من الشركات حول العالم ، مثل Samsung و Amazon ، في إنشاء حواجز حماية لروبوتات الدردشة الذكية. وأطلقت Microsoft و Google في الوقت المناسب أدوات الحوار لعملاء الأعمال ، مما يضمن عدم استيعاب البيانات في نماذج الذكاء الاصطناعي العامة ، لكن العملاء يحتاجون إلى دفع رسوم عالية مقابل ذلك.
فيما يتعلق بالمخاطر التي قد تنشأ عن الطريقة التي تستخدم بها AIGC البيانات وتحصل عليها ، فقد تدخل المنظمون في مختلف البلدان.
** أعلن منظم البيانات الإيطالي Garante فرض حظر كامل على ChatGPT في 31 مارس 2023 ** وحظر OpenAI من معالجة بيانات المستخدم الإيطالي. بعد أن وعد OpenAI بإجراء تحسينات مماثلة ، استأنف ChatGPT خدمته في إيطاليا.
لاحقًا ، اتخذت ** ألمانيا وفرنسا وأيرلندا أيضًا إجراءات مضادة **. طلبت إسبانيا من مجلس حماية البيانات الأوروبي (EDPB) تقييم مشكلات حماية الخصوصية في ChatGPT. كما ذكرت لجنة حماية المعلومات الشخصية الكورية أنها بدأت تحقيقًا في تسرب البيانات لمستخدمي ChatGPT الكوريين.
بلدنا أيضا تصرف في وقت مبكر. في 13 يوليو ، أصدرت ** إدارة الفضاء الإلكتروني الحكومية في الصين "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي" ** (يشار إليها باسم "الإجراءات المؤقتة"). هذا هو أول تشريع خاص لبلدي في مجال الذكاء الاصطناعي التوليدي.
أوضحت "الإجراءات المؤقتة" المبادئ لأول مرة ، "إذا كان توفير خدمات الذكاء الاصطناعي التوليدية من خارج جمهورية الصين الشعبية لا يتوافق مع القوانين واللوائح الإدارية وأحكام هذه التدابير ، يتعين على إدارة معلومات الشبكة الوطنية إخطار الوكالات ذات الصلة لاتخاذ التدابير التقنية وغيرها من التدابير اللازمة للتعامل معها".
بالإضافة إلى ذلك ، توضح أيضًا نطاق تطبيق الإجراءات: فهي تنطبق على الخدمات التي تنشئ نصًا وصورًا وصوتًا وفيديو ومحتويات أخرى للجمهور في الصين ، وتستبعد بوضوح أنشطة البحث والتطوير والتطبيقات التي لا تقدم خدمات للجمهور المحلي من نطاق التطبيق.
هذا يعني أن ** موفري خدمات AIGC في الخارج (سواء كانت طبقة النموذج أو طبقة التطبيق) سيخضعون للأحكام ذات الصلة من "الإجراءات المؤقتة" ، سواء كانوا يقدمون خدمات ذات صلة مباشرة إلى الصين ، أو يقدمون خدمات غير مباشرة من خلال واجهات API أو "تغليف" أو "تداخل". بالنسبة للمصنعين المحليين ، سيتم تطبيق الإجراءات المؤقتة بغض النظر عما إذا كانت مصرح بها بشكل صحيح من قبل مزودي خدمة AIGC في الخارج.
لا تعرف البيانات حدودًا ، لكن أمن البيانات له حدود. لقد رسم إصدار "الإجراءات المؤقتة" الحدود لشركات التكنولوجيا المحلية واسعة النطاق ورجال الأعمال المشاركين في نماذج واسعة النطاق ، وقدم مرجعًا للخبرة للإصدار اللاحق "لقانون الذكاء الاصطناعي". في هذا الصدد ، تعتقد الأوساط الأكاديمية والشركات عمومًا أن "الإجراءات المؤقتة" صدرت في الوقت المناسب وبنت الثقة في تطوير الذكاء الاصطناعي في الصين.
بالإضافة إلى المستوى التشريعي ، تسعى الصناعة أيضًا إلى تحقيق اختراقات من خلال جهودها الخاصة. أعربت شركات التكنولوجيا التي أطلقت نماذج واسعة النطاق في الأشهر الستة الماضية عن تأكيدها على السلامة والمصداقية المذكورة في "الإجراءات المؤقتة".
قال بايدو إنه فقط من خلال إنشاء وتحسين القوانين واللوائح والأنظمة المؤسسية والأخلاقيات لضمان التطور الصحي للذكاء الاصطناعي ، يمكن إنشاء بيئة ابتكارية جيدة. 360 يقترح بناء نموذج كبير مملوك "آمن وموثوق ويمكن التحكم فيه وسهل الاستخدام". اقترحت Alibaba Cloud أن "بناء ذكاء اصطناعي آمن وموثوق" أصبح إجماعًا صناعيًا بشكل تدريجي. ذكرت JD Cloud أن الجيل التالي من البنية التحتية الرقمية يحتاج إلى تلبية الخصائص الأربع للتكامل والانفتاح والتعاون الفعال وأداء التكلفة القصوى والأمان وإمكانية التحكم.
التخطيط الصناعي القائم على المنطقة بدأ بالفعل في الاستكشاف.
منذ وقت ليس ببعيد ، أصدرت بكين "عشرون إجراءً بشأن البيانات" ، حيث قدمت آراء حول التعاون الصناعي وبناء نظام موثوق لتداول البيانات: دعم منطقة التنمية الاقتصادية والتكنولوجية في بكين وغيرها من المجالات لتنفيذ أنظمة البنية التحتية للبيانات التجريبية ، وإنشاء مرتفعات للسياسات ، ومساحات موثوقة ، ومصانع بيانات.
في الواقع ، في وقت مبكر من شهر مايو من هذا العام ، أطلق مكتب بلدية بكين للاقتصاد وتكنولوجيا المعلومات ، ولجنة إدارة Zhongguancun التابعة للجنة البلدية للعلوم والتكنولوجيا ، ولجنة التنمية والإصلاح البلدية "برنامج شراكة الابتكار في مجال الذكاء الاصطناعي العام لبكين" ، والآن تم الإعلان عن المرحلة الثانية من قائمة الشركاء.
تتوقع الخطة الجمع بين المؤسسات المبتكرة المستقلة وذات المصداقية في بكين لتعزيز التطوير المتوافق وعالي الجودة لصناعة الذكاء الاصطناعي. تشمل القائمة شركاء قوة الحوسبة مثل Alibaba Cloud ، وشركاء البيانات مثل مركز البيانات الكبيرة في بكين ، وشركاء النموذج مثل Baidu ، وشركاء التطبيق مثل Tongxin UOS و WPS ، وشركاء الاستثمار مثل IDG و CDH.
تتضمن الخطة الشركات الرائدة في العقد الرئيسية في سلسلة صناعة الذكاء الاصطناعي ، مما يضع أساسًا بيئيًا مستقلًا وموثوقًا للصين لقياس بيئة الذكاء الاصطناعي المفتوحة AI + Microsoft + Nvidia.
.نهاية.
شاهد النسخة الأصلية
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
هل ستتدفق البيانات إلى الخارج باستخدام النموذج الدولي الكبير؟ يوضح التشريع التوليدي الأول للذكاء الاصطناعي
** المصدر: ** موظف رائد في الذكاء الاصطناعي
دخلت "حرب النموذج الألف" التي أطلقتها GPT تدريجياً "لعبة البيانات الحاسمة".
أصبحت "البيانات عالية الجودة" و "حجم البيانات" المفتاح للنماذج الكبيرة لوضع الحواجز بسرعة والتنافس من أجل المستقبل. وفقًا لو تشاو ، مدير لجنة خبراء CITIC Think Tank ومدير معهد الصين لأبحاث الأوراق المالية ، "في المستقبل ، سيتم تحديد 20٪ من النموذج بواسطة الخوارزميات ، و 80٪ من خلال جودة البيانات. بعد ذلك ، ستكون البيانات عالية الجودة هي المفتاح لتحسين أداء النموذج."
ومع ذلك ، فإن البيانات الواقعية أصبحت نادرة. قد تنفد برامج الروبوت المدعومة بالذكاء الاصطناعي مثل ChatGPT قريبًا من النص في الكون.
دراسة مشتركة "هل ستنفد البيانات لدينا؟" "يعطي حدًا زمنيًا: قد تصبح البيانات التي منشؤها الإنسان نادرة بشكل متزايد في المستقبل ، وقد يتم استنفاد بيانات اللغة الطبيعية عالية الجودة بواسطة نماذج اللغات الكبيرة في أقرب وقت ممكن بحلول عام 2026.
كيف تضمن دفقًا ثابتًا من البيانات لتوفير تدريب نموذج كبير؟ بينما تحاول المنظمات الدولية مفتوحة المصدر وعمالقة الأعمال التجارية باستمرار ، فإنها تعاني أيضًا من الخلاف.هناك أسئلة لا حصر لها حول حماية حقوق الملكية وخصوصية البيانات وأمن الشبكة الناتجة عن جمع البيانات.
في مارس من هذا العام ، أبلغ العديد من مستخدمي Windows 11 أنهم "أُجبروا على فتح نافذة منبثقة" ، مما دفعهم إلى "معالجة بياناتك خارج البلد أو المنطقة التي تتواجد فيها" ، ولا يوجد خيار "للإلغاء" ، ويمكنهم فقط النقر فوق خيار "التالي" ، وإلا فلن يتمكنوا من الدخول إلى سطح مكتب النظام.
أثارت هذه الخطوة مخاوف بين مستخدمي نظام التشغيل Windows بشأن تسرب البيانات الخاصة في الخارج. في هذا الصدد ، صرحت Microsoft أنه بعد قيام المستخدمين بتحديث Windows 11 واستخدامه ، سيتم إرسال البيانات من الصين. نظرًا لأن مركز تسجيل برامج Microsoft موجود في الولايات المتحدة ، بعد دمج ChatGPT في بحث Bing ومتصفح Edge ، فإنه يحتاج أيضًا إلى دعم مركز البيانات الأمريكي ، لذلك قد يتم إرسال بيانات المستخدمين الصينيين إلى الخارج.
صديق مايكروسوفت الحميم Open AI ، بينما كان يستفيد من البيانات الضخمة السابقة ، واجه أيضًا شكوكًا. في نهاية شهر يونيو ، تعرضت شركة OpenAI لدعوى جماعية ، بتهمة سرقة "كمية كبيرة من البيانات الشخصية" لتدريب ChatGPT. فرض المسك حدا مؤقتا لعدد التغريدات المقروءة في 1 يوليو لهذا السبب.
حذرت Alphabet الموظفين من استخدام برامج الدردشة الآلية بشكل أعمى ، بما في ذلك Google Bard ، التي تروج لها في الأسواق العالمية. في 1 حزيران (يونيو) ، قامت Google بتحديث بيان الخصوصية الخاص بها ، محذرة المستخدمين إلى "الرجاء عدم تضمين معلومات سرية أو حساسة في المحادثات مع Bard."
من ناحية ، يبني Crazy All-in حذافة بيانات للمستخدمين العالميين ، ومن ناحية أخرى ، فإنه يتوخى الحذر بشأن بيانات الأعمال الخاصة به. وقد أجبر هذا النوع من "المعايير المزدوجة" معظم الشركات في جميع أنحاء العالم على تبني "الدفاع النشط". بدأت العديد من الشركات حول العالم ، مثل Samsung و Amazon ، في إنشاء حواجز حماية لروبوتات الدردشة الذكية. وأطلقت Microsoft و Google في الوقت المناسب أدوات الحوار لعملاء الأعمال ، مما يضمن عدم استيعاب البيانات في نماذج الذكاء الاصطناعي العامة ، لكن العملاء يحتاجون إلى دفع رسوم عالية مقابل ذلك.
فيما يتعلق بالمخاطر التي قد تنشأ عن الطريقة التي تستخدم بها AIGC البيانات وتحصل عليها ، فقد تدخل المنظمون في مختلف البلدان.
** أعلن منظم البيانات الإيطالي Garante فرض حظر كامل على ChatGPT في 31 مارس 2023 ** وحظر OpenAI من معالجة بيانات المستخدم الإيطالي. بعد أن وعد OpenAI بإجراء تحسينات مماثلة ، استأنف ChatGPT خدمته في إيطاليا.
لاحقًا ، اتخذت ** ألمانيا وفرنسا وأيرلندا أيضًا إجراءات مضادة **. طلبت إسبانيا من مجلس حماية البيانات الأوروبي (EDPB) تقييم مشكلات حماية الخصوصية في ChatGPT. كما ذكرت لجنة حماية المعلومات الشخصية الكورية أنها بدأت تحقيقًا في تسرب البيانات لمستخدمي ChatGPT الكوريين.
بلدنا أيضا تصرف في وقت مبكر. في 13 يوليو ، أصدرت ** إدارة الفضاء الإلكتروني الحكومية في الصين "التدابير المؤقتة لإدارة خدمات الذكاء الاصطناعي التوليدي" ** (يشار إليها باسم "الإجراءات المؤقتة"). هذا هو أول تشريع خاص لبلدي في مجال الذكاء الاصطناعي التوليدي.
أوضحت "الإجراءات المؤقتة" المبادئ لأول مرة ، "إذا كان توفير خدمات الذكاء الاصطناعي التوليدية من خارج جمهورية الصين الشعبية لا يتوافق مع القوانين واللوائح الإدارية وأحكام هذه التدابير ، يتعين على إدارة معلومات الشبكة الوطنية إخطار الوكالات ذات الصلة لاتخاذ التدابير التقنية وغيرها من التدابير اللازمة للتعامل معها".
بالإضافة إلى ذلك ، توضح أيضًا نطاق تطبيق الإجراءات: فهي تنطبق على الخدمات التي تنشئ نصًا وصورًا وصوتًا وفيديو ومحتويات أخرى للجمهور في الصين ، وتستبعد بوضوح أنشطة البحث والتطوير والتطبيقات التي لا تقدم خدمات للجمهور المحلي من نطاق التطبيق.
هذا يعني أن ** موفري خدمات AIGC في الخارج (سواء كانت طبقة النموذج أو طبقة التطبيق) سيخضعون للأحكام ذات الصلة من "الإجراءات المؤقتة" ، سواء كانوا يقدمون خدمات ذات صلة مباشرة إلى الصين ، أو يقدمون خدمات غير مباشرة من خلال واجهات API أو "تغليف" أو "تداخل". بالنسبة للمصنعين المحليين ، سيتم تطبيق الإجراءات المؤقتة بغض النظر عما إذا كانت مصرح بها بشكل صحيح من قبل مزودي خدمة AIGC في الخارج.
لا تعرف البيانات حدودًا ، لكن أمن البيانات له حدود. لقد رسم إصدار "الإجراءات المؤقتة" الحدود لشركات التكنولوجيا المحلية واسعة النطاق ورجال الأعمال المشاركين في نماذج واسعة النطاق ، وقدم مرجعًا للخبرة للإصدار اللاحق "لقانون الذكاء الاصطناعي". في هذا الصدد ، تعتقد الأوساط الأكاديمية والشركات عمومًا أن "الإجراءات المؤقتة" صدرت في الوقت المناسب وبنت الثقة في تطوير الذكاء الاصطناعي في الصين.
بالإضافة إلى المستوى التشريعي ، تسعى الصناعة أيضًا إلى تحقيق اختراقات من خلال جهودها الخاصة. أعربت شركات التكنولوجيا التي أطلقت نماذج واسعة النطاق في الأشهر الستة الماضية عن تأكيدها على السلامة والمصداقية المذكورة في "الإجراءات المؤقتة".
قال بايدو إنه فقط من خلال إنشاء وتحسين القوانين واللوائح والأنظمة المؤسسية والأخلاقيات لضمان التطور الصحي للذكاء الاصطناعي ، يمكن إنشاء بيئة ابتكارية جيدة. 360 يقترح بناء نموذج كبير مملوك "آمن وموثوق ويمكن التحكم فيه وسهل الاستخدام". اقترحت Alibaba Cloud أن "بناء ذكاء اصطناعي آمن وموثوق" أصبح إجماعًا صناعيًا بشكل تدريجي. ذكرت JD Cloud أن الجيل التالي من البنية التحتية الرقمية يحتاج إلى تلبية الخصائص الأربع للتكامل والانفتاح والتعاون الفعال وأداء التكلفة القصوى والأمان وإمكانية التحكم.
التخطيط الصناعي القائم على المنطقة بدأ بالفعل في الاستكشاف.
منذ وقت ليس ببعيد ، أصدرت بكين "عشرون إجراءً بشأن البيانات" ، حيث قدمت آراء حول التعاون الصناعي وبناء نظام موثوق لتداول البيانات: دعم منطقة التنمية الاقتصادية والتكنولوجية في بكين وغيرها من المجالات لتنفيذ أنظمة البنية التحتية للبيانات التجريبية ، وإنشاء مرتفعات للسياسات ، ومساحات موثوقة ، ومصانع بيانات.
في الواقع ، في وقت مبكر من شهر مايو من هذا العام ، أطلق مكتب بلدية بكين للاقتصاد وتكنولوجيا المعلومات ، ولجنة إدارة Zhongguancun التابعة للجنة البلدية للعلوم والتكنولوجيا ، ولجنة التنمية والإصلاح البلدية "برنامج شراكة الابتكار في مجال الذكاء الاصطناعي العام لبكين" ، والآن تم الإعلان عن المرحلة الثانية من قائمة الشركاء.
تتوقع الخطة الجمع بين المؤسسات المبتكرة المستقلة وذات المصداقية في بكين لتعزيز التطوير المتوافق وعالي الجودة لصناعة الذكاء الاصطناعي. تشمل القائمة شركاء قوة الحوسبة مثل Alibaba Cloud ، وشركاء البيانات مثل مركز البيانات الكبيرة في بكين ، وشركاء النموذج مثل Baidu ، وشركاء التطبيق مثل Tongxin UOS و WPS ، وشركاء الاستثمار مثل IDG و CDH.
تتضمن الخطة الشركات الرائدة في العقد الرئيسية في سلسلة صناعة الذكاء الاصطناعي ، مما يضع أساسًا بيئيًا مستقلًا وموثوقًا للصين لقياس بيئة الذكاء الاصطناعي المفتوحة AI + Microsoft + Nvidia.
.نهاية.