مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
في 30 أكتوبر ، بتوقيت واشنطن ، أصدر الموقع الرسمي للبيت الأبيض الأمر التنفيذي للرئيس بايدن بشأن تطوير الذكاء الاصطناعي آمنة وموثوقة وجديرة بالثقة (الذكاء الاصطناعي).
وقال البيت الأبيض إن الأمر التنفيذي يضع معايير جديدة للسلامة والأمن الذكاء الاصطناعي ، ويحمي خصوصية بيانات المستخدمين ، ويعزز العدالة والحقوق المدنية ، ويحمي مصالح المستهلكين والعمال ، ويعزز الابتكار التكنولوجي والمنافسة ، وأكثر من ذلك.
وتستند منظمة أصحاب العمل أيضا إلى "تعهدات السلامة الذكاء الاصطناعي التوليدية" السابقة الموقعة مع 15 شركة لتعزيز تطوير الذكاء الاصطناعي توليدية آمنة وصحية وموثوقة في جميع المجالات.
لعب إصدار هذا الأمر التنفيذي دورا حاسما في تعزيز وحماية تطوير منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT من قبل عمالقة التكنولوجيا مثل Microsoft و OpenAI و Google و Meta و Amazon و Anthropic.
العنوان الأصلي:
فيما يلي بعض محتويات الأمر التنفيذي
معيار أمان الذكاء الاصطناعي الجديد
ومع نمو قدرات الذكاء الاصطناعي، ينمو تأثيرها على أمن الأميركيين. مع هذا الأمر التنفيذي ، يوجه الرئيس بايدن أوسع الإجراءات المتخذة على الإطلاق لحماية الأمريكيين من المخاطر المحتملة لأنظمة الذكاء الاصطناعي:
يطلب من مطوري أقوى أنظمة الذكاء الاصطناعي مشاركة نتائج اختبارات الأمان وغيرها من المعلومات الهامة مع حكومة الولايات المتحدة. بموجب قانون الإنتاج الدفاعي ، سيتطلب الأمر من الشركات التي تطور أي نموذج أساسي يشكل خطرا جسيما على الأمن القومي أو الأمن الاقتصادي الوطني أو الصحة والسلامة العامة إخطار الحكومة الفيدرالية عند تدريب النموذج ومشاركة نتائج جميع اختبارات أمان الفريق الأحمر. ستضمن هذه الإجراءات أن تكون أنظمة الذكاء الاصطناعي آمنة وموثوقة وجديرة بالثقة حتى يتم إصدارها علنا من قبل الشركة.
تطوير المعايير والأدوات والاختبارات للمساعدة في ضمان أن أنظمة الذكاء الاصطناعي آمنة وموثوقة وجديرة بالثقة. سيقوم المعهد الوطني للمعايير والتكنولوجيا بتطوير معايير صارمة لمجموعة واسعة من اختبارات الفريق الأحمر لضمان السلامة قبل الإصدار العام. وستطبق وزارة الأمن الداخلي هذه المعايير على قطاعات البنية التحتية الحيوية وتنشئ مجلسا الذكاء الاصطناعي للسلامة والأمن.
كما ستعالج وزارة الطاقة ووزارة الأمن الداخلي تهديد أنظمة الذكاء الاصطناعي للبنية التحتية الحيوية ، فضلا عن المخاطر الكيميائية والبيولوجية والإشعاعية والنووية والأمن السيبراني. بشكل عام، هذه هي أهم الإجراءات التي تتخذها أي حكومة لتعزيز الأمن الذكاء الاصطناعي.
الحماية من مخاطر استخدام هندسة الذكاء الاصطناعي لتصميم المواد الحيوية الخطرة من خلال تطوير معايير فحص صارمة للتخليق الحيوي الجديد. ستجعل المؤسسات التي تمول مشاريع علوم الحياة هذه المعايير مشروطة بالتمويل الفيدرالي ، مما يخلق حوافز قوية لضمان الفحص والإدارة المناسبين للمخاطر التي يمكن أن تؤدي الذكاء الاصطناعي إلى تفاقمها.
حماية الأمريكيين من الاحتيال والخداع الذكاء الاصطناعي من خلال وضع معايير وأفضل الممارسات لمصادقة المحتوى ووضع علامة مائية.
** ستضع وزارة التجارة إرشادات لمصادقة المحتوى ووضع علامة مائية لتسمية المحتوى الذي تم إنشاؤه الذكاء الاصطناعي بوضوح **. ستستخدم الوكالات الفيدرالية هذه الأدوات لتسهيل معرفة الأمريكيين أن الاتصالات التي يتلقونها من الحكومة حقيقية وليكونوا قدوة للقطاع الخاص والحكومات في جميع أنحاء العالم.
إنشاء برنامج متقدم للأمن السيبراني لتطوير أدوات الذكاء الاصطناعي للعثور على نقاط الضعف وإصلاحها في البرامج الهامة كوسيلة للبناء على تحديات الأمن السيبراني الذكاء الاصطناعي المستمرة لإدارة بايدن-هاريس. وبشكل عام، ستعمل هذه الجهود على تسخير قدرات الذكاء الاصطناعي السيبرانية المحتملة لتغيير قواعد اللعبة لجعل البرامج والشبكات أكثر أمانا.
يوجه مجلس الأمن القومي ومكتب رئيس موظفي البيت الأبيض لوضع مذكرة للأمن القومي حول الذكاء الاصطناعي والأمن. وستضمن الوثيقة الاستخدام الآمن والأخلاقي والفعال الذكاء الاصطناعي من قبل الجيش الأمريكي والاستخبارات في البعثات وستوجه العمليات لمواجهة استخدام الخصم الذكاء الاصطناعي العسكرية.
حماية الخصوصية الأمريكية
وبدون ضمانات، يمكن أن الذكاء الاصطناعي تهدد خصوصية الأمريكيين بشكل أكبر. لا يسهل الذكاء الاصطناعي استخراج البيانات الشخصية وتحديدها واستخدامها فحسب ، بل يكثف أيضا الحافز للقيام بذلك ، حيث تستخدم الشركات البيانات لتدريب الأنظمة الذكاء الاصطناعي.
لحماية خصوصية الأمريكيين بشكل أفضل ، بما في ذلك المخاطر الناجمة عن الذكاء الاصطناعي ، دعا الرئيس الكونجرس إلى تمرير تشريع بيانات الخصوصية من الحزبين لحماية جميع الأمريكيين ، وخاصة الأطفال ، ووجه الإجراءات التالية:
حماية خصوصية الأمريكيين من خلال إعطاء الأولوية للدعم لتسريع تطوير واستخدام تقنيات الحفاظ على الخصوصية ، بما في ذلك التقنيات المتطورة التي تسمح للأنظمة الذكاء الاصطناعي بالتدريب مع حماية خصوصية بيانات التدريب.
من خلال تمويل شبكة تنسيق البحوث لتعزيز البحوث والتقنيات التي تحافظ على الخصوصية ، مثل أدوات التشفير لحماية الخصوصية الفردية ، ستعمل الشبكة على تعزيز الاختراقات والتطورات السريعة. ستعمل المؤسسة الوطنية للعلوم أيضا مع الشبكة لتعزيز اعتماد التقنيات الرائدة للحفاظ على الخصوصية من قبل الوكالات الفيدرالية.
من خلال تقييم كيفية قيام الوكالات بجمع واستخدام المعلومات المتاحة تجاريا ، بما في ذلك من وسطاء البيانات ، وتعزيز إرشادات الخصوصية للوكالات الفيدرالية للنظر في مخاطر الذكاء الاصطناعي. وسيركز هذا العمل بوجه خاص على المعلومات المتاحة تجاريا التي تتضمن بيانات تعريف شخصية.
وضع مبادئ توجيهية للوكالات الفيدرالية لتقييم فعالية تقنيات الحفاظ على الخصوصية ، بما في ذلك تلك المستخدمة في أنظمة الذكاء الاصطناعي. ستعزز هذه الإرشادات جهود الوكالة لحماية بيانات الأمريكيين.
ضمان الاستخدام المسؤول الذكاء الاصطناعي من قبل الدوائر الحكومية
الذكاء الاصطناعي يمكن أن يساعد الحكومات على تحقيق نتائج أفضل للشعب الأمريكي. ويمكن توسيع قدرة المؤسسات على تنظيم الفوائد وإدارتها وتقديمها، ويمكن خفض التكاليف وتعزيز الأنظمة الحكومية.
ومع ذلك ، قد تكون هناك أيضا مخاطر مرتبطة باستخدام الذكاء الاصطناعي ، مثل التمييز واتخاذ القرارات غير الآمنة. لضمان قيام الوكالات الحكومية بنشر الذكاء الاصطناعي مسؤولية وتحديث البنية التحتية الذكاء الاصطناعي الفيدرالية ، اتخذ الإجراءات التالية:
إرشادات للناشرين بشأن استخدام الذكاء الاصطناعي، بما في ذلك معايير واضحة لحماية الحقوق والأمن، وتحسين الذكاء الاصطناعي المشتريات، وتعزيز نشر الذكاء الاصطناعي.
مساعدة الوكالات على الوصول إلى منتجات وخدمات الذكاء الاصطناعي المعينة بشكل أسرع وأرخص وأكثر كفاءة من خلال عقود أسرع وأكثر كفاءة.
تسريع التوظيف السريع للمتخصصين في الذكاء الاصطناعي من خلال مكتب إدارة شؤون الموظفين ، والخدمات الرقمية الأمريكية ، والفريق الرقمي الأمريكي ، وزمالة الرئيس للابتكار لموجة صدمة على مستوى الحكومة من المواهب الذكاء الاصطناعي. ستوفر المنظمة تدريبا الذكاء الاصطناعي للموظفين على جميع المستويات في المجالات ذات الصلة.
الدفاع عن مصالح المستهلكين والمرضى والطلاب
الذكاء الاصطناعي يمكن أن يحقق فوائد ملموسة للمستهلكين - على سبيل المثال من خلال جعل المنتجات أفضل وأرخص ومتاحة على نطاق أوسع. لكن الذكاء الاصطناعي يزيد أيضا من خطر إيذاء الأمريكيين أو تضليلهم أو إيذائهم بأي شكل آخر. لضمان أن الذكاء الاصطناعي يفيد الأمريكيين مع حماية المستهلكين ، وجه الرئيس الإجراءات التالية:
تعزيز الاستخدام المسؤول الذكاء الاصطناعي في مجال الرعاية الصحية وتطوير أدوية ميسورة التكلفة ومنقذة للحياة.
ستنشئ وزارة الصحة والخدمات الإنسانية أيضا برنامجا للسلامة لتلقي تقارير عن الضرر أو الممارسات الطبية غير الآمنة الناجمة عن الذكاء الاصطناعي واتخاذ إجراءات علاجية.
تشكيل إمكانات الذكاء الاصطناعي في التعليم ، على سبيل المثال ، من خلال إنشاء موارد تعليمية مخصصة في المدارس.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
أصدر البيت الأبيض أمرا رئاسيا لتشجيع تطوير الذكاء الاصطناعي بطريقة آمنة وموثوقة
المصدر الأصلي: مجتمع AIGC المفتوح
في 30 أكتوبر ، بتوقيت واشنطن ، أصدر الموقع الرسمي للبيت الأبيض الأمر التنفيذي للرئيس بايدن بشأن تطوير الذكاء الاصطناعي آمنة وموثوقة وجديرة بالثقة (الذكاء الاصطناعي).
وقال البيت الأبيض إن الأمر التنفيذي يضع معايير جديدة للسلامة والأمن الذكاء الاصطناعي ، ويحمي خصوصية بيانات المستخدمين ، ويعزز العدالة والحقوق المدنية ، ويحمي مصالح المستهلكين والعمال ، ويعزز الابتكار التكنولوجي والمنافسة ، وأكثر من ذلك.
وتستند منظمة أصحاب العمل أيضا إلى "تعهدات السلامة الذكاء الاصطناعي التوليدية" السابقة الموقعة مع 15 شركة لتعزيز تطوير الذكاء الاصطناعي توليدية آمنة وصحية وموثوقة في جميع المجالات.
لعب إصدار هذا الأمر التنفيذي دورا حاسما في تعزيز وحماية تطوير منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT من قبل عمالقة التكنولوجيا مثل Microsoft و OpenAI و Google و Meta و Amazon و Anthropic.
فيما يلي بعض محتويات الأمر التنفيذي
معيار أمان الذكاء الاصطناعي الجديد
ومع نمو قدرات الذكاء الاصطناعي، ينمو تأثيرها على أمن الأميركيين. مع هذا الأمر التنفيذي ، يوجه الرئيس بايدن أوسع الإجراءات المتخذة على الإطلاق لحماية الأمريكيين من المخاطر المحتملة لأنظمة الذكاء الاصطناعي:
يطلب من مطوري أقوى أنظمة الذكاء الاصطناعي مشاركة نتائج اختبارات الأمان وغيرها من المعلومات الهامة مع حكومة الولايات المتحدة. بموجب قانون الإنتاج الدفاعي ، سيتطلب الأمر من الشركات التي تطور أي نموذج أساسي يشكل خطرا جسيما على الأمن القومي أو الأمن الاقتصادي الوطني أو الصحة والسلامة العامة إخطار الحكومة الفيدرالية عند تدريب النموذج ومشاركة نتائج جميع اختبارات أمان الفريق الأحمر. ستضمن هذه الإجراءات أن تكون أنظمة الذكاء الاصطناعي آمنة وموثوقة وجديرة بالثقة حتى يتم إصدارها علنا من قبل الشركة.
تطوير المعايير والأدوات والاختبارات للمساعدة في ضمان أن أنظمة الذكاء الاصطناعي آمنة وموثوقة وجديرة بالثقة. سيقوم المعهد الوطني للمعايير والتكنولوجيا بتطوير معايير صارمة لمجموعة واسعة من اختبارات الفريق الأحمر لضمان السلامة قبل الإصدار العام. وستطبق وزارة الأمن الداخلي هذه المعايير على قطاعات البنية التحتية الحيوية وتنشئ مجلسا الذكاء الاصطناعي للسلامة والأمن.
كما ستعالج وزارة الطاقة ووزارة الأمن الداخلي تهديد أنظمة الذكاء الاصطناعي للبنية التحتية الحيوية ، فضلا عن المخاطر الكيميائية والبيولوجية والإشعاعية والنووية والأمن السيبراني. بشكل عام، هذه هي أهم الإجراءات التي تتخذها أي حكومة لتعزيز الأمن الذكاء الاصطناعي.
الحماية من مخاطر استخدام هندسة الذكاء الاصطناعي لتصميم المواد الحيوية الخطرة من خلال تطوير معايير فحص صارمة للتخليق الحيوي الجديد. ستجعل المؤسسات التي تمول مشاريع علوم الحياة هذه المعايير مشروطة بالتمويل الفيدرالي ، مما يخلق حوافز قوية لضمان الفحص والإدارة المناسبين للمخاطر التي يمكن أن تؤدي الذكاء الاصطناعي إلى تفاقمها.
حماية الأمريكيين من الاحتيال والخداع الذكاء الاصطناعي من خلال وضع معايير وأفضل الممارسات لمصادقة المحتوى ووضع علامة مائية.
** ستضع وزارة التجارة إرشادات لمصادقة المحتوى ووضع علامة مائية لتسمية المحتوى الذي تم إنشاؤه الذكاء الاصطناعي بوضوح **. ستستخدم الوكالات الفيدرالية هذه الأدوات لتسهيل معرفة الأمريكيين أن الاتصالات التي يتلقونها من الحكومة حقيقية وليكونوا قدوة للقطاع الخاص والحكومات في جميع أنحاء العالم.
إنشاء برنامج متقدم للأمن السيبراني لتطوير أدوات الذكاء الاصطناعي للعثور على نقاط الضعف وإصلاحها في البرامج الهامة كوسيلة للبناء على تحديات الأمن السيبراني الذكاء الاصطناعي المستمرة لإدارة بايدن-هاريس. وبشكل عام، ستعمل هذه الجهود على تسخير قدرات الذكاء الاصطناعي السيبرانية المحتملة لتغيير قواعد اللعبة لجعل البرامج والشبكات أكثر أمانا.
يوجه مجلس الأمن القومي ومكتب رئيس موظفي البيت الأبيض لوضع مذكرة للأمن القومي حول الذكاء الاصطناعي والأمن. وستضمن الوثيقة الاستخدام الآمن والأخلاقي والفعال الذكاء الاصطناعي من قبل الجيش الأمريكي والاستخبارات في البعثات وستوجه العمليات لمواجهة استخدام الخصم الذكاء الاصطناعي العسكرية.
حماية الخصوصية الأمريكية
وبدون ضمانات، يمكن أن الذكاء الاصطناعي تهدد خصوصية الأمريكيين بشكل أكبر. لا يسهل الذكاء الاصطناعي استخراج البيانات الشخصية وتحديدها واستخدامها فحسب ، بل يكثف أيضا الحافز للقيام بذلك ، حيث تستخدم الشركات البيانات لتدريب الأنظمة الذكاء الاصطناعي.
لحماية خصوصية الأمريكيين بشكل أفضل ، بما في ذلك المخاطر الناجمة عن الذكاء الاصطناعي ، دعا الرئيس الكونجرس إلى تمرير تشريع بيانات الخصوصية من الحزبين لحماية جميع الأمريكيين ، وخاصة الأطفال ، ووجه الإجراءات التالية:
حماية خصوصية الأمريكيين من خلال إعطاء الأولوية للدعم لتسريع تطوير واستخدام تقنيات الحفاظ على الخصوصية ، بما في ذلك التقنيات المتطورة التي تسمح للأنظمة الذكاء الاصطناعي بالتدريب مع حماية خصوصية بيانات التدريب.
من خلال تمويل شبكة تنسيق البحوث لتعزيز البحوث والتقنيات التي تحافظ على الخصوصية ، مثل أدوات التشفير لحماية الخصوصية الفردية ، ستعمل الشبكة على تعزيز الاختراقات والتطورات السريعة. ستعمل المؤسسة الوطنية للعلوم أيضا مع الشبكة لتعزيز اعتماد التقنيات الرائدة للحفاظ على الخصوصية من قبل الوكالات الفيدرالية.
من خلال تقييم كيفية قيام الوكالات بجمع واستخدام المعلومات المتاحة تجاريا ، بما في ذلك من وسطاء البيانات ، وتعزيز إرشادات الخصوصية للوكالات الفيدرالية للنظر في مخاطر الذكاء الاصطناعي. وسيركز هذا العمل بوجه خاص على المعلومات المتاحة تجاريا التي تتضمن بيانات تعريف شخصية.
وضع مبادئ توجيهية للوكالات الفيدرالية لتقييم فعالية تقنيات الحفاظ على الخصوصية ، بما في ذلك تلك المستخدمة في أنظمة الذكاء الاصطناعي. ستعزز هذه الإرشادات جهود الوكالة لحماية بيانات الأمريكيين.
ضمان الاستخدام المسؤول الذكاء الاصطناعي من قبل الدوائر الحكومية
الذكاء الاصطناعي يمكن أن يساعد الحكومات على تحقيق نتائج أفضل للشعب الأمريكي. ويمكن توسيع قدرة المؤسسات على تنظيم الفوائد وإدارتها وتقديمها، ويمكن خفض التكاليف وتعزيز الأنظمة الحكومية.
ومع ذلك ، قد تكون هناك أيضا مخاطر مرتبطة باستخدام الذكاء الاصطناعي ، مثل التمييز واتخاذ القرارات غير الآمنة. لضمان قيام الوكالات الحكومية بنشر الذكاء الاصطناعي مسؤولية وتحديث البنية التحتية الذكاء الاصطناعي الفيدرالية ، اتخذ الإجراءات التالية:
إرشادات للناشرين بشأن استخدام الذكاء الاصطناعي، بما في ذلك معايير واضحة لحماية الحقوق والأمن، وتحسين الذكاء الاصطناعي المشتريات، وتعزيز نشر الذكاء الاصطناعي.
مساعدة الوكالات على الوصول إلى منتجات وخدمات الذكاء الاصطناعي المعينة بشكل أسرع وأرخص وأكثر كفاءة من خلال عقود أسرع وأكثر كفاءة.
تسريع التوظيف السريع للمتخصصين في الذكاء الاصطناعي من خلال مكتب إدارة شؤون الموظفين ، والخدمات الرقمية الأمريكية ، والفريق الرقمي الأمريكي ، وزمالة الرئيس للابتكار لموجة صدمة على مستوى الحكومة من المواهب الذكاء الاصطناعي. ستوفر المنظمة تدريبا الذكاء الاصطناعي للموظفين على جميع المستويات في المجالات ذات الصلة.
الدفاع عن مصالح المستهلكين والمرضى والطلاب
الذكاء الاصطناعي يمكن أن يحقق فوائد ملموسة للمستهلكين - على سبيل المثال من خلال جعل المنتجات أفضل وأرخص ومتاحة على نطاق أوسع. لكن الذكاء الاصطناعي يزيد أيضا من خطر إيذاء الأمريكيين أو تضليلهم أو إيذائهم بأي شكل آخر. لضمان أن الذكاء الاصطناعي يفيد الأمريكيين مع حماية المستهلكين ، وجه الرئيس الإجراءات التالية:
تعزيز الاستخدام المسؤول الذكاء الاصطناعي في مجال الرعاية الصحية وتطوير أدوية ميسورة التكلفة ومنقذة للحياة.
ستنشئ وزارة الصحة والخدمات الإنسانية أيضا برنامجا للسلامة لتلقي تقارير عن الضرر أو الممارسات الطبية غير الآمنة الناجمة عن الذكاء الاصطناعي واتخاذ إجراءات علاجية.
تشكيل إمكانات الذكاء الاصطناعي في التعليم ، على سبيل المثال ، من خلال إنشاء موارد تعليمية مخصصة في المدارس.