مصدر الصورة: تم إنشاؤه بواسطة الذكاء الاصطناعي غير محدود
في 26 أكتوبر ، أصدرت Microsoft و OpenAI و Google و Anthropic بيانا مشتركا على موقعها الرسمي على الإنترنت ، حيث عينت كريس ميسرول كمدير تنفيذي ل "منتدى نموذج الحدود" واستثمرت 10 ملايين دولار في صناديق الأمن لتعزيز أمن منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT و Bard.
يعد هذا البيان أداء مهما لشركات التكنولوجيا الأربع الكبرى لتطوير الذكاء الاصطناعي توليدية آمنة وموثوقة ومستقرة ، كما أنه جزء من "التزام السلامة الذكاء الاصطناعي" الموقع مع المسؤول ، وهو أمر بالغ الأهمية للتنمية الصحية الذكاء الاصطناعي التوليدية العالمية.
مقدمة إلى منتدى نموذج الحدود
منتدى نموذج الحدود ، الذي شاركت في تأسيسه Microsoft و OpenAI و Google و Anthropic في 26 يوليو من هذا العام ، هو المسؤول الأول عن ضمان التطوير الآمن والمسؤول لنماذج الذكاء الاصطناعي المتطورة.
تحديد أفضل الممارسات لتطوير ونشر النماذج الرائدة بشكل مسؤول لمساعدة الجمهور على فهم طبيعة التكنولوجيا وقدراتها وحدودها وتأثيراتها.
العمل مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات لتبادل المعرفة حول مخاطر الثقة والأمن.
دعم قوي لتطوير تطبيقات الذكاء الاصطناعي التي تساعد على مواجهة التحديات المجتمعية، مثل التخفيف من آثار تغير المناخ والتكيف معه، والكشف المبكر عن السرطان والوقاية منه، والتصدي للتهديدات السيبرانية.
**مسؤوليات كريس ميسرول **
يتمتع كريس بخبرة عميقة في سياسة التكنولوجيا ، مع التزام طويل الأمد بحوكمة وأمن التقنيات الناشئة والتطبيقات المستقبلية. وفي الآونة الأخيرة، شغل كريس أيضا منصب مدير مبادرة الذكاء الاصطناعي والتقنيات الناشئة في معهد بروكينغز.
في منتدى نموذج الحدود ، سيؤدي كريس الواجبات التالية:
تعزيز أبحاث السلامة الذكاء الاصطناعي ، وتعزيز تطوير النماذج المتطورة ، وتقليل المخاطر المحتملة.
تحديد أفضل ممارسات الأمان للنماذج الرائدة.
تبادل المعرفة مع صانعي السياسات والأوساط الأكاديمية والمجتمع وأصحاب المصلحة الآخرين لدفع التنمية الذكاء الاصطناعي المسؤولة.
دعم الجهود الرامية إلى استخدام الذكاء الاصطناعي لحل أكبر تحديات المجتمع.
يقول كريس إن أقوى نماذج الذكاء الاصطناعي تحمل وعودا مجتمعية هائلة ، ولكن للوصول إلى إمكاناتها ، نحتاج إلى فهم أفضل لكيفية تطويرها وتقييمها بأمان. ويسرني أن أعمل مع منتدى نموذج الحدود للتصدي لهذا التحدي.
الذكاء الاصطناعي صندوق الأمن
خلال العام الماضي ، حققت الذكاء الاصطناعي التوليدية تقدما هائلا ، إلى جانب العديد من المخاطر الأمنية المحتملة. لمواجهة هذا التحدي ، أنشأت Microsoft و OpenAI و Google و Anthropic صندوق أمن الذكاء الاصطناعي لدعم الباحثين المستقلين من المؤسسات الأكاديمية والمؤسسات البحثية والشركات الناشئة في جميع أنحاء العالم للعمل معا لبناء نظام بيئي صحي وآمن لأمن الذكاء الاصطناعي.
في وقت سابق من هذا العام ، وقعت Microsoft و OpenAI و Google و Anthropic "تعهد الأمان الذكاء الاصطناعي" ، والذي يتضمن التزاما بتسهيل اكتشاف الطرف الثالث والإبلاغ عن نقاط الضعف الذكاء الاصطناعي في شركات التكنولوجيا الأربع الكبرى.
ينصب التركيز الرئيسي لصندوق الأمن الذكاء الاصطناعي على دعم تطوير تقنيات تقييم النماذج الجديدة للمساعدة في تطوير واختبار نماذج الذكاء الاصطناعي المتطورة.
ستساعد زيادة التمويل لسلامة الذكاء الاصطناعي على تحسين معايير السلامة والأمن وتوفير ضوابط فعالة للصناعات والمطورين لمواجهة التحديات التي تفرضها أنظمة الذكاء الاصطناعي.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
استثمرت Microsoft و OpenAI وما إلى ذلك 10 ملايين دولار ، ما هو "منتدى نموذج الحدود"؟
المصدر الأصلي: مجتمع AIGC المفتوح
في 26 أكتوبر ، أصدرت Microsoft و OpenAI و Google و Anthropic بيانا مشتركا على موقعها الرسمي على الإنترنت ، حيث عينت كريس ميسرول كمدير تنفيذي ل "منتدى نموذج الحدود" واستثمرت 10 ملايين دولار في صناديق الأمن لتعزيز أمن منتجات الذكاء الاصطناعي التوليدية مثل ChatGPT و Bard.
يعد هذا البيان أداء مهما لشركات التكنولوجيا الأربع الكبرى لتطوير الذكاء الاصطناعي توليدية آمنة وموثوقة ومستقرة ، كما أنه جزء من "التزام السلامة الذكاء الاصطناعي" الموقع مع المسؤول ، وهو أمر بالغ الأهمية للتنمية الصحية الذكاء الاصطناعي التوليدية العالمية.
مقدمة إلى منتدى نموذج الحدود
منتدى نموذج الحدود ، الذي شاركت في تأسيسه Microsoft و OpenAI و Google و Anthropic في 26 يوليو من هذا العام ، هو المسؤول الأول عن ضمان التطوير الآمن والمسؤول لنماذج الذكاء الاصطناعي المتطورة.
4 الأهداف الأساسية للمنتدى:
تعزيز أبحاث السلامة الذكاء الاصطناعي ، وتعزيز التطوير المسؤول للنماذج المتطورة ، وتقليل المخاطر ، وتمكين التقييمات المستقلة والموحدة لقدرات الذكاء الاصطناعي والسلامة.
تحديد أفضل الممارسات لتطوير ونشر النماذج الرائدة بشكل مسؤول لمساعدة الجمهور على فهم طبيعة التكنولوجيا وقدراتها وحدودها وتأثيراتها.
العمل مع صانعي السياسات والأكاديميين والمجتمع المدني والشركات لتبادل المعرفة حول مخاطر الثقة والأمن.
دعم قوي لتطوير تطبيقات الذكاء الاصطناعي التي تساعد على مواجهة التحديات المجتمعية، مثل التخفيف من آثار تغير المناخ والتكيف معه، والكشف المبكر عن السرطان والوقاية منه، والتصدي للتهديدات السيبرانية.
**مسؤوليات كريس ميسرول **
يتمتع كريس بخبرة عميقة في سياسة التكنولوجيا ، مع التزام طويل الأمد بحوكمة وأمن التقنيات الناشئة والتطبيقات المستقبلية. وفي الآونة الأخيرة، شغل كريس أيضا منصب مدير مبادرة الذكاء الاصطناعي والتقنيات الناشئة في معهد بروكينغز.
في منتدى نموذج الحدود ، سيؤدي كريس الواجبات التالية:
يقول كريس إن أقوى نماذج الذكاء الاصطناعي تحمل وعودا مجتمعية هائلة ، ولكن للوصول إلى إمكاناتها ، نحتاج إلى فهم أفضل لكيفية تطويرها وتقييمها بأمان. ويسرني أن أعمل مع منتدى نموذج الحدود للتصدي لهذا التحدي.
الذكاء الاصطناعي صندوق الأمن
خلال العام الماضي ، حققت الذكاء الاصطناعي التوليدية تقدما هائلا ، إلى جانب العديد من المخاطر الأمنية المحتملة. لمواجهة هذا التحدي ، أنشأت Microsoft و OpenAI و Google و Anthropic صندوق أمن الذكاء الاصطناعي لدعم الباحثين المستقلين من المؤسسات الأكاديمية والمؤسسات البحثية والشركات الناشئة في جميع أنحاء العالم للعمل معا لبناء نظام بيئي صحي وآمن لأمن الذكاء الاصطناعي.
ينصب التركيز الرئيسي لصندوق الأمن الذكاء الاصطناعي على دعم تطوير تقنيات تقييم النماذج الجديدة للمساعدة في تطوير واختبار نماذج الذكاء الاصطناعي المتطورة.
ستساعد زيادة التمويل لسلامة الذكاء الاصطناعي على تحسين معايير السلامة والأمن وتوفير ضوابط فعالة للصناعات والمطورين لمواجهة التحديات التي تفرضها أنظمة الذكاء الاصطناعي.