26 октября Microsoft, OpenAI, Google и Anthropic опубликовали совместное заявление на своем официальном сайте, назначив Криса Мезерола исполнительным директором «Frontier Model Forum» и инвестировав 10 миллионов долларов в фонды безопасности для повышения безопасности продуктов генеративного ИИ, таких как ChatGPT и Bard.
Это заявление является важным достижением четырех крупных технологических компаний по разработке безопасного, надежного и стабильного генеративного ИИ, а также является частью «Обязательства по безопасности ИИ», подписанного с чиновником, которое имеет решающее значение для здорового развития глобального генеративного ИИ.
Введение в Frontier Model Forum
Frontier Model Forum, соучредителями которого 26 июля этого года выступили Microsoft, OpenAI, Google и Anthropic, в первую очередь отвечает за обеспечение безопасной и ответственной разработки передовых моделей ИИ.
4 основные цели форума:
Продвигать исследования в области безопасности ИИ, способствовать ответственной разработке передовых моделей, минимизировать риски и обеспечить независимую, стандартизированную оценку возможностей и безопасности ИИ.
Определить лучшие практики ответственной разработки и развертывания передовых моделей, чтобы помочь общественности понять природу, возможности, ограничения и влияние технологии.
Работать с политиками, учеными, гражданским обществом и компаниями для обмена знаниями о рисках доверия и безопасности.
Решительная поддержка разработки приложений ИИ, которые помогают решать социальные проблемы, такие как смягчение последствий изменения климата и адаптация к ним, раннее выявление и профилактика рака, а также борьба с киберугрозами.
Обязанности Криса Мезерола
Крис обладает глубокими знаниями в области технологической политики и многолетней приверженностью управлению и безопасности новых технологий и будущих приложений. В последнее время Крис также занимал должность директора Инициативы по искусственному интеллекту и новым технологиям в Институте Брукингса.
На Frontier Model Forum Крис будет выполнять следующие обязанности:
• Продвигать исследования в области безопасности ИИ, способствовать разработке передовых моделей и минимизировать потенциальные риски.
Определите рекомендации по обеспечению безопасности для передовых моделей.
• Обмен знаниями с политиками, научными кругами, обществом и другими заинтересованными сторонами для обеспечения ответственного развития ИИ.
• Поддержка усилий по использованию ИИ для решения крупнейших проблем общества.
Крис говорит, что самые мощные модели ИИ имеют огромные перспективы для общества, но чтобы раскрыть их потенциал, нам нужно лучше понять, как безопасно их разрабатывать и оценивать. Я рад работать с Форумом моделей фронтира для решения этой проблемы.
Фонд безопасности ИИ
За последний год генеративный ИИ добился огромного прогресса, наряду со многими потенциальными угрозами безопасности. Чтобы решить эту проблему, Microsoft, OpenAI, Google и Anthropic создали Фонд безопасности ИИ для поддержки независимых исследователей из академических институтов, научно-исследовательских институтов и стартапов по всему миру в совместной работе над созданием здоровой и безопасной экосистемы безопасности ИИ.
Ранее в этом году Microsoft, OpenAI, Google и Anthropic подписали «Обязательство по безопасности ИИ», которое включает в себя обязательство содействовать обнаружению уязвимостей ИИ третьими лицами и сообщать об уязвимостях ИИ в технологических компаниях «Большой четверки».
Основным направлением деятельности Фонда безопасности ИИ является поддержка разработки новых методов оценки моделей, помогающих разрабатывать и тестировать передовые модели ИИ.
Увеличение финансирования безопасности ИИ поможет улучшить стандарты безопасности и обеспечить эффективные средства контроля для отраслей и разработчиков для решения проблем, связанных с системами ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Microsoft, OpenAI и т.д. инвестировали $10 млн, что такое "Frontier Model Forum"?
Первоисточник: AIGC Open Community
26 октября Microsoft, OpenAI, Google и Anthropic опубликовали совместное заявление на своем официальном сайте, назначив Криса Мезерола исполнительным директором «Frontier Model Forum» и инвестировав 10 миллионов долларов в фонды безопасности для повышения безопасности продуктов генеративного ИИ, таких как ChatGPT и Bard.
Это заявление является важным достижением четырех крупных технологических компаний по разработке безопасного, надежного и стабильного генеративного ИИ, а также является частью «Обязательства по безопасности ИИ», подписанного с чиновником, которое имеет решающее значение для здорового развития глобального генеративного ИИ.
Введение в Frontier Model Forum
Frontier Model Forum, соучредителями которого 26 июля этого года выступили Microsoft, OpenAI, Google и Anthropic, в первую очередь отвечает за обеспечение безопасной и ответственной разработки передовых моделей ИИ.
4 основные цели форума:
Продвигать исследования в области безопасности ИИ, способствовать ответственной разработке передовых моделей, минимизировать риски и обеспечить независимую, стандартизированную оценку возможностей и безопасности ИИ.
Определить лучшие практики ответственной разработки и развертывания передовых моделей, чтобы помочь общественности понять природу, возможности, ограничения и влияние технологии.
Работать с политиками, учеными, гражданским обществом и компаниями для обмена знаниями о рисках доверия и безопасности.
Решительная поддержка разработки приложений ИИ, которые помогают решать социальные проблемы, такие как смягчение последствий изменения климата и адаптация к ним, раннее выявление и профилактика рака, а также борьба с киберугрозами.
Обязанности Криса Мезерола
Крис обладает глубокими знаниями в области технологической политики и многолетней приверженностью управлению и безопасности новых технологий и будущих приложений. В последнее время Крис также занимал должность директора Инициативы по искусственному интеллекту и новым технологиям в Институте Брукингса.
На Frontier Model Forum Крис будет выполнять следующие обязанности:
• Продвигать исследования в области безопасности ИИ, способствовать разработке передовых моделей и минимизировать потенциальные риски. Определите рекомендации по обеспечению безопасности для передовых моделей. • Обмен знаниями с политиками, научными кругами, обществом и другими заинтересованными сторонами для обеспечения ответственного развития ИИ. • Поддержка усилий по использованию ИИ для решения крупнейших проблем общества.
Крис говорит, что самые мощные модели ИИ имеют огромные перспективы для общества, но чтобы раскрыть их потенциал, нам нужно лучше понять, как безопасно их разрабатывать и оценивать. Я рад работать с Форумом моделей фронтира для решения этой проблемы.
Фонд безопасности ИИ
За последний год генеративный ИИ добился огромного прогресса, наряду со многими потенциальными угрозами безопасности. Чтобы решить эту проблему, Microsoft, OpenAI, Google и Anthropic создали Фонд безопасности ИИ для поддержки независимых исследователей из академических институтов, научно-исследовательских институтов и стартапов по всему миру в совместной работе над созданием здоровой и безопасной экосистемы безопасности ИИ.
Основным направлением деятельности Фонда безопасности ИИ является поддержка разработки новых методов оценки моделей, помогающих разрабатывать и тестировать передовые модели ИИ.
Увеличение финансирования безопасности ИИ поможет улучшить стандарты безопасности и обеспечить эффективные средства контроля для отраслей и разработчиков для решения проблем, связанных с системами ИИ.