Microsoft, OpenAI тощо інвестували $10 млн, що таке «Frontier Model Forum»?

Першоджерело: AIGC Open Community

Джерело зображення: Створено Unbounded AI

26 жовтня Microsoft, OpenAI, Google та Anthropic опублікували спільну заяву на своєму офіційному сайті, призначивши Кріса Мезерола виконавчим директором «Frontier Model Forum» та інвестувавши $10 млн у фонди безпеки для підвищення безпеки генеративних продуктів штучного інтелекту, таких як ChatGPT та Bard.

Ця заява є важливим досягненням чотирьох великих технологічних компаній у розробці безпечного, надійного та стабільного генеративного ШІ, а також є частиною «Зобов'язань щодо безпеки штучного інтелекту», підписаних з офіційним представником, що має вирішальне значення для здорового розвитку глобального генеративного ШІ.

Вступ до Frontier Model Forum

Frontier Model Forum, співзасновниками якого є Microsoft, OpenAI, Google та Anthropic 26 липня цього року, в першу чергу відповідає за забезпечення безпечної та відповідальної розробки передових моделей штучного інтелекту.

4 основні цілі форуму:

  1. Сприяти дослідженням безпеки ШІ, сприяти відповідальній розробці передових моделей, мінімізувати ризики та забезпечити незалежну, стандартизовану оцінку можливостей та безпеки ШІ.

  2. Визначити найкращі практики відповідальної розробки та впровадження передових моделей, щоб допомогти громадськості зрозуміти природу, можливості, обмеження та вплив технології.

  3. Співпрацюйте з політиками, науковцями, громадянським суспільством та компаніями для обміну знаннями про ризики довіри та безпеки.

  4. Потужна підтримка розробки додатків штучного інтелекту, які допомагають вирішувати соціальні проблеми, такі як пом'якшення наслідків зміни клімату та адаптація до них, раннє виявлення та профілактика раку, а також боротьба з кіберзагрозами.

Обов'язки Кріса Мезерола

Кріс має глибокий досвід у технологічній політиці з давньою відданістю управлінню та безпеці нових технологій і майбутніх застосувань. Зовсім недавно Кріс також обіймав посаду директора Ініціативи зі штучного інтелекту та нових технологій в Інституті Брукінгса.

На Frontier Model Forum Кріс виконуватиме такі обов'язки:

  • Сприяти дослідженням безпеки штучного інтелекту, сприяти розробці передових моделей і мінімізувати потенційні ризики. Визначте найкращі практики безпеки для передових моделей.
  • Діліться знаннями з політиками, науковцями, суспільством та іншими зацікавленими сторонами, щоб стимулювати відповідальний розвиток штучного інтелекту.
  • Підтримати зусилля щодо використання штучного інтелекту для вирішення найбільших проблем суспільства.

Кріс каже, що найпотужніші моделі штучного інтелекту мають величезні суспільні перспективи, але щоб розкрити їхній потенціал, нам потрібно краще зрозуміти, як їх безпечно розробляти та оцінювати. Я радий співпрацювати з Frontier Model Forum для вирішення цієї проблеми.

Фонд безпеки штучного інтелекту

За останній рік генеративний штучний інтелект досяг величезного прогресу, а також багатьох потенційних ризиків для безпеки. Щоб вирішити цю проблему, Microsoft, OpenAI, Google і Anthropic створили Фонд безпеки штучного інтелекту для підтримки незалежних дослідників з академічних установ, дослідницьких установ і стартапів по всьому світу для спільної роботи над створенням здорової та безпечної екосистеми безпеки штучного інтелекту.

На початку цього року Microsoft, OpenAI, Google і Anthropic підписали «Зобов'язання щодо безпеки штучного інтелекту», яке включає зобов'язання сприяти виявленню вразливостей ШІ та повідомленню про них третіми сторонами в технологічних компаніях «Великої четвірки».

Основним напрямком діяльності Фонду безпеки штучного інтелекту є підтримка розробки нових методів оцінки моделей, які допоможуть розробити та протестувати передові моделі штучного інтелекту.

Збільшення фінансування безпеки ШІ допоможе підвищити стандарти безпеки та захисту та забезпечити ефективний контроль для галузей і розробників для вирішення проблем, пов'язаних із системами штучного інтелекту.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Поділіться
Прокоментувати
0/400
Немає коментарів
  • Закріпити