Автор: ДЖОШ ЛИ КОК ТОНГ Перевод: Ли Ян Вычитка: Сян Синьи
Источник: Бумага
Источник изображения: сгенерировано Unbounded AI
В последние месяцы глобальный интерес к управлению и регулированию ИИ резко возрос. Многие считают, что для работы с генеративными системами ИИ необходимы новые структуры управления и регулирования, чьи возможности поразительны, такие как ChatGPT и DALL-E от OpenAI, Bard от Google, Stable Diffusion и другие. Закон ЕС об искусственном интеллекте получил широкое внимание. Фактически, во всем мире появляется множество других важных инициатив, включая различные модели и структуры управления ИИ.
Эта статья посвящена сингапурской системе тестирования управления искусственным интеллектом и инструментарию — «AI Verify», выпущенной в мае 2022 года. В ней в основном выделяются три ключевых момента. ① Обобщите общую стратегию Сингапура в отношении управления ИИ и ключевые инициативы правительства, прежде чем запускать проверку ИИ. ② Объясните ключ «проверки искусственного интеллекта». ③ «Верификация ИИ» была запущена в течение года, и в ней обсуждались будущее проверки ИИ и подход Сингапура к управлению и регулированию ИИ. Вкратце, основные моменты таковы:
Сингапур применил подход умеренного вмешательства к управлению и регулированию ИИ, при этом в Рамочной модели управления ИИ изложены руководящие принципы управления ИИ в частном секторе.
«AI Verify» — это платформа и набор инструментов для тестирования управления ИИ, запуск которых состоится в мае 2022 года. Несмотря на то, что он находится на стадии испытаний, он представляет собой усилия Сингапура по дальнейшему развитию глобального дискурса по управлению и регулированию ИИ, пытаясь удовлетворить растущий спрос на надежные системы ИИ и продвигая взаимосвязь глобальной нормативно-правовой базы ИИ.
AI Verification — это тестовая среда, основанная на международно признанных принципах управления ИИ, которую компании могут использовать при тестировании своих собственных систем ИИ. «Проверка ИИ» предназначена не для определения этических стандартов, а для обеспечения возможности проверки, позволяя разработчикам систем ИИ и их владельцам публиковать заявления, подтверждающие производительность их систем ИИ.
– Чтобы добиться успеха, «подтвержденный ИИ» может потребоваться больше признания и принятия. Это зависит от таких факторов, как стоимость, убеждение заинтересованных сторон в ее ценности, а также ее актуальность и взаимодействие с международной нормативно-правовой базой.
Общий подход к управлению ИИ в Сингапуре
В своей Национальной стратегии искусственного интеллекта Сингапур объявил, что страна стремится быть «в авангарде разработки и развертывания масштабируемых и эффективных решений ИИ» и надеется укрепить роль страны как «лидера в разработке, тестировании, развертывании и масштабировании». искусственный интеллект." глобальный центр решений. Одним из пяти «активаторов экосистемы», определенных в стратегии расширения внедрения ИИ, является создание «прогрессивной и надежной среды» для разработки ИИ — компромисс между инновациями и минимизацией социальных рисков, сбалансированная среда.
Чтобы создать эту «прогрессивную и заслуживающую доверия среду», Сингапур до сих пор придерживался мягкого и добровольного подхода к регулированию ИИ. Это потому, что страна признает две реальности своих амбиций в области ИИ.
Во-первых, правительство Сингапура** рассматривает искусственный интеллект как ключевой стратегический фактор** роста экономики и улучшения качества жизни своих граждан. В результате Сингапур не предпринял решительных шагов в регулировании искусственного интеллекта, чтобы не душить инновации и инвестиции. Во-вторых, учитывая его размер, Сингапур признает, что само правительство может быть скорее оценщиком, чем устанавливающим цены, по мере того, как дискурс, рамки и правила управления ИИ развиваются во всем мире. Поэтому текущая стратегия состоит не в том, чтобы обновить принципы искусственного интеллекта, а в том, чтобы "следовать мировым тенденциям и не иметь намерения изменить мировые тенденции".("Взять мир там, где он есть, а не там, где, по его мнению, должен быть мир».)
Регуляторный подход Сингапура к ИИ, контролируемый Сингапурской комиссией по защите персональных данных (PDPC), имеет три столпа перед запуском AI Verify в 2022 году:
1 Рамочная модель управления ИИ (рамочная модель).
Консультативный комитет по этичному использованию искусственного интеллекта и данных (Консультативный комитет).
План исследования управления ИИ и использования данных (исследовательский проект).
Далее основное внимание уделяется «каркасной модели».
кадровый режим
Рамочная модель, впервые представленная на ежегодном собрании Всемирного экономического форума в 2019 году, представляет собой добровольную и необязательную основу, которая помогает организациям ответственно развертывать решения искусственного интеллекта в масштабе, отмечая, что эта структура не зависит от стадии разработки технология . В качестве руководства Рамочная модель предоставляет только практические рекомендации по развертыванию ИИ организациями частного сектора, в то время как использование ИИ в государственном секторе регулируется внутренними инструкциями и инструментами управления ИИ и данными. ** Framework Patterns известен как «живой документ», и будущие версии будут развиваться по мере развития технологий и общества. В его основе лежит непредсказуемость технологии, отрасли, масштаба и бизнес-модели. **
По сути, фреймворк руководствуется двумя фундаментальными принципами, которые способствуют доверию и пониманию в ИИ. **Во-первых, организации, использующие ИИ для принятия решений, должны обеспечить объяснимость, прозрачность и справедливость своих процессов принятия решений. Во-вторых, системы ИИ должны быть ориентированы на человека: защита благополучия и безопасности людей должна быть главным соображением при проектировании, разработке и использовании ИИ. **
Структура переводит эти руководящие принципы в действенные действия в четырех ключевых областях процессов принятия организационных решений и разработки технологий:
(a) структуры и методы внутреннего управления;
(b) определить уровень участия человека в принятии решений с использованием искусственного интеллекта;
(в) управление операциями;
d) взаимодействие и общение с заинтересованными сторонами.
В таблице ниже приведены некоторые предлагаемые соображения, подходы и меры в этих ключевых областях.
Другие инициативы, сопровождающие рамочную модель
Когда Сингапур представил второе издание рамочной модели на Всемирном экономическом форуме 2020 года, оно сопровождалось двумя другими документами: Руководством по внедрению и самооценке для организаций (ISAGO) и Сборником вариантов использования (сборник - том 1 и том 2). . ISAGO — это контрольный список, который поможет организациям оценить соответствие своих процессов управления ИИ модельной структуре. В Компендиуме представлены реальные примеры принятия рекомендаций Рамочной основы в разных секторах, вариантах использования и юрисдикциях.
В целом «Рамочная модель» и вспомогательные документы закрепляют и обрисовывают в общих чертах основное мышление регулирования искусственного интеллекта в Сингапуре. Благодаря этим инициативам Сингапур выиграл премию Всемирного саммита Организации Объединенных Наций по вопросам информационного общества в 2019 году, признав его лидерство в управлении ИИ.
Январь 2020 года стал поворотным моментом в глобальной дискуссии о регулировании ИИ. Белая книга, выпущенная Европейской комиссией 17 января 2020 года, заставила международное сообщество обратить больше внимания на возможность государственного регулирования технологий искусственного интеллекта. В феврале 2020 года Европейская комиссия официально выпустила «Белую книгу по искусственному интеллекту», в которой изложены планы по созданию нормативно-правовой базы для искусственного интеллекта. Несколько месяцев спустя Европейская комиссия представила проект будущего законопроекта об искусственном интеллекте. Это первая серьезная попытка государственного учреждения ввести существенные правила для горизонтального регулирования разработки и использования систем ИИ. Можно ожидать, что Закон об ИИ также будет иметь внеюрисдикционные последствия, и компании, разрабатывающие системы ИИ за пределами Европы, могут подпадать под действие нового закона.
Это повлияло на размышления о будущем сингапурской системы регулирования и управления ИИ. Хотя Комиссия по защите персональных данных Сингапура (PDPC) сохраняет свой добровольный и нестрогий подход к регулированию ИИ, она признает, что в будущем ИИ столкнется с более жестким контролем. PDPC также, по-видимому, учитывает растущий спрос со стороны ** потребителей на доверие к системам ИИ и разработчикам, а также потребность в международных стандартах ИИ для сравнительного анализа и оценки ИИ на соответствие нормативным требованиям. Кроме того, требования к функциональной совместимости нормативно-правовой базы ИИ также возрастают. **Ввиду этого Сингапур начал развиваться, и окончательные результаты были объединены в рамках «AI Verify».
Что такое «Проверка AI»
"AI Verify" выпущен совместно Infocomm Media Development Authority (IMDA), статутным комитетом при Министерстве связи и информации Сингапура и Комитетом по защите персональных данных (PDPC) и представляет собой систему и набор инструментов для тестирования управления искусственным интеллектом. **Используя AI Verify, организации могут проводить добровольную оценку своих систем ИИ, сочетая технические испытания и проверки процессов. В свою очередь, система помогает компаниям предоставлять заинтересованным сторонам объективные и поддающиеся проверке доказательства того, что их системы искусственного интеллекта внедряются ответственным и надежным образом. **
Ввиду постоянного развития методов, стандартов, индикаторов и инструментов тестирования искусственного интеллекта «верификация искусственного интеллекта» (AI Verify) в настоящее время находится на стадии «минимально жизнеспособного продукта» (MVP). Это имеет два значения. Во-первых, версия MVP имеет технические ограничения и ограничивается типом и размером моделей ИИ или наборов данных, которые можно тестировать или анализировать. Во-вторых, ожидается, что проверка ИИ будет развиваться по мере развития возможностей тестирования ИИ.
Четыре цели разработки версии MVP «AI Verified»:
(a) Во-первых, IMDA надеется, что организации смогут использовать «проверку ИИ» для определения контрольных показателей производительности своих систем ИИ и демонстрации этих проверенных контрольных показателей заинтересованным сторонам, таким как потребители и сотрудники, тем самым помогая организациям укреплять доверие.
(b) Во-вторых, учитывая его разработку с учетом различных структур регулирования и управления ИИ, а также общих надежных принципов ИИ, Проверка ИИ призвана помочь организациям найти общие глобальные структуры и правила управления ИИ. IMDA продолжит работу с регулирующими органами и организациями по стандартизации, чтобы сопоставить структуру тестирования для «валидации ИИ» с установленной структурой. Усилия направлены на то, чтобы позволить компаниям использовать или предлагать продукты и услуги ИИ на нескольких рынках, в то же время сделав Сингапур центром управления ИИ и нормативных испытаний.
(c) В-третьих, **IMDA сможет сопоставлять отраслевые практики, контрольные показатели и показатели по мере того, как все больше организаций будут экспериментировать с «проверкой ИИ» и использовать свою структуру тестирования. **Учитывая, что Сингапур участвует в глобальных платформах управления ИИ, таких как Глобальное партнерство в области ИИ и ISO/IEC JTC1/SC 42, предоставляя ценную информацию об установлении международных стандартов управления ИИ, это может облегчить разработку стандартов управления ИИ. .
(d) В-четвертых, IMDA хочет, чтобы «Проверка ИИ» помогла создать местное сообщество тестирования ИИ в Сингапуре, состоящее из разработчиков ИИ и владельцев систем (стремящихся тестировать системы ИИ), поставщиков технологий (которые разрабатывают реализацию управления ИИ и решения для тестирования), поставщики консультационных услуг (специализирующиеся на поддержке тестирования и сертификации) и исследователи (которые разрабатывают методы тестирования, эталонные тесты и практики).
Также важно прояснить несколько потенциальных неправильных представлений о «валидации ИИ». Во-первых, **«Проверка ИИ» не пытается определить этические стандарты. ** Он не пытается сигнализировать о классификации систем ИИ, а вместо этого обеспечивает возможность проверки, позволяя разработчикам и владельцам систем ИИ подтверждать свои заявления о производительности своих систем ИИ. Во-вторых, правительственные организации, использующие «проверку ИИ», не могут гарантировать, что тестируемые системы ИИ свободны от риска или предвзятости или что они полностью «безопасны» и «этичны». ** В-третьих, «Проверка ИИ» направлена на предотвращение непреднамеренного раскрытия организациями конфиденциальной информации о своих системах ИИ (например, их базового кода или обучающих данных). Он принял ключевую меру безопасности — «**Проверка AI», которая будет проверена разработчиками и владельцами систем AI. Это позволяет данным и моделям организации оставаться в операционной среде организации. **
Как работает «Проверка AI»
«Проверка ИИ» состоит из двух частей. Первая — это Test Framework, в которой приводятся 11 международно признанных этических принципов и принципов управления ИИ, объединенных в пять столпов. Второй — это набор инструментов, который организации используют для проведения технического тестирования и документирования проверок процессов в рамках тестирования.
Платформа тестирования для «проверки искусственного интеллекта»
Пять столпов и одиннадцать принципов системы тестирования «Проверка ИИ» и их предполагаемые оценки перечислены ниже:
Фактическая тестовая среда, включая следующие ключевые части:
***(a) Определения: *** Структура тестирования предоставляет простые для понимания определения для каждого принципа ИИ. Например, интерпретируемость определяется как «способность оценивать факторы, которые приводят к решению системы ИИ, ее общее поведение, результат и влияние».
***(b) Поддающиеся проверке критерии: ***Для каждого принципа предоставляется набор поддающихся проверке критериев. Эти стандарты учитывают технические и/или нетехнические (такие как процессы, процедуры или организационные структуры) факторы, которые способствуют достижению намеченных результатов этого принципа управления.
Принимая интерпретируемость в качестве примера, даются два проверяемых критерия. Разработчики могут использовать методы объяснимости, чтобы помочь пользователям понять, что движет моделями ИИ. Разработчики также могут продемонстрировать предпочтение разработки моделей ИИ, которые объясняют их решения, или делают это по умолчанию.
***(c) Процесс тестирования: *** Для каждого проверяемого критерия «Валидация ИИ» предоставляет процесс или действия, которые необходимо выполнить, которые могут быть количественными (например, статистические или технические тесты), а также могут быть качественными (например, документальные доказательства, полученные в ходе технологических проверок).
Что касается интерпретируемости, техническое тестирование может включать эмпирический анализ и определение вклада функций в выходные данные модели. Тестирование на основе процессов задокументирует обоснование, оценку рисков и компромиссы модели ИИ.
***(d) Метрики: ***Количественные или качественные параметры, используемые для измерения или предоставления доказательств для каждого проверяемого критерия.
Используя приведенный выше пример интерпретируемости, метрики, используемые для определения вклада функций, исследуют способствующие особенности выходных данных модели, полученных с помощью технических инструментов, таких как SHAP и LIME. При выборе окончательной модели для документирования оценки можно использовать метрики, основанные на процессах, такие как оценка рисков и поиск компромиссов.
***(e) Пороговые значения (если применимо): *** Там, где это возможно, среда тестирования будет предоставлять приемлемые значения или ориентиры для выбранных показателей. Эти значения или ориентиры могут быть определены регулирующими органами, отраслевыми ассоциациями или другими признанными организациями по установлению стандартов. Для модели MVP «Проверка ИИ» не предусмотрено пороговое значение, учитывая быстрое развитие технологий ИИ, вариантов их использования и методов тестирования систем ИИ. Однако по мере развития сферы управления ИИ и расширения использования «AI Verify» IMDA намеревается сопоставлять и разрабатывать контекстно-зависимые метрики и пороговые значения для добавления в структуру тестирования.
Инструментарий AI Verify «Проверка искусственного интеллекта»
В то время как набор инструментов AI Verify для «проверки искусственного интеллекта» в настоящее время доступен только для организаций, которые успешно зарегистрировались в программе AI Verify MVP, IMDA описывает набор инструментов как «универсальный» инструмент для организаций для проведения технического тестирования. В частности, инструментарий широко использует библиотеки тестирования с открытым исходным кодом. Эти инструменты включают SHAP (Shapley Additive ExPlanations) для объяснимости, Adversarial Robustness Toolkit для надежности и AIF360 и Fair Learning для справедливости.
Пользователи «AI Verification» могут установить инструментарий в своей внутренней среде. Пользователь будет выполнять процесс тестирования под руководством пользовательского интерфейса. Например, инструмент включает в себя «управляемое дерево справедливости», позволяющее пользователям определять показатели справедливости, относящиеся к их варианту использования. Наконец, AI Verify создаст сводный отчет, чтобы помочь разработчикам и владельцам систем интерпретировать результаты тестирования. Для технологических инспекций в отчете содержится контрольный список наличия или отсутствия документальных свидетельств, указанных в структуре тестирования. Затем результаты тестирования упаковываются в контейнеры Docker® для развертывания.
в заключение
Когда IMDA выпустила AI Verify, волна интереса к генеративному ИИ еще не материализовалась. Следуя текущей тенденции, интерес к управлению, тестируемости и надежности систем ИИ значительно вырос. Как указано в этой статье, различные инициативы «проверки искусственного интеллекта» AI Verify только готовятся реагировать на текущую ситуацию.
Ранее Сингапур продемонстрировал свою способность вносить свой вклад в глобальный дискурс и лидерство в области управления и регулирования ИИ. Выпущенные Framework Patterns тому доказательство. Ставки AI Verify, безусловно, высоки, но таков же и глобальный спрос на эту инициативу. Чтобы добиться успеха, может потребоваться более широкое признание и более широкое использование. Это зависит от нескольких факторов. Во-первых, доступность инструмента имеет решающее значение: организации, желающие использовать AI Verify, должны иметь возможность использовать его по низкой цене или бесплатно. ** Во-вторых, очень важно убедить организацию в ее ценности. **Для этого требуется, чтобы IMDA доказало, что «проверка искусственного интеллекта» AI Verify является технически и процедурно обоснованной, ее можно эффективно использовать для все новых и новых типов и масштабов моделей и наборов данных искусственного интеллекта, и она не повлияет на частную собственность. Коммерческая конфиденциальность модель ИИ или набор данных. ** В-третьих, и, возможно, это наиболее важно, он должен поддерживать совместимость с международными нормативными базами. ** IMDA необходимо обеспечить, чтобы AI Verify продолжала помогать организациям учитывать и взаимодействовать в рамках ключевых формирующихся глобальных нормативных рамок ИИ, таких как Закон ЕС об ИИ, Канадский закон об ИИ и данных, нормативная база NIST США о рисках ИИ, а также сингапурский собственная национальная модельная база.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Как сделать управление ИИ поддающимся проверке: сингапурский инструментарий AI Verify
Автор: ДЖОШ ЛИ КОК ТОНГ Перевод: Ли Ян Вычитка: Сян Синьи
Источник: Бумага
В последние месяцы глобальный интерес к управлению и регулированию ИИ резко возрос. Многие считают, что для работы с генеративными системами ИИ необходимы новые структуры управления и регулирования, чьи возможности поразительны, такие как ChatGPT и DALL-E от OpenAI, Bard от Google, Stable Diffusion и другие. Закон ЕС об искусственном интеллекте получил широкое внимание. Фактически, во всем мире появляется множество других важных инициатив, включая различные модели и структуры управления ИИ.
Эта статья посвящена сингапурской системе тестирования управления искусственным интеллектом и инструментарию — «AI Verify», выпущенной в мае 2022 года. В ней в основном выделяются три ключевых момента. ① Обобщите общую стратегию Сингапура в отношении управления ИИ и ключевые инициативы правительства, прежде чем запускать проверку ИИ. ② Объясните ключ «проверки искусственного интеллекта». ③ «Верификация ИИ» была запущена в течение года, и в ней обсуждались будущее проверки ИИ и подход Сингапура к управлению и регулированию ИИ. Вкратце, основные моменты таковы:
Сингапур применил подход умеренного вмешательства к управлению и регулированию ИИ, при этом в Рамочной модели управления ИИ изложены руководящие принципы управления ИИ в частном секторе.
«AI Verify» — это платформа и набор инструментов для тестирования управления ИИ, запуск которых состоится в мае 2022 года. Несмотря на то, что он находится на стадии испытаний, он представляет собой усилия Сингапура по дальнейшему развитию глобального дискурса по управлению и регулированию ИИ, пытаясь удовлетворить растущий спрос на надежные системы ИИ и продвигая взаимосвязь глобальной нормативно-правовой базы ИИ.
AI Verification — это тестовая среда, основанная на международно признанных принципах управления ИИ, которую компании могут использовать при тестировании своих собственных систем ИИ. «Проверка ИИ» предназначена не для определения этических стандартов, а для обеспечения возможности проверки, позволяя разработчикам систем ИИ и их владельцам публиковать заявления, подтверждающие производительность их систем ИИ.
– Чтобы добиться успеха, «подтвержденный ИИ» может потребоваться больше признания и принятия. Это зависит от таких факторов, как стоимость, убеждение заинтересованных сторон в ее ценности, а также ее актуальность и взаимодействие с международной нормативно-правовой базой.
Общий подход к управлению ИИ в Сингапуре
В своей Национальной стратегии искусственного интеллекта Сингапур объявил, что страна стремится быть «в авангарде разработки и развертывания масштабируемых и эффективных решений ИИ» и надеется укрепить роль страны как «лидера в разработке, тестировании, развертывании и масштабировании». искусственный интеллект." глобальный центр решений. Одним из пяти «активаторов экосистемы», определенных в стратегии расширения внедрения ИИ, является создание «прогрессивной и надежной среды» для разработки ИИ — компромисс между инновациями и минимизацией социальных рисков, сбалансированная среда.
Чтобы создать эту «прогрессивную и заслуживающую доверия среду», Сингапур до сих пор придерживался мягкого и добровольного подхода к регулированию ИИ. Это потому, что страна признает две реальности своих амбиций в области ИИ.
Во-первых, правительство Сингапура** рассматривает искусственный интеллект как ключевой стратегический фактор** роста экономики и улучшения качества жизни своих граждан. В результате Сингапур не предпринял решительных шагов в регулировании искусственного интеллекта, чтобы не душить инновации и инвестиции. Во-вторых, учитывая его размер, Сингапур признает, что само правительство может быть скорее оценщиком, чем устанавливающим цены, по мере того, как дискурс, рамки и правила управления ИИ развиваются во всем мире. Поэтому текущая стратегия состоит не в том, чтобы обновить принципы искусственного интеллекта, а в том, чтобы "следовать мировым тенденциям и не иметь намерения изменить мировые тенденции".("Взять мир там, где он есть, а не там, где, по его мнению, должен быть мир».)
Регуляторный подход Сингапура к ИИ, контролируемый Сингапурской комиссией по защите персональных данных (PDPC), имеет три столпа перед запуском AI Verify в 2022 году:
1 Рамочная модель управления ИИ (рамочная модель).
Консультативный комитет по этичному использованию искусственного интеллекта и данных (Консультативный комитет).
План исследования управления ИИ и использования данных (исследовательский проект).
Далее основное внимание уделяется «каркасной модели».
кадровый режим
Рамочная модель, впервые представленная на ежегодном собрании Всемирного экономического форума в 2019 году, представляет собой добровольную и необязательную основу, которая помогает организациям ответственно развертывать решения искусственного интеллекта в масштабе, отмечая, что эта структура не зависит от стадии разработки технология . В качестве руководства Рамочная модель предоставляет только практические рекомендации по развертыванию ИИ организациями частного сектора, в то время как использование ИИ в государственном секторе регулируется внутренними инструкциями и инструментами управления ИИ и данными. ** Framework Patterns известен как «живой документ», и будущие версии будут развиваться по мере развития технологий и общества. В его основе лежит непредсказуемость технологии, отрасли, масштаба и бизнес-модели. **
По сути, фреймворк руководствуется двумя фундаментальными принципами, которые способствуют доверию и пониманию в ИИ. **Во-первых, организации, использующие ИИ для принятия решений, должны обеспечить объяснимость, прозрачность и справедливость своих процессов принятия решений. Во-вторых, системы ИИ должны быть ориентированы на человека: защита благополучия и безопасности людей должна быть главным соображением при проектировании, разработке и использовании ИИ. **
Структура переводит эти руководящие принципы в действенные действия в четырех ключевых областях процессов принятия организационных решений и разработки технологий:
(a) структуры и методы внутреннего управления;
(b) определить уровень участия человека в принятии решений с использованием искусственного интеллекта;
(в) управление операциями;
d) взаимодействие и общение с заинтересованными сторонами.
В таблице ниже приведены некоторые предлагаемые соображения, подходы и меры в этих ключевых областях.
Когда Сингапур представил второе издание рамочной модели на Всемирном экономическом форуме 2020 года, оно сопровождалось двумя другими документами: Руководством по внедрению и самооценке для организаций (ISAGO) и Сборником вариантов использования (сборник - том 1 и том 2). . ISAGO — это контрольный список, который поможет организациям оценить соответствие своих процессов управления ИИ модельной структуре. В Компендиуме представлены реальные примеры принятия рекомендаций Рамочной основы в разных секторах, вариантах использования и юрисдикциях.
В целом «Рамочная модель» и вспомогательные документы закрепляют и обрисовывают в общих чертах основное мышление регулирования искусственного интеллекта в Сингапуре. Благодаря этим инициативам Сингапур выиграл премию Всемирного саммита Организации Объединенных Наций по вопросам информационного общества в 2019 году, признав его лидерство в управлении ИИ.
Январь 2020 года стал поворотным моментом в глобальной дискуссии о регулировании ИИ. Белая книга, выпущенная Европейской комиссией 17 января 2020 года, заставила международное сообщество обратить больше внимания на возможность государственного регулирования технологий искусственного интеллекта. В феврале 2020 года Европейская комиссия официально выпустила «Белую книгу по искусственному интеллекту», в которой изложены планы по созданию нормативно-правовой базы для искусственного интеллекта. Несколько месяцев спустя Европейская комиссия представила проект будущего законопроекта об искусственном интеллекте. Это первая серьезная попытка государственного учреждения ввести существенные правила для горизонтального регулирования разработки и использования систем ИИ. Можно ожидать, что Закон об ИИ также будет иметь внеюрисдикционные последствия, и компании, разрабатывающие системы ИИ за пределами Европы, могут подпадать под действие нового закона.
Это повлияло на размышления о будущем сингапурской системы регулирования и управления ИИ. Хотя Комиссия по защите персональных данных Сингапура (PDPC) сохраняет свой добровольный и нестрогий подход к регулированию ИИ, она признает, что в будущем ИИ столкнется с более жестким контролем. PDPC также, по-видимому, учитывает растущий спрос со стороны ** потребителей на доверие к системам ИИ и разработчикам, а также потребность в международных стандартах ИИ для сравнительного анализа и оценки ИИ на соответствие нормативным требованиям. Кроме того, требования к функциональной совместимости нормативно-правовой базы ИИ также возрастают. **Ввиду этого Сингапур начал развиваться, и окончательные результаты были объединены в рамках «AI Verify».
Что такое «Проверка AI»
"AI Verify" выпущен совместно Infocomm Media Development Authority (IMDA), статутным комитетом при Министерстве связи и информации Сингапура и Комитетом по защите персональных данных (PDPC) и представляет собой систему и набор инструментов для тестирования управления искусственным интеллектом. **Используя AI Verify, организации могут проводить добровольную оценку своих систем ИИ, сочетая технические испытания и проверки процессов. В свою очередь, система помогает компаниям предоставлять заинтересованным сторонам объективные и поддающиеся проверке доказательства того, что их системы искусственного интеллекта внедряются ответственным и надежным образом. **
Ввиду постоянного развития методов, стандартов, индикаторов и инструментов тестирования искусственного интеллекта «верификация искусственного интеллекта» (AI Verify) в настоящее время находится на стадии «минимально жизнеспособного продукта» (MVP). Это имеет два значения. Во-первых, версия MVP имеет технические ограничения и ограничивается типом и размером моделей ИИ или наборов данных, которые можно тестировать или анализировать. Во-вторых, ожидается, что проверка ИИ будет развиваться по мере развития возможностей тестирования ИИ.
Четыре цели разработки версии MVP «AI Verified»:
(a) Во-первых, IMDA надеется, что организации смогут использовать «проверку ИИ» для определения контрольных показателей производительности своих систем ИИ и демонстрации этих проверенных контрольных показателей заинтересованным сторонам, таким как потребители и сотрудники, тем самым помогая организациям укреплять доверие.
(b) Во-вторых, учитывая его разработку с учетом различных структур регулирования и управления ИИ, а также общих надежных принципов ИИ, Проверка ИИ призвана помочь организациям найти общие глобальные структуры и правила управления ИИ. IMDA продолжит работу с регулирующими органами и организациями по стандартизации, чтобы сопоставить структуру тестирования для «валидации ИИ» с установленной структурой. Усилия направлены на то, чтобы позволить компаниям использовать или предлагать продукты и услуги ИИ на нескольких рынках, в то же время сделав Сингапур центром управления ИИ и нормативных испытаний.
(c) В-третьих, **IMDA сможет сопоставлять отраслевые практики, контрольные показатели и показатели по мере того, как все больше организаций будут экспериментировать с «проверкой ИИ» и использовать свою структуру тестирования. **Учитывая, что Сингапур участвует в глобальных платформах управления ИИ, таких как Глобальное партнерство в области ИИ и ISO/IEC JTC1/SC 42, предоставляя ценную информацию об установлении международных стандартов управления ИИ, это может облегчить разработку стандартов управления ИИ. .
(d) В-четвертых, IMDA хочет, чтобы «Проверка ИИ» помогла создать местное сообщество тестирования ИИ в Сингапуре, состоящее из разработчиков ИИ и владельцев систем (стремящихся тестировать системы ИИ), поставщиков технологий (которые разрабатывают реализацию управления ИИ и решения для тестирования), поставщики консультационных услуг (специализирующиеся на поддержке тестирования и сертификации) и исследователи (которые разрабатывают методы тестирования, эталонные тесты и практики).
Также важно прояснить несколько потенциальных неправильных представлений о «валидации ИИ». Во-первых, **«Проверка ИИ» не пытается определить этические стандарты. ** Он не пытается сигнализировать о классификации систем ИИ, а вместо этого обеспечивает возможность проверки, позволяя разработчикам и владельцам систем ИИ подтверждать свои заявления о производительности своих систем ИИ. Во-вторых, правительственные организации, использующие «проверку ИИ», не могут гарантировать, что тестируемые системы ИИ свободны от риска или предвзятости или что они полностью «безопасны» и «этичны». ** В-третьих, «Проверка ИИ» направлена на предотвращение непреднамеренного раскрытия организациями конфиденциальной информации о своих системах ИИ (например, их базового кода или обучающих данных). Он принял ключевую меру безопасности — «**Проверка AI», которая будет проверена разработчиками и владельцами систем AI. Это позволяет данным и моделям организации оставаться в операционной среде организации. **
Как работает «Проверка AI»
«Проверка ИИ» состоит из двух частей. Первая — это Test Framework, в которой приводятся 11 международно признанных этических принципов и принципов управления ИИ, объединенных в пять столпов. Второй — это набор инструментов, который организации используют для проведения технического тестирования и документирования проверок процессов в рамках тестирования.
Платформа тестирования для «проверки искусственного интеллекта»
Пять столпов и одиннадцать принципов системы тестирования «Проверка ИИ» и их предполагаемые оценки перечислены ниже:
***(a) Определения: *** Структура тестирования предоставляет простые для понимания определения для каждого принципа ИИ. Например, интерпретируемость определяется как «способность оценивать факторы, которые приводят к решению системы ИИ, ее общее поведение, результат и влияние».
***(b) Поддающиеся проверке критерии: ***Для каждого принципа предоставляется набор поддающихся проверке критериев. Эти стандарты учитывают технические и/или нетехнические (такие как процессы, процедуры или организационные структуры) факторы, которые способствуют достижению намеченных результатов этого принципа управления.
Принимая интерпретируемость в качестве примера, даются два проверяемых критерия. Разработчики могут использовать методы объяснимости, чтобы помочь пользователям понять, что движет моделями ИИ. Разработчики также могут продемонстрировать предпочтение разработки моделей ИИ, которые объясняют их решения, или делают это по умолчанию.
***(c) Процесс тестирования: *** Для каждого проверяемого критерия «Валидация ИИ» предоставляет процесс или действия, которые необходимо выполнить, которые могут быть количественными (например, статистические или технические тесты), а также могут быть качественными (например, документальные доказательства, полученные в ходе технологических проверок).
Что касается интерпретируемости, техническое тестирование может включать эмпирический анализ и определение вклада функций в выходные данные модели. Тестирование на основе процессов задокументирует обоснование, оценку рисков и компромиссы модели ИИ.
***(d) Метрики: ***Количественные или качественные параметры, используемые для измерения или предоставления доказательств для каждого проверяемого критерия.
Используя приведенный выше пример интерпретируемости, метрики, используемые для определения вклада функций, исследуют способствующие особенности выходных данных модели, полученных с помощью технических инструментов, таких как SHAP и LIME. При выборе окончательной модели для документирования оценки можно использовать метрики, основанные на процессах, такие как оценка рисков и поиск компромиссов.
***(e) Пороговые значения (если применимо): *** Там, где это возможно, среда тестирования будет предоставлять приемлемые значения или ориентиры для выбранных показателей. Эти значения или ориентиры могут быть определены регулирующими органами, отраслевыми ассоциациями или другими признанными организациями по установлению стандартов. Для модели MVP «Проверка ИИ» не предусмотрено пороговое значение, учитывая быстрое развитие технологий ИИ, вариантов их использования и методов тестирования систем ИИ. Однако по мере развития сферы управления ИИ и расширения использования «AI Verify» IMDA намеревается сопоставлять и разрабатывать контекстно-зависимые метрики и пороговые значения для добавления в структуру тестирования.
Инструментарий AI Verify «Проверка искусственного интеллекта»
В то время как набор инструментов AI Verify для «проверки искусственного интеллекта» в настоящее время доступен только для организаций, которые успешно зарегистрировались в программе AI Verify MVP, IMDA описывает набор инструментов как «универсальный» инструмент для организаций для проведения технического тестирования. В частности, инструментарий широко использует библиотеки тестирования с открытым исходным кодом. Эти инструменты включают SHAP (Shapley Additive ExPlanations) для объяснимости, Adversarial Robustness Toolkit для надежности и AIF360 и Fair Learning для справедливости.
Пользователи «AI Verification» могут установить инструментарий в своей внутренней среде. Пользователь будет выполнять процесс тестирования под руководством пользовательского интерфейса. Например, инструмент включает в себя «управляемое дерево справедливости», позволяющее пользователям определять показатели справедливости, относящиеся к их варианту использования. Наконец, AI Verify создаст сводный отчет, чтобы помочь разработчикам и владельцам систем интерпретировать результаты тестирования. Для технологических инспекций в отчете содержится контрольный список наличия или отсутствия документальных свидетельств, указанных в структуре тестирования. Затем результаты тестирования упаковываются в контейнеры Docker® для развертывания.
в заключение
Когда IMDA выпустила AI Verify, волна интереса к генеративному ИИ еще не материализовалась. Следуя текущей тенденции, интерес к управлению, тестируемости и надежности систем ИИ значительно вырос. Как указано в этой статье, различные инициативы «проверки искусственного интеллекта» AI Verify только готовятся реагировать на текущую ситуацию.
Ранее Сингапур продемонстрировал свою способность вносить свой вклад в глобальный дискурс и лидерство в области управления и регулирования ИИ. Выпущенные Framework Patterns тому доказательство. Ставки AI Verify, безусловно, высоки, но таков же и глобальный спрос на эту инициативу. Чтобы добиться успеха, может потребоваться более широкое признание и более широкое использование. Это зависит от нескольких факторов. Во-первых, доступность инструмента имеет решающее значение: организации, желающие использовать AI Verify, должны иметь возможность использовать его по низкой цене или бесплатно. ** Во-вторых, очень важно убедить организацию в ее ценности. **Для этого требуется, чтобы IMDA доказало, что «проверка искусственного интеллекта» AI Verify является технически и процедурно обоснованной, ее можно эффективно использовать для все новых и новых типов и масштабов моделей и наборов данных искусственного интеллекта, и она не повлияет на частную собственность. Коммерческая конфиденциальность модель ИИ или набор данных. ** В-третьих, и, возможно, это наиболее важно, он должен поддерживать совместимость с международными нормативными базами. ** IMDA необходимо обеспечить, чтобы AI Verify продолжала помогать организациям учитывать и взаимодействовать в рамках ключевых формирующихся глобальных нормативных рамок ИИ, таких как Закон ЕС об ИИ, Канадский закон об ИИ и данных, нормативная база NIST США о рисках ИИ, а также сингапурский собственная национальная модельная база.