Всего через три дня после того, как Meta объявила о новом поколении крупноязыковой модели с открытым исходным кодом Llama 2, топ-менеджеры компании, Microsoft, OpenAI, Amazon, Anthropic и других семи гигантов индустрии ИИ, а также руководители горячих стартапов снова собрались в Белом доме в США.
В этом случае семь компаний подписали «Добровольные обязательства» (Добровольные обязательства), взяв на себя «8 основных обязательств» по безопасности, прозрачности и рискам технологий ИИ и НИОКР.
Источник изображения: сгенерировано Unbounded AI
** Драма компании AI «ищу надзора» достигла здесь небольшой кульминации **.
Обозреватель NYT Кевин Руз написал статью, в которой подробно объяснил, о чем говорится в «8 основных обещаниях», и к каким изменениям они привели.
Результатом исследования является то, что эти 8 обязательств, таких как тестирование безопасности, обмен информацией о безопасности ИИ, сообщение об уязвимостях и «приоритизация ИИ для решения социальных проблем», кажутся большими проблемами, и в соответствующих обязательствах отсутствуют подробности , Многие из самих проблем были «опубликованы» компаниями, занимающимися ИИ.
** Это «Письмо с обязательствами по ресурсам» больше похоже на косвенное «отображение результатов» нескольких запросов регулирующих органов США к компаниям, занимающимся искусственным интеллектом, за последние шесть месяцев, и, вероятно, оно не имеет большого значения для реализации **. Тем не менее, регулирующие органы несколько раз выражали обеспокоенность по поводу ИИ, указывая на то, что позиция правительства в отношении применения технологии ИИ имеет наибольшее значение в этом шоу.
Ниже приводится интерпретация Кевином Роузом восьми обязательств в «Письме о добровольных обязательствах»:
** Обязательство 1: Компания обязуется проводить внутреннее и внешнее тестирование безопасности систем ИИ перед их выпуском. **
Все эти компании, занимающиеся искусственным интеллектом, перед выпуском своих моделей провели тесты на безопасность, которые часто называют «тестированием красной команды». В некотором смысле, ** это не совсем новое обещание, оно расплывчато. Не было предоставлено никаких подробностей о том, какие испытания потребуются и кем**.
В последующем заявлении Белый дом сказал только, что тестирование моделей ИИ «будет частично проводиться независимыми экспертами» и будет сосредоточено на «рисках ИИ, таких как ** биобезопасность и кибербезопасность, и их более широких социальных последствиях **».
Это хорошая идея, чтобы компании, занимающиеся искусственным интеллектом, публично обязались продолжать такое тестирование и поощрять большую прозрачность в процессе тестирования. Существуют также типы рисков ИИ, например опасность того, что модели ИИ могут быть использованы для разработки биологического оружия, которые правительственные и военные чиновники могут лучше оценить, чем компании.
Я рад видеть, что индустрия искусственного интеллекта согласовала набор стандартных тестов безопасности, таких как тесты «самовоспроизведения» Центра исследований выравнивания для предварительных моделей от OpenAI и Anthropic. Я также хотел бы, чтобы федеральное правительство финансировало такие испытания, которые могут быть дорогостоящими и требовать от инженеров значительных технических знаний. В настоящее время многие тесты безопасности финансируются и контролируются корпорациями, что вызывает очевидный конфликт интересов.
** Обязательство 2: Компания обязуется делиться информацией об управлении рисками ИИ в отрасли, а также с правительством, гражданским обществом и академическими кругами. **
Это обещание также немного расплывчато. Некоторые из этих компаний публиковали информацию о своих моделях ИИ — часто в научных статьях или сообщениях в корпоративных блогах. Некоторые из этих компаний, в том числе OpenAI и Anthropic, также опубликовали документы под названием «Карты», в которых описаны шаги, которые они предпринимают для повышения безопасности этих моделей.
Но они также иногда утаивают информацию, ссылаясь на соображения безопасности. Когда OpenAI выпустила свою последнюю модель ИИ, GPT-4, в этом году, она нарушила отраслевое соглашение, решив не раскрывать, сколько было данных для обучения или насколько велика была ее модель (метрика, называемая «параметрами»). Компания заявила, что отказалась раскрыть информацию из соображений конкуренции и безопасности. Это также тот тип данных, который технологические компании предпочитают скрывать от конкурентов.
В соответствии с этими новыми обязательствами компании, использующие ИИ, будут вынуждены раскрывать такую информацию? Что, если это может привести к ускорению гонки вооружений ИИ?
Я подозреваю, что цель Белого дома ** состоит не в том, чтобы заставить компании раскрывать свои значения параметров, а скорее в том, чтобы побудить их обмениваться информацией ** друг с другом о рисках, которые представляют (или не представляют) их модели.
Но даже такой обмен информацией может быть рискованным. Если команда искусственного интеллекта Google во время предварительного тестирования предотвращает использование новых моделей для разработки смертоносного биологического оружия, должна ли она делиться этой информацией за пределами Google? Дает ли это злоумышленникам идеи о том, как заставить менее защищенную модель выполнять ту же задачу?
** Обязательство 3: Компания обязуется инвестировать в кибербезопасность и меры защиты от внутренних угроз для защиты весов проприетарных и неопубликованных моделей. **
Этот вопрос очень прост и не вызывает споров среди инсайдеров ИИ, с которыми я разговаривал. ** «Вес модели» — это технический термин, относящийся к математическим инструкциям, которые дают моделям ИИ возможность функционировать **. Если вы агент иностранного правительства (или конкурирующей компании), желающий создать собственную версию ChatGPT или другого продукта ИИ, весы — это то, что вы хотите украсть. Компании ИИ заинтересованы в жестком контроле над этим.
Проблема утечки модельного веса хорошо известна.
Например, веса для оригинальной языковой модели Meta LLaMA просочились на 4chan и другие сайты всего через несколько дней после того, как модель была опубликована. Учитывая риск новых утечек и возможность того, что другие страны могут быть заинтересованы в краже технологий у американских компаний, требование, чтобы компании, занимающиеся искусственным интеллектом, вкладывали больше средств в собственную безопасность, кажется легкой задачей.
** Обязательство 4: Обе компании обязуются содействовать обнаружению уязвимостей в своих системах искусственного интеллекта третьими сторонами и сообщать о них. **
Я не совсем уверен, что это значит. После того, как каждая ИИ-компания выпускает модель, она обнаруживает в ней дыры, обычно потому, что пользователи пытаются сделать с моделью что-то плохое или обойти «взлом» способами, которые компания не предвидела.
Белый дом обязался потребовать от компаний создания «надежных механизмов отчетности» об уязвимостях, но неясно, что это может означать.
Кнопка обратной связи в приложении, похожая на те, которые позволяют пользователям Facebook и Twitter сообщать о нарушениях? Программа вознаграждения за обнаружение ошибок, подобная той, которую OpenAI запустила в этом году для поощрения пользователей, обнаруживших ошибки в своих системах? Есть ли еще что-нибудь? Нам придется подождать более подробной информации.
** Обязательство 5: Компания стремится разработать надежные технические механизмы, чтобы пользователи знали, когда контент создается с помощью искусственного интеллекта, например систем водяных знаков. **
Это интересная идея, но оставляет много места для интерпретации.
До сих пор компаниям, занимающимся искусственным интеллектом, не удавалось разработать инструменты, позволяющие людям определить, просматривают ли они контент, созданный искусственным интеллектом. Для этого есть веские технические причины, но это настоящая проблема, когда люди могут выдавать работу, созданную ИИ, за свою собственную (спросите любого школьного учителя).
Многие из современных инструментов, рекламируемых как способные обнаруживать результаты ИИ, на самом деле не могут делать это с какой-либо степенью точности.
У меня нет оптимизма в отношении того, что эта проблема будет полностью решена, но я рад, что компании взяли на себя обязательство над ней работать.
**Обязательство 6: Компании обязуются публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования своих систем ИИ. **
Еще одно разумно звучащее обязательство с большим пространством для маневра.
Как часто компаниям необходимо отчитываться о возможностях и ограничениях своих систем? Насколько подробной должна быть эта информация? Учитывая, что многие компании, разрабатывающие системы искусственного интеллекта, удивляются возможностям своих систем постфактум, как далеко они действительно могут описать эти системы заранее?
** Обязательство 7: Компании обязуются уделять приоритетное внимание исследованиям рисков для общества, которые могут представлять системы искусственного интеллекта, в том числе избегать вредных предубеждений и дискриминации и защищать конфиденциальность. **
Приверженность «приоритизации исследований» является расплывчатой приверженностью. Тем не менее, я считаю, что это обязательство будет приветствоваться многими в сообществе по этике ИИ, которые хотят, чтобы компании ИИ уделяли приоритетное внимание предотвращению краткосрочного вреда, такого как предвзятость и дискриминация, а не беспокоились о сценариях конца света, как это делают люди, занимающиеся безопасностью ИИ.
Если вы не понимаете разницы между «этикой ИИ» и «безопасностью ИИ», знайте, что в исследовательском сообществе ИИ есть две соперничающие фракции, каждая из которых считает, что другая сосредоточена на предотвращении вреда от ошибок.
** Обязательство 8: Обе компании привержены разработке и развертыванию передовых систем искусственного интеллекта, чтобы помочь решить самые большие проблемы общества. **
Я не думаю, что многие люди будут спорить с тем, что продвинутый ИИ не должен использоваться для решения самых больших проблем общества. Я бы не согласился с тем, что Белый дом назвал профилактику рака и смягчение последствий изменения климата двумя областями, на которых он хочет, чтобы компании, занимающиеся искусственным интеллектом, сосредоточили свое внимание.
Однако эту цель несколько усложняет то, что в исследованиях ИИ вещи, которые поначалу кажутся легкомысленными, обычно имеют более серьезные последствия.
Некоторые методы, используемые DeepMind's AlphaGo, системой искусственного интеллекта, обученной играть в настольную игру Го, оказались чрезвычайно полезными для предсказания трехмерной структуры белков, что является важным открытием, которое продвигает вперед фундаментальные научные исследования.
В целом сделки Белого дома с компаниями, занимающимися искусственным интеллектом, кажутся скорее символическими, чем существенными. Не существует механизмов обеспечения соблюдения компаниями этих обязательств, многие из которых отражают меры предосторожности, уже принятые компаниями, занимающимися искусственным интеллектом.
Тем не менее, это разумный первый шаг.
Согласие соблюдать эти правила показывает, что компании, занимающиеся искусственным интеллектом, извлекли уроки из неудач первых технологических компаний, которые ждали, пока у них возникнут проблемы, прежде чем взаимодействовать с правительствами. В Вашингтоне, по крайней мере, когда дело доходит до технологического регулирования, стоит приходить пораньше.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Семь гигантов искусственного интеллекта дали в Белом доме 8 важных обещаний. Что же они пообещали?
Всего через три дня после того, как Meta объявила о новом поколении крупноязыковой модели с открытым исходным кодом Llama 2, топ-менеджеры компании, Microsoft, OpenAI, Amazon, Anthropic и других семи гигантов индустрии ИИ, а также руководители горячих стартапов снова собрались в Белом доме в США.
В этом случае семь компаний подписали «Добровольные обязательства» (Добровольные обязательства), взяв на себя «8 основных обязательств» по безопасности, прозрачности и рискам технологий ИИ и НИОКР.
** Драма компании AI «ищу надзора» достигла здесь небольшой кульминации **.
Обозреватель NYT Кевин Руз написал статью, в которой подробно объяснил, о чем говорится в «8 основных обещаниях», и к каким изменениям они привели.
Результатом исследования является то, что эти 8 обязательств, таких как тестирование безопасности, обмен информацией о безопасности ИИ, сообщение об уязвимостях и «приоритизация ИИ для решения социальных проблем», кажутся большими проблемами, и в соответствующих обязательствах отсутствуют подробности , Многие из самих проблем были «опубликованы» компаниями, занимающимися ИИ.
** Это «Письмо с обязательствами по ресурсам» больше похоже на косвенное «отображение результатов» нескольких запросов регулирующих органов США к компаниям, занимающимся искусственным интеллектом, за последние шесть месяцев, и, вероятно, оно не имеет большого значения для реализации **. Тем не менее, регулирующие органы несколько раз выражали обеспокоенность по поводу ИИ, указывая на то, что позиция правительства в отношении применения технологии ИИ имеет наибольшее значение в этом шоу.
Ниже приводится интерпретация Кевином Роузом восьми обязательств в «Письме о добровольных обязательствах»:
** Обязательство 1: Компания обязуется проводить внутреннее и внешнее тестирование безопасности систем ИИ перед их выпуском. **
Все эти компании, занимающиеся искусственным интеллектом, перед выпуском своих моделей провели тесты на безопасность, которые часто называют «тестированием красной команды». В некотором смысле, ** это не совсем новое обещание, оно расплывчато. Не было предоставлено никаких подробностей о том, какие испытания потребуются и кем**.
В последующем заявлении Белый дом сказал только, что тестирование моделей ИИ «будет частично проводиться независимыми экспертами» и будет сосредоточено на «рисках ИИ, таких как ** биобезопасность и кибербезопасность, и их более широких социальных последствиях **».
Это хорошая идея, чтобы компании, занимающиеся искусственным интеллектом, публично обязались продолжать такое тестирование и поощрять большую прозрачность в процессе тестирования. Существуют также типы рисков ИИ, например опасность того, что модели ИИ могут быть использованы для разработки биологического оружия, которые правительственные и военные чиновники могут лучше оценить, чем компании.
Я рад видеть, что индустрия искусственного интеллекта согласовала набор стандартных тестов безопасности, таких как тесты «самовоспроизведения» Центра исследований выравнивания для предварительных моделей от OpenAI и Anthropic. Я также хотел бы, чтобы федеральное правительство финансировало такие испытания, которые могут быть дорогостоящими и требовать от инженеров значительных технических знаний. В настоящее время многие тесты безопасности финансируются и контролируются корпорациями, что вызывает очевидный конфликт интересов.
** Обязательство 2: Компания обязуется делиться информацией об управлении рисками ИИ в отрасли, а также с правительством, гражданским обществом и академическими кругами. **
Это обещание также немного расплывчато. Некоторые из этих компаний публиковали информацию о своих моделях ИИ — часто в научных статьях или сообщениях в корпоративных блогах. Некоторые из этих компаний, в том числе OpenAI и Anthropic, также опубликовали документы под названием «Карты», в которых описаны шаги, которые они предпринимают для повышения безопасности этих моделей.
Но они также иногда утаивают информацию, ссылаясь на соображения безопасности. Когда OpenAI выпустила свою последнюю модель ИИ, GPT-4, в этом году, она нарушила отраслевое соглашение, решив не раскрывать, сколько было данных для обучения или насколько велика была ее модель (метрика, называемая «параметрами»). Компания заявила, что отказалась раскрыть информацию из соображений конкуренции и безопасности. Это также тот тип данных, который технологические компании предпочитают скрывать от конкурентов.
В соответствии с этими новыми обязательствами компании, использующие ИИ, будут вынуждены раскрывать такую информацию? Что, если это может привести к ускорению гонки вооружений ИИ?
Я подозреваю, что цель Белого дома ** состоит не в том, чтобы заставить компании раскрывать свои значения параметров, а скорее в том, чтобы побудить их обмениваться информацией ** друг с другом о рисках, которые представляют (или не представляют) их модели.
Но даже такой обмен информацией может быть рискованным. Если команда искусственного интеллекта Google во время предварительного тестирования предотвращает использование новых моделей для разработки смертоносного биологического оружия, должна ли она делиться этой информацией за пределами Google? Дает ли это злоумышленникам идеи о том, как заставить менее защищенную модель выполнять ту же задачу?
** Обязательство 3: Компания обязуется инвестировать в кибербезопасность и меры защиты от внутренних угроз для защиты весов проприетарных и неопубликованных моделей. **
Этот вопрос очень прост и не вызывает споров среди инсайдеров ИИ, с которыми я разговаривал. ** «Вес модели» — это технический термин, относящийся к математическим инструкциям, которые дают моделям ИИ возможность функционировать **. Если вы агент иностранного правительства (или конкурирующей компании), желающий создать собственную версию ChatGPT или другого продукта ИИ, весы — это то, что вы хотите украсть. Компании ИИ заинтересованы в жестком контроле над этим.
Проблема утечки модельного веса хорошо известна.
Например, веса для оригинальной языковой модели Meta LLaMA просочились на 4chan и другие сайты всего через несколько дней после того, как модель была опубликована. Учитывая риск новых утечек и возможность того, что другие страны могут быть заинтересованы в краже технологий у американских компаний, требование, чтобы компании, занимающиеся искусственным интеллектом, вкладывали больше средств в собственную безопасность, кажется легкой задачей.
** Обязательство 4: Обе компании обязуются содействовать обнаружению уязвимостей в своих системах искусственного интеллекта третьими сторонами и сообщать о них. **
Я не совсем уверен, что это значит. После того, как каждая ИИ-компания выпускает модель, она обнаруживает в ней дыры, обычно потому, что пользователи пытаются сделать с моделью что-то плохое или обойти «взлом» способами, которые компания не предвидела.
Белый дом обязался потребовать от компаний создания «надежных механизмов отчетности» об уязвимостях, но неясно, что это может означать.
Кнопка обратной связи в приложении, похожая на те, которые позволяют пользователям Facebook и Twitter сообщать о нарушениях? Программа вознаграждения за обнаружение ошибок, подобная той, которую OpenAI запустила в этом году для поощрения пользователей, обнаруживших ошибки в своих системах? Есть ли еще что-нибудь? Нам придется подождать более подробной информации.
** Обязательство 5: Компания стремится разработать надежные технические механизмы, чтобы пользователи знали, когда контент создается с помощью искусственного интеллекта, например систем водяных знаков. **
Это интересная идея, но оставляет много места для интерпретации.
До сих пор компаниям, занимающимся искусственным интеллектом, не удавалось разработать инструменты, позволяющие людям определить, просматривают ли они контент, созданный искусственным интеллектом. Для этого есть веские технические причины, но это настоящая проблема, когда люди могут выдавать работу, созданную ИИ, за свою собственную (спросите любого школьного учителя).
Многие из современных инструментов, рекламируемых как способные обнаруживать результаты ИИ, на самом деле не могут делать это с какой-либо степенью точности.
У меня нет оптимизма в отношении того, что эта проблема будет полностью решена, но я рад, что компании взяли на себя обязательство над ней работать.
**Обязательство 6: Компании обязуются публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования своих систем ИИ. **
Еще одно разумно звучащее обязательство с большим пространством для маневра.
Как часто компаниям необходимо отчитываться о возможностях и ограничениях своих систем? Насколько подробной должна быть эта информация? Учитывая, что многие компании, разрабатывающие системы искусственного интеллекта, удивляются возможностям своих систем постфактум, как далеко они действительно могут описать эти системы заранее?
** Обязательство 7: Компании обязуются уделять приоритетное внимание исследованиям рисков для общества, которые могут представлять системы искусственного интеллекта, в том числе избегать вредных предубеждений и дискриминации и защищать конфиденциальность. **
Приверженность «приоритизации исследований» является расплывчатой приверженностью. Тем не менее, я считаю, что это обязательство будет приветствоваться многими в сообществе по этике ИИ, которые хотят, чтобы компании ИИ уделяли приоритетное внимание предотвращению краткосрочного вреда, такого как предвзятость и дискриминация, а не беспокоились о сценариях конца света, как это делают люди, занимающиеся безопасностью ИИ.
Если вы не понимаете разницы между «этикой ИИ» и «безопасностью ИИ», знайте, что в исследовательском сообществе ИИ есть две соперничающие фракции, каждая из которых считает, что другая сосредоточена на предотвращении вреда от ошибок.
** Обязательство 8: Обе компании привержены разработке и развертыванию передовых систем искусственного интеллекта, чтобы помочь решить самые большие проблемы общества. **
Я не думаю, что многие люди будут спорить с тем, что продвинутый ИИ не должен использоваться для решения самых больших проблем общества. Я бы не согласился с тем, что Белый дом назвал профилактику рака и смягчение последствий изменения климата двумя областями, на которых он хочет, чтобы компании, занимающиеся искусственным интеллектом, сосредоточили свое внимание.
Однако эту цель несколько усложняет то, что в исследованиях ИИ вещи, которые поначалу кажутся легкомысленными, обычно имеют более серьезные последствия.
Некоторые методы, используемые DeepMind's AlphaGo, системой искусственного интеллекта, обученной играть в настольную игру Го, оказались чрезвычайно полезными для предсказания трехмерной структуры белков, что является важным открытием, которое продвигает вперед фундаментальные научные исследования.
В целом сделки Белого дома с компаниями, занимающимися искусственным интеллектом, кажутся скорее символическими, чем существенными. Не существует механизмов обеспечения соблюдения компаниями этих обязательств, многие из которых отражают меры предосторожности, уже принятые компаниями, занимающимися искусственным интеллектом.
Тем не менее, это разумный первый шаг.
Согласие соблюдать эти правила показывает, что компании, занимающиеся искусственным интеллектом, извлекли уроки из неудач первых технологических компаний, которые ждали, пока у них возникнут проблемы, прежде чем взаимодействовать с правительствами. В Вашингтоне, по крайней мере, когда дело доходит до технологического регулирования, стоит приходить пораньше.