Продукты ChatGPT появляются бесконечным потоком, и глобальное регулирование пересекает реку, ощупывая камни.

Источник: Электростанция, Автор: Чжан Юнъи, Редактор: Гао Юлей

Источник изображения: сгенерировано инструментом Unbounded AI

31 июля продукты Chatgpt в магазине Apple App Store в Китае были сняты с полок коллективно.По словам Apple, связанные продукты должны получить лицензию на эксплуатацию.

Не только Китай, но и Соединенные Штаты и Европа, полные решимости конкурировать в этой области, активно применяют законодательство и регулирование, поощряя инновации.

В апреле 2021 года Европейская комиссия впервые опубликовала предложение о регулирующей структуре для работы и управления приложениями машинного обучения, предлагая регулирование ИИ. В то время самым популярным мнением в индустрии ИИ по-прежнему была знаменитая шутка Ву Энда о том, что «беспокоиться об искусственном интеллекте сегодня — все равно, что беспокоиться о перенаселении Марса».

Но к 2023 году такая точка зрения уже не может стать мейнстримом: генеративному ИИ потребовалось менее 6 месяцев, чтобы показать миру огромный потенциал замены людей и полного изменения существующего мира — точно так же, как он был разработан во время Второй мировой войны. как ядерное оружие.

Физик Дж.-Роберт Оппенгеймер руководил разработкой первой в мире атомной бомбы.В то время закончилась Вторая мировая война, но ядерная бомба, как самое страшное оружие в истории человечества, все еще в значительной степени доминировала в исторической тенденции: Соединенные Штаты Правительство не приняло критических замечаний и предложений таких экспертов, как Оппенгеймер, о том, что «распространение ядерного оружия приведет к беспрецедентной гонке вооружений», что в конечном итоге привело к началу гонки ядерных вооружений между Соединенными Штатами и Советским Союзом в лице разработка водородной бомбы «суперядерной бомбы» - и во время кубинского ракетного кризиса почти вся человеческая цивилизация была затянута в темную бездну без возможности искупления.

Кризис, с которым столкнулся Оппенгеймер, имеет много общего с нынешним «омническим кризисом ИИ», с которым столкнулись люди: прежде чем люди используют ИИ, чтобы втянуть себя в большее и неконтролируемое будущее, направьте его в более масштабное и неконтролируемое будущее. осуществлять надзор на безопасном пути.

В 2021 году «подготовка к черному дню» Европейского союза в конечном итоге стала первой нормативно-правовой базой для индустрии искусственного интеллекта в истории человечества, а также предшественницей Закона Европейского Союза об искусственном интеллекте (Закон об ИИ).

Однако, когда законодатели разрабатывали этот законопроект, они не ожидали появления генеративного искусственного интеллекта или крупных моделей к концу 2022 года. Поэтому взрывной рост генеративного ИИ в 2023 году также добавил больше. прозрачность использования больших моделей и регулирование сбора/использования пользовательских данных.

В настоящее время этот законопроект проголосован Европейским парламентом в середине июня.Следующим шагом для окончательных условий является доработка закона в ходе переговоров между тремя директивными органами ЕС - парламентом, советом и комиссией. Соглашение будет достигнуто и, наконец, вступит в силу.

В Китае также разрабатывается законодательство о генеративном искусственном интеллекте: 13 июля семь министерств и комиссий совместно издали «Временные меры по управлению услугами генеративного искусственного интеллекта» (далее совместно именуемые «Временные меры»). включая Управление киберпространства Китая. Он вступит в силу в августе.

Это может стать первым регламентом управления генеративным искусственным интеллектом, который, наконец, будет реализован.В прошлом раунде «Законодательной гонки ИИ» процесс законодательства в области ИИ в Китае превзошел его, и он стал самым быстрорастущим конкретным регламентом в области генеративного управления. АИ. .

В других странах, находящихся в первом эшелоне развития ИИ, таких как Великобритания и США, регуляторное законодательство в области ИИ также находится в стадии разработки: 16 марта Бюро авторского права США выступило с инициативой изучения законодательства об авторском праве и вопросов политики. возникающие из технологии искусственного интеллекта: в том числе Объем авторских прав на произведения, созданные с использованием инструментов искусственного интеллекта, и использование материалов, защищенных авторским правом, для целей машинного обучения. 4 апреля правительство Великобритании опубликовало свою первую нормативную базу по ИИ. С тех пор Национальное управление по телекоммуникациям и информации США (NTIA) выпустило проект подотчетности ИИ, чтобы получить более широкую общественную обратную связь о мерах и политике подотчетности ИИ.

«Должны ли мы развивать нечеловеческое мышление, которое в конечном итоге может полностью заменить людей с точки зрения количества и интеллекта?» — этот вопрос поднимается в открытом письме, подписанном рядом известных руководителей и исследователей в марте этого года. Оглядываясь назад сейчас, на пути развития генеративного ИИ призыв «все приостанавливают исследования на шесть месяцев» слишком идеалистичен.В настоящее время эффективными могут быть только страны, продвигающие законы, связанные с генеративным ИИ, которые играют регулирующую роль.

ИННОВАЦИИ И ОТВЕТСТВЕННОСТЬ

Законодательство и управление генеративным искусственным интеллектом — это новая область, в которой еще никто не ступал, и каждый законодатель должен выдерживать давление сомнений со стороны внешнего мира: в этом году на конференции разработчиков Google I/O Google официально представила свою Генеративный ИИ Разговорный робот Бард, но сфера обслуживания полностью исключает европейский регион.

Это заставляет многих европейских исследователей/компаний в области искусственного интеллекта задаваться вопросом: почему Европа отсутствует? Позже Google еще раз заявлял, что «надеется открыться для европейских пользователей», что в дальнейшем было истолковано как «мера хеджирования» для Google, чтобы избежать правовой серой зоны, которая существует в генеративном ИИ, что приводит к огромным штрафам в ЕС. .

К июлю Google, наконец, раскрыл почему: Джек Кравчик, глава отдела продуктов Bard, написал в своем блоге: В начале исследования Ирландская комиссия по защите данных (DPC) уже предлагала намерение выпустить Bard в Европе, но , потребовалось до июля, чтобы удовлетворить запрос регулятора о предоставлении информации.

Сегодня вышел «Закон об искусственном интеллекте» Европейского Союза, и почти каждый закон в нем прямо указывает на возникающие или потенциальные проблемы в текущем развитии ИИ: распространение ложной/дезинформации, возможное образование/психическое здоровье и другие важные проблемы.

Но затем законодатели обнаружили, что более сложная часть решения этой проблемы заключается в том, как определить законодательство: необходимо защитить инновации/не допустить монополии гигантов в области ИИ и в определенной степени обеспечить управляемость ИИ. . Избегайте флуда фейковым контентом. Он стал общим ядром законодательства о генеративном ИИ в Китае, США и Европе, но в реальных правилах у них разные акценты.

Многие предыдущие европейские дела об искусственном интеллекте вызвали негативную реакцию со стороны таких институтов, как Google и OpenAI.Многие местные европейские технологические компании и даже законодатели обеспокоены тем, что чрезмерно жесткое законодательство позволит Европе вернуться на мировой уровень с помощью ИИ Реализация видения стала сложной: после официального принятия «Закона об искусственном интеллекте» Европейский Союз имеет право наложить штраф в размере до 30 миллионов евро, или 6% от годового дохода компании. , против компаний, которые нарушают правила искусственного интеллекта. Это, несомненно, очевидное предупреждение для таких компаний, как Google и Microsoft, которые хотят расширить свой бизнес в области генеративного ИИ в Европе.

В июньскую версию «Закона об искусственном интеллекте» законодатели ЕС четко включили новые положения, направленные на поощрение ответственных инноваций в области искусственного интеллекта при одновременном снижении технологических рисков, надлежащем надзоре за искусственным интеллектом и выдвижении его на первый план.Важная позиция: статья 1 законопроекта четко поддерживает инновационные меры для малых и средних предприятий и стартапов, включая создание «регулятивных песочниц» и другие меры по снижению нагрузки на малые и средние предприятия и стартапы.

Однако, прежде чем продавать услуги ИИ или развертывать системы на рынке, генеративный ИИ должен соответствовать ряду нормативных требований в отношении управления рисками, данных, прозрачности и документации. будет расцениваться как «Высокий риск» включен в объем надзора.

В настоящее время спецификация ИИ, основанная на «Временных мерах», уже приняла меры: 31 июля большое количество приложений, которые предоставляли услуги ChatGPT в App Store в Китае, были коллективно удалены Apple с полок и не не предоставляет прямого доступа к ChatGPT, но также ориентирован на функции искусственного интеллекта.Другая партия приложений пока не будет затронута.

В ответе разработчикам официальное предложение Apple по обзору состоит в том, что «сервисы генеративного искусственного интеллекта должны соответствовать лицензионным требованиям для работы в Китае, включая получение лицензии от Министерства промышленности и информационных технологий». к категории «оказание услуг населению» в «обеспечительных мерах».

В статье 15 китайских «Временных мер» также четко упоминается метод управления для создания рискованного контента: «провайдеры должны незамедлительно принять такие меры, как прекращение генерации, прекращение передачи и устранение, а также принять такие меры, как обучение оптимизации модели для внесения исправлений». Об этом уже упоминалось в «Проекте для замечаний», однако по сравнению с предыдущей версией описание в «Временных мерах» более умеренное, а описание срока, такое как «исправление в течение трех месяцев», удалено. .

Среди текущих споров, связанных с рождением генеративного ИИ, споров об авторских правах на данные, используемых для обучения крупномасштабных языковых моделей для генеративного ИИ, производители в первом эшелоне разработки генеративного ИИ уже чувствовали себя ограниченными из-за отсутствия высококачественного контента». Невидимый потолок», но в то же время бесчисленное количество создателей и СМИ начали инициировать судебные разбирательства и другие действия по вопросам авторского права, вызванным генеративным ИИ. Неизбежно сформулировать положения о защите авторских прав на контент для разработки генеративного ИИ.

Таким образом, это также находится в центре внимания законодательства о генеративном ИИ в Соединенных Штатах и Европе: европейский «Закон об искусственном интеллекте» четко требует, чтобы поставщики крупномасштабных моделей заявляли, используют ли они материалы, защищенные авторским правом, для обучения ИИ, и в то же время фиксируют достаточно информации журнала для создателей, чтобы требовать компенсации; в то время как Бюро регистрации авторских прав США выпустило новый обзор, запрашивая предложения по широким проблемам авторского права, поднятым генеративным ИИ, и добиваясь принятия специального законодательства для их решения.

В нынешних «Временных мерах» соответствующие параграфы в проекте для комментариев в апреле были удалены, в результате чего в текущих «Временных мерах» остались пустые положения о защите прав интеллектуальной собственности в отношении источников данных, которые необходимо срочно улучшить.

Тем не менее, для больших моделей, на которые опирается генеративный ИИ при разработке, законом развития является поиск данных в Интернете для ускорения итеративной разработки больших моделей, и универсальные ограничения, вероятно, вызовут затруднения. серьезный удар по всей отрасли Упомянутое «исключение» в различных сценариях: В «Законе об искусственном интеллекте» Европейского союза включено исключение для исследований ИИ разработчиками с открытым исходным кодом: сотрудничество и создание компонентов искусственного интеллекта в открытой среде получат специальные защита. В то же время в «Обеспечивающих мерах» соответствующие пункты также уточняют объем изъятия по закону:

«Пока предприятия, научно-исследовательские учреждения и т. д. открыто не предоставляют населению генеративные услуги искусственного интеллекта, этот закон не применяется».

«Законодательство в области интеллектуальной собственности по-прежнему требует больше времени для исследований и демонстрации». Юрисконсульт, в настоящее время обслуживающий крупных производителей моделей, сказал журналистам: Обучение ИИ определяет, что даже гиганты не могут полностью подписать контракты с каждой платформой и каждым создателем контента независимо, не говоря уже о заоблачной стоимости лицензии, которая уже является огромным ударом по стартапам».

«Возможно, нынешнюю проблему можно оставить только на время для развития отрасли, чтобы найти лучшие практические решения». Конкуренция и сотрудничество, добавил консультант. Хотя в конкуренции между Китаем и Соединенными Штатами разработка ИИ стала для Соединенных Штатов одним из основных полей сражений за сдерживание развития Китая, но в области генеративного законодательства в области ИИ сотрудничество между Китаем, Соединенными Штатами и Европой постепенно становится мейнстрим.

На данном этапе компании искусственного интеллекта в США осознали риски, связанные с развитием ИИ. Были даны обещания гарантировать, что ИИ «не причинит зла»: OpenAI заявила, что ее заявленная миссия состоит в том, чтобы «обеспечить, чтобы искусственный интеллект приносил пользу всему человечеству». Принципы работы DeepMind включают обязательство «быть ответственным пионером в области искусственного интеллекта», в то время как основатели DeepMind обязуются не заниматься смертельными исследованиями искусственного интеллекта, а принципы исследования искусственного интеллекта Google также предусматривают, что Google не будет развертывать или разрабатывать оружие. которые наносят вред людям, или искусственный интеллект, нарушающий международные нормы слежки.

26 июля Anthropic, Google, Microsoft и OpenAI запустили Frontier Model Forum — отраслевую организацию, занимающуюся обеспечением безопасной и ответственной разработки передовых моделей искусственного интеллекта.

Форум будет направлен на «работу с политиками, академическими кругами и гражданским обществом для минимизации рисков и обмена знаниями о рисках безопасности» при продвижении исследований в области ИИ. В то же время активно интегрироваться в существующее международное многостороннее сотрудничество: включая разработку политики G7, ОЭСР и других организаций в отношении генеративного ИИ. В целях содействия синхронизации стран в направлении законодательства и нормативных концепций.

Ранее журнал Time отметил, что существует много возможностей для сотрудничества между Китаем и США как «значительными игроками» в области генеративного ИИ, а Европа, которая часто была де-факто «первопроходцем» в законодательстве о новых технологиях, отвечает интересам всех сторон начать сотрудничество на законодательном этапе, а также является одним из важных средств содействия развитию генеративного ИИ.

Это также согласуется с мнением Макса Тегмарка, профессора Массачусетского технологического института и основателя Института будущего жизни: «Китай находится в выгодном положении во многих областях генеративного ИИ и, вероятно, станет лидером в контроле над искусственный интеллект."

Количество крупномасштабных моделей в Китае и США составляет 90% от мировых, поэтому законодательное согласование между Китаем, США и Европой даже определит тенденцию развития мировой индустрии генеративного ИИ. «Юридическое согласование с Китаем на основе соответствия интересам Соединенных Штатов» постепенно стало консенсусом в американских политических и академических кругах.

WIRED тематическая обложка

Более репрезентативными являются меры классификации рисков ИИ: в китайских «Временных мерах» упоминается «включающая осмотрительность, а также классификация и надзор за классификацией генеративных услуг искусственного интеллекта», но не уточняется классификация в текущей версии. В настоящее время только такие пункты, как « разработка соответствующих правил или руководств по надзору за классификацией и классификацией».

Европейский «Закон об искусственном интеллекте» также предлагает систему оценок, соответствующую обязательствам разработчиков ИИ с различными уровнями риска.Текущий предлагаемый «уровень угрозы» ИИ включает четыре категории:

  • ИИ с ограниченным риском
  • ИИ высокого риска
  • Неприемлемый уровень риска
  • Генеративный ИИ: такие продукты, как ChatGPT

В текущей версии «Закон об искусственном интеллекте» выделяет генеративный ИИ в качестве самостоятельной классификации и в то же время строго ограничивает продукты, отнесенные к категории «ИИ с высоким риском».Возможность риска. Это также считается «справочным планом» для будущего законодательства о рисках ИИ в Китае и США.

Кроме того, судя по реальному законодательному процессу, активное привлечение общественности и исследовательских институтов ИИ к участию в законодательном процессе является консенсусом, сформированным регулирующими органами в разных странах на основе опыта последних шести месяцев. нельзя подвергать сомнению.

«Генеративный ИИ никогда не будет идеальным, но закону суждено сыграть важную роль в ключевом направлении развития ИИ».

Точно так же, как Оппенгеймер никогда не сожалел о разработке атомной бомбы в Нью-Мексико, хотя и выступал против использования ядерного оружия в войне, никто не может помешать любопытным исследователям использовать существующие технологии для разработки более умного ИИ, науки. Темп исследований никогда не остановится на достигнутом. «Необходимый и разумный» надзор — это «лежачий полицейский» на пути бешеного бега ИИ, а также «последняя линия обороны», предотвращающая причинение реального вреда генеративным искусственным интеллектом.

Но сосредоточение внимания на том, «как избежать отставания в гонке ИИ, вызванной регулированием», по-прежнему является одной из самых важных вещей для законодателей. Соответствующее законодательство, несомненно, станет более полным по мере накопления опыта и отзывов.

«Регулирующие органы будут поддерживать дух научного законодательства и законодательства открытых дверей, а также своевременно вносить изменения и улучшения».

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить