Разрешение на диалог: новые нормативные положения официально реализованы, что дальше для генеративного ИИ

Источник: Economic Observer (ID: eeo-com-cn), Автор: Чен Бай.

Введение

一|| **Для разрешения противоречия между относительно стабильным законодательством и быстрой технологической итерацией необходимы одновременные инновации и резонанс права и технологий. **

二|| **В процессе нашего нового технологического законодательства мы могли бы также добавить некоторые «оговорки об истечении срока действия». Оговорка об истечении срока действия — образное утверждение, означающее, что закон имеет определенный институциональный цикл и «зайдет», как солнце. **

**三|| Среди них недоразумение, которое особенно примечательно, но в которое часто легко впасть, заключается в том, что легко искусственно выбрать победителей в процессе реализации, что, в свою очередь, повлияет на спонтанное распределение ресурсов рынка. **

Источник изображения: сгенерировано инструментом Unbounded AI

«Временные меры по управлению сервисами генеративного искусственного интеллекта», привлекшие большое внимание отрасли, вступят в силу 15 августа 2023 года.

От публичных консультаций в апреле этого года до официального релиза в июле, а затем и до реализации в августе, на этот раз регулирование искусственного интеллекта превзошло предыдущие ожидания рынка.

Причины такого быстрого темпа можно найти на многих уровнях — хотя карнавал технологий и промышленности, вызванный генеративным ИИ, утихает, а конкуренция между предприятиями также переместилась из войны сотен моделей в глубоководную область вертикальные приложения, преимущества, которые приносит ** AI Социальная тревога никогда не исчезала из нашего поля зрения. **

Изменение лица ИИ, мошенничество, вопросы авторского права и т. д. Эти технические, юридические и этические споры никогда не прекращались.«Крестный отец искусственного интеллекта» Джеффри Хинтон предупредил в начале этого года, что угроза, которую представляет искусственный интеллект для людей, будет быть больше, чем Изменение климата является еще более актуальным. ** Если кто-то использует его для создания ложных изображений, видео и передачи ложной информации, его разрушительная сила намного больше, чем у чистого текста. С 2023 года мировые технологические лидеры, в том числе основатели openAI Сэм Альтман и Илон Маск, подписали несколько раундов открытых писем, призывающих обратить внимание на риски, связанные с ИИ.

Соответственно, ускоряются и темпы надзора в разных странах. В мае этого года Европейский союз принял проект разрешения на ведение переговоров «Закона об искусственном интеллекте». Это предложение по поправке еще больше увеличило сумму незаконных штрафов и пересмотрело максимальную сумму до 30 миллионов евро или 6% от мирового оборота компании-нарушителя. в предыдущем финансовом году до максимум 4 000 миллионов евро или 7% глобального годового оборота компании-нарушителя за предыдущий год. Увеличение суммы штрафов отражает решимость и силу властей ЕС в надзоре за искусственным интеллектом.

С начала 2023 года новые промышленные возможности, открываемые новыми технологиями, представленными искусственным интеллектом, привлекли внимание всего мира, а также вызвали новый виток промышленной конкуренции. В этом случае ключом к техническим спецификациям стало то, как ритм регулирования адаптируется к темпам технологических инноваций и как максимально снизить технологическое воздействие, предоставив отрасли достаточно возможностей для развития.

Сюй Сюй — доцент Университета международного бизнеса и экономики, директор Исследовательского центра цифровой экономики и правовых инноваций, проводит глубокие исследования в области киберправа и законодательства в области цифровой экономики. По его мнению, перед лицом быстро итеративных новых технологий для решения «проблемы темпа» надзора за ИИ целесообразно добавить некоторые «оговорки об истечении срока действия»** (то есть ограничить сроки действия некоторых норм) в Формулировка норм Когда вы сталкиваетесь с отраслью, не выбирайте победителя* также является очень важным критерием.

(Далее разговор с доцентом лицензирования)

1. Шаговая проблема

**Economic Observation Network: этот круг норм для генеративного ИИ, кажется, появляется быстрее, чем предыдущие технологии? **

Лицензирование. В последние годы появление информационных технологий, таких как Интернет, искусственный интеллект, блокчейн, большие данные, облачные вычисления и Интернет вещей, создало некоторые проблемы для наших существующих социальных операционных систем.

Судя по прошлому опыту, мы накопили большой опыт в процессе стандартизации влияния появляющихся технологий с момента зарождения интернет-финансов, а затем до биткойна, блокчейна и т. д., и, конечно, есть некоторые уроки:** Есть являются ли уроки из регулирования слишком ранними и инновации подавляются, а регулирование слишком запоздалым и рискует заразиться. **

Например, дикий рост интернет-финансов на более позднем этапе вызвал непоправимые системные риски и риски для заинтересованных сторон. Поэтому, когда мы снова сталкиваемся с разрушительными технологическими изменениями, мы видим, что темпы надзора на этот раз относительно высоки и опережают график. **

Однако, если мы внимательно посмотрим на «Меры», представленные на этот раз, мы обнаружим, что общая идея относительно дружелюбна к отрасли. От проекта для комментариев в апреле до финальной версии видно, что регулятивное мышление правительства смещается от сосредоточения внимания на предотвращении рисков в начале к поиску баланса между развитием и безопасностью **. Это должно быть взглядом регулирующего органа на Управление ИИ. Базовое отношение к общему управлению индустрией искусственного интеллекта, представленному генеративным искусственным интеллектом. Проще говоря, регулирующий орган надеется установить тормоза перед тем, как отправиться в путь, чтобы избежать более стабильной работы технологий и промышленности и не допустить выхода технологий из-под контроля.

Чтобы разрешить противоречие между относительно стабильным законодательством и быстрой технологической итерацией**, необходимо одновременно вводить новшества и резонировать с правом и технологиями с одинаковой частотой**. По этой причине во втором абзаце статьи 16 «Мер» предусмотрено: «Соответствующие компетентные органы государства в соответствии с характеристиками генеративной технологии искусственного интеллекта и ее служебного применения в соответствующих отраслях и сферах улучшают научный надзор. методы, совместимые с инновациями и развитием, сформулировать соответствующие классифицированные и градуированные нормативные правила или руководства».

По сути, это гибкое управление новыми технологиями. Но это не означает, что законодательство должно быть введено при наличии новой технологии, но может быть введено более разнообразными, более гибкими и более инновационными способами, такими как технические тесты, технологическая этика, отраслевые стандарты и корпоративное самосоответствие. .

2. Оговорка об истечении срока действия

**Сеть экономических наблюдений: Технологические изменения ускоряются.Означает ли это, что существуют сложности в законодательстве по некоторым вопросам, таким как безопасность данных, защита конфиденциальности и т. д.? **

**Разрешение: В нашей стране уже есть «Закон о безопасности данных», «Закон о защите личной информации» и «Гражданский кодекс», а также существуют относительно полные институциональные инструменты для защиты данных, личной информации и конфиденциальности. Таким образом, как бы ни менялась технология, вы можете комбинировать существующие зрелые правила и применять их к новым техническим сценариям тем же способом, что и головоломки Lego.

Конечно, помимо общих проблем возникающих технологий, каждая новая технология неизбежно будет иметь новые индивидуальные проблемы, и закону нужен новый ответ на это. Но новые вопросы означают, что она постоянно меняется, как и наши знания о ней. ** Если взять в качестве примера генеративный искусственный интеллект, процесс формулирования «Мер» на самом деле является процессом углубления понимания регулирующих органов. В этом отношении новый институциональный ответ должен быть «временным», что является логикой термина «временный» в Мерах.

На самом деле, я думаю, что это может пойти дальше. Я также предлагал, чтобы в процессе нашего законодательства о новых технологиях мы могли бы также добавить некоторые «оговорки об истечении срока действия». **Оговорка об истечении срока действия — образное утверждение, означающее, что закон имеет определенный институциональный цикл и «заходит», как солнце. **В частности, речь идет о положениях закона, устанавливающих эффективный срок реализации. По истечении срока его необходимо отменить или дополнительно пересмотреть.

Я считаю, что в цифровой экономике, особенно в сфере технологических инноваций, в регулирующих нормах необходимо уделять больше внимания важности положений об истечении срока действия. В прошлом статичное нормативно-правовое мышление, к которому мы привыкли, отставало от динамического закона развития быстрой технологической итерации. В случае ускорения инноваций мы должны осознавать ограниченность собственного понимания, а **Agile Governance фактически подразумевает смысл своевременной корректировки и адаптивности системы. **

3. Не выбирайте победителя

** Сеть экономических наблюдений: промышленная политика транспортных средств на новой энергии рассматривается как пример обгона на поворотах; теперь во многих местах начали вводить субсидии на вычислительную мощность для искусственного интеллекта. Означает ли это, что промышленная политика становится все более важной для промышленной трансформации новых технологий? **

Лицензирование: с точки зрения логики содействия промышленному развитию, будь то промышленная политика или соответствующие регулирующие нормы, его реальная основная ценность заключается в обеспечении благоприятной почвы для развития отрасли, снижении стоимости испытаний и ошибка для предприятий, устранить При отрицательном внешнем эффекте рынка все остальное остается на усмотрение самого рынка. Среди них особенно примечательным, но часто легко впадающим в заблуждение является то, что правительство склонно искусственно выбирать победителей в процессе реализации, что, в свою очередь, влияет на спонтанное распределение ресурсов рынка. **

Особенно в некоторых инновационных отраслях принцип отказа от выбора победителей становится еще более важным. Потому что технические пути часто очень разные, так как никто не думал, что генеративный ИИ и большие модели могут быть выпущены раньше, это процесс непрерывной и спонтанной эволюции. Конечно, выбор отрасли транспортных средств на новой энергии имеет много шансов, и мы можем понять инерцию такого рода регулирования, ведь перед лицом неизвестных неопределенностей люди привыкли находить какие-то детерминированные координаты.

Но в области искусственного интеллекта разница в технологических путях еще больше, а перспективы предсказать сложнее, поэтому правительству необходимо заложить фундамент, предоставить государственные ресурсы и активно поддерживать вычислительная мощность, данные, чипы и т. д. Развитие области инфраструктуры должно по-прежнему сохранять фокус «технологической нейтральности» и «конкурентной нейтральности», потому что, в конце концов, кто станет победителем, все равно будет определяться рынком и самой технологией. .

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить