Джерело: Power Plant, автор: Zhang Yongyi, редактор: Gao Yulei
Джерело зображення: створено інструментом Unbounded AI
31 липня продукти chatgpt в Apple App Store у Китаї були колективно зняті з полиць.За словами Apple, пов’язані продукти потребують ліцензії на експлуатацію.
Не лише Китай, а й Сполучені Штати та Європа, які мають намір конкурувати в цій галузі, активно впроваджують законодавство та регулювання, одночасно заохочуючи інновації.
У квітні 2021 року Європейська комісія вперше опублікувала пропозицію щодо регуляторної структури для роботи та управління програмами машинного навчання, пропонуючи регулювання ШІ. У той час найпопулярнішою точкою зору в індустрії штучного інтелекту все ще була відома дотепа Ву Енда про те, що «занепокоєння про штучний інтелект сьогодні — це все одно, що занепокоєння про перенаселення на Марсі».
Але до 2023 року така точка зору вже не може стати мейнстрімом: генеративному штучному інтелекту знадобилося менше 6 місяців, щоб показати світові великий потенціал замінити людей і повністю змінити існуючий світ — так само, як це було розроблено під час Другої світової війни Come out як ядерна зброя.
Фізик Дж. Роберт Оппенгеймер очолив розробку першої в світі атомної бомби. На той час Друга світова війна закінчилася, але ядерна бомба, як найжахливіша зброя в історії людства, все ще значною мірою домінувала в історичній тенденції: Сполучені Штати Уряд не прийняв критику та пропозиції таких експертів, як Оппенгеймер, що «розповсюдження ядерної зброї призведе до безпрецедентної гонки озброєнь», що зрештою призвело до спалаху гонки ядерних озброєнь між Сполученими Штатами та Радянським Союзом в особі розробка «суперядерної бомби» водневої бомби — і під час Кубинської ракетної кризи майже всю людську цивілізацію було затягнуто в темну безодню, від якої неможливо викупитися.
Криза, з якою зіткнувся Оппенгеймер, має багато схожості з поточною «кризою AI Omnic», з якою зіткнулися люди: перш ніж люди використають AI, щоб затягнути себе у ширше та неконтрольоване майбутнє, скеруйте його до більш масштабного та неконтрольованого майбутнього. Можливо, найкращим способом є здійснювати нагляд у безпечному руслі.
У 2021 році «підготовка до чорного дня» Європейського Союзу зрештою стала першою нормативною базою для індустрії штучного інтелекту в історії людства — вона також є попередником Закону Європейського Союзу про штучний інтелект (Акт AI).
Однак, коли законодавці розробляли цей законопроект, вони не очікували існування генеративного штучного інтелекту або великих моделей до кінця 2022 року. Тому вибухове зростання генеративного ШІ у 2023 році також додало більше Розділ про генеративний ШІ: включаючи прозорість використання великих моделей і регулювання збору/використання даних користувачів.
Наразі цей законопроект проголосований Європейським парламентом у середині червня. Наступним кроком для остаточних умов є доопрацювання закону в ході переговорів між трьома керівними органами ЄС – парламентом, Радою та Комісією. Угода буде досягнута і нарешті набуде чинності.
У Китаї також діє законодавство про генеративний штучний інтелект: 13 липня сім міністерств і комісій спільно оприлюднили «Тимчасові заходи щодо адміністрування служб генеративного штучного інтелекту» (надалі разом іменовані «Тимчасові заходи»). включно з Управлінням кіберпростору Китаю Він набуде чинності в серпні.
Це може стати першим нормативним актом щодо управління генеративним штучним інтелектом, який нарешті буде впроваджено. У минулому раунді «Законодавчої гонки штучного інтелекту» законодавчий процес Китаю щодо штучного інтелекту перевершив його, і він став найшвидше зростаючим специфічним нормативним актом у сфері генеративного інтелекту. ШІ..
В інших країнах, які знаходяться в першому ешелоні розвитку штучного інтелекту, наприклад Великобританії та Сполучених Штатах, нормативне законодавство щодо штучного інтелекту також діє: 16 березня Бюро авторських прав США запустило ініціативу з вивчення питань авторського права та політики. внаслідок технології штучного інтелекту: включаючи обсяг авторського права на роботи, створені за допомогою інструментів штучного інтелекту, і використання захищеного авторським правом матеріалу для цілей машинного навчання. 4 квітня уряд Великої Британії випустив свою першу нормативну базу щодо ШІ. Відтоді Національне управління телекомунікацій та інформації США (NTIA) опублікувало проект підзвітності AI, щоб отримати ширший відгук громадськості про заходи та політику підзвітності AI.
«Чи повинні ми розвивати нелюдське мислення, яке згодом може повністю замінити людину з точки зору кількості та інтелекту?» Це питання було порушено у відкритому листі, підписаному кількома відомими генеральними директорами та дослідниками в березні цього року. Озираючись назад, на шляху розвитку генеративного штучного інтелекту заклик «усі призупинити дослідження на шість місяців» є надто ідеалістичним. Наразі ефективними можуть бути лише країни, які просувають закони про генеративний штучний інтелект, які відіграють регулюючу роль. причина.
ІННОВАЦІЇ ТА ВІДПОВІДАЛЬНІСТЬ
Законодавство та управління генеративним штучним інтелектом є новою сферою, у яку ніхто ніколи не ступав раніше, і кожен законодавець має нести тиск сумнівів із зовнішнього світу: на цьогорічній конференції розробників Google I/O Google офіційно оприлюднив свою generative AI Розмовний робот Bard, але сфера обслуговування повністю виключає європейський регіон.
Це змушує багатьох європейських дослідників/компаній штучного інтелекту запитувати: чому не вистачає Європи? Пізніше Google неодноразово заявляв, що «з нетерпінням чекає відкриття для європейських користувачів», що в подальшому було витлумачено як «захід хеджування» для Google, щоб уникнути юридичної сірої зони, яка існує в генеративному ШІ, що призводить до величезних штрафів у ЄС. .
У липні Google нарешті розкрив, чому: Джек Кравчик, голова продукту Bard, написав у блозі: «На початку дослідження Ірландська комісія із захисту даних (DPC) уже запропонувала намір випустити Bard у Європі, але в кінцевому підсумку , знадобилося до липня, щоб задовольнити запит регулятора щодо надання інформації.
Сьогодні був опублікований «Акт Європейського Союзу про штучний інтелект», і майже кожен закон у ньому прямо вказує на нові або потенційні проблеми в поточному розвитку штучного інтелекту: поширення неправдивої/дезінформації, можливу освіту/психічне здоров’я та інші серйозні проблеми. проблеми.
Але потім законодавці виявили, що складніша частина вирішення цієї проблеми полягає в тому, як визначити законодавство: необхідно захистити інновації/уникнути монополії гігантів у сфері штучного інтелекту та певною мірою забезпечити керованість ШІ. . Уникайте флуду фейковим вмістом. Це стало загальним ядром законодавства про генеративний ШІ в Китаї, Сполучених Штатах і Європі, але вони мають різні акценти в фактичних нормах.
Багато попередніх європейських справ щодо штучного інтелекту викликали негативне ставлення з боку таких установ, як Google і OpenAI.Багато місцевих європейських технологічних компаній і навіть законодавці стурбовані тим, що надмірно суворе законодавство дозволить Європі повернутися на провідний рівень у світі за допомогою ШІ. промисловість Реалізація бачення стала важкою: після офіційного ухвалення «Закону про штучний інтелект» Європейський Союз має право накласти штраф у розмірі до 30 мільйонів євро, або 6% річного доходу компанії , проти компаній, які порушують правила штучного інтелекту. Це, безсумнівно, очевидне попередження для таких компаній, як Google і Microsoft, які хочуть розширити свій бізнес генеративного ШІ в Європі.
У червневій версії «Закону про штучний інтелект» законодавці ЄС чітко включили нові положення для заохочення відповідальних інновацій у сфері штучного інтелекту, одночасно зменшуючи технологічні ризики, належного нагляду за штучним інтелектом і висунення його на перший план. Важлива позиція: стаття 1 законопроекту чітко підтримує інноваційні заходи для малих і середніх підприємств і стартапів, включаючи створення «регуляторних пісочниць» та інші заходи для зменшення тягаря комплаєнсу для малих і середніх підприємств і стартапів.
Однак перш ніж продавати послуги штучного інтелекту або розгортати системи на ринку, генеративний штучний інтелект повинен відповідати низці нормативних вимог щодо управління ризиками, даних, прозорості та документації.У той же час використання штучного інтелекту в чутливих сферах, таких як критична інфраструктура буде розглядатися як «Високий ризик» включено до сфери нагляду.
Наразі специфікація штучного інтелекту, заснована на «Тимчасових заходах», вжила певних дій: 31 липня велика кількість додатків, які надавали послуги ChatGPT в App Store у Китаї, були колективно видалені з полиць компанією Apple. не надають прямого доступу до ChatGPT, але також зосереджені на функціях штучного інтелекту. Наразі це не вплине на іншу групу програм.
У відповіді розробникам офіційна пропозиція Apple щодо перевірки полягає в тому, що «сервіси генеративного штучного інтелекту повинні відповідати вимогам ліцензування для роботи в Китаї, включаючи отримання ліцензії від Міністерства промисловості та інформаційних технологій». Ця зміна в специфікації перевірки також прямо відповідає до категорії «надання послуг населенню» в «Забезпеченні тимчасових заходів».
Стаття 15 «Тимчасових заходів» Китаю також чітко згадує метод управління створенням ризикованого контенту: «постачальники повинні негайно вжити заходів, таких як припинення генерування, припинення передачі та усунення, а також вжити таких заходів, як навчання оптимізації моделі для виправлення». Про це вже йшлося в «Проекті для зауважень», однак, порівняно з попередньою версією, опис у «Тимчасових заходах» є більш поміркованим, а опис терміну на кшталт «усунення протягом трьох місяців» вилучено. .
Серед поточних суперечок навколо народження генеративного ШІ, спорів щодо авторських прав на дані, які використовуються для навчання великомасштабних мовних моделей для генеративного ШІ, виробники в першому ешелоні розробки генеративного ШІ вже відчувають себе обмеженими через відсутність високоякісного контенту». Невидима стеля», але в той же час незліченна кількість творців і ЗМІ почали ініціювати судові процеси та інші дії щодо проблем авторського права, спричинених генеративним ШІ. Незабаром необхідно сформулювати положення про захист авторських прав на вміст для розробки генеративного ШІ.
Таким чином, це також є фокусом генеративного законодавства про штучний інтелект у Сполучених Штатах і Європі: європейський «Акт про штучний інтелект» чітко вимагає від постачальників великомасштабних моделей декларувати, чи використовують вони захищені авторським правом матеріали для навчання штучного інтелекту, і в той же час записувати достатньо інформації журналу, щоб творці вимагали компенсації; тоді як Бюро авторських прав США випустило новий огляд, вимагаючи пропозицій щодо широких проблем авторського права, які піднімає генеративний штучний інтелект, і шукаючи спеціального законодавства для їх вирішення.
У чинних «Тимчасових заходах» відповідні пункти в проекті для коментарів у квітні були видалені, залишивши чинні «Тимчасові заходи» з пустими положеннями щодо захисту прав інтелектуальної власності щодо джерел даних, які потребують термінового вдосконалення.
Однак для великих моделей, на які покладається генеративний ШІ для розробки; пошук даних в Інтернеті є законом розвитку, щоб прискорити ітераційну розробку великих моделей, і універсальні обмеження, ймовірно, призведуть до серйозний удар по всій галузі Згадані «виключення» в різних сценаріях: У «Законі Європейського Союзу про штучний інтелект» включено виняток для досліджень штучного інтелекту розробниками з відкритим кодом: співпраця та створення компонентів штучного інтелекту у відкритому середовищі отримають спеціальні захисту. У той же час у «Забезпечувальних заходах» відповідні пункти також уточнюють сферу застосування закону:
«Поки підприємства, науково-дослідні установи тощо відкрито не надають громадськості послуги генеративного штучного інтелекту, цей закон не застосовується».
«Законодавство у сфері інтелектуальної власності все ще потребує більше часу для дослідження та демонстрації». Юридичний консультант, який наразі обслуговує виробників великомасштабних моделей, сказав журналістам: «Китайські високоякісні набори даних є більш рідкісними, ніж англійський вміст, і є генеративними. Навчання штучному інтелекту показує, що навіть гіганти не можуть повністю підписати контракти з кожною платформою та кожним творцем контенту незалежно, не кажучи вже про те, що захмарна плата за ліцензію вже є сильним ударом для стартапів».
«Можливо, поточну проблему можна залишити на час, щоб розвиток галузі отримав кращі практичні рішення». Конкуренція і співпраця, додав консультант. Хоча в умовах конкуренції між Китаєм і Сполученими Штатами розробка штучного інтелекту стала одним із головних полів битви для Сполучених Штатів за стримування розвитку Китаю, але в галузі генеративного законодавства щодо штучного інтелекту співпраця між Китаєм, Сполученими Штатами та Європою поступово стає мейнстрім.
На цьому етапі компанії зі штучного інтелекту в Сполучених Штатах усвідомили ризики, пов’язані з розвитком ШІ. Були зроблені обіцянки гарантувати, що штучний інтелект «не творить зла»: OpenAI заявив, що його заявлена місія полягає в «забезпеченні того, щоб штучний загальний інтелект приносив користь всьому людству». Принципи роботи DeepMind включають зобов’язання «бути відповідальним піонером у сфері штучного інтелекту», тоді як засновники DeepMind зобов’язуються не брати участі в дослідженнях смертоносного штучного інтелекту, а принципи дослідження штучного інтелекту Google також передбачають, що Google не розгортатиме та не проектуватиме зброю. які завдають шкоди людям, або штучний інтелект, який порушує міжнародні норми стеження.
26 липня Anthropic, Google, Microsoft і OpenAI запустили Frontier Model Forum, галузевий орган, який зосереджується на забезпеченні безпечної та відповідальної розробки передових моделей ШІ.
Метою форуму буде «співпраця з політиками, академічними колами та громадянським суспільством для мінімізації ризиків і обміну знаннями про ризики безпеці», одночасно просуваючи дослідження ШІ. У той же час активно інтегруватися в існуюче міжнародне багатостороннє співробітництво, включаючи формування політики G7, OECD та інших організацій щодо генеративного ШІ. З метою сприяння синхронізації країн у напрямку законодавства та нормативних концепцій.
Раніше журнал Time коментував, що існує багато можливостей для співпраці між Китаєм і Сполученими Штатами як «важливими гравцями» у генеративному штучному інтелекті та Європою, яка часто була де-факто «піонером» у законодавстві про нові технології, це в інтересах всіх сторін розпочати співпрацю на законодавчому етапі, і це також є одним із важливих засобів сприяння розвитку генеративного ШІ.
Це також узгоджується з поглядами Макса Тегмарка, професора Массачусетського технологічного інституту та засновника Інституту майбутнього життя: «Китай займає вигідну позицію в багатьох сферах генеративного штучного інтелекту та, ймовірно, стане лідером у контролі штучний інтелект."
Кількість великомасштабних моделей у Китаї та Сполучених Штатах становить 90% у світі, тому законодавча координація між Китаєм, Сполученими Штатами та Європою навіть визначатиме тенденцію розвитку глобальної індустрії генеративного ШІ. «Юридична координація з Китаєм на передумові відповідності інтересам Сполучених Штатів» поступово стала консенсусом американських політичних і академічних кіл.
Обкладинка сюжету WIRED
Більш репрезентативними є міри класифікації ризиків штучного інтелекту: у «Тимчасових заходах» Китаю згадується «всеохоплююча розсудливість, класифікація та нагляд за класифікацією послуг генеративного штучного інтелекту», але не уточнюється класифікація в поточній версії. Наразі лише такі параграфи, як « розроблення відповідної класифікації та класифікаційних наглядових правил чи інструкцій».
Європейський «Закон про штучний інтелект» також пропонує систему оцінювання відповідно до зобов’язань розробників штучного інтелекту з різними рівнями ризику.Поточний пропонований «рівень загрози штучного інтелекту» включає чотири категорії:
ШІ з обмеженим ризиком
ШІ високого ризику
Неприйнятний рівень ризику
Generative AI: такі продукти, як ChatGPT
У поточній редакції «Закон про штучний інтелект» виділяє генеративний ШІ як незалежну класифікацію та водночас суворо обмежує продукти, класифіковані як «ШІ високого ризику». Можливість ризику. Це також вважається «еталонним планом» для майбутнього законодавства щодо ризиків ШІ в Китаї та Сполучених Штатах.
Крім того, судячи з фактичного законодавчого процесу, активне запрошення громадськості та дослідницьких установ штучного інтелекту до участі в законодавчому процесі є консенсусом, сформованим регуляторними органами в різних країнах на основі досвіду за останні шість місяців. Це «тіньове положення», яке не можна поставити під сумнів.
«Генеративний штучний інтелект може ніколи не бути досконалим, але закону судилося зіграти головну роль у ключовому напрямку розвитку штучного інтелекту»
Подібно до того, як Оппенгеймер ніколи не шкодував про створення атомної бомби в Нью-Мексико, хоча він виступав проти використання ядерної зброї у війні, ніхто не може перешкодити допитливим дослідникам використовувати існуючі технології для розробки розумнішого штучного інтелекту, наука Темпи досліджень ніколи не зупиняться на досягнутому. «Необхідний і розумний» нагляд — це «лежачий поліцейський» на шляху шаленого бігу штучного інтелекту, а також «остання лінія захисту», щоб запобігти завданню справжньої шкоди генеративному штучному інтелекту.
Але зосередження на тому, «як уникнути відставання в гонці штучного інтелекту, спричиненої регулюванням», все ще є одним із питань, які найбільше хвилюють законодавців. Відповідне законодавство, безсумнівно, стане повнішим із збільшенням досвіду та відгуків.
«Регуляторні органи підтримуватимуть дух наукового законодавства та законодавства відкритих дверей, а також вчасно переглядатимуть і вдосконалюватимуть». Уривок про генеративний ШІ в «Тимчасових заходах» може бути найкращим принципом для законодавства в епоху генеративного ШІ.
Переглянути оригінал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Продукти ChatGPT з’являються нескінченним потоком, і глобальне регулювання перетинає річку, відчуваючи каміння
Джерело: Power Plant, автор: Zhang Yongyi, редактор: Gao Yulei
31 липня продукти chatgpt в Apple App Store у Китаї були колективно зняті з полиць.За словами Apple, пов’язані продукти потребують ліцензії на експлуатацію.
Не лише Китай, а й Сполучені Штати та Європа, які мають намір конкурувати в цій галузі, активно впроваджують законодавство та регулювання, одночасно заохочуючи інновації.
У квітні 2021 року Європейська комісія вперше опублікувала пропозицію щодо регуляторної структури для роботи та управління програмами машинного навчання, пропонуючи регулювання ШІ. У той час найпопулярнішою точкою зору в індустрії штучного інтелекту все ще була відома дотепа Ву Енда про те, що «занепокоєння про штучний інтелект сьогодні — це все одно, що занепокоєння про перенаселення на Марсі».
Але до 2023 року така точка зору вже не може стати мейнстрімом: генеративному штучному інтелекту знадобилося менше 6 місяців, щоб показати світові великий потенціал замінити людей і повністю змінити існуючий світ — так само, як це було розроблено під час Другої світової війни Come out як ядерна зброя.
Фізик Дж. Роберт Оппенгеймер очолив розробку першої в світі атомної бомби. На той час Друга світова війна закінчилася, але ядерна бомба, як найжахливіша зброя в історії людства, все ще значною мірою домінувала в історичній тенденції: Сполучені Штати Уряд не прийняв критику та пропозиції таких експертів, як Оппенгеймер, що «розповсюдження ядерної зброї призведе до безпрецедентної гонки озброєнь», що зрештою призвело до спалаху гонки ядерних озброєнь між Сполученими Штатами та Радянським Союзом в особі розробка «суперядерної бомби» водневої бомби — і під час Кубинської ракетної кризи майже всю людську цивілізацію було затягнуто в темну безодню, від якої неможливо викупитися.
Криза, з якою зіткнувся Оппенгеймер, має багато схожості з поточною «кризою AI Omnic», з якою зіткнулися люди: перш ніж люди використають AI, щоб затягнути себе у ширше та неконтрольоване майбутнє, скеруйте його до більш масштабного та неконтрольованого майбутнього. Можливо, найкращим способом є здійснювати нагляд у безпечному руслі.
У 2021 році «підготовка до чорного дня» Європейського Союзу зрештою стала першою нормативною базою для індустрії штучного інтелекту в історії людства — вона також є попередником Закону Європейського Союзу про штучний інтелект (Акт AI).
Однак, коли законодавці розробляли цей законопроект, вони не очікували існування генеративного штучного інтелекту або великих моделей до кінця 2022 року. Тому вибухове зростання генеративного ШІ у 2023 році також додало більше Розділ про генеративний ШІ: включаючи прозорість використання великих моделей і регулювання збору/використання даних користувачів.
Наразі цей законопроект проголосований Європейським парламентом у середині червня. Наступним кроком для остаточних умов є доопрацювання закону в ході переговорів між трьома керівними органами ЄС – парламентом, Радою та Комісією. Угода буде досягнута і нарешті набуде чинності.
У Китаї також діє законодавство про генеративний штучний інтелект: 13 липня сім міністерств і комісій спільно оприлюднили «Тимчасові заходи щодо адміністрування служб генеративного штучного інтелекту» (надалі разом іменовані «Тимчасові заходи»). включно з Управлінням кіберпростору Китаю Він набуде чинності в серпні.
Це може стати першим нормативним актом щодо управління генеративним штучним інтелектом, який нарешті буде впроваджено. У минулому раунді «Законодавчої гонки штучного інтелекту» законодавчий процес Китаю щодо штучного інтелекту перевершив його, і він став найшвидше зростаючим специфічним нормативним актом у сфері генеративного інтелекту. ШІ..
В інших країнах, які знаходяться в першому ешелоні розвитку штучного інтелекту, наприклад Великобританії та Сполучених Штатах, нормативне законодавство щодо штучного інтелекту також діє: 16 березня Бюро авторських прав США запустило ініціативу з вивчення питань авторського права та політики. внаслідок технології штучного інтелекту: включаючи обсяг авторського права на роботи, створені за допомогою інструментів штучного інтелекту, і використання захищеного авторським правом матеріалу для цілей машинного навчання. 4 квітня уряд Великої Британії випустив свою першу нормативну базу щодо ШІ. Відтоді Національне управління телекомунікацій та інформації США (NTIA) опублікувало проект підзвітності AI, щоб отримати ширший відгук громадськості про заходи та політику підзвітності AI.
ІННОВАЦІЇ ТА ВІДПОВІДАЛЬНІСТЬ
Законодавство та управління генеративним штучним інтелектом є новою сферою, у яку ніхто ніколи не ступав раніше, і кожен законодавець має нести тиск сумнівів із зовнішнього світу: на цьогорічній конференції розробників Google I/O Google офіційно оприлюднив свою generative AI Розмовний робот Bard, але сфера обслуговування повністю виключає європейський регіон.
Це змушує багатьох європейських дослідників/компаній штучного інтелекту запитувати: чому не вистачає Європи? Пізніше Google неодноразово заявляв, що «з нетерпінням чекає відкриття для європейських користувачів», що в подальшому було витлумачено як «захід хеджування» для Google, щоб уникнути юридичної сірої зони, яка існує в генеративному ШІ, що призводить до величезних штрафів у ЄС. .
У липні Google нарешті розкрив, чому: Джек Кравчик, голова продукту Bard, написав у блозі: «На початку дослідження Ірландська комісія із захисту даних (DPC) уже запропонувала намір випустити Bard у Європі, але в кінцевому підсумку , знадобилося до липня, щоб задовольнити запит регулятора щодо надання інформації.
Сьогодні був опублікований «Акт Європейського Союзу про штучний інтелект», і майже кожен закон у ньому прямо вказує на нові або потенційні проблеми в поточному розвитку штучного інтелекту: поширення неправдивої/дезінформації, можливу освіту/психічне здоров’я та інші серйозні проблеми. проблеми.
Але потім законодавці виявили, що складніша частина вирішення цієї проблеми полягає в тому, як визначити законодавство: необхідно захистити інновації/уникнути монополії гігантів у сфері штучного інтелекту та певною мірою забезпечити керованість ШІ. . Уникайте флуду фейковим вмістом. Це стало загальним ядром законодавства про генеративний ШІ в Китаї, Сполучених Штатах і Європі, але вони мають різні акценти в фактичних нормах.
Багато попередніх європейських справ щодо штучного інтелекту викликали негативне ставлення з боку таких установ, як Google і OpenAI.Багато місцевих європейських технологічних компаній і навіть законодавці стурбовані тим, що надмірно суворе законодавство дозволить Європі повернутися на провідний рівень у світі за допомогою ШІ. промисловість Реалізація бачення стала важкою: після офіційного ухвалення «Закону про штучний інтелект» Європейський Союз має право накласти штраф у розмірі до 30 мільйонів євро, або 6% річного доходу компанії , проти компаній, які порушують правила штучного інтелекту. Це, безсумнівно, очевидне попередження для таких компаній, як Google і Microsoft, які хочуть розширити свій бізнес генеративного ШІ в Європі.
У червневій версії «Закону про штучний інтелект» законодавці ЄС чітко включили нові положення для заохочення відповідальних інновацій у сфері штучного інтелекту, одночасно зменшуючи технологічні ризики, належного нагляду за штучним інтелектом і висунення його на перший план. Важлива позиція: стаття 1 законопроекту чітко підтримує інноваційні заходи для малих і середніх підприємств і стартапів, включаючи створення «регуляторних пісочниць» та інші заходи для зменшення тягаря комплаєнсу для малих і середніх підприємств і стартапів.
Однак перш ніж продавати послуги штучного інтелекту або розгортати системи на ринку, генеративний штучний інтелект повинен відповідати низці нормативних вимог щодо управління ризиками, даних, прозорості та документації.У той же час використання штучного інтелекту в чутливих сферах, таких як критична інфраструктура буде розглядатися як «Високий ризик» включено до сфери нагляду.
Наразі специфікація штучного інтелекту, заснована на «Тимчасових заходах», вжила певних дій: 31 липня велика кількість додатків, які надавали послуги ChatGPT в App Store у Китаї, були колективно видалені з полиць компанією Apple. не надають прямого доступу до ChatGPT, але також зосереджені на функціях штучного інтелекту. Наразі це не вплине на іншу групу програм.
Серед поточних суперечок навколо народження генеративного ШІ, спорів щодо авторських прав на дані, які використовуються для навчання великомасштабних мовних моделей для генеративного ШІ, виробники в першому ешелоні розробки генеративного ШІ вже відчувають себе обмеженими через відсутність високоякісного контенту». Невидима стеля», але в той же час незліченна кількість творців і ЗМІ почали ініціювати судові процеси та інші дії щодо проблем авторського права, спричинених генеративним ШІ. Незабаром необхідно сформулювати положення про захист авторських прав на вміст для розробки генеративного ШІ.
Таким чином, це також є фокусом генеративного законодавства про штучний інтелект у Сполучених Штатах і Європі: європейський «Акт про штучний інтелект» чітко вимагає від постачальників великомасштабних моделей декларувати, чи використовують вони захищені авторським правом матеріали для навчання штучного інтелекту, і в той же час записувати достатньо інформації журналу, щоб творці вимагали компенсації; тоді як Бюро авторських прав США випустило новий огляд, вимагаючи пропозицій щодо широких проблем авторського права, які піднімає генеративний штучний інтелект, і шукаючи спеціального законодавства для їх вирішення.
У чинних «Тимчасових заходах» відповідні пункти в проекті для коментарів у квітні були видалені, залишивши чинні «Тимчасові заходи» з пустими положеннями щодо захисту прав інтелектуальної власності щодо джерел даних, які потребують термінового вдосконалення.
Однак для великих моделей, на які покладається генеративний ШІ для розробки; пошук даних в Інтернеті є законом розвитку, щоб прискорити ітераційну розробку великих моделей, і універсальні обмеження, ймовірно, призведуть до серйозний удар по всій галузі Згадані «виключення» в різних сценаріях: У «Законі Європейського Союзу про штучний інтелект» включено виняток для досліджень штучного інтелекту розробниками з відкритим кодом: співпраця та створення компонентів штучного інтелекту у відкритому середовищі отримають спеціальні захисту. У той же час у «Забезпечувальних заходах» відповідні пункти також уточнюють сферу застосування закону:
«Поки підприємства, науково-дослідні установи тощо відкрито не надають громадськості послуги генеративного штучного інтелекту, цей закон не застосовується».
«Законодавство у сфері інтелектуальної власності все ще потребує більше часу для дослідження та демонстрації». Юридичний консультант, який наразі обслуговує виробників великомасштабних моделей, сказав журналістам: «Китайські високоякісні набори даних є більш рідкісними, ніж англійський вміст, і є генеративними. Навчання штучному інтелекту показує, що навіть гіганти не можуть повністю підписати контракти з кожною платформою та кожним творцем контенту незалежно, не кажучи вже про те, що захмарна плата за ліцензію вже є сильним ударом для стартапів».
«Можливо, поточну проблему можна залишити на час, щоб розвиток галузі отримав кращі практичні рішення». Конкуренція і співпраця, додав консультант. Хоча в умовах конкуренції між Китаєм і Сполученими Штатами розробка штучного інтелекту стала одним із головних полів битви для Сполучених Штатів за стримування розвитку Китаю, але в галузі генеративного законодавства щодо штучного інтелекту співпраця між Китаєм, Сполученими Штатами та Європою поступово стає мейнстрім.
На цьому етапі компанії зі штучного інтелекту в Сполучених Штатах усвідомили ризики, пов’язані з розвитком ШІ. Були зроблені обіцянки гарантувати, що штучний інтелект «не творить зла»: OpenAI заявив, що його заявлена місія полягає в «забезпеченні того, щоб штучний загальний інтелект приносив користь всьому людству». Принципи роботи DeepMind включають зобов’язання «бути відповідальним піонером у сфері штучного інтелекту», тоді як засновники DeepMind зобов’язуються не брати участі в дослідженнях смертоносного штучного інтелекту, а принципи дослідження штучного інтелекту Google також передбачають, що Google не розгортатиме та не проектуватиме зброю. які завдають шкоди людям, або штучний інтелект, який порушує міжнародні норми стеження.
26 липня Anthropic, Google, Microsoft і OpenAI запустили Frontier Model Forum, галузевий орган, який зосереджується на забезпеченні безпечної та відповідальної розробки передових моделей ШІ.
Метою форуму буде «співпраця з політиками, академічними колами та громадянським суспільством для мінімізації ризиків і обміну знаннями про ризики безпеці», одночасно просуваючи дослідження ШІ. У той же час активно інтегруватися в існуюче міжнародне багатостороннє співробітництво, включаючи формування політики G7, OECD та інших організацій щодо генеративного ШІ. З метою сприяння синхронізації країн у напрямку законодавства та нормативних концепцій.
Це також узгоджується з поглядами Макса Тегмарка, професора Массачусетського технологічного інституту та засновника Інституту майбутнього життя: «Китай займає вигідну позицію в багатьох сферах генеративного штучного інтелекту та, ймовірно, стане лідером у контролі штучний інтелект."
Кількість великомасштабних моделей у Китаї та Сполучених Штатах становить 90% у світі, тому законодавча координація між Китаєм, Сполученими Штатами та Європою навіть визначатиме тенденцію розвитку глобальної індустрії генеративного ШІ. «Юридична координація з Китаєм на передумові відповідності інтересам Сполучених Штатів» поступово стала консенсусом американських політичних і академічних кіл.
Більш репрезентативними є міри класифікації ризиків штучного інтелекту: у «Тимчасових заходах» Китаю згадується «всеохоплююча розсудливість, класифікація та нагляд за класифікацією послуг генеративного штучного інтелекту», але не уточнюється класифікація в поточній версії. Наразі лише такі параграфи, як « розроблення відповідної класифікації та класифікаційних наглядових правил чи інструкцій».
Європейський «Закон про штучний інтелект» також пропонує систему оцінювання відповідно до зобов’язань розробників штучного інтелекту з різними рівнями ризику.Поточний пропонований «рівень загрози штучного інтелекту» включає чотири категорії:
У поточній редакції «Закон про штучний інтелект» виділяє генеративний ШІ як незалежну класифікацію та водночас суворо обмежує продукти, класифіковані як «ШІ високого ризику». Можливість ризику. Це також вважається «еталонним планом» для майбутнього законодавства щодо ризиків ШІ в Китаї та Сполучених Штатах.
Крім того, судячи з фактичного законодавчого процесу, активне запрошення громадськості та дослідницьких установ штучного інтелекту до участі в законодавчому процесі є консенсусом, сформованим регуляторними органами в різних країнах на основі досвіду за останні шість місяців. Це «тіньове положення», яке не можна поставити під сумнів.
«Генеративний штучний інтелект може ніколи не бути досконалим, але закону судилося зіграти головну роль у ключовому напрямку розвитку штучного інтелекту»
Подібно до того, як Оппенгеймер ніколи не шкодував про створення атомної бомби в Нью-Мексико, хоча він виступав проти використання ядерної зброї у війні, ніхто не може перешкодити допитливим дослідникам використовувати існуючі технології для розробки розумнішого штучного інтелекту, наука Темпи досліджень ніколи не зупиняться на досягнутому. «Необхідний і розумний» нагляд — це «лежачий поліцейський» на шляху шаленого бігу штучного інтелекту, а також «остання лінія захисту», щоб запобігти завданню справжньої шкоди генеративному штучному інтелекту.
Але зосередження на тому, «як уникнути відставання в гонці штучного інтелекту, спричиненої регулюванням», все ще є одним із питань, які найбільше хвилюють законодавців. Відповідне законодавство, безсумнівно, стане повнішим із збільшенням досвіду та відгуків.
«Регуляторні органи підтримуватимуть дух наукового законодавства та законодавства відкритих дверей, а також вчасно переглядатимуть і вдосконалюватимуть». Уривок про генеративний ШІ в «Тимчасових заходах» може бути найкращим принципом для законодавства в епоху генеративного ШІ.