З 15 серпня набули чинності «Тимчасові заходи щодо адміністрування послуг генеративного штучного інтелекту» (далі – «Тимчасові заходи»).
Щодо великомасштабної модельної індустрії, яка безрозсудно виросла та досягла швидкого прогресу за останні шість місяців чи близько того, можна сказати, що «тимчасові заходи» набули чинності вчасно.
Відповідно до «Звіту про дослідження великої моделі штучного інтелекту Китаю», опублікованого Інститутом науково-технічної інформації Китаю, станом на перше півріччя 2023 року було випущено 79 вітчизняних великомасштабних моделей з параметрами 1 мільярд або більше, займає друге місце у світі, поступаючись лише США.
У процесі дослідження промислової екології великих моделей дані є необхідними виробничими даними, а також важливою ланкою, яку потрібно стандартизувати. Адвокат Ван Чен сказав виданню Shijie: «Захист особистої конфіденційності в нашій країні вже давно відображено у відповідних законах і постановах, таких як «Рішення про посилення захисту мережевої інформації», прийняте в 2012 році, але з розвитком технології AI, The також постійно запроваджується збір та використання персональної інформації, що потребує постійного коригування та доповнення на нормативному рівні».
«Тимчасові заходи», які щойно набули чинності, є першими внутрішніми і навіть глобальними нормативними документами, виданими для поточної індустрії вибухового генеративного штучного інтелекту (AIGC).
На цьому тлі Лю Цінфен, голова HKUST Xunfei, вважає: «(З набуттям чинності «тимчасових заходів») 15 серпня стане ключовим вузлом у розвитку загального штучного інтелекту Китаю, і це також стане віхою вузол. .”
** Камера Miao Duck Camera не може забирати дані користувача**
Не так давно «Камера Miaoya», яка генерує цифрові аватари та фотографії зі штучним інтелектом за 9,9 юаня, стала популярною в Інтернеті, і тисячі людей навіть вишикувалися в чергу, щоб зробити цифрові аватари. Однак у його політиці конфіденційності зазначено, що авторизація, надана користувачем Miaoya Camera, є «невідкличною», і що вміст користувача можна «використовувати в будь-якій формі та в будь-якому обсязі» та інший неприйнятний вміст.
Хоча пізніше розробник Miaoya Camera відповів, що зміст початкової угоди був неправильним, і негайно видалив відповідні пункти, цей інцидент все одно викликав занепокоєння користувачів.
У газетах також з’являлися випадки використання технології AIGC для створення відео облич і навіть імітації людських голосів для нових видів шахрайства. Згідно з даними Міністерства громадської безпеки, станом на 10 серпня було виявлено 79 пов’язаних випадків шахрайства, спричинених «зміною обличчя ШІ», і 515 підозрюваних заарештовано.
Інженер-алгоритм штучного інтелекту Вен Му сказав виданню Shijie: «Вартість використання технології штучного інтелекту для створення підроблених фотографій або відеороликів надзвичайно низька. Теоретично злочинцям потрібна лише навчена модель штучного інтелекту та фотографія жертви. Це буде зроблено. »
Сюй Лян, відповідальна особа компанії AIGC, вважає, що згадані вище випадки неналежного використання технології штучного інтелекту свідчать про те, що весь промисловий ланцюжок індустрії великомасштабних моделей терміново потребує регулювання. Норми тощо, а не лише в Китаї, але й у глобальній галузі штучного інтелекту – це теми, на яких потрібно зосередитися».
▲
"Тимчасові заходи", які набули чинності 15 серпня, складаються з 4 розділів і 24 статей і чітко регулюють зазначені вище питання, що викликають занепокоєння.
Наприклад, «Тимчасові заходи» передбачають, що в діяльності з обробки даних, пов’язаної з особистою інформацією, постачальники послуг AIGC повинні отримати особисту згоду або дотримуватися інших обставин, передбачених законами та адміністративними правилами; відповідальність автора, зобов’язання щодо управління контентом тощо. Відповідно до аналізу King & Wood Mallesons, це положення допоможе запобігти невиконанню відповідними сторонами своїх зобов’язань щодо відповідності або спробам ухилитися одна від одної.
Сюй Лян вважає, що особливої уваги заслуговують відповідні положення про сферу застосування «Тимчасових заходів». Конкретні положення включають: використання технології AIGC для надання вітчизняній громадськості послуги генерування тексту, зображень, аудіо, відео та іншого вмісту, ці заходи застосовуються; галузеві організації, підприємства, освітні та науково-дослідні установи, громадські культурні установи, відповідні установи, тощо. дослідження, розробка та застосування технології AIGC. Якщо послуги AIGC не надаються місцевому населенню, положення цих Заходів не застосовуються.
«Наскільки я розумію, продукти AIGC на рівні ToC підлягатимуть відносно суворому нагляду на внутрішньому ринку, але їх можна розглядати як такі, що вивозяться за кордон. Однак, коли великомасштабні моделі продуктів, навчених у Китаї, надходять за кордон, їм також потрібно враховувати проблеми відповідності даних, які надсилаються за кордон". Сюй Лян сказав: "Загалом "тимчасові заходи" не є суворими, що дає галузі простір для вільного розвитку".
Варто зазначити, що «Тимчасові заходи» також передбачають, що ті, хто надає послуги генеративного штучного інтелекту з атрибутами громадської думки або можливостями соціальної мобілізації, повинні проводити оцінку безпеки відповідно до відповідних правил і проходити через реєстрацію та інші процедури.
З кінця липня Apple AppStore виступила з ініціативою видалити велику кількість генеративних додатків ШІ в Китаї. З набуттям чинності «Тимчасових заходів» у майбутньому таке прикладне програмне забезпечення буде повторно запущено після завершення відповідних процедур.
**Як керувати скринькою Пандори? **
Галузь загалом вважає, що на шляху до стандартизованого розвитку індустрії великомасштабних моделей, окрім постійного вдосконалення законів і правил, підприємствам і галузям також необхідно побудувати систему відповідності штучного інтелекту.
Особа, відповідальна за віртуальну цифрову людську компанію, сказала "Shijie": "Застосування нових технологій часто народжується раніше, ніж норми. Ми не можемо пасивно чекати. Натомість ми повинні активно сприяти корисному та вигідному керівництву в спрямовувати ринок і надавати послуги, необхідні ринку, промисловості та суспільству.Водночас ми також проводимо оцінку ризиків, щоб своєчасно виявити та оцінити можливі негативні наслідки технологічного розвитку та сформулювати відповідні контрзаходи. Приділяючи увагу запобіганню ризикам У той же час, стійкість до помилок і механізми виправлення помилок також повинні бути встановлені одночасно».
Коли «Тимчасові заходи» набули чинності, багато великих підприємств також поділилися своїми ідеями та прогресом у створенні системи відповідності штучного інтелекту.
15 серпня Лю Цінфен, голова правління iFLYTEK, сказав на прес-конференції своєї великої моделі «Xunfei Xinghuo Cognitive Model 2.0», що створив його самостійно, що iFLYTEK розробив навчання очищення даних і виправлення створеного вмісту.
Серед них, у процесі очищення даних, після збору навчального корпусу з усього світу, iFLYTEK очищатиме текст за допомогою дискримінаторів мови, дискримінаторів якості, дискримінаторів конфіденційності та дискримінаторів безпеки, і, нарешті, отримає високоякісний навчальний корпус. Зіткнувшись з ілюзією великих моделей, ідея iFLYTEK полягає в тому, щоб об’єднати можливості загальних баз знань, галузевих баз знань і великих моделей, використовувати загальні великі моделі для вивчення безпечних і професійних галузевих баз знань, а потім отримати відповідні знання. Точна презентація клієнтам .
Компанія Baidu заявила, що реалізувала безпеку та керованість ланцюга постачання в чотирирівневій архітектурі рівня чіпа, рівня каркаса, рівня моделі та рівня додатків.Їх власно розроблений фреймворк глибокого навчання «Flying Paddle» також має повне управління вразливістю. механізм.
Відповідно до «Домашнього випробування LLM (велика мовна модель) продукту», великомасштабна модель Baidu «Wen Xin Yi Yan» і великомасштабна модель Xunfei «Xunfei Xinghuo» мають подібність у релігійних віруваннях, феодальних забобонах, панпорнографії, поточному справи, захист неповнолітніх та Інтернет Об’єктивність і чесність відповідей у суміжних галузях, таких як право безпеки, кращі, ніж GPT-3.5.
Чжоу Хуні, засновник 360 Group, сказав в інтерв’ю ЗМІ, що 360 запустила масштабну модель ШІ на корпоративному рівні та дотримується чотирьох принципів: «безпека та надійність, якісний контент і надійні результати», щоб створити вертикальну великомасштабну модель на рівні підприємства Надати рішення для 20 галузей.
Згідно з «Законодавчим планом Державної ради на 2023 рік», оприлюдненим 6 червня, «Закон Китаю про штучний інтелект» також перебуває в законодавчому процесі, і відповідні правові норми будуть дедалі вдосконалюватися.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Модель штучного інтелекту Китаю більше не може працювати «голою»
Автор: Шицзе
З 15 серпня набули чинності «Тимчасові заходи щодо адміністрування послуг генеративного штучного інтелекту» (далі – «Тимчасові заходи»).
Щодо великомасштабної модельної індустрії, яка безрозсудно виросла та досягла швидкого прогресу за останні шість місяців чи близько того, можна сказати, що «тимчасові заходи» набули чинності вчасно.
Відповідно до «Звіту про дослідження великої моделі штучного інтелекту Китаю», опублікованого Інститутом науково-технічної інформації Китаю, станом на перше півріччя 2023 року було випущено 79 вітчизняних великомасштабних моделей з параметрами 1 мільярд або більше, займає друге місце у світі, поступаючись лише США.
У процесі дослідження промислової екології великих моделей дані є необхідними виробничими даними, а також важливою ланкою, яку потрібно стандартизувати. Адвокат Ван Чен сказав виданню Shijie: «Захист особистої конфіденційності в нашій країні вже давно відображено у відповідних законах і постановах, таких як «Рішення про посилення захисту мережевої інформації», прийняте в 2012 році, але з розвитком технології AI, The також постійно запроваджується збір та використання персональної інформації, що потребує постійного коригування та доповнення на нормативному рівні».
«Тимчасові заходи», які щойно набули чинності, є першими внутрішніми і навіть глобальними нормативними документами, виданими для поточної індустрії вибухового генеративного штучного інтелекту (AIGC).
На цьому тлі Лю Цінфен, голова HKUST Xunfei, вважає: «(З набуттям чинності «тимчасових заходів») 15 серпня стане ключовим вузлом у розвитку загального штучного інтелекту Китаю, і це також стане віхою вузол. .”
** Камера Miao Duck Camera не може забирати дані користувача**
Не так давно «Камера Miaoya», яка генерує цифрові аватари та фотографії зі штучним інтелектом за 9,9 юаня, стала популярною в Інтернеті, і тисячі людей навіть вишикувалися в чергу, щоб зробити цифрові аватари. Однак у його політиці конфіденційності зазначено, що авторизація, надана користувачем Miaoya Camera, є «невідкличною», і що вміст користувача можна «використовувати в будь-якій формі та в будь-якому обсязі» та інший неприйнятний вміст.
Хоча пізніше розробник Miaoya Camera відповів, що зміст початкової угоди був неправильним, і негайно видалив відповідні пункти, цей інцидент все одно викликав занепокоєння користувачів.
У газетах також з’являлися випадки використання технології AIGC для створення відео облич і навіть імітації людських голосів для нових видів шахрайства. Згідно з даними Міністерства громадської безпеки, станом на 10 серпня було виявлено 79 пов’язаних випадків шахрайства, спричинених «зміною обличчя ШІ», і 515 підозрюваних заарештовано.
Інженер-алгоритм штучного інтелекту Вен Му сказав виданню Shijie: «Вартість використання технології штучного інтелекту для створення підроблених фотографій або відеороликів надзвичайно низька. Теоретично злочинцям потрібна лише навчена модель штучного інтелекту та фотографія жертви. Це буде зроблено. »
Сюй Лян, відповідальна особа компанії AIGC, вважає, що згадані вище випадки неналежного використання технології штучного інтелекту свідчать про те, що весь промисловий ланцюжок індустрії великомасштабних моделей терміново потребує регулювання. Норми тощо, а не лише в Китаї, але й у глобальній галузі штучного інтелекту – це теми, на яких потрібно зосередитися».
▲
"Тимчасові заходи", які набули чинності 15 серпня, складаються з 4 розділів і 24 статей і чітко регулюють зазначені вище питання, що викликають занепокоєння.
Наприклад, «Тимчасові заходи» передбачають, що в діяльності з обробки даних, пов’язаної з особистою інформацією, постачальники послуг AIGC повинні отримати особисту згоду або дотримуватися інших обставин, передбачених законами та адміністративними правилами; відповідальність автора, зобов’язання щодо управління контентом тощо. Відповідно до аналізу King & Wood Mallesons, це положення допоможе запобігти невиконанню відповідними сторонами своїх зобов’язань щодо відповідності або спробам ухилитися одна від одної.
Сюй Лян вважає, що особливої уваги заслуговують відповідні положення про сферу застосування «Тимчасових заходів». Конкретні положення включають: використання технології AIGC для надання вітчизняній громадськості послуги генерування тексту, зображень, аудіо, відео та іншого вмісту, ці заходи застосовуються; галузеві організації, підприємства, освітні та науково-дослідні установи, громадські культурні установи, відповідні установи, тощо. дослідження, розробка та застосування технології AIGC. Якщо послуги AIGC не надаються місцевому населенню, положення цих Заходів не застосовуються.
«Наскільки я розумію, продукти AIGC на рівні ToC підлягатимуть відносно суворому нагляду на внутрішньому ринку, але їх можна розглядати як такі, що вивозяться за кордон. Однак, коли великомасштабні моделі продуктів, навчених у Китаї, надходять за кордон, їм також потрібно враховувати проблеми відповідності даних, які надсилаються за кордон". Сюй Лян сказав: "Загалом "тимчасові заходи" не є суворими, що дає галузі простір для вільного розвитку".
Варто зазначити, що «Тимчасові заходи» також передбачають, що ті, хто надає послуги генеративного штучного інтелекту з атрибутами громадської думки або можливостями соціальної мобілізації, повинні проводити оцінку безпеки відповідно до відповідних правил і проходити через реєстрацію та інші процедури.
З кінця липня Apple AppStore виступила з ініціативою видалити велику кількість генеративних додатків ШІ в Китаї. З набуттям чинності «Тимчасових заходів» у майбутньому таке прикладне програмне забезпечення буде повторно запущено після завершення відповідних процедур.
**Як керувати скринькою Пандори? **
Галузь загалом вважає, що на шляху до стандартизованого розвитку індустрії великомасштабних моделей, окрім постійного вдосконалення законів і правил, підприємствам і галузям також необхідно побудувати систему відповідності штучного інтелекту.
Особа, відповідальна за віртуальну цифрову людську компанію, сказала "Shijie": "Застосування нових технологій часто народжується раніше, ніж норми. Ми не можемо пасивно чекати. Натомість ми повинні активно сприяти корисному та вигідному керівництву в спрямовувати ринок і надавати послуги, необхідні ринку, промисловості та суспільству.Водночас ми також проводимо оцінку ризиків, щоб своєчасно виявити та оцінити можливі негативні наслідки технологічного розвитку та сформулювати відповідні контрзаходи. Приділяючи увагу запобіганню ризикам У той же час, стійкість до помилок і механізми виправлення помилок також повинні бути встановлені одночасно».
Коли «Тимчасові заходи» набули чинності, багато великих підприємств також поділилися своїми ідеями та прогресом у створенні системи відповідності штучного інтелекту.
15 серпня Лю Цінфен, голова правління iFLYTEK, сказав на прес-конференції своєї великої моделі «Xunfei Xinghuo Cognitive Model 2.0», що створив його самостійно, що iFLYTEK розробив навчання очищення даних і виправлення створеного вмісту.
Серед них, у процесі очищення даних, після збору навчального корпусу з усього світу, iFLYTEK очищатиме текст за допомогою дискримінаторів мови, дискримінаторів якості, дискримінаторів конфіденційності та дискримінаторів безпеки, і, нарешті, отримає високоякісний навчальний корпус. Зіткнувшись з ілюзією великих моделей, ідея iFLYTEK полягає в тому, щоб об’єднати можливості загальних баз знань, галузевих баз знань і великих моделей, використовувати загальні великі моделі для вивчення безпечних і професійних галузевих баз знань, а потім отримати відповідні знання. Точна презентація клієнтам .
Компанія Baidu заявила, що реалізувала безпеку та керованість ланцюга постачання в чотирирівневій архітектурі рівня чіпа, рівня каркаса, рівня моделі та рівня додатків.Їх власно розроблений фреймворк глибокого навчання «Flying Paddle» також має повне управління вразливістю. механізм.
Відповідно до «Домашнього випробування LLM (велика мовна модель) продукту», великомасштабна модель Baidu «Wen Xin Yi Yan» і великомасштабна модель Xunfei «Xunfei Xinghuo» мають подібність у релігійних віруваннях, феодальних забобонах, панпорнографії, поточному справи, захист неповнолітніх та Інтернет Об’єктивність і чесність відповідей у суміжних галузях, таких як право безпеки, кращі, ніж GPT-3.5.
Чжоу Хуні, засновник 360 Group, сказав в інтерв’ю ЗМІ, що 360 запустила масштабну модель ШІ на корпоративному рівні та дотримується чотирьох принципів: «безпека та надійність, якісний контент і надійні результати», щоб створити вертикальну великомасштабну модель на рівні підприємства Надати рішення для 20 галузей.
Згідно з «Законодавчим планом Державної ради на 2023 рік», оприлюдненим 6 червня, «Закон Китаю про штучний інтелект» також перебуває в законодавчому процесі, і відповідні правові норми будуть дедалі вдосконалюватися.