Источник изображения: сгенерировано инструментом Unbounded AI
«Война тысяч моделей», спровоцированная GPT, постепенно перешла в «игру, решающую данные».
«Высококачественные данные» и «объем данных» стали ключевыми для больших моделей, чтобы быстро устанавливать барьеры и конкурировать за будущее. По словам Ву Чао, директора экспертного комитета CITIC Think Tank и директора Китайского научно-исследовательского института ценных бумаг, "в будущем 20 % модели будут определяться алгоритмами, а 80 % — качеством данных. Далее, высококачественные данные станут ключом к повышению производительности модели".
Однако фактических данных становится все меньше. У ботов с искусственным интеллектом, таких как ChatGPT, вскоре может «исчерпаться текст во вселенной».
Совместное исследование «Не закончатся ли данные?» «Дает ограничение по времени: данные, созданные человеком, могут стать все более дефицитными в будущем, а высококачественные данные на естественном языке могут быть исчерпаны большими языковыми моделями уже в 2026 году.
Как обеспечить постоянный поток данных для обучения больших моделей? В то время как международные организации с открытым исходным кодом и бизнес-гиганты постоянно пытаются, они также страдают от разногласий.Существуют бесконечные вопросы о защите прав собственности, конфиденциальности данных и сетевой безопасности, вызванных сбором данных.
В марте этого года многие пользователи Windows 11 сообщили, что они были «вынуждены открыть всплывающее окно» с сообщением, что «ваши данные будут обработаны за пределами страны или региона, в котором вы находитесь», и нет возможности «отменить», и они могут только щелкнуть опцию «Далее», иначе они не смогут войти на рабочий стол системы.
Этот шаг вызвал опасения среди пользователей операционной системы Windows по поводу утечки личных данных за границу. В связи с этим Microsoft заявила, что после того, как пользователи обновят и начнут использовать Windows 11, данные будут отправлены из Китая. Поскольку центр регистрации программного обеспечения Microsoft находится в Соединенных Штатах, после интеграции ChatGPT в поиск Bing и браузер Edge ему также требуется поддержка центра обработки данных в США, поэтому данные китайских пользователей могут быть отправлены за границу.
Хороший друг Microsoft Open AI, хотя и извлекал выгоду из массивных данных первого, также столкнулся с сомнениями. В конце июня на OpenAI был подан коллективный иск по обвинению в краже «большого объема личных данных» для обучения ChatGPT. По этой причине Маск ввел временное ограничение на количество прочитанных твитов 1 июля.
Alphabet предупредила сотрудников, чтобы они не использовали чат-ботов вслепую, в том числе Google Bard, который компания продвигает на мировых рынках. 1 июня Google обновил свое заявление о конфиденциальности, предупредив пользователей: «Пожалуйста, не используйте конфиденциальную или конфиденциальную информацию в разговорах с Бардом».
С одной стороны, Crazy All-in выстраивает маховик данных для глобальных пользователей, а с другой — осторожно относится к собственным бизнес-данным.Такого рода «двойные стандарты» вынуждают большинство компаний по всему миру переходить на «активную защиту». Многие компании по всему миру, такие как Samsung и Amazon, начали устанавливать барьеры для чат-ботов с искусственным интеллектом. А Microsoft и Google своевременно запустили диалоговые инструменты для коммерческих клиентов, гарантируя, что данные не будут поглощены общедоступными моделями ИИ, но клиентам нужно платить за это высокие сборы.
Что касается рисков, которые могут возникнуть в связи с тем, как AIGC использует и получает данные, вмешались регулирующие органы в разных странах.
Итальянский регулятор данных Garante объявил о полном запрете ChatGPT 31 марта 2023 г. и запретил OpenAI обрабатывать данные итальянских пользователей.После того, как OpenAI пообещал внести соответствующие улучшения, ChatGPT возобновил свои услуги в Италии.
Впоследствии Германия, Франция и Ирландия также приняли контрмеры. Испания обратилась в Европейский совет по защите данных (EDPB) с просьбой оценить проблемы защиты конфиденциальности ChatGPT. Корейская комиссия по защите личной информации также заявила, что начала расследование утечки данных корейских пользователей ChatGPT.
Наша страна также действовала рано. 13 июля ** Государственное управление киберпространства Китая совместно выпустило «Временные меры по управлению генеративными службами искусственного интеллекта»** (именуемые «Временные меры»). Это первое специальное законодательство моей страны в области генеративного искусственного интеллекта.
«Временные меры» впервые разъяснили принципы: «Если предоставление генеративных услуг искусственного интеллекта из-за пределов Китайской Народной Республики не соответствует законам, административным положениям и положениям этих мер, национальный сетевой информационный отдел должен уведомить соответствующие агентства о принятии технических мер и других необходимых мер для решения этой проблемы».
Кроме того, в нем также уточняется сфера применения мер: они применяются к услугам, которые генерируют текст, изображения, аудио, видео и другой контент для общественности в Китае, и четко исключают из сферы применения научно-исследовательскую и прикладную деятельность, которая не предоставляет услуги населению внутри страны.
Это означает, что **зарубежные поставщики услуг AIGC (будь то модельный уровень или прикладной уровень) будут подпадать под действие соответствующих положений «Временных мер» независимо от того, предоставляют ли они соответствующие услуги напрямую в Китай или предоставляют косвенные услуги через интерфейсы API или «инкапсуляцию» или «вложенность». В отношении отечественных производителей Временные меры будут применяться независимо от того, получили ли они надлежащее разрешение от зарубежных поставщиков услуг AIGC.
Данные не знают границ, но безопасность данных имеет границы. Обнародование «Временных мер» очертило границы для отечественных крупных технологических компаний и предпринимателей, занимающихся крупномасштабными моделями, и послужило ориентиром для последующего обнародования «Закона об искусственном интеллекте». В связи с этим академические круги и предприятия в целом считают, что «Временные меры» были приняты своевременно и укрепили доверие к развитию искусственного интеллекта в Китае.
Помимо законодательного уровня, отрасль ищет прорывы и собственными усилиями. Технологические компании, запустившие крупномасштабные модели за последние шесть месяцев, подчеркнули важность безопасности и надежности, упомянутых в «Временных мерах».
Baidu сказал, что только путем создания и улучшения законов и правил, институциональных систем и этики для обеспечения здорового развития искусственного интеллекта можно создать хорошую инновационную экологию. 360 предлагает создать запатентованную большую модель, которая будет «безопасной, надежной, управляемой и простой в использовании». Alibaba Cloud предложила, чтобы «создание безопасного и надежного искусственного интеллекта» постепенно стало отраслевым консенсусом. JD Cloud заявила, что цифровая инфраструктура следующего поколения должна соответствовать четырем характеристикам интеграции и открытости, эффективного сотрудничества, экстремальной эффективности затрат, а также безопасности и управляемости.
Промышленную планировку с учетом региона уже начали осваивать.
Не так давно Пекин опубликовал «Двадцать мер по данным», в которых излагаются мнения о промышленном сотрудничестве и создании надежной системы обмена данными: поддержка Пекинской зоны экономического и технологического развития и других областей для создания пилотных систем инфраструктуры данных и создания политики высокогорья, доверенных пространств и фабрик данных.
Фактически, еще в мае этого года Пекинское муниципальное бюро экономики и информационных технологий, Управляющий комитет Чжунгуаньцунь муниципальной комиссии по науке и технологиям и Муниципальная комиссия по развитию и реформам совместно запустили «Пекинскую общую программу инновационного партнерства в области искусственного интеллекта», и теперь объявлен второй этап списка партнеров.
План предполагает объединение независимых и заслуживающих доверия инновационных предприятий в Пекине для содействия надлежащему и качественному развитию индустрии искусственного интеллекта. В список входят партнеры по вычислительной мощности, такие как Alibaba Cloud, партнеры по обработке данных, такие как Beijing Big Data Center, партнеры по моделям, такие как Baidu, партнеры по приложениям, такие как Tongxin UOS и WPS, и партнеры по инвестициям, такие как IDG и CDH.
План включает в себя ведущие компании в ключевых узлах отраслевой цепочки искусственного интеллекта, закладывая независимую и надежную экологическую основу для Китая, чтобы сравнить экологию искусственного интеллекта с открытым ИИ + Microsoft + Nvidia.
.КОНЕЦ.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Будут ли данные передаваться за границу с международной крупной моделью? Первое законодательство о генеративном искусственном интеллекте разъясняет
**Источник:**Офицер-первопроходец ИИ
«Война тысяч моделей», спровоцированная GPT, постепенно перешла в «игру, решающую данные».
«Высококачественные данные» и «объем данных» стали ключевыми для больших моделей, чтобы быстро устанавливать барьеры и конкурировать за будущее. По словам Ву Чао, директора экспертного комитета CITIC Think Tank и директора Китайского научно-исследовательского института ценных бумаг, "в будущем 20 % модели будут определяться алгоритмами, а 80 % — качеством данных. Далее, высококачественные данные станут ключом к повышению производительности модели".
Однако фактических данных становится все меньше. У ботов с искусственным интеллектом, таких как ChatGPT, вскоре может «исчерпаться текст во вселенной».
Совместное исследование «Не закончатся ли данные?» «Дает ограничение по времени: данные, созданные человеком, могут стать все более дефицитными в будущем, а высококачественные данные на естественном языке могут быть исчерпаны большими языковыми моделями уже в 2026 году.
Как обеспечить постоянный поток данных для обучения больших моделей? В то время как международные организации с открытым исходным кодом и бизнес-гиганты постоянно пытаются, они также страдают от разногласий.Существуют бесконечные вопросы о защите прав собственности, конфиденциальности данных и сетевой безопасности, вызванных сбором данных.
В марте этого года многие пользователи Windows 11 сообщили, что они были «вынуждены открыть всплывающее окно» с сообщением, что «ваши данные будут обработаны за пределами страны или региона, в котором вы находитесь», и нет возможности «отменить», и они могут только щелкнуть опцию «Далее», иначе они не смогут войти на рабочий стол системы.
Этот шаг вызвал опасения среди пользователей операционной системы Windows по поводу утечки личных данных за границу. В связи с этим Microsoft заявила, что после того, как пользователи обновят и начнут использовать Windows 11, данные будут отправлены из Китая. Поскольку центр регистрации программного обеспечения Microsoft находится в Соединенных Штатах, после интеграции ChatGPT в поиск Bing и браузер Edge ему также требуется поддержка центра обработки данных в США, поэтому данные китайских пользователей могут быть отправлены за границу.
Хороший друг Microsoft Open AI, хотя и извлекал выгоду из массивных данных первого, также столкнулся с сомнениями. В конце июня на OpenAI был подан коллективный иск по обвинению в краже «большого объема личных данных» для обучения ChatGPT. По этой причине Маск ввел временное ограничение на количество прочитанных твитов 1 июля.
Alphabet предупредила сотрудников, чтобы они не использовали чат-ботов вслепую, в том числе Google Bard, который компания продвигает на мировых рынках. 1 июня Google обновил свое заявление о конфиденциальности, предупредив пользователей: «Пожалуйста, не используйте конфиденциальную или конфиденциальную информацию в разговорах с Бардом».
С одной стороны, Crazy All-in выстраивает маховик данных для глобальных пользователей, а с другой — осторожно относится к собственным бизнес-данным.Такого рода «двойные стандарты» вынуждают большинство компаний по всему миру переходить на «активную защиту». Многие компании по всему миру, такие как Samsung и Amazon, начали устанавливать барьеры для чат-ботов с искусственным интеллектом. А Microsoft и Google своевременно запустили диалоговые инструменты для коммерческих клиентов, гарантируя, что данные не будут поглощены общедоступными моделями ИИ, но клиентам нужно платить за это высокие сборы.
Что касается рисков, которые могут возникнуть в связи с тем, как AIGC использует и получает данные, вмешались регулирующие органы в разных странах.
Итальянский регулятор данных Garante объявил о полном запрете ChatGPT 31 марта 2023 г. и запретил OpenAI обрабатывать данные итальянских пользователей.После того, как OpenAI пообещал внести соответствующие улучшения, ChatGPT возобновил свои услуги в Италии.
Впоследствии Германия, Франция и Ирландия также приняли контрмеры. Испания обратилась в Европейский совет по защите данных (EDPB) с просьбой оценить проблемы защиты конфиденциальности ChatGPT. Корейская комиссия по защите личной информации также заявила, что начала расследование утечки данных корейских пользователей ChatGPT.
Наша страна также действовала рано. 13 июля ** Государственное управление киберпространства Китая совместно выпустило «Временные меры по управлению генеративными службами искусственного интеллекта»** (именуемые «Временные меры»). Это первое специальное законодательство моей страны в области генеративного искусственного интеллекта.
«Временные меры» впервые разъяснили принципы: «Если предоставление генеративных услуг искусственного интеллекта из-за пределов Китайской Народной Республики не соответствует законам, административным положениям и положениям этих мер, национальный сетевой информационный отдел должен уведомить соответствующие агентства о принятии технических мер и других необходимых мер для решения этой проблемы».
Кроме того, в нем также уточняется сфера применения мер: они применяются к услугам, которые генерируют текст, изображения, аудио, видео и другой контент для общественности в Китае, и четко исключают из сферы применения научно-исследовательскую и прикладную деятельность, которая не предоставляет услуги населению внутри страны.
Это означает, что **зарубежные поставщики услуг AIGC (будь то модельный уровень или прикладной уровень) будут подпадать под действие соответствующих положений «Временных мер» независимо от того, предоставляют ли они соответствующие услуги напрямую в Китай или предоставляют косвенные услуги через интерфейсы API или «инкапсуляцию» или «вложенность». В отношении отечественных производителей Временные меры будут применяться независимо от того, получили ли они надлежащее разрешение от зарубежных поставщиков услуг AIGC.
Данные не знают границ, но безопасность данных имеет границы. Обнародование «Временных мер» очертило границы для отечественных крупных технологических компаний и предпринимателей, занимающихся крупномасштабными моделями, и послужило ориентиром для последующего обнародования «Закона об искусственном интеллекте». В связи с этим академические круги и предприятия в целом считают, что «Временные меры» были приняты своевременно и укрепили доверие к развитию искусственного интеллекта в Китае.
Помимо законодательного уровня, отрасль ищет прорывы и собственными усилиями. Технологические компании, запустившие крупномасштабные модели за последние шесть месяцев, подчеркнули важность безопасности и надежности, упомянутых в «Временных мерах».
Baidu сказал, что только путем создания и улучшения законов и правил, институциональных систем и этики для обеспечения здорового развития искусственного интеллекта можно создать хорошую инновационную экологию. 360 предлагает создать запатентованную большую модель, которая будет «безопасной, надежной, управляемой и простой в использовании». Alibaba Cloud предложила, чтобы «создание безопасного и надежного искусственного интеллекта» постепенно стало отраслевым консенсусом. JD Cloud заявила, что цифровая инфраструктура следующего поколения должна соответствовать четырем характеристикам интеграции и открытости, эффективного сотрудничества, экстремальной эффективности затрат, а также безопасности и управляемости.
Промышленную планировку с учетом региона уже начали осваивать.
Не так давно Пекин опубликовал «Двадцать мер по данным», в которых излагаются мнения о промышленном сотрудничестве и создании надежной системы обмена данными: поддержка Пекинской зоны экономического и технологического развития и других областей для создания пилотных систем инфраструктуры данных и создания политики высокогорья, доверенных пространств и фабрик данных.
Фактически, еще в мае этого года Пекинское муниципальное бюро экономики и информационных технологий, Управляющий комитет Чжунгуаньцунь муниципальной комиссии по науке и технологиям и Муниципальная комиссия по развитию и реформам совместно запустили «Пекинскую общую программу инновационного партнерства в области искусственного интеллекта», и теперь объявлен второй этап списка партнеров.
План предполагает объединение независимых и заслуживающих доверия инновационных предприятий в Пекине для содействия надлежащему и качественному развитию индустрии искусственного интеллекта. В список входят партнеры по вычислительной мощности, такие как Alibaba Cloud, партнеры по обработке данных, такие как Beijing Big Data Center, партнеры по моделям, такие как Baidu, партнеры по приложениям, такие как Tongxin UOS и WPS, и партнеры по инвестициям, такие как IDG и CDH.
План включает в себя ведущие компании в ключевых узлах отраслевой цепочки искусственного интеллекта, закладывая независимую и надежную экологическую основу для Китая, чтобы сравнить экологию искусственного интеллекта с открытым ИИ + Microsoft + Nvidia.
.КОНЕЦ.