На пути к ответственному ИИ: тенденции и перспективы управления ИИ в Китае

Автор: Цао Цзяньфэн, старший научный сотрудник исследовательского института Tencent.

Источник изображения: сгенерировано Unbounded AI

21 век — это эпоха всестороннего развития цифровых технологий, сетей и интеллекта.Искусственный интеллект (ИИ) как ключевая технология привлекает большое внимание во всех сферах жизни. Последние десять лет считаются «золотым десятилетием» ИИ, представленного глубоким обучением. ** [1] Благодаря глубокому обучению технология нейронных сетей (нейронные сети) в области ИИ привела к восстановлению, положив начало «третьей весне» быстрого развития в области ИИ. До этого, с тех пор как концепция «искусственного интеллекта» была предложена на Дартмутской конференции в 1956 году, область ИИ пережила два взлета и падения. В частности, конвергенция и развитие многих технических элементов, таких как алгоритмы машинного обучения, большие данные, облачные вычисления, микросхемы для ИИ и программные среды с открытым исходным кодом, способствовали огромному прогрессу в области ИИ. новая технология общего назначения и интеллектуальная база экономики и общества, и широко используется в различных областях экономики и общества, предлагая новые продукты и услуги. От рекомендаций по алгоритмам, контента, созданного ИИ (AIGC), и чат-ботов в сфере потребительского Интернета до беспилотных транспортных средств в промышленной сфере, медицинского программного обеспечения ИИ, проверки качества ИИ и различных удобных приложений в социальных государственных услугах, ИИ оказывает большое влияние. продолжает демонстрировать огромную ценность качественного социального развития. [2] Короче говоря, как стратегическая технология, ведущая к новому витку технологической революции и промышленной трансформации (четвертая промышленная революция), ожидается, что ИИ изменит человеческую экономику и общество и окажет огромное влияние на производительность, занятость, распределение доходов, глобализация и т.д.

** В этом контексте ИИ стал новым направлением международной конкуренции, и страны по всему миру представили стратегии развития ИИ и конкретные политики, чтобы захватить стратегические командные высоты и возможности для развития. ** В июле 2017 года Китай выпустил «План развития искусственного интеллекта нового поколения», и ИИ был возведен в ранг национальной стратегии; в апреле 2018 года ЕС выпустил стратегию ИИ, направленную на превращение ЕС в центр искусственного интеллекта мирового уровня и обеспечить, чтобы ИИ был ориентирован на людей, заслуживал доверия; в феврале 2019 года был выпущен «Американский план ИИ», запускающий стратегию ИИ, направленную на укрепление лидерства Соединенных Штатов в области ИИ; в сентябре 2021 года Соединенное Королевство выпустило стратегию искусственного интеллекта, надеясь создать для Соединенного Королевства сверхдержавы искусственного интеллекта. Анализируя стратегии ИИ разных стран, нетрудно увидеть, что международная конкуренция в области ИИ связана не только с технологическими инновациями и промышленной экономикой, но и включает в себя такие аспекты, как управление ИИ. С широким применением ИИ многие научно-технические этические проблемы, вызванные ИИ, продолжают привлекать большое внимание во всех сферах жизни, например, дискриминация алгоритмов, информационный кокон, несправедливое принятие решений ИИ, злоупотребление личной информацией и нарушение конфиденциальности, ИИ. безопасность, черный ящик алгоритма, ответственность, злоупотребление технологиями (например, уничтожение больших данных, мошенничество с искусственным интеллектом и синтетическая ложная информация), влияние на работу и занятость, этическое и моральное воздействие и другие проблемы риска. [3] Поэтому, наряду с быстрым развитием и применением технологии ИИ за последние десять лет, все сферы жизни в стране и за рубежом одновременно продвигали управление ИИ, изучали многочисленные меры управления и механизмы гарантий, такие как законодательство, этические рамки, стандарты и сертификация. и лучшие отраслевые практики для поддержки ответственной, надежной и ориентированной на человека разработки искусственного интеллекта.

В этой статье с международной точки зрения анализируется важный прогресс Китая в области управления ИИ за последние десять лет, анализируются и обобщаются законы и тенденции, а также прогнозируется будущее развитие. В обозримом будущем, по мере того, как ИИ становится более способным, его применение и влияние будут углубляться день ото дня, поэтому ответственный ИИ (Responsible AI) будет становиться все более и более важным. Продвижение и внедрение ответственного ИИ неотделимо от разумного и эффективного управления ИИ. Другими словами, создание надежного управления ИИ — единственный способ перейти к ответственному ИИ и обеспечить его дальнейшее развитие. Мы надеемся, что эта статья будет полезна для непрерывной разработки и внедрения управления ИИ в будущем.

Восемь тенденций управления ИИ

Макростратегия и политика реализации разрабатываются одновременно для повышения национальной конкурентоспособности ИИ

Поскольку в «Руководящих указаниях по содействию упорядоченному и здоровому развитию Интернета вещей», выпущенных в феврале 2013 г., было предложено «разумное экономическое и социальное развитие», ИИ вошел в поле зрения национальной макростратегии и стал важной темой. национальных политических документов высшего уровня. Например, в 2015 году «Руководящие мнения по активному продвижению акции «Интернет плюс»» впервые предложили «культивировать и развивать новые отрасли искусственного интеллекта». С тех пор страна уделяла все больше и больше внимания ИИ и продолжала развертывать разработки ИИ на стратегическом уровне, чтобы обеспечить самоконтроль основных технологий и способствовать технологической самостоятельности и самостоятельности на высоком уровне. надежность (табл. 1).

Политика посадки не менее важна. ИИ представляет собой комплекс новых технологий и развивающихся отраслей, и только когда технологические инновации ИИ преобразуются в устойчивую промышленную экологию и глубоко интегрируются с реальной экономикой, он может в полной мере играть свою мощную роль нового двигателя роста. В этом отношении важную роль играет модель «первый-первый-первый-пробный», такая как тестовая зона и пилотная зона. Министерство науки и технологий добилось замечательных успехов в строительстве экспериментальных зон инноваций и развития искусственного интеллекта. Страна одобрила строительство 18 национальных пилотных зон инноваций и развития искусственного интеллекта нового поколения, которые сыграли хорошую роль в политике. инструменты, модели приложений, опыт и практика. С 2019 года Министерство промышленности и информационных технологий одобрило строительство 11 национальных пилотных зон инноваций и приложений искусственного интеллекта для содействия глубокой интеграции ИИ и реальной экономики; «Руководящие мнения по развитию качества», направленные на решение проблем Применение ИИ и индустриализация, а также использование тройки «база данных + платформа вычислительной мощности + открытие сцены» для обеспечения глубокой интеграции ИИ и экономического и социального развития, а также для лучшей поддержки высококачественного развития.

При постоянной поддержке национальной макростратегии и политики реализации инновации и предпринимательство в области ИИ в Китае продолжают активно действовать. Национальные лаборатории в области ИИ создаются одна за другой, и были достигнуты важные достижения. в технологических инновациях, промышленном применении и количестве талантов в области ИИ. «Отчет о глобальном индексе инноваций в области искусственного интеллекта за 2021 год», опубликованный Институтом научной и технологической информации Китая, показывает, что текущее глобальное развитие ИИ представляет собой общую модель, возглавляемую Китаем и Соединенными Штатами, и жесткую конкуренцию между основными странами. [4] Развитие искусственного интеллекта в Китае достигло замечательных результатов: уровень инноваций в области искусственного интеллекта вышел на первый в мире эшелон, а разрыв с Соединенными Штатами еще больше сократился. Китайские суперкомпьютерные центры, масштабы предприятий ИИ, количество регистраций патентов, создание команды талантов и сила научных исследований - все это ведущие мировые достижения. В будущем вклад ИИ в экономический рост и социальное развитие Китая будет продолжать расти. В исследовательском отчете PricewaterhouseCoopers прогнозируется, что к 2030 году вклад ИИ в мировую экономику достигнет 15,7 трлн долларов США, а Китай получит самые большие экономические выгоды от ИИ, достигнув 7 трлн долларов США, что означает, что ИИ будет способствовать Рост ВВП Китая примерно на 26,1%, за которым следуют США и Северная Америка, достигнет 3,7 трлн долларов США. [5]

Система научной и технологической этики постоянно совершенствуется и стала важной гарантией инноваций в области искусственного интеллекта

В цифровую эпоху новые цифровые технологии, такие как ИИ, обладают уникальностью и сложностью, которые отличаются от технологических приложений в индустриальную эпоху. В основном это отражается в следующем: (1) более широкое подключение, сетевое подключение, а также сбор и обработка данных повсеместно; (2) более сильная автономия, система искусственного интеллекта заставляет различные продукты и услуги работать независимо без вмешательства человека; (3) более глубокая непрозрачность, «алгоритмический черный». «коробка» системы ИИ сложна для понимания и объяснения; [6] (4) Более высокая точность, контент, данные и виртуальный мир, созданные и синтезированные ИИ, становятся ближе к реальности. Из-за этого социальные и этические проблемы, которые могут быть вызваны применением новых технологий, таких как ИИ, все чаще характеризуются внезапностью, сокрытием, масштабностью и непредсказуемостью, что ставит новые задачи перед этическим управлением наукой и технологиями. В процессе разработки и применения ИИ становится все более необходимым и важным одновременное рассмотрение или даже предварительное рассмотрение вопросов научной и технологической этики. [7] Таким образом, корректировка и совершенствование системы научно-технической этики стали важным вопросом в эпоху ИИ.Необходимо перейти от сосредоточения внимания на человеческой этике к сосредоточению внимания на технической этике, ввести моральные ограничения в отношении интеллектуальных агентов и построить дружественный цифровой социальный порядок. [8] Кроме того, в условиях все более усиливающейся глобальной конкуренции в области науки и технологий этика науки и техники связана не только с предотвращением рисков и вызовов в области технологической безопасности, но и с созданием национальной технологической конкурентоспособности.

**После 18-го Всекитайского съезда Коммунистической партии Китая государство уделяло все больше внимания этике науки и техники, четко заявив, что этика науки и техники является ценностным критерием, которому необходимо следовать в научно-технической деятельности. , и включил этику науки и технологий в разработку политики на высшем уровне в качестве важной поддержки и гарантии научных и технологических инноваций. ** «Решение ЦК Коммунистической партии Китая о присоединении и совершенствовании социалистической системы с китайской спецификой и содействии модернизации национальной системы управления и возможностей управления» и «Четырнадцатый пятилетний план и наброски долгосрочных «Цели на период до 2035 года» предусматривают развертывание на высшем уровне научной и технической этики. Необходимо улучшить систему управления научной и технической этикой и улучшить систему научной и технологической этики. В настоящее время страна продолжает создавать и совершенствовать систему этики в области науки и техники, а также формировать культурную концепцию и гарантийный механизм науки и техники во благо. В основном это выражается в следующих трех аспектах:

**Во-первых, создать Национальный комитет по этике в области науки и технологий, который будет отвечать за руководство, координацию и продвижение создания национальной системы управления этикой в области науки и технологий. ** В июле 2019 г. на девятом совещании Центрального комитета по всеобъемлющему углублению реформ был рассмотрен и утвержден «План формирования Национального комитета по этике в области науки и технологий», официально учреждающий национальную организацию Китая по управлению этикой в области науки и технологий. В опубликованном в марте 2022 года «Мнение об укреплении управления этикой науки и технологий» дополнительно уточняются управленческие обязанности Национального комитета по этике науки и технологий.

** Во-вторых, опубликовать политику и правила, касающиеся этики науки и технологий, для поддержки реализации управления этикой науки и технологий. ** Одним из основных моментов «Закона о научно-техническом прогрессе», пересмотренного в декабре 2021 года, является добавление соответствующих положений о научной и технической этике.Такие субъекты, как высшие учебные заведения, предприятия и государственные учреждения, несут основную ответственность за научную и управления технологической этикой, проводить этическую экспертизу научно-технической деятельности и в то же время уточнять юридические и этические аспекты научно-технических исследований, разработок и прикладной деятельности. «Мнения об укреплении этического управления наукой и технологиями» выдвигают более комплексные требования к этичному управлению наукой и технологиями, включая шесть основных аспектов: общие требования, принципы, системы, институциональные гарантии, обзор и надзор, образование и гласность, и закладывает основу для внедрения этического управления наукой и технологиями. Последующие действия также сформулируют вспомогательные положения, такие как методы проверки научной и технической этики, перечень научно-технической деятельности с высоким риском в области научной и технической этики и нормы научной и технической этики в подразделенных областях.

** В-третьих, подчеркните этическое управление наукой и технологиями в области ИИ. **Национальный профессиональный комитет по управлению искусственным интеллектом нового поколения последовательно издал «Принципы управления искусственным интеллектом нового поколения — разработка ответственного искусственного интеллекта» и «Этику искусственного интеллекта нового поколения», содержащие этические рекомендации для разработки ответственного ИИ. «Закон о безопасности данных», «Правила управления рекомендациями по алгоритмам информационных служб Интернета», «Руководящие заключения по усилению комплексного управления алгоритмами информационных служб Интернета» и другие законы и нормативные акты выдвигают научно-технические этические требования и меры управления для данных и алгоритмов. деятельность. «Мнения об укреплении управления этикой науки и технологий» рассматривают ИИ, науки о жизни и медицину как три ключевые области в период «14-й пятилетки», требуют разработки специальных норм и руководящих принципов этики науки и техники, укрепляет законодательство в области этики в области науки и техники и требует от соответствующих руководителей отрасли Департамент ввел меры по надзору за соблюдением этики в области науки и техники. Можно предвидеть, что в будущем регулирование технологической этики в области ИИ будет усилено. Кроме того, законы местного уровня, такие как «Шэньчжэньские правила продвижения индустрии искусственного интеллекта» и «Шанхайские правила содействия развитию индустрии искусственного интеллекта», рассматривают этическое управление ИИ как важную гарантию поддержки здорового развития ИИ. промышленность.

**Из приведенного выше анализа видно, что с точки зрения управления этикой науки и технологий ИИ важной тенденцией является принятие ответственности субъекта управления этикой науки и технологий в качестве основной отправной точки, что аналогично к акценту на ответственности субъекта платформы в надзоре за интернет-платформой Определенное сходство. **Правительственный надзор за платформой в значительной степени достигается за счет реализации и уплотнения основной ответственности платформы.Соответствующее законодательство в области Интернета установило комплексную систему обязательств платформы до, во время и после мероприятия. Государственная администрация рынка Выпущенный надзор В «Руководстве по реализации предметных обязанностей на интернет-платформах (проект для комментариев)» была предпринята попытка уточнить предметные обязанности различных типов платформ. Правительственное регулирование ИИ демонстрирует аналогичную идею. Текущие соответствующие политики и положения пытаются уточнить обязанности субъектов управления научной и технической этикой, требуя от субъектов инноваций создания комитетов по этике, соблюдения основных принципов научной и технической этики, проведения обзора научной и технологической этики, проведения научно-технического мониторинг этических рисков, раннее предупреждение и оценка, а также проведение обучения научной и технической этике.

Применение алгоритмов в сфере Интернета стало ключевым объектом наблюдения ИИ

Рекомендации по алгоритмам, автоматизированное принятие решений по алгоритмам, глубокий синтез ИИ и другие приложения алгоритмов в области Интернета стали предметом государственного надзора в области ИИ из-за таких факторов, как широкое применение, высокое внимание общественности и постоянное освещение негативных проблем. . В последние годы государство обнародовало ряд законов и постановлений, активно регулирующих применение алгоритмов в сфере Интернета. [9] В «Руководящих заключениях по усилению комплексного управления алгоритмами информационных служб Интернета», выпущенных Государственным информационным управлением Интернета и другими девятью департаментами, выдвигаются относительно всеобъемлющие требования к управлению. система, и алгоритмический экологический стандарт будет постепенно установлен Алгоритмическая модель комплексного управления безопасностью. В заключении также подчеркивается усиление корпоративной ответственности, включая ответственность за безопасность алгоритмов и проверку научной и технологической этики.

Что касается рекомендации алгоритма, «Положение об экологическом управлении сетевым информационным контентом» предлагает улучшить механизм вмешательства человека и самостоятельного выбора пользователя для технологии рекомендации алгоритма. «Положение об администрировании рекомендаций по алгоритмам для информационных служб Интернета», которое вступит в силу 1 марта 2022 г., является первым законодательным актом Китая, посвященным управлению алгоритмами. Ряд регулятивных мер, таких как мониторинг рисков безопасности, оценка безопасности алгоритмов и Управление подачей алгоритмов еще больше усилило ответственность компаний-платформ за безопасность алгоритмов. Инсайдеры отрасли восприняли это как знак и назвали 2022 год первым годом регулирования алгоритмов.

С точки зрения алгоритмического автоматизированного принятия решений «Закон Китайской Народной Республики о защите личной информации», «Закон Китайской Народной Республики об электронной коммерции», «Временные положения об онлайн-услугах управления туризмом» и другие положения имеют важное значение. положения о дискриминации алгоритмов, ознакомлении с большими данными и т. д. Для регулирования законного поведения при принятии решений по алгоритмам предлагаются такие методы регулирования, как предоставление лицам права выбора, проведение оценок воздействия, а также предоставление лицам возможности запрашивать объяснения и пользоваться правом отказа. сбалансировать защиту личных прав и деятельность по коммерческому применению алгоритмов.

С точки зрения глубокого синтеза ИИ (в основном, в отношении использования технологии ИИ для создания и синтеза информационного контента) соответствующее законодательство активно определяет красную черту для применения технологии глубокого синтеза ИИ и способствует положительному применению технологий, таких как « Положение об управлении сетевой аудио- и видеоинформационной службой», «Сетевое Положение об экологическом управлении информационным контентом, Положение об администрировании рекомендаций по алгоритмам информационных услуг в Интернете и т. д. — все они запрещают использование алгоритмов глубокого синтеза для ложной новостной информации и других незаконных действий. . В принятом в ноябре 2022 года «Положении об администрировании глубокого синтеза информационных услуг Интернета» обобщается прошлый опыт регулирования и всесторонне регулируется применение технологии глубокого синтеза с точки зрения основной ответственности поставщиков услуг глубокого синтеза и управления информационным контентом глубокого синтеза. Необходимые меры безопасности, такие как идентификация, обнаружение и идентификация, а также отслеживание контента, обеспечивают безопасность и надежность применения технологии глубокого синтеза и способствуют лучшему продвижению технологических инноваций и разработок, а также положительному применению.

В целом, надзор за алгоритмами в области Интернета подчеркивает несколько целей, таких как безопасность и управляемость, защита прав и интересов, честность и справедливость, открытость и прозрачность, а также предотвращение злоупотреблений. приложения с алгоритмами высокого риска. Регулирование градации и классификации алгоритмов аналогично регулированию систем искусственного интеллекта в Законе Европейского Союза об искусственном интеллекте с различными нормативными требованиями. В этом контексте академическое сообщество проявляет большой интерес к исследованиям алгоритмического управления и предложило множество идей, таких как интерпретация алгоритмов, оценка воздействия алгоритмов и аудит алгоритмов. В будущем всем сферам жизни необходимо дополнительно изучить и улучшить методы и меры управления надзором за алгоритмами, чтобы лучше гарантировать, что применение алгоритмов будет восходящим и эффективным.

Использование нормативных инноваций для продвижения применения ИИ в традиционных сферах строгого регулирования

Для традиционных сфер строгого регулирования, таких как транспорт и медицинское обслуживание, основная проблема, с которой сталкиваются новые вещи, такие как беспилотные автомобили, пилотируемые дроны (беспилотные летающие автомобили), медицинское программное обеспечение с искусственным интеллектом и т. д., заключается в том, что их коммерческое применение по-прежнему сталкивается с более серьезными проблемами. и нормативные препятствия. Эти барьеры не только влияют на доверие потребителей и общества к технологиям, но и отпугивают новаторов и инвесторов. Таким образом, эффективные инновации в области регулирования являются ключом к разработке и применению этих новых вещей. Если взять в качестве примера беспилотные автомобили, то коммерческое применение беспилотных автомобилей можно ускорить только за счет ускорения реформы законодательной и нормативной базы, направленной на регулирование традиционных автомобилей и водителей-людей, а затем создания новой и эффективной нормативной базы.

Политики Китая активно внедряют инновационные методы и средства регулирования, а также поддерживают и продвигают применение новых вещей ИИ через «регуляторную песочницу» (регуляторную песочницу, см. введение ниже), пилотные проекты и демонстрационные приложения. В области беспилотных автомобилей государство издало ряд законодательных и нормативных документов для поощрения, поддержки и регулирования дорожных испытаний и демонстрационных приложений беспилотных автомобилей, изучения «регуляторной песочницы» стандартов безопасности для самоуправляемых автомобилей. -управление автомобилями, а также улучшить стандартизацию беспилотных автомобилей.Правила проезда въезда и выезда на дорогу для обеспечения безопасности движения беспилотных автомобилей. Из-за благоприятной политики регулирования такие города, как Пекин, Шанхай, Гуанчжоу и Шэньчжэнь, один за другим захватили горные районы развития.Некоторые города выдали лицензии на пробную эксплуатацию беспилотных автомобилей, которые не позволяют водителю находиться в автомобиле и могут эксплуатироваться за определенную плату. ; Шэньчжэнь первым в стране выпустил «Положения об управлении интеллектуальными подключенными транспортными средствами Шэньчжэня», устанавливающие законодательную и нормативную базу для коммерческих приложений. В области медицинского обслуживания ИИ, поскольку медицинское программное обеспечение ИИ имеет много новых функций, отличных от традиционных медицинских устройств, включая автономию, возможности обучения и развития, непрерывную итерацию, черный ящик алгоритма, непредсказуемость и т. д., традиционным процедурам утверждения трудно эффективно адаптироваться к медицинскому обслуживанию ИИ.Потребности в разработке программного обеспечения. С этой целью регулирующие органы активно совершенствуют процедуры заявления о регистрации и утверждения, а также спецификации управления использованием медицинских устройств с искусственным интеллектом, а также поддерживают ускоренное клиническое применение медицинского программного обеспечения с искусственным интеллектом для вспомогательной диагностики и лечения, таких как интеллектуальная медицинская визуализация. программное обеспечение было одобрено в Китае, например, программное обеспечение Tencent Miying для диагностики глаукомы с помощью ИИ и система диагностики пневмонии с помощью ИИ были одобрены для получения свидетельства о регистрации медицинского устройства третьего класса («три типа сертификатов»). В будущем регулирующим органам необходимо продолжать совершенствовать и оптимизировать процедуры регистрации, подачи заявок и утверждения медицинского программного обеспечения ИИ, чтобы медицинские приложения ИИ могли лучше улучшать средства к существованию и благополучие людей.

Ускорить изучение правил защиты интеллектуальной собственности ИИ

Контент, созданный ИИ (контент, созданный ИИ, сокращенно AIGC), стал новым рубежом ИИ, представляющим будущее направление развития ИИ. [10] . В области Интернета AIGC является формой производства контента после PGC (производство профессионального контента) и UGC (производство пользовательского контента), что приводит к огромным изменениям в автоматизированном производстве контента. В настоящее время технология AIGC способна самостоятельно производить различные формы контента, включая текст, изображения, аудио, видео, 3D-контент (3D-объекты, 3D-виртуальные сцены) и т. д. Таким образом, правила защиты прав интеллектуальной собственности на технологию AIGC и ее приложения стали важным вопросом, которого невозможно избежать. Такие вопросы, как «как установить защиту авторских прав и прав собственности на контент AIGC» и «нарушает ли технология AIGC авторские права других людей». содержания» являются неотложными вопросами, требующими решения. [11] Некоторые зарубежные ученые предполагают, что необходимо установить специальные правила защиты интеллектуальной собственности ИИ и международные договоры, поскольку технология ИИ ломает существующую модель, согласно которой творцами и изобретателями могут быть только люди. [12]

В стране и за рубежом активно изучаются правила защиты интеллектуальной собственности для контента, созданного ИИ. За рубежом Великобритания, Европейский союз, Япония, Южная Африка и т. д. рассматривают или сформулировали специальные правила защиты интеллектуальной собственности ИИ, такие как положения об охране компьютерных произведений в британском «Законе об авторском праве, дизайне и патентах». и «Директива Европейского Союза об авторском праве на единый цифровой рынок». Что касается патентов, политика Великобритании указывает на то, что, поскольку ИИ еще недостаточно развит, чтобы самостоятельно изобретать и создавать, в настоящее время нет необходимости вносить поправки в патентное законодательство, но необходимо уделять пристальное внимание техническому прогрессу и оценивать ИИ. своевременно выдавать патенты.

В Китае в деле Beijing Film Law Firm против дела Baidu о нарушении авторских прав «Baijiahao» суд постановил, что только оригинальные произведения, созданные физическими лицами, могут получить защиту авторских прав, тем самым лишив авторских прав произведения, непосредственно и независимо созданные ИИ. из того, что соответствующие права и интересы (например, конкурентные права и интересы) контента, созданного ИИ, могут быть защищены с помощью законов о конкуренции и других средств. В деле Shenzhen Tencent Computer System Co., Ltd. против Shanghai Yingxun Technology Co., Ltd. за нарушение авторских прав и недобросовестную конкуренцию суд, исходя из реальности сотрудничества человека и компьютера в области ИИ, указал, что технически «созданные» работы программного обеспечения для письма AI Dreamwriter являются только творениями.В качестве звена в процессе общая интеллектуальная деятельность, образованная разделением труда между несколькими командами и несколькими людьми, организованная истцом является основным звеном творчества, и, таким образом, установлено, что статья, фигурирующая в деле, является произведением юридического лица, размещенным истцом. Решение по делу писателя Dream больше соответствует текущему развитию технологии AIGC и ее приложений и имеет большое справочное значение для дальнейшего уточнения правил защиты интеллектуальной собственности для контента, созданного ИИ, посредством законодательства в будущем. С точки зрения законодательства, недавно пересмотренный «Закон об авторском праве Китайской Народной Республики» в 2020 году принимает открытый метод идентификации произведения. Наряду с уточнением состава произведений и перечислением основных видов произведений он также предусматривает открытый взаимный положения, обеспечивающие AIGC и другие новые технологии.Защита новых объектов, вызванных приложениями, оставляет за собой институциональное пространство.

Стандартизация — ключевая часть управления ИИ

** В «Концепции развития национальной стандартизации» указано, что стандартизация играет фундаментальную и ведущую роль в продвижении модернизации национальной системы управления и возможностей управления. В области ИИ стандарты ИИ являются не только важным средством поддержки и продвижения разработки, прогресса и широкого применения ИИ (например, технические стандарты), но и эффективным способом продвижения внедрения управления ИИ (например, стандарты, этические стандарты), потому что стандарты управления ИИ могут играть важную роль в «принятии законодательства и надзора, а также в стыковке технической практики». Кроме того, стандарты в области управления ИИ более гибкие, гибкие и адаптируемые, чем законодательство и регулирование. Таким образом, стандарты управления ИИ стали командной точкой в развитии технологий и промышленности ИИ, и международное сообщество предложило меры по их внедрению. ** Типичными представителями являются проверенные стандарты ИИ Европейского Союза, управление рисками ИИ под руководством Национального института стандартов и технологий США (NIST), идентификация дискриминации ИИ и другие стандарты управления, план развития экосистемы сертификации ИИ Великобритании, стандарты этики ИИ IEEE, и т.п. Что касается реализации, IEEE запустила проект сертификации этики ИИ для отрасли; Великобритания надеется создать ведущую в мире индустрию сертификации ИИ стоимостью в миллиарды фунтов стерлингов за 5 лет и передать услуги по сертификации ИИ нейтральной третьей стороне. (включая аудит, оценку влияния, сертификацию) для оценки и информирования о надежности и соответствии систем ИИ.

**Китай придает большое значение построению стандартизации в области ИИ.«План развития национальной стандартизации» требует проведения исследований в области стандартизации в области ИИ, квантовой информации и биотехнологии. ** В последние годы все сферы жизни продолжали продвигать стандартизацию национальных стандартов, отраслевых стандартов, местных стандартов и групповых стандартов в области управления ИИ. Например, Национальный комитет по управлению стандартизацией учредил Национальную общую группу по стандартизации искусственного интеллекта, а Национальный технический комитет по стандартизации информационных технологий учредил Подтехнический комитет по искусственному интеллекту, оба из которых нацелены на содействие разработке национальных стандартов в области ИИ. . «Руководство по созданию национальной системы стандартов искусственного интеллекта нового поколения», выпущенное в июле 2020 года, разъясняет структуру высшего уровня в области стандартов ИИ.ИИ устанавливает систему соответствия для содействия здоровому и устойчивому развитию ИИ. В будущем стандарты, связанные с управлением ИИ, необходимо формулировать и внедрять быстрее, чтобы обеспечить больше гарантий для технологических инноваций и промышленного развития в области ИИ.

Отрасль активно изучает меры самодисциплины для управления ИИ и практикует концепцию ответственных инноваций и технологий во благо

**Эффективное управление ИИ требует совместного участия нескольких субъектов, таких как правительство, предприятия, отраслевые организации, академические группы, пользователи или потребители и общественность.Среди них самоуправление и самодисциплина управления технологическими компаниями являются важная часть реализации концепции «этика прежде всего». ** Причина призыва «сначала этика» во многом связана с тем, что в условиях быстрого развития ИИ явление «юридического отставания» становится все более и более заметным. В области ИИ «этика прежде всего» впервые проявляется в самодисциплинированном управлении технологической этикой технологических компаний, и передовой опыт ведущих компаний часто может играть очень хорошую ведущую роль, продвигая практику ответственных инноваций и технологий. на благо всей индустрии идея.

На отраслевом уровне в последние годы соответствующие исследовательские институты и отраслевые организации предложили этические принципы ИИ, соглашения о самодисциплине и т. д., чтобы обеспечить этическое руководство для деятельности компаний в области ИИ. Типичными представителями в этом отношении являются «Конвенция о самодисциплине в отрасли искусственного интеллекта» и «Надежные руководящие принципы эксплуатации ИИ» Китайского альянса по развитию отрасли искусственного интеллекта (AIIA), «Пекинский консенсус в отношении искусственного интеллекта» и «Пекинский консенсус в области искусственного интеллекта». Научно-исследовательский институт искусственного интеллекта Чжиюань. Декларация об ответственности отрасли», «Руководящие принципы стандартной практики сетевой безопасности — рекомендации по предотвращению этических рисков безопасности искусственного интеллекта» Национального комитета по стандартизации информационной безопасности и т. д.

На уровне предприятия технологические компании, являющиеся основным источником инноваций и промышленного применения технологий ИИ, несут важную ответственность за ответственные исследования, разработки и применение ИИ. В зарубежных странах технологические компании изучили относительно зрелый опыт и накопили много ресурсов, предложив этические принципы ИИ, создав внутренние организации по этическому управлению ИИ, а также разработав управленческие и технические инструменты и даже коммерчески ответственные решения ИИ. [13] . В последние годы отечественные технологические компании активно внедряют нормативные требования и изучают соответствующие меры саморегулирования, в основном включающие: публикацию этических принципов ИИ, создание внутренних организаций по управлению ИИ (таких как комитеты по этике), проведение этических обзоров или оценок рисков безопасности для деятельности ИИ. и раскрытие алгоритмов внешнему миру. Соответствующая информация, содействие открытости и прозрачности алгоритмов, а также изучение технических решений этических проблем ИИ (таких как инструменты обнаружения и идентификации синтетического информационного контента, инструменты оценки управления ИИ и решения для конфиденциальных вычислений, такие как как федеративное обучение) и т. д.

Глобальное сотрудничество в сфере управления ИИ и конкуренция сосуществуют

**Глобальная конкуренция в области ИИ — это не только конкуренция между технологиями и промышленностью, но и конкуренция между правилами и стандартами управления. **Развитие глобальной цифровой экономики формирует новые международные правила для ИИ и данных, такие как поток данных, структура управления ИИ и т. д. В последние годы глобальное сотрудничество в области управления ИИ продолжало развиваться. Принципы ОЭСР/Группы двадцати в области искусственного интеллекта 2019 года — это первая глобальная основа политики в области искусственного интеллекта. В ноябре 2021 года Организация Объединенных Наций ЮНЕСКО приняла первое в мире соглашение по этике искусственного интеллекта «Рекомендация по этике искусственного интеллекта» (Recommendation on the Ethics of Artificial Intelligence), которое в настоящее время является наиболее полной и общепризнанной глобальной основой политики в области искусственного интеллекта. , оценка этического воздействия и другие механизмы для усиления этического управления ИИ.

В то же время США и Европа ускоряют политику в области ИИ, чтобы укрепить свое лидерство в области политики в области ИИ и влиять на глобальные правила и стандарты управления ИИ. Например, Европейский союз работает над согласованным законопроектом об ИИ, который, как ожидается, будет принят в 2023 году, установит комплексный, основанный на оценке рисков механизм регулирования ИИ. Многие эксперты предсказывают, что, как и влияние предыдущего законодательства о конфиденциальности данных GPDR на глобальную технологическую отрасль, Закон ЕС об ИИ распространит «эффект Брюсселя» на область ИИ, и именно на это ЕС надеется установить управление ИИ. для мира через стандарт регулирования. [14] В дополнение к законодательству об ИИ Совет Европы все еще готовит первую в мире «Международную конвенцию об ИИ». Как и предыдущие «Конвенция о киберпреступности» и «Конвенция о конфиденциальности», как государства-члены, так и государства, не являющиеся членами, могут присоединиться и ратифицировать будущую ИИ. соглашение. [15] Соединенные Штаты всегда были мировым лидером в области ИИ с точки зрения технологий и промышленности, а в последние годы начали активно переформировывать свое лидерство в области политики ИИ. Одной из основных задач Совета по торговле и технологиям США-ЕС, созданного в 2020 году, является содействие сотрудничеству США-ЕС в области управления ИИ. [16] В заключение можно сказать, что глобальная конкуренция в области ИИ все чаще делает упор на конкуренцию «мягкой силы» в области политики и управления в области ИИ, что, можно сказать, представляет собой серьезный сдвиг в технологической конкуренции в 21 веке.

В последние годы Китай придавал большое значение участию в глобальном управлении наукой и технологиями, активно выдвигал свои собственные предложения и стремился к большему признанию и консенсусу. Например, Китай выдвинул «Глобальную инициативу по безопасности данных», которая продолжает привносить положительную энергию в глобальное цифровое управление. В ноябре 2022 года на Конференции государств-участников Конвенции Организации Объединенных Наций о конкретных видах обычного оружия Китай представил документ об укреплении этического управления искусственным интеллектом и выдвинул такие предложения, как соблюдение этики в первую очередь, укрепление самодисциплины, ответственное использование искусственного интеллекта и поощрение международного сотрудничества.

ПРОГНОЗ ТРИ ПУНКТА

Многие политики и нормативные документы, такие как «14-й пятилетний план и наброски долгосрочных целей на 2035 год», «Построение верховенства права в Китае (2020-2025 годы)», «Мнения об укреплении этического управления Наука и технологии» и другие политики и нормативные документы показывают, что управление ИИ продолжает оставаться серьезной проблемой в управлении наукой и технологиями. Основные области технологической этики. Чтобы еще больше повысить глобальную конкурентоспособность Китая в области ИИ, Китаю необходимо не только уделять больше внимания развитию технологий и жесткой промышленной мощи, но и сосредоточиться на формировании мягкой силы, особенно на праве высказываться и лидировать в политике и управлении ИИ. . Потому что управление ИИ стало важной частью глобальной конкурентоспособности ИИ.

Оглядываясь назад в прошлое, Китай уточнил идею надзора и управления ИИ, уделяющего одинаковое внимание развитию и безопасности и параллельному инновациям и этике.Поддерживая и продвигая инновации и развитие, он также обеспечивает безопасность, надежность и управляемость. технологических приложений. Глядя в будущее, нам необходимо лучше использовать совместные усилия правительства, отраслей/предприятий, исследовательских институтов, общественных организаций, пользователей/потребителей, общественности, средств массовой информации и других заинтересованных сторон, чтобы продолжать способствовать правильному развитию ИИ. практики управления и сделать так, чтобы ИИ лучше приносил пользу экономическому и социальному развитию, улучшал средства к существованию и благополучие людей, а также продвигал науку и технологии на более высокий уровень.

Кроме того, прошедшее «золотое десятилетие» ИИ принесло людям все более мощные модели ИИ, и в обозримом будущем ИИ будет становиться только мощнее. Это означает, что когда ИИ взаимодействует с социальной экосистемой, его возможное воздействие на человека, общество и окружающую среду будет намного превосходить любую предыдущую технологию. Таким образом, основная задача управления ИИ состоит в том, чтобы продолжать отстаивать и применять на практике концепцию «ответственного ИИ», создавать ценность для заинтересованных сторон и повышать их благосостояние, а также предотвращать злоупотребления, неправомерное использование и неправомерное использование. Короче говоря, эффективное управление ИИ должно способствовать развитию ответственных практик ИИ и созданию надежного ИИ (Trustworthy AI).

Продолжайте улучшать правовую базу данных и ИИ и продвигайте точный и гибкий надзор

Здоровое и устойчивое развитие ИИ неотделимо от разумного и эффективного надзора, с одной стороны, а с другой стороны, необходимо постоянно повышать уровень предоставления, обращения и использования данных в области ИИ. На самом деле, одной из основных проблем, стоящих перед разработкой и применением ИИ во многих областях, таких как медицина, производство и финансы, является проблема сбора и использования данных, в том числе сложный сбор данных, низкое качество данных и несогласованные стандарты данных. Поэтому дальнейшее развитие ИИ в будущем во многом зависит от постоянного совершенствования данных и правовой базы ИИ. В «Плане цифрового регулирования» Великобритании предполагается, что хорошо продуманное регулирование может оказать сильное влияние на содействие развитию и формирование динамичной цифровой экономики и общества, но плохо разработанное или ограничительное регулирование может препятствовать инновациям. Правильные правила могут помочь людям доверять продуктам и услугам, которые они используют, что, в свою очередь, будет способствовать популярности продуктов и услуг и дальнейшему потреблению, инвестициям и инновациям. [17] То же самое верно и для ИИ.

** С одной стороны, для управления ИИ необходимо более точное и гибкое наблюдение. Это включает в себя: Во-первых, принять разные правила для разных продуктов, услуг и приложений ИИ. **Поскольку приложения ИИ в настоящее время распространены почти повсеместно, сложно применить универсальное правило для разумной адаптации к уникальным характеристикам приложений ИИ в различных отраслях и областях и их влиянию на отдельных людей и общество. Это требует от нас принятия основанной на рисках политики управления ИИ. Например, ту же технологию искусственного интеллекта можно использовать не только для анализа и прогнозирования личных качеств и личных предпочтений пользователя, а также для продвижения персонализированного контента, но и для помощи в диагностике и лечении заболеваний. выявить раковые опухоли. Эти приложения имеют огромные различия с точки зрения уровня риска, важности результатов, а также личного и социального воздействия.Очевидно, что выдвигать нормативные требования в общем и универсальном виде не представляется ни научным, ни реалистичным. ** Во-вторых, подчеркивается необходимость принятия децентрализованного и дифференцированного надзора на основе оценки и классификации приложений ИИ. ** Как и Интернет, ИИ — это очень широкая и универсальная технология, которая не подходит и затрудняет единый надзор. С зарубежной точки зрения, в настоящее время только Европейский союз пытается создать единую и общую нормативно-правовую базу для всех приложений ИИ (модель ЕС), в то время как Великобритания и США делают упор на децентрализованный надзор за отраслями на основе сценариев применения и рисков ( англо-американская модель). Соединенное Королевство предлагает руководствоваться принципами и внедрить надзор за приложениями ИИ, способствующий инновациям. Его основные концепции включают: сосредоточение внимания на конкретных сценариях применения и обеспечение пропорциональности и адаптивности надзора на основе степени риска; [18] Соединенные Штаты всегда подчеркивали путь управления, который сочетает отраслевое регулирование и отраслевую самодисциплину.Например, «План Билля о правах ИИ» не только предлагает пять принципов, но также разъясняет идею децентрализованного регулирования во главе с отраслевыми властями. и ориентированы на сценарии приложений. [19] Что касается Китая, то законодательство и надзор за ИИ в прошлом ближе к англо-американской модели, то есть для разных приложений ИИ, таких как службы рекомендаций по алгоритмам, глубокий синтез и автономное вождение, сформулированы отдельные нормативные правила. Эта децентрализованная и дифференцированная модель регулирования соответствует принципам гибкого управления и может лучше адаптироваться к сложным характеристикам быстрой разработки и итерации технологии ИИ и ее приложений. ** В-третьих, призывает к постоянным инновациям в наборе инструментов регулирования и принятию диверсифицированных регуляторных инициатив. Одним из них является «регуляторная песочница» ИИ. ** Одной из основных инициатив Европейского союза в области регулирования ИИ является предлагаемая «регулятивная песочница» ИИ. [20] Являясь эффективным способом поддержки и продвижения коммуникации и сотрудничества между регулирующими органами и субъектами инноваций, «регулятивная песочница» может предоставить контролируемую среду для разработки, тестирования и проверки соответствия инновационных приложений ИИ. Передовой опыт и рекомендации по внедрению, созданные в «регулятивной песочнице», помогут предприятиям, особенно малым, средним и микропредприятиям, а также начинающим компаниям, внедрять нормативные правила. **Второй — социальные услуги управления ИИ, включая стандарты управления ИИ, сертификацию, тестирование, оценку, аудит и т. д. ** В области сетевой безопасности социальные службы сетевой безопасности, такие как сертификация сетевой безопасности, тестирование и оценка рисков, являются важным способом выполнения нормативных требований. Управление ИИ может извлечь уроки из этого подхода. В настоящее время Европейский союз, Великобритания, Соединенные Штаты и IEEE продвигают социальные услуги управления ИИ. Например, IEEE запустил сертификацию этики ИИ для отрасли; [21] «Дорожная карта по созданию эффективной экосистемы сертификации ИИ», выпущенная Великобританией, надеется создать ведущую в мире индустрию сертификации ИИ с помощью нейтральных сторонних услуг по сертификации ИИ (включая оценку воздействия, аудит предвзятости и аудит соответствия, сертификацию, оценку соответствия). , тестирование производительности и т. д.), чтобы оценить и сообщить о надежности и соответствии систем ИИ. Великобритания считает, что это будет новая отрасль стоимостью в миллиарды фунтов стерлингов. [22] Китаю необходимо ускорить создание надежной системы социальных услуг по управлению ИИ, а также лучше принимать и внедрять вышестоящие законодательные и нормативные требования с помощью нижестоящих услуг по управлению ИИ. Кроме того, методы регулирования, такие как руководящие принципы политики, безопасные зоны ответственности, пилотные проекты, демонстрационные приложения и отчетность после события, могут играть важную роль в различных сценариях применения.

**С другой стороны, необходимо ускорить совершенствование правовой базы для обращения и использования данных и продолжать повышать уровень предоставления данных в области ИИ. **Во-первых, необходимо создать правовую базу для открытых и общедоступных данных на национальном уровне, унифицировать стандарты качества и управления данными, а также использовать загрузку данных, интерфейсы API, частные вычисления (федеративное обучение, безопасные многосторонние вычисления, безопасные и доверенных вычислительных сред и т. д.), данные Диверсифицированное управление и технические методы, такие как пространство данных, для обеспечения максимально открытого обмена общедоступными данными. Во-вторых, активно устранять различные препятствия на пути развития и применения технологий конфиденциальных вычислений и технологий синтетических данных. В настоящее время при обращении и использовании различных типов данных все более важную роль играют вычислительные технологии конфиденциальности, такие как федеративное обучение, которые могут достигать таких эффектов, как «данные доступны/исчислимы и невидимы», «данные не меняют алгоритм». /значение перемещается". В связи с развитием приложений ИИ и больших данных федеративное обучение как основной метод продвижения и применения в области конфиденциальных вычислений в настоящее время является наиболее зрелым техническим путем. На следующем этапе мы можем лучше поддерживать применение и разработку технологий конфиденциальных вычислений, таких как федеративное обучение, путем создания пространств данных в стратегических областях, формулирования отраслевых стандартов для конфиденциальных вычислений и выпуска юридических руководств по внедрению технологий конфиденциальных вычислений.

Этическое управление ИИ должно перейти от принципов к практике

С развитием институционализации и легализации научно-технического этического управления укрепление научно-технического этического управления стало одним из «необходимых вопросов» и «обязательных вопросов» для научно-технических предприятий. В соответствии с концепцией «этика превыше всего» требования к этичному управлению наукой и технологиями означают, что технологические компании не могут надеяться решать этические проблемы ИИ путем принятия постфактум корректирующих мер, а должны участвовать во всех процессах. Жизненный цикл ИИ от проектирования до разработки и развертывания.Среди них активно выполнять обязанности основного органа по управлению этикой науки и техники, а также новаторски продвигать самодисциплину этики науки и техники различными способами. В целом, в высокотехнологичном и цифровом обществе технологическим компаниям необходимо рассмотреть возможность включения управления ИИ в свою среду корпоративного управления в качестве модуля, столь же важного, как и существующие модули, такие как юридические вопросы, финансы и контроль рисков. Следующие аспекты заслуживают дальнейшего изучения:

**Во-первых, с точки зрения управления необходимо создать механизм управления этическими рисками ИИ. **Управление этическими рисками ИИ должно проходить через весь жизненный цикл ИИ, включая этап предварительного проектирования, этап проектирования и разработки, этап развертывания, а также действия по тестированию и оценке на всех этих этапах, чтобы всесторонне идентифицировать, анализировать, оценивать , управлять этическими рисками ИИ и управлять ими. Это зависит от предприятия, чтобы установить соответствующую организационную структуру и нормы управления, такие как комитет по этике, процесс проверки этики и другие инструменты управления. Разработчики политики могут рассмотреть вопрос о выпуске политических руководящих принципов в этом отношении.

Во-вторых, с точки зрения дизайна необходимо следовать концепции дизайна, ориентированной на людей, и практиковать концепцию «Этика дизайна»** (Ethicsby Design). ** Этический встроенный дизайн означает интеграцию этических ценностей, принципов, требований и процедур в проектирование, разработку и развертывание систем искусственного интеллекта, робототехники и больших данных. Предприятиям необходимо задуматься о процессе исследований и разработок в области ИИ, возглавляемом техническими специалистами, и уделять больше внимания разнообразному опыту и участию в исследованиях и разработках в области ИИ и деятельности по применению. Введение специалистов по вопросам политики, права, этики, общества, философии и других междисциплинарных и междисциплинарных специалистов в команду разработчиков технологий является наиболее прямым и эффективным способом внедрить этические требования в проектирование и разработку технологий. В будущем политики могут объединить усилия с отраслью, чтобы обобщить опыт и уроки, а также выпустить технические руководства, передовой опыт и другие документы для этического проектирования встраиваемых систем.

** Наконец, с точки зрения технологии, необходимо продолжать изучать технические и рыночные подходы к решению этических проблем ИИ и созданию надежных приложений ИИ. **Одним из них является этический инструмент ИИ. Многие проблемы в приложениях ИИ, такие как объяснимость, справедливость, безопасность, защита конфиденциальности и т. д., могут быть решены с помощью технологических инноваций. Сосредоточившись на этих вопросах, отрасль изучила некоторые инструменты этики ИИ и инструменты аудита ИИ, и дальнейшая работа в этой области требует дальнейшего развития. Второй — служба этики ИИ (AIEthicsasa Service). [23] Это ориентированный на рынок путь. Ведущие компании, занимающиеся вопросами этики ИИ, и стартапы, занимающиеся вопросами этики ИИ, разрабатывают ответственные решения в области ИИ, основанные на инструментах и услугах по этике ИИ, и предоставляют их в качестве коммерческих услуг. [24] Исследовательская и консалтинговая фирма Forrester прогнозирует, что все больше и больше компаний, занимающихся технологиями ИИ, и компаний в других областях, которые применяют ИИ, будут приобретать ответственные решения ИИ, которые помогут им реализовать справедливые и прозрачные этические принципы ИИ, а объем рынка услуг по этике ИИ удвоится. В-третьих, это технологические методы краудсорсинга, такие как AI Ethics Bounty. Подобно вознаграждению за уязвимости в сетевой безопасности (Bug bounty), вознаграждению за дискриминацию алгоритмов (Algorithmic Bias Bounty) и другим техническим методам краудсорсинга, широко используемым интернет-компаниями, он может обнаруживать, выявлять и решать этические проблемы ИИ, разрабатывать инструменты аудита ИИ и создавать надежные приложения ИИ будут играть важную роль. Некоторые иностранные компании и университетские исследовательские институты, такие как Twitter и Стэнфордский университет, запустили Algorithmic Discrimination Bounty Challenge и AI Audit Challenge, призывая участников разработать инструменты для выявления и смягчения алгоритмической дискриминации в моделях ИИ. Развитие и укрепление этического сообщества ИИ с помощью этих технологических методов краудсорсинга будет играть важную роль в управлении ИИ.

Глобальное сотрудничество в области управления ИИ должно продолжать углубляться

Как упоминалось ранее, глобальное управление ИИ представляет собой конкурентную ситуацию, которая не соответствует концепциям ориентированных на людей, открытых и общих технологий и инклюзивного развития. Странам необходимо продолжать углублять сотрудничество в области международного управления ИИ, способствовать формулированию международных соглашений об этике и управлении ИИ, формировать международную структуру управления ИИ, стандарты и нормы на основе широкого консенсуса, расширять обмены и сотрудничество в области технологий, талантов, отраслей и т. д. ., и противодействовать эксклюзивизму, продвигать инклюзивность технологий и технологии во благо, а также реализовывать инклюзивное развитие всех стран. Активное участие Китая в глобальном управлении технологиями необходимо для того, чтобы воспользоваться новым кругом международных возможностей для нормотворчества в области ИИ и данных, постоянно предлагать решения для управления ИИ, которые соответствуют глобальному консенсусу, и продолжать привносить китайскую мудрость в глобальное цифровое управление и Управление ИИ. В то же время нам необходимо усилить наш международный голос, интегрировать наши идеи, предложения и практику в международное сообщество, стремиться к большему признанию и консенсусу, а также усилить свой голос и влияние.

Глядя в будущее, с непрерывным развитием технологии ИИ, ИИ будет становиться все более и более мощным, и в будущем может появиться общий ИИ (искусственный общий интеллект, сокращенно AGI). Общий ИИ будет иметь уровень интеллекта, эквивалентный человеческому, и сможет выполнять любую интеллектуальную задачу, на которую способен человек. Теоретически общий ИИ может создать более высокий уровень интеллекта, вызывая большой взрыв интеллекта, так называемую «сингулярность», что приводит к сверхразуму. От текущего применения ИИ к будущему ОИИ это может быть скачок от количественных изменений к качественным. Это вызвало опасения по поводу того, что ОИИ вытесняет человеческие рабочие места, выходит из-под контроля и даже угрожает человеческому существованию. Поэтому для разработки ИИ общего назначения и связанных с ним потенциальных проблем безопасности и этики миру необходимо планировать заранее и работать вместе, чтобы сделать технологию ИИ более инклюзивной, безопасной, надежной и контролируемой на благо всего человечества.

**Эта статья впервые появилась в выпуске 4 «Журнала Шанхайского педагогического университета» (издание «Философия и социальные науки») за 2023 г. **

Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить