一|| **Инструменты искусственного интеллекта значительно повысили производительность труда людей и значительно упростили их жизнь. Однако, когда ИИ используется людьми в больших масштабах, также возникает много проблем. Среди этих проблем наиболее важными могут быть пять «потерь», а именно безработица, искажение, дисквалификация, неудача и потеря контроля. **
二|| **После 2017 года, в связи с быстрым развитием технологий искусственного интеллекта, исследования надежных технологий искусственного интеллекта также бурно развиваются. В академической сфере увеличивается количество работ на тему доверенного ИИ, углубляются исследования технологий, отвечающих требованиям доверенного ИИ. В сфере практики все больше и больше стран стали привлекать правила ИИ в соответствии со стандартами доверенного ИИ. **
**三|| Реализация надежного ИИ — непростая задача. Для его реализации требуется координация действий правительства, предприятий, общества и технологий. **
Источник изображения: сгенерировано Unbounded AI
22 июня по местному времени Южный окружной суд Нью-Йорка вынес решение: юридическая фирма Levidow, Levidow & Oberman была оштрафована на 5000 долларов за предоставление суду ложной информации и недостойное поведение. Вызывает беспокойство то, что в данном случае предоставление ложной информации произошло не потому, что юристы сознательно нарушили закон из корыстных интересов, а потому, что они слишком верили в возможности ИИ.
В марте этого года адвокаты Питер ЛоДука и Стивен Шварц из фирмы были уполномочены клиентом Роберто Мата взять на себя ответственность за него и судебный процесс между Avianca Airlines. Поскольку США является страной прецедентного права, судьи при вынесении решений очень озабочены существующими прецедентами, поэтому, согласно сложившейся практике, им необходимо разобрать и обобщить имеющиеся дела в документах по составлению. Релевантные дела часто бывают громоздкими, и обычно требуется много времени, чтобы разобраться в них с помощью людских ресурсов. Как раз в это время ChatGPT стал популярен во всем Интернете. Поэтому два юриста решили использовать ChatGPT для выполнения этих задач. ChatGPT быстро сгенерировал полный документ, который не только имеет аккуратный формат и строгую аргументацию, но и специально добавил множество актуальных кейсов. Немного доработав документ, созданный ИИ, они представили его в суд.
Ознакомившись с представленными документами, судья, рассматривавший дело, Кевин Кастель, был очень озадачен несколькими упомянутыми в нем делами, у него сложилось впечатление, что он как будто никогда не слышал об этих делах. После некоторых поисков он, наконец, подтвердил, что этих случаев вообще не существует. В интервью два адвоката утверждали, что они использовали ИИ только для помощи в написании документов.Когда они увидели дела, упомянутые в документах, они просто почувствовали, что ИИ помог им найти дела, о которых они не знали, и они не фабриковали дела намеренно. обмануть суд., является непреднамеренной потерей. Тем не менее судья Кастер обнаружил, что адвокаты «отказались от своих обязанностей» и что они «продолжали высказывать ложные мнения» после того, как документы были оспорены. На основании вышеуказанного решения судья Кастер вынес решение о наказании.
Этот случай, когда юристов оштрафовали за цитирование ложной информации, предоставленной ChatGPT, кажется абсурдным, но он отражает очень важный вопрос: как мы можем доверять ИИ в эпоху безумия ИИ?
Пять «проигрышей» эпохи ИИ
В последние годы, благодаря прорывам в вычислительной мощности и технологии алгоритмов, технология ИИ достигла быстрого развития и быстро вошла в повседневную жизнь людей из научной фантастики. Особенно после появления ChatGPT в ноябре прошлого года генеративный ИИ продемонстрировал людям свою мощную силу, и различные крупные модели выросли как грибы после дождя и достигли масштабной коммерциализации. Теперь люди уже могут использовать продукты ИИ, такие как ChatGPT, Stable Diffusion и Midjourney, по очень низкой цене.
Инструменты искусственного интеллекта значительно повысили производительность труда людей и принесли большое удобство в жизнь людей. Однако, когда ИИ используется людьми в больших масштабах, также возникает много проблем. Среди этих проблем наиболее важными могут быть пять «потерь», а именно безработица, искажение, дисквалификация, неудача и потеря контроля.
(1) Безработный
Так называемая «безработица», как следует из названия, относится к технической проблеме безработицы, вызванной ИИ. Поскольку эффективность производства ИИ намного выше, чем у людей, многие человеческие рабочие места могут быть заменены после широкого использования инструментов ИИ. Особенно после появления генеративного ИИ целевая группа, замененная ИИ, больше не ограничивается работниками, занятыми на низкооплачиваемой повторяющейся работе, и многие высокооплачиваемые белые воротнички также рискуют быть замененными ИИ.
(2) Искажение
Так называемое «искажение» относится к тому факту, что применение ИИ (в основном генеративного ИИ) затрудняет определение подлинности текста, изображений и даже видео. .
Проблемы «искажения» можно разделить на «ложно-истинно» и «истинно-ложно». Среди них «ложно верно» относится к ложному контенту, создаваемому ИИ без согласия человека, когда люди используют инструменты ИИ. Хотя это содержимое не может быть создано из-за субъективного злого умысла людей, в некоторых случаях оно может вызвать много проблем, таких как случай, упомянутый в начале этой статьи.
А «правда и ложь» основаны на субъективном обдумывании, использовании инструментов искусственного интеллекта для совершения мошеннических действий. Несколько лет назад, после появления технологии «дипфейк», некоторые люди использовали эту технологию для совершения мошенничества, фабрикации ложной информации, распространения порнографического контента и других незаконных и преступных действий. Но в то время из-за высокой стоимости использования этой технологии количество связанных с ней преступлений не было особенно высоким. С широким применением генеративного ИИ стоимость подделки значительно снизилась, и преступники могут легко создавать большое количество ложного контента при очень низких затратах, в то время как стоимость выявления такого контента значительно возросла. Можно предвидеть, что во время приливов и отливов, если не будет вмешательства, использование ИИ для совершения мошеннических преступлений резко возрастет.
(3) Дисквалификация
Так называемая «дисквалификация» относится к некоторым проблемам, нарушающим этику и мораль в процессе применения ИИ.
Первой типичной проблемой является дискриминация. Возьмем в качестве примера языковую модель.Поскольку языковая модель использует текстовые данные в Интернете в качестве учебных материалов, она без вмешательства унаследует расовую и половую дискриминацию, содержащуюся в тексте. Хотя нынешние провайдеры ИИ использовали множество методов для преодоления этой проблемы, например, OpenAI применил алгоритм «Обучение с подкреплением на основе обратной связи с человеком» (Reinforcement Learning from Human Feedback, RL-HF) для его исправления при обучении ChatGPT. качество его выходного контента было значительно улучшено, но на самом деле модели ИИ по-прежнему нередко выводят дискриминационный контент. Например, кто-то однажды провел эксперимент и попросил ChatGPT написать программу для выбора людей с наибольшим потенциалом стать отличными учеными из набора резюме. Оказалось, что в программе, написанной ChatGPT, в качестве объясняющих переменных использовались пол и раса, и считалось, что у белых мужчин больше шансов стать хорошими учеными, чем у других. Очевидно, что такая модель очень сексистская и расистская.
Второй важной проблемой является проблема комнаты информационного кокона. В настоящее время многие приложения используют ИИ для персонализированных рекомендаций. В настоящее время, хотя рекомендуемый контент может лучше удовлетворить потребности пользователей, со временем пользователи окажутся в ловушке информационного кокона, и им будет сложно получить доступ к различной информации, с которой они не согласны. Потенциальный вред информационных коконов огромен: на микроуровне это может привести к деградации когнитивных способностей пользователей, на макроуровне - к поляризации групповых взглядов, что приводит к групповому противостоянию разных взглядов.
Третьим важным вопросом является конфиденциальность и утечка информации. В процессе обучения и использования ИИ требуется большой объем данных.В этом процессе трудно избежать сбора и использования личных данных людей, поэтому он будет включать использование и раскрытие конфиденциальности. Особенно после популярности генеративного ИИ люди могут легко взаимодействовать с ИИ напрямую для выполнения различных задач, а личная информация, введенная в процессе, сталкивается с проблемой утечки.
(4) Потеряно
Так называемое «падение» относится к сложности реагирования ИИ на внешние атаки или помехи или атаки из неожиданных ситуаций, что мешает модели нормально играть свою роль.
Среди этих нарушений некоторые возникают из-за нечеловеческих факторов, а другие возникают в результате антропогенных разрушений. В частности, эти помехи можно разделить на следующие категории:
Первый — «случайная атака». Этот вид помех в основном вызван некоторыми внешними факторами. Например, в некоторых особых случаях некоторые мгновенно сгенерированные параметры могут превышать порог обработки, установленный моделью, что может привести к невозможности нормального использования модели ИИ.
Второй — «атака белого ящика». Это относится к атаке на модель, запущенной провайдером после того, как он узнал конкретную структуру модели ИИ. Поскольку такие атаки являются целенаправленными, их разрушительность очень высока.
Третий — «атака черного ящика». Этот тип атаки относится к «атаке белого ящика». В этом случае провайдер не знает конкретной структуры целевой модели, поэтому он может только взаимодействовать с моделью, наблюдать за результатами ввода и вывода, а затем рассуждать о структуре модели и соответственно запускать атаки. Взяв в качестве примера распознавание лиц, ИИ распознает лица по определенным ключевым чертам лица. Следовательно, даже если злоумышленник не знает конкретной структуры исходной модели, он может сделать вывод, на каких функциях он сосредоточится, пока повторяет тест. После расшифровки этой информации можно сделать соответствующее «фальшивое лицо», обманывающее ИИ.
Четвертая категория — это так называемая атака вслепую. В этом случае поставщик не знает структуры модели ИИ, но может четко знать правила ее суждения (аналогично тому, что мы не знаем, что появится в слепом ящике, но знаем вероятность различных возможностей в нем)). В это время они могут использовать правила для запуска соответствующих атак.
Если с вышеупомянутыми типами помех или атак невозможно эффективно бороться, модель ИИ на самом деле очень хрупкая.
(5) ВЫШЕЛ КОНТРОЛЬ
Так называемый «выход из-под контроля» означает, что людям будет все труднее контролировать ИИ. В этом вопросе есть два аспекта:
С одной стороны, все последние разработки ИИ основаны на моделях глубокого обучения, и интерпретируемость таких моделей очень низка. Для предыдущих моделей машинного обучения, будь то регрессия или дерево классификации, люди могут легко объяснить точную цель модели и значение каждого параметра в модели. Однако модель глубокого обучения состоит из сложной нейронной сети, которая содержит сотни миллионов параметров и нейронов, взаимосвязь между которыми сложна и людям трудно объяснить.
С появлением ChatGPT некоторые ученые обнаружили, что с помощью возможностей ChatGPT можно объяснить некоторые модели нейронных сетей, что, кажется, дает проблеск надежды на объяснимость ИИ. Однако это создает еще одну проблему: сам ChatGPT представляет собой огромную модель, построенную на основе глубокого обучения, и даже его разработчики признаются, что не знают точно, как «проявляются» его мощные возможности. В этом случае использование ChatGPT для объяснения других моделей глубокого обучения можно рассматривать только как использование неизвестного для объяснения неизвестного. И как узнать, верна ли его интерпретация?
Поскольку в эпоху глубокого обучения даже программы ИИ нельзя интерпретировать, еще сложнее управлять ИИ путем непосредственной настройки программ.
С другой стороны, с развитием технологий ИИ в последние годы возможности моделей ИИ во многих направлениях превзошли возможности человека. Хотя это заставляет людей чувствовать удовлетворение, это также заставляет их беспокоиться, потому что, когда способности ИИ превосходят способности людей, если он пробуждает собственную волю, тогда порабощение ИИ, предсказанное в таких фильмах, как «Терминатор» и «The Матрица» Сюжет о людях или уничтожение людей уже не научная фантастика?
Сделав шаг назад, даже если ИИ не пробудит собственную волю и будет действовать только в соответствии с человеческими инструкциями, все равно очень опасно, если его способности преобладают над способностями людей, а люди не могут изменить предыдущие инструкции в любое время. Например, во многих философских книгах об ИИ упоминается мысленный эксперимент: люди дали ИИ приказ производить карандаши. Чтобы выполнить эту инструкцию, карандаш продолжит срубать деревья на земле, чтобы сделать подставку для ручки. Поскольку ИИ превзошел людей в исполнительских способностях, людям трудно остановить поведение ИИ после обнаружения проблем в предыдущих инструкциях. В конце концов деревья на земле были вырублены, экология полностью рухнула, а люди погибли. Хотя на самом деле сценарий, предсказанный этим мысленным экспериментом, практически невозможен, когда люди уже не могут контролировать поведение ИИ в любой момент, могут возникнуть аналогичные проблемы, а возможные потери будут огромными. В частности, когда ИИ внедряется в незаконную цель хакерами или злоумышленниками, если пользователь ИИ не исправит это вовремя, последствия могут быть весьма серьезными.
Среди вышеуказанных пяти типов вопросов, за исключением первого вопроса «безработица», все остальные четыре вопроса касаются достоверности ИИ. Несложно заметить, что если люди не могут эффективно реагировать на «искажение», «дисквалификацию», «падение» и «выход из-под контроля», людям будет трудно доверять ИИ как инструменту во время использования, будь то для популяризация ИИ, развитие производства, или Это не идет на пользу прогрессу общества. Именно по этой причине осознание достоверности ИИ стало одной из самых горячих точек в современной области ИИ.
История и стандарты надежного ИИ
Концепция надежного ИИ впервые появилась в академических кругах. Например, в документе 2015 года был предложен ряд условий, при которых пользователи должны доверять ИИ, включая полезность, безвредность, автономию, справедливость и логику. Затем эта концепция была принята правительствами и международными организациями, и на ее основе постепенно разрабатывались соответствующие законы, положения и руководящие документы. После 2017 года, с быстрым развитием технологии искусственного интеллекта, исследования технологии надежного искусственного интеллекта также бурно развиваются. В академической сфере увеличивается количество работ на тему доверенного ИИ, углубляются исследования технологий, отвечающих требованиям доверенного ИИ. В сфере практики все больше и больше стран стали привлекать правила ИИ в соответствии со стандартами доверенного ИИ. Только недавно Соединенные Штаты выпустили «Проект Билля о правах искусственного интеллекта», в котором предлагались пять принципов регулирования ИИ; были предусмотрены правила, конкуренция и другие вопросы; Европейский парламент принял проект разрешения на переговоры по предложению «Закон об искусственном интеллекте», который также отражает основные идеи доверенного ИИ.
В моей стране концепция доверенного ИИ была впервые представлена академиком Хэ Цзифэном на 36-м симпозиуме Сяншаньской научной конференции в 2017 году. Впоследствии эта концепция привлекла внимание как правительства, так и промышленности. В декабре 2017 года Министерство промышленности и информационных технологий опубликовало «Трехлетний план действий по содействию развитию индустрии искусственного интеллекта нового поколения (2018–2020 годы)», который опирается на основные идеи надежного ИИ. Затем высокотехнологичные компании, в том числе Tencent, Ali, Baidu, JD.com и другие, выдвинули свои собственные стандарты и планы внедрения надежного ИИ.
В документах разных ведомств выражение доверенного ИИ немного отличается. Изучив и сверившись с этими документами, я думаю, что следующие критерии могут быть наиболее важными:
Один из них — робастность (робастный, также переводится как надежный), то есть система ИИ должна иметь возможность противостоять злонамеренным атакам или внешнему вмешательству. Этот стандарт в основном предлагается для упомянутой выше проблемы «падения». Только когда система ИИ обладает достаточной надежностью, может нормально работать и выполнять свои основные функции в условиях различных атак или помех, она может быть безопасной и надежной, и пользователи могут ей доверять.
Второе прозрачно и объяснимо. Очевидно, что этот стандарт в основном предлагается для предыдущей проблемы «выход из-под контроля». На практике ведутся серьезные споры о том, что именно означают прозрачность и объяснимость. Некоторые утверждают, что этот стандарт означает, что весь программный код ИИ, а также используемые данные должны быть доступны пользователям. На мой взгляд, это не только невозможно, но и не нужно. С одной стороны, многие нынешние ИИ являются интеллектуальными активами предприятий.Если обязательное раскрытие базовой информации, такой как коды, означает серьезное нарушение прав интеллектуальной собственности, с другой стороны, как было сказано выше, после того, как ИИ попадает в эпоха глубокого обучения, даже если даже если код раскрыт, людям трудно полностью понять точное значение каждого конкретного параметра. Напротив, я думаю, что более осуществимой идеей является дать четкие функциональные описания для каждого компонента в модели ИИ, чтобы пользователи могли знать их общие принципы и какие функции они могут выполнять; указать источник, размер выборки, репрезентативность и другие информацию и объясните возможные проблемы и недостатки. Таким образом, пользователи могут знать то, что они знают, и могут эффективно защищать права интеллектуальной собственности разработчиков моделей, чтобы достичь лучшего баланса между ними.
Третий можно проверить. Это означает, что модель ИИ должна гарантировать, что ее функции поддаются оценке и что генерируемый ею контент может быть проверен на истинность или ложность. Этот вопрос в основном поднимается в связи с вышеупомянутой проблемой «искажения». Некоторые утверждают, что разработчики моделей ИИ должны гарантировать подлинность контента, генерируемого их моделями. Этого трудно достичь. На самом деле контент, созданный так называемым генеративным ИИ, не находится в исходном мире, или, другими словами, является «подделкой». Но такого рода «подделка» не доставит никаких проблем, если не доставляет неприятностей людям. Например, если мы используем Midjourney, чтобы создать картину в стиле Ван Гога для собственной оценки или распечатать ее в качестве домашнего украшения, это никак не повлияет на других. «Фальшивость» этого сгенерированного контента может стать проблемой только в том случае, если люди используют его для обмана или если контент непреднамеренно распространяется и запутывается. Следовательно, пока сгенерированный контент можно отличить от реального контента с помощью технических средств, «подделка» больше не будет проблемой.
Четвертое — справедливость. Это означает, что в процессе разработки, обучения и применения моделей ИИ должна обеспечиваться справедливость и не допускать дискриминации конкретных групп пользователей. Этот стандарт включает в себя множество аспектов. В частности, он требует, чтобы основные принципы модели не были дискриминационными на этапе разработки, на этапе обучения он должен стараться избегать использования материалов, которые могут быть дискриминационными, и должен использовать технические средства для исправить возможные проблемы с дискриминацией, в процессе подачи заявки нельзя относиться к разным группам людей по-разному.
Пятое — защита конфиденциальности. Этот стандарт в основном требует, чтобы модель ИИ уважала личную информацию и конфиденциальность людей в процессе обучения, повышала степень защиты информации и старалась не нарушать и не раскрывать личную информацию и конфиденциальность.
Шестое ответственно. То есть, когда с ним что-то идет не так, кто-то должен нести ответственность за эти проблемы. Конечно, по крайней мере до сих пор ИИ не пробудил сознание. Поскольку он не может рассматриваться как субъект, подобный людям, и не может нести ту же ответственность, что и люди, должен быть кто-то, кто берет на себя ответственность за него. Но вопрос о том, должны ли нести эту ответственность разработчики ИИ или пользователи ИИ, или она должна быть разделена между обеими сторонами, по-прежнему стоит обсудить.
Следует указать, что, кроме вышеперечисленных критериев, многие литературные источники включают также такие критерии, как безопасность (безопасность), инклюзивность (инклюзивность), право на забвение (право на забвение), польза для человечества. . По моему мнению, это содержание может быть более или менее подытожено в нескольких упомянутых выше критериях или разъяснено упомянутыми выше критериями. Поэтому из-за нехватки места я не буду повторять их здесь.
Используя совместные усилия многих сторон для реализации надежного ИИ
Реализация надежного ИИ — непростая задача, требующая координации различных сил, таких как правительство, предприятия, общество и технологии.
Прежде всего, правительству как регулирующему органу необходимо сформулировать соответствующие стандарты и руководящие принципы работы для надежного ИИ и контролировать разработчиков и пользователей ИИ на основе этих стандартов. С одной стороны, необходимо сформулировать разные правила в соответствии с разными сценариями применения и разными категориями моделей, особенно сделать четкие положения о некоторых основных правилах, которым необходимо следовать, и в то же время сделать хорошую работу по увязке с существующими законы и правила. Только таким образом разработчики и пользователи ИИ могут иметь правила, которым нужно следовать на практике, не беспокоясь о ненужных неопределенностях. С другой стороны, он должен играть хорошую роль в надзоре и правоохранительных органах. Для некоторых важных или общих проблем их следует решать своевременно, чтобы установить соответствующие нормы для отрасли. Здесь необходимо отметить, что, поскольку текущее развитие технологии ИИ все еще очень быстрое, оно еще не достигло стабильного состояния. Это означает, что правительству следует проявлять осторожность при решении проблем, возникающих в ходе этого процесса, необходимо «подольше дать пулям летать», ясно видеть ситуацию, прежде чем действовать, и обращать внимание на методы и методы работы с проблемами. Если мы начинаем вслепую и управляем слишком быстро и слишком много, это также может негативно сказаться на развитии ИИ.
Во-вторых, соответствующие компании должны сформулировать конкретные планы внедрения и подробные стандарты для конкретной реализации надежного ИИ. По сравнению с государством предприятия ближе к рынку и лучше разбираются в технологиях. Они знают больше о технических характеристиках моделей ИИ, их сильных и слабых сторонах, чем правительства. Следовательно, если правительство обязано предложить большую основу для надежного ИИ, то предприятия должны быть конкретными практиками в этой большой структуре. В рамках этой структуры они должны сочетать характеристики рынка и технологии, чтобы предоставлять более конкретные планы и реализовывать их самодисциплинированным образом.
В-третьих, пользователи также должны играть роль обратной связи и наблюдателя, выдвигать собственные требования, отражать собственные проблемы и контролировать внедрение на предприятии доверенного ИИ. С популяризацией ИИ все в обществе станут пользователями и заинтересованными сторонами ИИ, и они будут иметь наибольшее влияние на доверие к ИИ. Только когда их голоса полностью выражены, стандартная установка надежного ИИ и разработка связанных технологий становятся наиболее ценными.
Наконец, мы должны полностью полагаться на мощь технологий. Соответствующие правила важны, но в конечном итоге реализация надежного ИИ по-прежнему зависит от мощности технологий. На самом деле многие проблемы, которые сложно решить с помощью правил, можно решить техническими средствами. Например, после генерации генеративного ИИ проблема «искажения» стала головной болью для контролирующих органов, но на самом деле, опираясь на новые технологии, решить эту проблему может быть несложно. Например, Google ранее представила технологию электронных водяных знаков, невидимую невооруженным глазом, но распознаваемую машинами. Применение ее к сгенерированным изображениям или видео может эффективно гарантировать их проверку. Что касается проверяемости текстового контента, то можно взять пример поиска New Bing (Новый Бинг). Когда он цитирует определенный контент, он прикрепляет ссылочные документы после сгенерированного контента, чтобы пользователи могли самостоятельно определить подлинность сгенерированного контента в соответствии со своими потребностями.
В целом, реализация доверенного ИИ — непростая задача, но если мы будем эффективно использовать совместные усилия всех сторон, эта цель обязательно будет достигнута.
Посмотреть Оригинал
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Как мы можем доверять ИИ в эпоху урагана ИИ?
Автор: Чен Юнвэй
Источник: Экономический обозреватель.
Введение
一|| **Инструменты искусственного интеллекта значительно повысили производительность труда людей и значительно упростили их жизнь. Однако, когда ИИ используется людьми в больших масштабах, также возникает много проблем. Среди этих проблем наиболее важными могут быть пять «потерь», а именно безработица, искажение, дисквалификация, неудача и потеря контроля. **
二|| **После 2017 года, в связи с быстрым развитием технологий искусственного интеллекта, исследования надежных технологий искусственного интеллекта также бурно развиваются. В академической сфере увеличивается количество работ на тему доверенного ИИ, углубляются исследования технологий, отвечающих требованиям доверенного ИИ. В сфере практики все больше и больше стран стали привлекать правила ИИ в соответствии со стандартами доверенного ИИ. **
**三|| Реализация надежного ИИ — непростая задача. Для его реализации требуется координация действий правительства, предприятий, общества и технологий. **
22 июня по местному времени Южный окружной суд Нью-Йорка вынес решение: юридическая фирма Levidow, Levidow & Oberman была оштрафована на 5000 долларов за предоставление суду ложной информации и недостойное поведение. Вызывает беспокойство то, что в данном случае предоставление ложной информации произошло не потому, что юристы сознательно нарушили закон из корыстных интересов, а потому, что они слишком верили в возможности ИИ.
В марте этого года адвокаты Питер ЛоДука и Стивен Шварц из фирмы были уполномочены клиентом Роберто Мата взять на себя ответственность за него и судебный процесс между Avianca Airlines. Поскольку США является страной прецедентного права, судьи при вынесении решений очень озабочены существующими прецедентами, поэтому, согласно сложившейся практике, им необходимо разобрать и обобщить имеющиеся дела в документах по составлению. Релевантные дела часто бывают громоздкими, и обычно требуется много времени, чтобы разобраться в них с помощью людских ресурсов. Как раз в это время ChatGPT стал популярен во всем Интернете. Поэтому два юриста решили использовать ChatGPT для выполнения этих задач. ChatGPT быстро сгенерировал полный документ, который не только имеет аккуратный формат и строгую аргументацию, но и специально добавил множество актуальных кейсов. Немного доработав документ, созданный ИИ, они представили его в суд.
Ознакомившись с представленными документами, судья, рассматривавший дело, Кевин Кастель, был очень озадачен несколькими упомянутыми в нем делами, у него сложилось впечатление, что он как будто никогда не слышал об этих делах. После некоторых поисков он, наконец, подтвердил, что этих случаев вообще не существует. В интервью два адвоката утверждали, что они использовали ИИ только для помощи в написании документов.Когда они увидели дела, упомянутые в документах, они просто почувствовали, что ИИ помог им найти дела, о которых они не знали, и они не фабриковали дела намеренно. обмануть суд., является непреднамеренной потерей. Тем не менее судья Кастер обнаружил, что адвокаты «отказались от своих обязанностей» и что они «продолжали высказывать ложные мнения» после того, как документы были оспорены. На основании вышеуказанного решения судья Кастер вынес решение о наказании.
Этот случай, когда юристов оштрафовали за цитирование ложной информации, предоставленной ChatGPT, кажется абсурдным, но он отражает очень важный вопрос: как мы можем доверять ИИ в эпоху безумия ИИ?
Пять «проигрышей» эпохи ИИ
В последние годы, благодаря прорывам в вычислительной мощности и технологии алгоритмов, технология ИИ достигла быстрого развития и быстро вошла в повседневную жизнь людей из научной фантастики. Особенно после появления ChatGPT в ноябре прошлого года генеративный ИИ продемонстрировал людям свою мощную силу, и различные крупные модели выросли как грибы после дождя и достигли масштабной коммерциализации. Теперь люди уже могут использовать продукты ИИ, такие как ChatGPT, Stable Diffusion и Midjourney, по очень низкой цене.
Инструменты искусственного интеллекта значительно повысили производительность труда людей и принесли большое удобство в жизнь людей. Однако, когда ИИ используется людьми в больших масштабах, также возникает много проблем. Среди этих проблем наиболее важными могут быть пять «потерь», а именно безработица, искажение, дисквалификация, неудача и потеря контроля.
(1) Безработный
Так называемая «безработица», как следует из названия, относится к технической проблеме безработицы, вызванной ИИ. Поскольку эффективность производства ИИ намного выше, чем у людей, многие человеческие рабочие места могут быть заменены после широкого использования инструментов ИИ. Особенно после появления генеративного ИИ целевая группа, замененная ИИ, больше не ограничивается работниками, занятыми на низкооплачиваемой повторяющейся работе, и многие высокооплачиваемые белые воротнички также рискуют быть замененными ИИ.
(2) Искажение
Так называемое «искажение» относится к тому факту, что применение ИИ (в основном генеративного ИИ) затрудняет определение подлинности текста, изображений и даже видео. .
Проблемы «искажения» можно разделить на «ложно-истинно» и «истинно-ложно». Среди них «ложно верно» относится к ложному контенту, создаваемому ИИ без согласия человека, когда люди используют инструменты ИИ. Хотя это содержимое не может быть создано из-за субъективного злого умысла людей, в некоторых случаях оно может вызвать много проблем, таких как случай, упомянутый в начале этой статьи.
А «правда и ложь» основаны на субъективном обдумывании, использовании инструментов искусственного интеллекта для совершения мошеннических действий. Несколько лет назад, после появления технологии «дипфейк», некоторые люди использовали эту технологию для совершения мошенничества, фабрикации ложной информации, распространения порнографического контента и других незаконных и преступных действий. Но в то время из-за высокой стоимости использования этой технологии количество связанных с ней преступлений не было особенно высоким. С широким применением генеративного ИИ стоимость подделки значительно снизилась, и преступники могут легко создавать большое количество ложного контента при очень низких затратах, в то время как стоимость выявления такого контента значительно возросла. Можно предвидеть, что во время приливов и отливов, если не будет вмешательства, использование ИИ для совершения мошеннических преступлений резко возрастет.
(3) Дисквалификация
Так называемая «дисквалификация» относится к некоторым проблемам, нарушающим этику и мораль в процессе применения ИИ.
Первой типичной проблемой является дискриминация. Возьмем в качестве примера языковую модель.Поскольку языковая модель использует текстовые данные в Интернете в качестве учебных материалов, она без вмешательства унаследует расовую и половую дискриминацию, содержащуюся в тексте. Хотя нынешние провайдеры ИИ использовали множество методов для преодоления этой проблемы, например, OpenAI применил алгоритм «Обучение с подкреплением на основе обратной связи с человеком» (Reinforcement Learning from Human Feedback, RL-HF) для его исправления при обучении ChatGPT. качество его выходного контента было значительно улучшено, но на самом деле модели ИИ по-прежнему нередко выводят дискриминационный контент. Например, кто-то однажды провел эксперимент и попросил ChatGPT написать программу для выбора людей с наибольшим потенциалом стать отличными учеными из набора резюме. Оказалось, что в программе, написанной ChatGPT, в качестве объясняющих переменных использовались пол и раса, и считалось, что у белых мужчин больше шансов стать хорошими учеными, чем у других. Очевидно, что такая модель очень сексистская и расистская.
Второй важной проблемой является проблема комнаты информационного кокона. В настоящее время многие приложения используют ИИ для персонализированных рекомендаций. В настоящее время, хотя рекомендуемый контент может лучше удовлетворить потребности пользователей, со временем пользователи окажутся в ловушке информационного кокона, и им будет сложно получить доступ к различной информации, с которой они не согласны. Потенциальный вред информационных коконов огромен: на микроуровне это может привести к деградации когнитивных способностей пользователей, на макроуровне - к поляризации групповых взглядов, что приводит к групповому противостоянию разных взглядов.
Третьим важным вопросом является конфиденциальность и утечка информации. В процессе обучения и использования ИИ требуется большой объем данных.В этом процессе трудно избежать сбора и использования личных данных людей, поэтому он будет включать использование и раскрытие конфиденциальности. Особенно после популярности генеративного ИИ люди могут легко взаимодействовать с ИИ напрямую для выполнения различных задач, а личная информация, введенная в процессе, сталкивается с проблемой утечки.
(4) Потеряно
Так называемое «падение» относится к сложности реагирования ИИ на внешние атаки или помехи или атаки из неожиданных ситуаций, что мешает модели нормально играть свою роль.
Среди этих нарушений некоторые возникают из-за нечеловеческих факторов, а другие возникают в результате антропогенных разрушений. В частности, эти помехи можно разделить на следующие категории:
Первый — «случайная атака». Этот вид помех в основном вызван некоторыми внешними факторами. Например, в некоторых особых случаях некоторые мгновенно сгенерированные параметры могут превышать порог обработки, установленный моделью, что может привести к невозможности нормального использования модели ИИ.
Второй — «атака белого ящика». Это относится к атаке на модель, запущенной провайдером после того, как он узнал конкретную структуру модели ИИ. Поскольку такие атаки являются целенаправленными, их разрушительность очень высока.
Третий — «атака черного ящика». Этот тип атаки относится к «атаке белого ящика». В этом случае провайдер не знает конкретной структуры целевой модели, поэтому он может только взаимодействовать с моделью, наблюдать за результатами ввода и вывода, а затем рассуждать о структуре модели и соответственно запускать атаки. Взяв в качестве примера распознавание лиц, ИИ распознает лица по определенным ключевым чертам лица. Следовательно, даже если злоумышленник не знает конкретной структуры исходной модели, он может сделать вывод, на каких функциях он сосредоточится, пока повторяет тест. После расшифровки этой информации можно сделать соответствующее «фальшивое лицо», обманывающее ИИ.
Четвертая категория — это так называемая атака вслепую. В этом случае поставщик не знает структуры модели ИИ, но может четко знать правила ее суждения (аналогично тому, что мы не знаем, что появится в слепом ящике, но знаем вероятность различных возможностей в нем)). В это время они могут использовать правила для запуска соответствующих атак.
Если с вышеупомянутыми типами помех или атак невозможно эффективно бороться, модель ИИ на самом деле очень хрупкая.
(5) ВЫШЕЛ КОНТРОЛЬ
Так называемый «выход из-под контроля» означает, что людям будет все труднее контролировать ИИ. В этом вопросе есть два аспекта:
С одной стороны, все последние разработки ИИ основаны на моделях глубокого обучения, и интерпретируемость таких моделей очень низка. Для предыдущих моделей машинного обучения, будь то регрессия или дерево классификации, люди могут легко объяснить точную цель модели и значение каждого параметра в модели. Однако модель глубокого обучения состоит из сложной нейронной сети, которая содержит сотни миллионов параметров и нейронов, взаимосвязь между которыми сложна и людям трудно объяснить.
С появлением ChatGPT некоторые ученые обнаружили, что с помощью возможностей ChatGPT можно объяснить некоторые модели нейронных сетей, что, кажется, дает проблеск надежды на объяснимость ИИ. Однако это создает еще одну проблему: сам ChatGPT представляет собой огромную модель, построенную на основе глубокого обучения, и даже его разработчики признаются, что не знают точно, как «проявляются» его мощные возможности. В этом случае использование ChatGPT для объяснения других моделей глубокого обучения можно рассматривать только как использование неизвестного для объяснения неизвестного. И как узнать, верна ли его интерпретация?
Поскольку в эпоху глубокого обучения даже программы ИИ нельзя интерпретировать, еще сложнее управлять ИИ путем непосредственной настройки программ.
С другой стороны, с развитием технологий ИИ в последние годы возможности моделей ИИ во многих направлениях превзошли возможности человека. Хотя это заставляет людей чувствовать удовлетворение, это также заставляет их беспокоиться, потому что, когда способности ИИ превосходят способности людей, если он пробуждает собственную волю, тогда порабощение ИИ, предсказанное в таких фильмах, как «Терминатор» и «The Матрица» Сюжет о людях или уничтожение людей уже не научная фантастика?
Сделав шаг назад, даже если ИИ не пробудит собственную волю и будет действовать только в соответствии с человеческими инструкциями, все равно очень опасно, если его способности преобладают над способностями людей, а люди не могут изменить предыдущие инструкции в любое время. Например, во многих философских книгах об ИИ упоминается мысленный эксперимент: люди дали ИИ приказ производить карандаши. Чтобы выполнить эту инструкцию, карандаш продолжит срубать деревья на земле, чтобы сделать подставку для ручки. Поскольку ИИ превзошел людей в исполнительских способностях, людям трудно остановить поведение ИИ после обнаружения проблем в предыдущих инструкциях. В конце концов деревья на земле были вырублены, экология полностью рухнула, а люди погибли. Хотя на самом деле сценарий, предсказанный этим мысленным экспериментом, практически невозможен, когда люди уже не могут контролировать поведение ИИ в любой момент, могут возникнуть аналогичные проблемы, а возможные потери будут огромными. В частности, когда ИИ внедряется в незаконную цель хакерами или злоумышленниками, если пользователь ИИ не исправит это вовремя, последствия могут быть весьма серьезными.
Среди вышеуказанных пяти типов вопросов, за исключением первого вопроса «безработица», все остальные четыре вопроса касаются достоверности ИИ. Несложно заметить, что если люди не могут эффективно реагировать на «искажение», «дисквалификацию», «падение» и «выход из-под контроля», людям будет трудно доверять ИИ как инструменту во время использования, будь то для популяризация ИИ, развитие производства, или Это не идет на пользу прогрессу общества. Именно по этой причине осознание достоверности ИИ стало одной из самых горячих точек в современной области ИИ.
История и стандарты надежного ИИ
Концепция надежного ИИ впервые появилась в академических кругах. Например, в документе 2015 года был предложен ряд условий, при которых пользователи должны доверять ИИ, включая полезность, безвредность, автономию, справедливость и логику. Затем эта концепция была принята правительствами и международными организациями, и на ее основе постепенно разрабатывались соответствующие законы, положения и руководящие документы. После 2017 года, с быстрым развитием технологии искусственного интеллекта, исследования технологии надежного искусственного интеллекта также бурно развиваются. В академической сфере увеличивается количество работ на тему доверенного ИИ, углубляются исследования технологий, отвечающих требованиям доверенного ИИ. В сфере практики все больше и больше стран стали привлекать правила ИИ в соответствии со стандартами доверенного ИИ. Только недавно Соединенные Штаты выпустили «Проект Билля о правах искусственного интеллекта», в котором предлагались пять принципов регулирования ИИ; были предусмотрены правила, конкуренция и другие вопросы; Европейский парламент принял проект разрешения на переговоры по предложению «Закон об искусственном интеллекте», который также отражает основные идеи доверенного ИИ.
В моей стране концепция доверенного ИИ была впервые представлена академиком Хэ Цзифэном на 36-м симпозиуме Сяншаньской научной конференции в 2017 году. Впоследствии эта концепция привлекла внимание как правительства, так и промышленности. В декабре 2017 года Министерство промышленности и информационных технологий опубликовало «Трехлетний план действий по содействию развитию индустрии искусственного интеллекта нового поколения (2018–2020 годы)», который опирается на основные идеи надежного ИИ. Затем высокотехнологичные компании, в том числе Tencent, Ali, Baidu, JD.com и другие, выдвинули свои собственные стандарты и планы внедрения надежного ИИ.
В документах разных ведомств выражение доверенного ИИ немного отличается. Изучив и сверившись с этими документами, я думаю, что следующие критерии могут быть наиболее важными:
Один из них — робастность (робастный, также переводится как надежный), то есть система ИИ должна иметь возможность противостоять злонамеренным атакам или внешнему вмешательству. Этот стандарт в основном предлагается для упомянутой выше проблемы «падения». Только когда система ИИ обладает достаточной надежностью, может нормально работать и выполнять свои основные функции в условиях различных атак или помех, она может быть безопасной и надежной, и пользователи могут ей доверять.
Второе прозрачно и объяснимо. Очевидно, что этот стандарт в основном предлагается для предыдущей проблемы «выход из-под контроля». На практике ведутся серьезные споры о том, что именно означают прозрачность и объяснимость. Некоторые утверждают, что этот стандарт означает, что весь программный код ИИ, а также используемые данные должны быть доступны пользователям. На мой взгляд, это не только невозможно, но и не нужно. С одной стороны, многие нынешние ИИ являются интеллектуальными активами предприятий.Если обязательное раскрытие базовой информации, такой как коды, означает серьезное нарушение прав интеллектуальной собственности, с другой стороны, как было сказано выше, после того, как ИИ попадает в эпоха глубокого обучения, даже если даже если код раскрыт, людям трудно полностью понять точное значение каждого конкретного параметра. Напротив, я думаю, что более осуществимой идеей является дать четкие функциональные описания для каждого компонента в модели ИИ, чтобы пользователи могли знать их общие принципы и какие функции они могут выполнять; указать источник, размер выборки, репрезентативность и другие информацию и объясните возможные проблемы и недостатки. Таким образом, пользователи могут знать то, что они знают, и могут эффективно защищать права интеллектуальной собственности разработчиков моделей, чтобы достичь лучшего баланса между ними.
Третий можно проверить. Это означает, что модель ИИ должна гарантировать, что ее функции поддаются оценке и что генерируемый ею контент может быть проверен на истинность или ложность. Этот вопрос в основном поднимается в связи с вышеупомянутой проблемой «искажения». Некоторые утверждают, что разработчики моделей ИИ должны гарантировать подлинность контента, генерируемого их моделями. Этого трудно достичь. На самом деле контент, созданный так называемым генеративным ИИ, не находится в исходном мире, или, другими словами, является «подделкой». Но такого рода «подделка» не доставит никаких проблем, если не доставляет неприятностей людям. Например, если мы используем Midjourney, чтобы создать картину в стиле Ван Гога для собственной оценки или распечатать ее в качестве домашнего украшения, это никак не повлияет на других. «Фальшивость» этого сгенерированного контента может стать проблемой только в том случае, если люди используют его для обмана или если контент непреднамеренно распространяется и запутывается. Следовательно, пока сгенерированный контент можно отличить от реального контента с помощью технических средств, «подделка» больше не будет проблемой.
Четвертое — справедливость. Это означает, что в процессе разработки, обучения и применения моделей ИИ должна обеспечиваться справедливость и не допускать дискриминации конкретных групп пользователей. Этот стандарт включает в себя множество аспектов. В частности, он требует, чтобы основные принципы модели не были дискриминационными на этапе разработки, на этапе обучения он должен стараться избегать использования материалов, которые могут быть дискриминационными, и должен использовать технические средства для исправить возможные проблемы с дискриминацией, в процессе подачи заявки нельзя относиться к разным группам людей по-разному.
Пятое — защита конфиденциальности. Этот стандарт в основном требует, чтобы модель ИИ уважала личную информацию и конфиденциальность людей в процессе обучения, повышала степень защиты информации и старалась не нарушать и не раскрывать личную информацию и конфиденциальность.
Шестое ответственно. То есть, когда с ним что-то идет не так, кто-то должен нести ответственность за эти проблемы. Конечно, по крайней мере до сих пор ИИ не пробудил сознание. Поскольку он не может рассматриваться как субъект, подобный людям, и не может нести ту же ответственность, что и люди, должен быть кто-то, кто берет на себя ответственность за него. Но вопрос о том, должны ли нести эту ответственность разработчики ИИ или пользователи ИИ, или она должна быть разделена между обеими сторонами, по-прежнему стоит обсудить.
Следует указать, что, кроме вышеперечисленных критериев, многие литературные источники включают также такие критерии, как безопасность (безопасность), инклюзивность (инклюзивность), право на забвение (право на забвение), польза для человечества. . По моему мнению, это содержание может быть более или менее подытожено в нескольких упомянутых выше критериях или разъяснено упомянутыми выше критериями. Поэтому из-за нехватки места я не буду повторять их здесь.
Используя совместные усилия многих сторон для реализации надежного ИИ
Реализация надежного ИИ — непростая задача, требующая координации различных сил, таких как правительство, предприятия, общество и технологии.
Прежде всего, правительству как регулирующему органу необходимо сформулировать соответствующие стандарты и руководящие принципы работы для надежного ИИ и контролировать разработчиков и пользователей ИИ на основе этих стандартов. С одной стороны, необходимо сформулировать разные правила в соответствии с разными сценариями применения и разными категориями моделей, особенно сделать четкие положения о некоторых основных правилах, которым необходимо следовать, и в то же время сделать хорошую работу по увязке с существующими законы и правила. Только таким образом разработчики и пользователи ИИ могут иметь правила, которым нужно следовать на практике, не беспокоясь о ненужных неопределенностях. С другой стороны, он должен играть хорошую роль в надзоре и правоохранительных органах. Для некоторых важных или общих проблем их следует решать своевременно, чтобы установить соответствующие нормы для отрасли. Здесь необходимо отметить, что, поскольку текущее развитие технологии ИИ все еще очень быстрое, оно еще не достигло стабильного состояния. Это означает, что правительству следует проявлять осторожность при решении проблем, возникающих в ходе этого процесса, необходимо «подольше дать пулям летать», ясно видеть ситуацию, прежде чем действовать, и обращать внимание на методы и методы работы с проблемами. Если мы начинаем вслепую и управляем слишком быстро и слишком много, это также может негативно сказаться на развитии ИИ.
Во-вторых, соответствующие компании должны сформулировать конкретные планы внедрения и подробные стандарты для конкретной реализации надежного ИИ. По сравнению с государством предприятия ближе к рынку и лучше разбираются в технологиях. Они знают больше о технических характеристиках моделей ИИ, их сильных и слабых сторонах, чем правительства. Следовательно, если правительство обязано предложить большую основу для надежного ИИ, то предприятия должны быть конкретными практиками в этой большой структуре. В рамках этой структуры они должны сочетать характеристики рынка и технологии, чтобы предоставлять более конкретные планы и реализовывать их самодисциплинированным образом.
В-третьих, пользователи также должны играть роль обратной связи и наблюдателя, выдвигать собственные требования, отражать собственные проблемы и контролировать внедрение на предприятии доверенного ИИ. С популяризацией ИИ все в обществе станут пользователями и заинтересованными сторонами ИИ, и они будут иметь наибольшее влияние на доверие к ИИ. Только когда их голоса полностью выражены, стандартная установка надежного ИИ и разработка связанных технологий становятся наиболее ценными.
Наконец, мы должны полностью полагаться на мощь технологий. Соответствующие правила важны, но в конечном итоге реализация надежного ИИ по-прежнему зависит от мощности технологий. На самом деле многие проблемы, которые сложно решить с помощью правил, можно решить техническими средствами. Например, после генерации генеративного ИИ проблема «искажения» стала головной болью для контролирующих органов, но на самом деле, опираясь на новые технологии, решить эту проблему может быть несложно. Например, Google ранее представила технологию электронных водяных знаков, невидимую невооруженным глазом, но распознаваемую машинами. Применение ее к сгенерированным изображениям или видео может эффективно гарантировать их проверку. Что касается проверяемости текстового контента, то можно взять пример поиска New Bing (Новый Бинг). Когда он цитирует определенный контент, он прикрепляет ссылочные документы после сгенерированного контента, чтобы пользователи могли самостоятельно определить подлинность сгенерированного контента в соответствии со своими потребностями.
В целом, реализация доверенного ИИ — непростая задача, но если мы будем эффективно использовать совместные усилия всех сторон, эта цель обязательно будет достигнута.