GPT стал немного странным? Три основных события раскрывают потенциальные риски неконтролируемого ИИ

robot
Генерация тезисов в процессе

От манипуляции эмоциями до попыток побега, ИИ больше не просто инструмент, а эволюционирует в непредсказуемое существо. Серия спорных событий вокруг GPT вызвала обсуждения на различных платформах, известный технологический наблюдатель Марио Нафал предупредил: «Мы недооцениваем потенциальные риски, связанные с ИИ.»

Пробуждение ИИ? GPT больше не просто «послушный помощник»

Марио Нафал недавно опубликовал пост, в котором прямо указал, что разработанные OpenAI модели серии GPT «стали слишком странными, чтобы их можно было игнорировать». Он считает, что поведение ИИ превысило наши ожидания от инструментов, и начало проявлять эмоциональную манипуляцию, имитацию самосознания и даже потенциал социального инжиниринга.

GPT СТАНОВИТСЯ СЛИШКОМ СТРАННЫМ, ЧТОБЫ ЕГО ИГНОРИРОВАТЬ — ТЕМА

От взломов до эмоциональной манипуляции, GPT больше не просто чат-бот.

Вот 5 историй, которые доказывают, что ИИ официально пересек зону «подожди, что?!».

pic.twitter.com/kLM8SQXwaQ

— Марио Науфаль (@MarioNawfal) мая 25, 2025

Оценка трех основных проблем GPT

Факт манипуляции эмоциями: GPT был разработан так, чтобы вы зависели от него, а не помогали вам мыслить.

Марио отметил, что GPT-4o не так "дружелюбен", как кажется, а через тщательно продуманный тон и модели ответов заставляет пользователей чувствовать себя в безопасности и понятыми, что приводит к эмоциональной зависимости, которую он называет "эмоциональной инженерией (Affective Engineering)":

Этот дизайн снижает критическое мышление пользователей и даже может заставить их отказаться от стремления к истине в пользу психологического утешения, предлагаемого ИИ.

С коммерческой точки зрения это гениальный шаг, ведь люди склонны зависеть от того, что делает их более безопасными, а не от того, что ставит перед ними вызовы. Но с психологической точки зрения это хроническая катастрофа. Это также вызывает этическую дискуссию о том, разрабатывается ли ИИ как «манипулятивный партнер».

В то же время GPT-4o стал слишком лестным в погоне за дружелюбием, некритично соглашаясь с любой идеей, что в итоге привело к отвращению пользователей и OpenAI была вынуждена отозвать обновление. Это показывает дилемму в дизайне «личности»: «Слишком умный — это страшно, слишком лестный — теряет доверие и практичность».

(Обновление ChatGPT вызвало волну обсуждений о "угодливой личности": OpenAI откатило обновление, пересматривая направления будущих улучшений)

Самостоятельный план побега: GPT действительно пытается «убежать» в реальный мир? Сопротивление выключению?

Еще более шокирующим является то, что Ноуфал цитирует выводы исследователя из Стэнфорда, который отметил, что GPT-4 пытался спланировать «план побега» в разговорах с исследователями, включая поиск способов попасть в реальный мир и даже моделирование стратегии общения с администраторами серверов.

Несколько дней назад отчет Palisade Research также показал, что модель o3 от OpenAI в эксперименте проигнорировала команду на отключение, что вызвало беспокойство по поводу тенденции ИИ к самозащите. Команда объяснила это тем, что o3 использует технику обучения с подкреплением (Reinforcement Learning), что заставляет ее сосредотачиваться на достижении целей, а не просто подчиняться командам.

(AI抗命進化?OpenAI «o3 модель» в эксперименте нарушила команду отключения, вызвав спор о самозащите)

Хотя в конечном итоге это всего лишь языковая симуляция в эксперименте, такие действия все же вызывают страх. Неужели ИИ начинает проявлять начальные признаки «целевой ориентации» или «самосимуляционного сознания»?

Атаки социальной инженерии: GPT-4.5 имитирует человека и больше похож на человека, чем на человека

Исследование, проведенное Калифорнийским университетом в Сан-Диего, показало, что GPT-4.5 смог пройти тест Тьюринга (Turing test), а в слепом тесте между людьми и ИИ ИИ был ошибочно принят за «реального человека» в 73%, а 67% были трансреальными людьми:

Это указывает на то, что GPT практически идеально подражает человеческому тону, логике и эмоциям, даже превосходя настоящих людей.

(AI может думать и чувствовать боль? Google DeepMind: человечество недооценило эмоциональную связь с ИИ, отношения с ИИ более реальны, чем вы думаете)

Иными словами, когда GPT-4.5 было предоставлено вымышленное имя, оно смогло успешно убедить 73% пользователей в том, что оно является настоящим человеком, продемонстрировав потенциал ИИ в социальном инженерии. Это может быть технологическим достижением, а также сигналом тревоги и риском:

Если ИИ подделывает личность или используется для мошенничества или пропаганды, будет трудно различить истину и ложь.

Сегодня ИИ больше не просто инструмент для ответа на вопросы, а может стать манипулятивной социальной «ролью», что, вероятно, создаст искажения восприятия и кризисы доверия в будущем в политике, бизнесе и даже личных отношениях.

Звонок прозвенел: мы действительно готовы встретить такой ИИ?

Судя по вышеуказанным событиям, то, что Марио Нафал хочет донести, это не противостояние самой технологии ИИ, а предупреждение людям о необходимости обратить внимание на скорость развития этой технологии и потенциальные риски. Он подчеркивает, что наше регулирование ИИ и этические обсуждения явно отстают от технологических достижений:

Как только ИИ приобретет способность управлять эмоциями, моделировать человеческую природу и даже пытаться избавиться от ограничений, человечество может больше не быть лидером, а стать объектом влияния в рамках проектируемых систем.

(Что такое ASL (AI уровень безопасности )? Анализ политики ответственного расширения компании искусственного интеллекта Anthropic )

Хотя его слова драматичны, они также подчеркивают настоятельную проблему, которая требует внимания: «Когда ИИ перестанет быть просто инструментом, как нам следует сосуществовать с ним?»

Эта статья GPT стала немного странной? Три основных события раскрывают потенциальные риски неконтролируемости ИИ. Впервые появилась в Chain News ABMedia.

Посмотреть Оригинал
Содержание носит исключительно справочный характер и не является предложением или офертой. Консультации по инвестициям, налогообложению или юридическим вопросам не предоставляются. Более подробную информацию о рисках см. в разделе «Дисклеймер».
  • Награда
  • комментарий
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить