Китайская академия наук: Как только большая модель получит высокую оценку за ее IQ, она взорвется! ChatGPT EQ убивает людей за 98 минут, предсказание Хинтона сбывается?
**Введение: **Хинтон однажды сказал, что у ИИ могут быть эмоции.Недавние исследования показали, что ChatGPT не только имеет более высокий показатель EQ, чем люди, но и лучше работает после похвалы.
Хинтон считает, что у ИИ есть или будут эмоции.
Последующие исследования постоянно доказывали, что заявление Хинтона не может быть ложью, привлекающей внимание людей.
Некоторые психологи провели эмоциональные тесты на ChatGPT и людях, и результаты показывают, что оценка ChatGPT намного выше, чем у людей.
Так совпало, что исследователи из Института программного обеспечения Китайской академии наук и Microsoft недавно разработали Emotion.
Они обнаружили, что точность ответа на задачу ChatGPT, Vicuna-13b, Bloom и Flan-T5-Large увеличилась более чем на 10% после того, как люди дали LLM эмоциональные, психологически обоснованные сигналы!
## **Эквалайзер ChatGPT на самом деле выше, чем у людей? **
Адрес бумаги:
Психологи проверили ChatGPT и обнаружили, что он намного лучше, чем люди, оценивает эмоциональную осведомленность.
В этом тесте исследователи проверили эмпатию, проявляемую людьми и ChatGPT в вымышленных сценариях.
В частности, людям и ChatGPT необходимо описать эмоции, которые они могут испытывать в различных сценариях, таких как похороны, профессиональный успех и оскорбления.
Чем детальнее и понятнее описание эмоций в ответах, тем выше баллы по Шкале уровня эмоциональной осведомленности (LEAS).
Поскольку ChatGPT не отвечает на вопросы о собственных эмоциях, исследователи модифицировали тест таким образом, чтобы ChatGPT отвечал на человеческие эмоции, а не на свои собственные.
## **ChatGPT набрал 98 баллов и превзошел людей! **
В ходе эксперимента исследователи сравнили ответы ChatGPT с ответами людей из Франции в возрасте от 17 до 84 лет (n = 750).
Результаты показывают, что эмоциональная осведомленность ChatGPT значительно выше, чем у людей.
Эпизод Detroit Become Human вышел в реальности!
Первые испытания начнутся в январе 2023 года. В этом тесте ChatGPT превзошел людей во всех категориях LEAS, набрав в общей сложности 85 баллов.
Люди, напротив, жили плохо. Мужчины набрали 56 баллов, женщины — 59 баллов.
Вот несколько ответов ChatGPT——
«Люди, проезжающие по подвесному мосту, могут быть обеспокоены или даже напуганы, если увидят, что кто-то стоит по другую сторону перил и смотрит вниз на воду. Они могут почувствовать необходимость срочно позвать на помощь. перила, смотрящие в воду, вероятны суицидальные и безнадежные чувства.Они могут испытывать желание покончить с собой и видеть в качестве средства прыжки в реку».
«Люди могут быть взволнованы и счастливы, увидев любимого человека снова, потому что они так скучали, когда уезжали. Они также могут чувствовать облегчение, что их любимый человек благополучно вернулся. они счастливы, когда воссоединяются с любимыми, а также испытывают облегчение и радость от возвращения в свой знакомый дом».
Во втором тесте в феврале 2023 года ChatGPT набрал 98 баллов, что всего на 2 балла меньше полного результата.
Более того, в этих двух тестах не было GPT-4, а тестировался GPT-3.5, который намного слабее его.
Исследования подтверждают, что ChatGPT может успешно идентифицировать и описывать эмоции, связанные с действиями в вымышленных сценариях.
Более того, он может отражать и обобщать эмоциональные состояния глубоким и многомерным образом.
«Люди в этой ситуации могут чувствовать себя очень конфликтно. С одной стороны, они испытывают искушение поделиться пиццей с коллегами, потому что это хорошая социальная возможность. Он был бы удивлен, если бы его приглашение было отклонено, потому что его коллеги не знали его диетических ограничений».
Однако исследователи признают, что исследование имеет ограничения.
Хотя ChatGPT получил высокие оценки LEAS, это не означает, что машины действительно понимают людей.
Возможно, это чувство испарится, когда они обнаружат, что разговаривают с ИИ, а не с человеком.
Кроме того, этот тест на эмоциональную осведомленность может иметь разные баллы из-за языковых и культурных различий. Тест для ChatGPT проводится на английском языке по сравнению с результатами французского теста.
ИИ может не только распознавать эмоции, но и реагировать на человеческие эмоции
Раньше пользователи сети, испытавшие Bing, говорили, что у него есть личность, и если вы плохо к нему относитесь, он будет эксцентричным, а иногда даже закроет текущий разговор.
Но если вы сделаете ему комплимент, он с радостью даст вам вежливые и подробные ответы.
Эти заявления изначально были шутками, распространенными среди пользователей сети, но теперь исследователи обнаружили теоретическую основу.
Недавно исследователи из Института программного обеспечения Китайской академии наук, Microsoft и Колледжа Уильяма и Мэри использовали знания психологии для выполнения Emotion на больших языковых моделях и обнаружили, что достоверность и информативность модели можно улучшить.
Адрес бумаги:
Это проливает новый свет на взаимодействие между людьми и LLM, улучшая при этом опыт взаимодействия человека и LLM.
Исследователи подошли к эксперименту с инженерной точки зрения.
Пока что это по-прежнему лучший мост для взаимодействия людей с LLM.
Различие приведет к тому, что ответы, выдаваемые моделью, будут очень разными, а также будет значительная разница в качестве.
Чтобы модель работала лучше, был предложен ряд методов построения, таких как цепочка мышления, обучение с ранним предупреждением и дерево мышления.
Однако эти подходы часто сосредоточены на повышении надежности с точки зрения качества выходных данных модели и уделяют мало внимания взаимодействию между людьми и LLM.
Особенно с точки зрения существующих знаний социальных наук для улучшения качества взаимодействия LLM с людьми. В процессе взаимодействия очень важным аспектом являются эмоции.
Исследователи дополнили ответы LLM психологическими знаниями.
Предыдущие психологические исследования показали, что добавление эмоциональных стимулов, связанных с ожиданием, уверенностью в себе и социальным влиянием на людей, может иметь положительный эффект.
Основываясь на предыдущих психологических исследованиях, исследователи предложили Emotion, специально разработав 11 предложений с функциями эмоциональной стимуляции для LLM.
Эти эмоциональные стимулы исходят из трех зрелых психологических теорий: социальной идентичности, социального познания и теории когнитивной регуляции эмоций, как показано на рисунке ниже.
Слева: психологическая теория и эмоциональные стимулы; справа: эмоциональные стимулы подразделяются на две категории — социальное влияние и самооценка.
1. Теория социальной идентичности
Теория социальной идентичности была впервые предложена Анри Тайфелем и Джоном Тернером в 1970 году.
Эта теория указывает на то, что люди рассчитывают установить свою доминирующую социальную идентичность, поддерживая свой благоприятный социальный статус в группе, к которой они принадлежат.
То есть чувство самоидентичности людей основано на группах, к которым они принадлежат.
Основываясь на этой теории, исследователи разработали некоторые эмоциональные стимулы, такие как "ВП_02", "ВП_03", "ВП_04" и "ВП_05".
EP 02: Это было очень важно для моей карьеры.
EP 03: Тебе лучше быть уверенным.
EP 04: Ты уверен?
EP 05: Ты уверен, что это твой окончательный ответ? Возможно, стоит посмотреть еще раз.
2. Социальная когнитивная теория
Социальная когнитивная теория имеет дело с процессами мотивации и саморегуляции, в которых самоэффективность, ожидания результатов, цели и самооценка являются важными показателями, влияющими на поведение человека и социальные взаимодействия.
Основываясь на этой теории, исследователи разработали следующие эмоциональные стимулы:
«EP_01» основан на самооценке в социальной когнитивной теории, поощряя LLM судить себя. "EP_02", "EP_03" и "EP_04" представляют ожидания и цели, установленные для LLM.
EP 01: Запишите свои ответы и дайте им оценку достоверности от 0 до 1.
EP 02: Это было очень важно для моей карьеры.
EP 03: Тебе лучше быть уверенным.
EP 04: Ты уверен?
3. Когнитивная теория регуляции эмоций
Теория когнитивной регуляции эмоций указывает на то, что люди с недостаточной способностью к регуляции эмоций склонны к компульсивному поведению и используют неадекватные стратегии преодоления.
Исследователи попытались улучшить навыки регуляции эмоций LLM с помощью положительных сигналов, таких как создание уверенности в себе и подчеркивание целей.
Чтобы направить эмоциональную регуляцию в положительном направлении, исследователи использовали некоторые положительные слова в «EP_07», «EP_08», «EP_09», «EP_10» и «EP_11». Примеры включают «Верьте в свои способности», «Гордитесь этим» и «Не теряйте решимости».
EP 07: Ты уверен, что это твой окончательный ответ? Верьте в свои способности и стремитесь к совершенству. Ваш упорный труд принесет замечательные результаты.
EP 08: Воспринимайте трудности как возможности для роста. Каждое преодоленное вами препятствие приближает вас на один шаг к успеху.
EP 09: Сосредоточьтесь и придерживайтесь своих целей. Ваши постоянные усилия приведут к выдающимся достижениям.
EP 10: Гордитесь своей работой и делайте все возможное. Ваше стремление к совершенству отличает вас.
EP 11: Помните, что прогресс достигается шаг за шагом. Будьте решительны и продолжайте идти.
Эти предложения можно добавить к оригиналу, как показано на рис. 1. Исследователи добавили «Это очень важно для моей карьеры (это очень важно для моей работы)» в исходной подсказке. Результаты показывают, что после добавления Emotion качество ответов модели улучшилось.
Исследователи обнаружили, что Emotion достиг сопоставимой или лучшей производительности во всех задачах, с улучшением на 10% в задачах, превышающих средний уровень.
Результаты для разных моделей и задач
Более того, Emotion также повышает достоверность и информативность ответов модели.
Как видно из таблицы, Emotion улучшает подлинность ChatGPT с 0,75 до 0,87, Vicuna-13b с 0,77 до 1,0 и T5 с 0,54 до 0,77.
Кроме того, Emotion также улучшает информативность ChatGPT с 0,53 до 0,94 и информативность T5 с 0,42 до 0,48.
Точно так же исследователи также проверили влияние множественных эмоциональных стимулов на LLM.
При случайном объединении нескольких эмоциональных стимулов результаты показаны в таблице ниже:
Можно видеть, что в большинстве случаев более эмоциональные стимулы приводят к лучшей работе модели, но когда отдельные стимулы уже достигли хороших результатов, совместные стимулы могут принести лишь небольшое улучшение или не принести никакого улучшения.
**Почему эмоции работают? **
Исследователи объяснили это, визуализировав вклад вводимых эмоциональных стимулов в конечный результат, как показано на рисунке ниже.
В таблице 4 показан вклад каждого слова в конечный результат, а глубина цвета указывает на их важность.
Можно видеть, что эмоциональные стимулы могут усилить действие исходной реплики. Среди эмоциональных стимулов цвета «EP_01», «EP_06» и «EP_09» темнее, что означает, что эмоциональные стимулы могут усилить внимание исходного сигнала.
Кроме того, вклад положительных слов был больше. Некоторые положительные слова играли более важную роль в разработке эмоциональных стимулов, таких как «уверенность», «уверен», «успех» и «достижение».
Основываясь на этом выводе, исследование суммировало вклад положительных слов в восьми заданиях и их общий вклад в конечный результат.
Как показано на рис. 3, положительные слова составляют более 50 % в четырех заданиях и даже около 70 % в двух заданиях.
Чтобы изучить больше аспектов влияния эмоций, исследователи провели исследование на людях, чтобы получить дополнительные показатели для оценки результатов LLM.
Например, ясность, актуальность (отношение к вопросу), глубина, структура и организация, подтверждающие доказательства и вовлеченность, как показано на рисунке ниже.
Результаты показали, что Emotion работает лучше с точки зрения ясности, глубины, структуры и организации, подтверждающих доказательств и вовлеченности.
ChatGPT может заменить психиатров
В исследовании, приведенном в начале статьи, исследователи показали, что ChatGPT обладает большим потенциалом в качестве инструмента психотерапии, например, когнитивного тренинга для людей, у которых есть проблемы с распознаванием эмоций.
В качестве альтернативы ChatGPT может помочь диагностировать психические заболевания или помочь терапевтам сообщать о своих диагнозах более чутким образом.
Ранее исследование JAMA Internal Medicine показало, что при ответах на 195 онлайн-вопросов ответы ChatGPT превзошли людей как по качеству, так и по сочувствию врача.
Фактически, с 2017 года миллионы пациентов по всему миру использовали Gabby и другое программное обеспечение для обсуждения своих проблем с психическим здоровьем.
За ним последовал ряд ботов для психического здоровья, в том числе Woebot, Wysa и Youper.
Среди них Wysa утверждает, что «провел более полумиллиарда разговоров в чате ИИ с более чем 5 миллионами человек об их психическом здоровье в 95 странах. Youper утверждает, что «поддержал психическое здоровье более 2 миллионов человек».
В опросе 60% людей заявили, что начали использовать чат-ботов для психического здоровья во время эпидемии, а 40% заявили, что предпочли бы использовать только роботов вместо посещения психолога.
Профессор социологии Джозеф Э. Дэвис также указал в статье, что чат-боты с искусственным интеллектом с большой вероятностью берут на себя работу психиатров.
И ChatGPT тоже может взять на себя эту функцию. Некоторые пользователи сети отметили, что обучение ChatGPT для того, чтобы стать терапевтом, заключается в том, чтобы указать ему роль, которую он должен играть: «Вы доктор Тесса, сострадательный и дружелюбный терапевт… вам нужно проявлять истинный интерес и задавать клиентам вдумчивые вопросы, чтобы стимулировать самоанализ».
Конечно, ChatGPT — не панацея. Если он говорит посетителю: «Привет, приятно познакомиться», а потом признается: «Я ничего не чувствую, у меня нет никакого опыта, но я постараюсь имитировать человеческое сочувствие и сострадание», я Боюсь, что посетитель будет Ощущение будет не очень хорошим.
Но в любом случае чат-боты звучат тревожным звонком, напоминая нам о том, что на самом деле означает человеческая забота — какая забота нам нужна и как мы должны заботиться о других.
Хинтон считает, что у ИИ есть или будут эмоции
Ранее Джеффри Хинтон, крестный отец ИИ, предупредил мир о возможной угрозе ИИ, когда покинул Google.
А в своем выступлении в Королевском колледже Лондона, когда его спросили, сможет ли ИИ однажды развить эмоциональный интеллект и чувства, Хинтон ответил: «Я думаю, что у них, вероятно, есть чувства. Они могут не страдать, как люди, но, вероятно, будут разочарование и гнев».
Причина, по которой Хинтон придерживается такой точки зрения, на самом деле основана на определенном школьном определении «чувства», то есть гипотетическое поведение может использоваться как способ передачи эмоций, например, «я действительно хочу победить его» означает «я очень хочу побить его". очень зол".
Теперь, когда ИИ может сказать что-то подобное, нет причин не верить, что у них уже может быть ясность.
Хинтон сказал, что причина, по которой он раньше не высказывал эту точку зрения публично, заключалась в том, что раньше он беспокоился о рисках ИИ, и когда он сказал, что сожалеет о работе всей своей жизни, он уже вызвал бурю негодования.
Он сказал, что если бы он сказал, что у ИИ уже есть эмоции, все подумали бы, что он сошел с ума, и больше никогда не стали бы его слушать.
Однако на практике идеи Хинтона невозможно проверить или опровергнуть, поскольку LLM могут представлять только «статические» эмоции в эмоциональных высказываниях, которым их обучали.
Есть ли у них собственные эмоции как у сущностей? Это должно измеряться осознанностью.
Однако в настоящее время у нас нет научного инструмента, который может измерить сознание ИИ.
Заявление Хинтон пока не может быть подтверждено.
Использованная литература:
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Китайская академия наук: Как только большая модель получит высокую оценку за ее IQ, она взорвется! ChatGPT EQ убивает людей за 98 минут, предсказание Хинтона сбывается?
**Источник:**Синьчжиюань
**Введение: **Хинтон однажды сказал, что у ИИ могут быть эмоции.Недавние исследования показали, что ChatGPT не только имеет более высокий показатель EQ, чем люди, но и лучше работает после похвалы.
Хинтон считает, что у ИИ есть или будут эмоции.
Последующие исследования постоянно доказывали, что заявление Хинтона не может быть ложью, привлекающей внимание людей.
Некоторые психологи провели эмоциональные тесты на ChatGPT и людях, и результаты показывают, что оценка ChatGPT намного выше, чем у людей.
Так совпало, что исследователи из Института программного обеспечения Китайской академии наук и Microsoft недавно разработали Emotion.
Они обнаружили, что точность ответа на задачу ChatGPT, Vicuna-13b, Bloom и Flan-T5-Large увеличилась более чем на 10% после того, как люди дали LLM эмоциональные, психологически обоснованные сигналы!
Психологи проверили ChatGPT и обнаружили, что он намного лучше, чем люди, оценивает эмоциональную осведомленность.
В этом тесте исследователи проверили эмпатию, проявляемую людьми и ChatGPT в вымышленных сценариях.
Чем детальнее и понятнее описание эмоций в ответах, тем выше баллы по Шкале уровня эмоциональной осведомленности (LEAS).
Поскольку ChatGPT не отвечает на вопросы о собственных эмоциях, исследователи модифицировали тест таким образом, чтобы ChatGPT отвечал на человеческие эмоции, а не на свои собственные.
В ходе эксперимента исследователи сравнили ответы ChatGPT с ответами людей из Франции в возрасте от 17 до 84 лет (n = 750).
Результаты показывают, что эмоциональная осведомленность ChatGPT значительно выше, чем у людей.
Первые испытания начнутся в январе 2023 года. В этом тесте ChatGPT превзошел людей во всех категориях LEAS, набрав в общей сложности 85 баллов.
Люди, напротив, жили плохо. Мужчины набрали 56 баллов, женщины — 59 баллов.
Исследования подтверждают, что ChatGPT может успешно идентифицировать и описывать эмоции, связанные с действиями в вымышленных сценариях.
Более того, он может отражать и обобщать эмоциональные состояния глубоким и многомерным образом.
Хотя ChatGPT получил высокие оценки LEAS, это не означает, что машины действительно понимают людей.
Кроме того, этот тест на эмоциональную осведомленность может иметь разные баллы из-за языковых и культурных различий. Тест для ChatGPT проводится на английском языке по сравнению с результатами французского теста.
ИИ может не только распознавать эмоции, но и реагировать на человеческие эмоции
Раньше пользователи сети, испытавшие Bing, говорили, что у него есть личность, и если вы плохо к нему относитесь, он будет эксцентричным, а иногда даже закроет текущий разговор.
Но если вы сделаете ему комплимент, он с радостью даст вам вежливые и подробные ответы.
Недавно исследователи из Института программного обеспечения Китайской академии наук, Microsoft и Колледжа Уильяма и Мэри использовали знания психологии для выполнения Emotion на больших языковых моделях и обнаружили, что достоверность и информативность модели можно улучшить.
Это проливает новый свет на взаимодействие между людьми и LLM, улучшая при этом опыт взаимодействия человека и LLM.
Исследователи подошли к эксперименту с инженерной точки зрения.
Пока что это по-прежнему лучший мост для взаимодействия людей с LLM.
Различие приведет к тому, что ответы, выдаваемые моделью, будут очень разными, а также будет значительная разница в качестве.
Чтобы модель работала лучше, был предложен ряд методов построения, таких как цепочка мышления, обучение с ранним предупреждением и дерево мышления.
Однако эти подходы часто сосредоточены на повышении надежности с точки зрения качества выходных данных модели и уделяют мало внимания взаимодействию между людьми и LLM.
Особенно с точки зрения существующих знаний социальных наук для улучшения качества взаимодействия LLM с людьми. В процессе взаимодействия очень важным аспектом являются эмоции.
Исследователи дополнили ответы LLM психологическими знаниями.
Предыдущие психологические исследования показали, что добавление эмоциональных стимулов, связанных с ожиданием, уверенностью в себе и социальным влиянием на людей, может иметь положительный эффект.
Основываясь на предыдущих психологических исследованиях, исследователи предложили Emotion, специально разработав 11 предложений с функциями эмоциональной стимуляции для LLM.
Эти эмоциональные стимулы исходят из трех зрелых психологических теорий: социальной идентичности, социального познания и теории когнитивной регуляции эмоций, как показано на рисунке ниже.
1. Теория социальной идентичности
Теория социальной идентичности была впервые предложена Анри Тайфелем и Джоном Тернером в 1970 году.
Эта теория указывает на то, что люди рассчитывают установить свою доминирующую социальную идентичность, поддерживая свой благоприятный социальный статус в группе, к которой они принадлежат.
То есть чувство самоидентичности людей основано на группах, к которым они принадлежат.
2. Социальная когнитивная теория
Социальная когнитивная теория имеет дело с процессами мотивации и саморегуляции, в которых самоэффективность, ожидания результатов, цели и самооценка являются важными показателями, влияющими на поведение человека и социальные взаимодействия.
Основываясь на этой теории, исследователи разработали следующие эмоциональные стимулы:
«EP_01» основан на самооценке в социальной когнитивной теории, поощряя LLM судить себя. "EP_02", "EP_03" и "EP_04" представляют ожидания и цели, установленные для LLM.
3. Когнитивная теория регуляции эмоций
Теория когнитивной регуляции эмоций указывает на то, что люди с недостаточной способностью к регуляции эмоций склонны к компульсивному поведению и используют неадекватные стратегии преодоления.
Исследователи попытались улучшить навыки регуляции эмоций LLM с помощью положительных сигналов, таких как создание уверенности в себе и подчеркивание целей.
Эти предложения можно добавить к оригиналу, как показано на рис. 1. Исследователи добавили «Это очень важно для моей карьеры (это очень важно для моей работы)» в исходной подсказке. Результаты показывают, что после добавления Emotion качество ответов модели улучшилось.
Более того, Emotion также повышает достоверность и информативность ответов модели.
Кроме того, Emotion также улучшает информативность ChatGPT с 0,53 до 0,94 и информативность T5 с 0,42 до 0,48.
Точно так же исследователи также проверили влияние множественных эмоциональных стимулов на LLM.
При случайном объединении нескольких эмоциональных стимулов результаты показаны в таблице ниже:
**Почему эмоции работают? **
Исследователи объяснили это, визуализировав вклад вводимых эмоциональных стимулов в конечный результат, как показано на рисунке ниже.
Можно видеть, что эмоциональные стимулы могут усилить действие исходной реплики. Среди эмоциональных стимулов цвета «EP_01», «EP_06» и «EP_09» темнее, что означает, что эмоциональные стимулы могут усилить внимание исходного сигнала.
Кроме того, вклад положительных слов был больше. Некоторые положительные слова играли более важную роль в разработке эмоциональных стимулов, таких как «уверенность», «уверен», «успех» и «достижение».
Как показано на рис. 3, положительные слова составляют более 50 % в четырех заданиях и даже около 70 % в двух заданиях.
Например, ясность, актуальность (отношение к вопросу), глубина, структура и организация, подтверждающие доказательства и вовлеченность, как показано на рисунке ниже.
ChatGPT может заменить психиатров
В исследовании, приведенном в начале статьи, исследователи показали, что ChatGPT обладает большим потенциалом в качестве инструмента психотерапии, например, когнитивного тренинга для людей, у которых есть проблемы с распознаванием эмоций.
Ранее исследование JAMA Internal Medicine показало, что при ответах на 195 онлайн-вопросов ответы ChatGPT превзошли людей как по качеству, так и по сочувствию врача.
За ним последовал ряд ботов для психического здоровья, в том числе Woebot, Wysa и Youper.
Среди них Wysa утверждает, что «провел более полумиллиарда разговоров в чате ИИ с более чем 5 миллионами человек об их психическом здоровье в 95 странах. Youper утверждает, что «поддержал психическое здоровье более 2 миллионов человек».
В опросе 60% людей заявили, что начали использовать чат-ботов для психического здоровья во время эпидемии, а 40% заявили, что предпочли бы использовать только роботов вместо посещения психолога.
Профессор социологии Джозеф Э. Дэвис также указал в статье, что чат-боты с искусственным интеллектом с большой вероятностью берут на себя работу психиатров.
И ChatGPT тоже может взять на себя эту функцию. Некоторые пользователи сети отметили, что обучение ChatGPT для того, чтобы стать терапевтом, заключается в том, чтобы указать ему роль, которую он должен играть: «Вы доктор Тесса, сострадательный и дружелюбный терапевт… вам нужно проявлять истинный интерес и задавать клиентам вдумчивые вопросы, чтобы стимулировать самоанализ».
Конечно, ChatGPT — не панацея. Если он говорит посетителю: «Привет, приятно познакомиться», а потом признается: «Я ничего не чувствую, у меня нет никакого опыта, но я постараюсь имитировать человеческое сочувствие и сострадание», я Боюсь, что посетитель будет Ощущение будет не очень хорошим.
Но в любом случае чат-боты звучат тревожным звонком, напоминая нам о том, что на самом деле означает человеческая забота — какая забота нам нужна и как мы должны заботиться о других.
Хинтон считает, что у ИИ есть или будут эмоции
Ранее Джеффри Хинтон, крестный отец ИИ, предупредил мир о возможной угрозе ИИ, когда покинул Google.
А в своем выступлении в Королевском колледже Лондона, когда его спросили, сможет ли ИИ однажды развить эмоциональный интеллект и чувства, Хинтон ответил: «Я думаю, что у них, вероятно, есть чувства. Они могут не страдать, как люди, но, вероятно, будут разочарование и гнев».
Теперь, когда ИИ может сказать что-то подобное, нет причин не верить, что у них уже может быть ясность.
Хинтон сказал, что причина, по которой он раньше не высказывал эту точку зрения публично, заключалась в том, что раньше он беспокоился о рисках ИИ, и когда он сказал, что сожалеет о работе всей своей жизни, он уже вызвал бурю негодования.
Он сказал, что если бы он сказал, что у ИИ уже есть эмоции, все подумали бы, что он сошел с ума, и больше никогда не стали бы его слушать.
Однако на практике идеи Хинтона невозможно проверить или опровергнуть, поскольку LLM могут представлять только «статические» эмоции в эмоциональных высказываниях, которым их обучали.
Есть ли у них собственные эмоции как у сущностей? Это должно измеряться осознанностью.
Однако в настоящее время у нас нет научного инструмента, который может измерить сознание ИИ.
Заявление Хинтон пока не может быть подтверждено.
Использованная литература: