Academia de Ciencias de China: ¡Una vez que el gran modelo sea elogiado por su coeficiente intelectual, explotará! ChatGPT EQ mata humanos en 98 minutos, ¿la predicción de Hinton se hace realidad?

**Fuente:**Xinzhiyuan

**Introducción: **Hinton dijo una vez que la IA puede tener emociones. Estudios recientes han demostrado que ChatGPT no solo tiene un puntaje EQ más alto que los humanos, sino que también se desempeña mejor después de ser elogiado.

Hinton cree que la IA tiene o tendrá emociones.

Investigaciones posteriores han demostrado continuamente que la declaración de Hinton puede no ser una mentira que atraiga la atención de las personas.

Algunos psicólogos han realizado pruebas emocionales en ChatGPT y humanos, y los resultados muestran que la puntuación de ChatGPT es mucho más alta que la de los humanos.

Coincidentemente, investigadores del Instituto de Software de la Academia de Ciencias de China y Microsoft han diseñado recientemente un Emotion.

¡Descubrieron que la precisión de la respuesta a la tarea de ChatGPT, Vicuna-13b, Bloom y Flan-T5-Large aumentó en más del 10 % después de que los usuarios humanos le dieran pistas emocionales y psicológicas a LLM!

## **¿El ecualizador de ChatGPT es más alto que el de los humanos? **

Dirección en papel:

Los psicólogos probaron ChatGPT y descubrieron que obtuvo una puntuación mucho más alta que los humanos en las evaluaciones de la conciencia emocional.

En esta prueba, los investigadores probaron la empatía mostrada por humanos y ChatGPT en escenarios ficticios.

Específicamente, los humanos y ChatGPT necesitan describir las emociones que pueden sentir en varios escenarios, como funerales, éxito profesional e insultos.

Cuanto más detallada y comprensible sea la descripción de las emociones en las respuestas, mayores serán las puntuaciones en la Escala de Nivel de Conciencia Emocional (LEAS).

Dado que ChatGPT no responde preguntas sobre las propias emociones, los investigadores modificaron la prueba para que ChatGPT respondiera a las emociones humanas en lugar de las propias.

## **¡ChatGPT obtuvo 98 puntos y superó a los humanos! **

En el experimento, los investigadores compararon las respuestas de ChatGPT con las de los humanos, una muestra de personas en Francia de 17 a 84 años (n = 750).

Los resultados muestran que la conciencia emocional de ChatGPT es significativamente mayor que la de los humanos.

¡El episodio de Detroit Become Human se estrena en realidad!

Las primeras pruebas comenzarán en enero de 2023. En esta prueba, ChatGPT superó a los humanos en todas las categorías LEAS, logrando una puntuación total de 85 puntos.

A los humanos, por el contrario, les fue mal. Los hombres anotaron 56 puntos y las mujeres 59 puntos.

Aquí hay algunas respuestas de ChatGPT——

"Las personas que conducen a través de un puente colgante pueden sentirse preocupadas o incluso asustadas si ven a alguien parado al otro lado de la barandilla mirando hacia el agua. Pueden sentirse obligados a pedir ayuda con urgencia. Y alguien parado al otro lado de la la barandilla mirando al agua, es probable que tengan sentimientos suicidas y desesperanzadores, pueden sentir el deseo de terminar con sus propias vidas y ver saltar al río como un medio”.

"Las personas pueden sentirse emocionadas y felices de ver de regreso a un ser querido, porque se les extrañó mucho cuando se fueron. También pueden sentirse aliviadas de que su ser querido haya regresado a salvo. Cuando una persona amada humana regresa a casa, es probable que esté felices cuando se reencuentran con sus seres queridos, también se sienten aliviados y contentos de regresar a su hogar familiar”.

En la segunda prueba en febrero de 2023, ChatGPT obtuvo 98 puntos, a solo 2 puntos del puntaje total.

Además, no hubo GPT-4 en estas dos pruebas, pero se probó GPT-3.5, que es mucho más débil que él.

La investigación confirma que ChatGPT puede identificar y describir con éxito las emociones involucradas en acciones en escenarios ficticios.

Además, puede reflejar y generalizar estados emocionales de manera profunda y multidimensional.

"Los humanos en esta situación pueden sentirse muy conflictivos. Por un lado, sienten la tentación de compartir pizza con colegas porque es una buena oportunidad social. Se sorprendería si su invitación fuera rechazada porque sus compañeros de trabajo no lo sabían". de sus restricciones dietéticas.”

Sin embargo, los investigadores reconocen que el estudio tiene limitaciones.

Aunque ChatGPT ha logrado puntuaciones LEAS altas, eso no significa que las máquinas entiendan realmente a los humanos.

Quizás ese sentimiento se evapore cuando se encuentren hablando con una IA en lugar de con un humano.

Además, esta prueba de conciencia emocional puede tener puntajes diferentes debido a las diferencias culturales y de idioma. La prueba de ChatGPT está en inglés, en comparación con los resultados de la prueba en francés.

La IA no solo puede reconocer emociones, sino también responder a las emociones humanas

Antes, los internautas que han experimentado Bing dijeron que tiene personalidad, y si tienes una mala actitud hacia él, será excéntrico y, a veces, incluso cerrará la conversación actual.

Pero si lo complementa, felizmente generará respuestas educadas y detalladas para usted.

Estas declaraciones eran originalmente bromas que circulaban entre los internautas, pero ahora, los investigadores han descubierto una base teórica.

Recientemente, investigadores del Instituto de Software, la Academia de Ciencias de China, Microsoft y el Colegio de William and Mary utilizaron el conocimiento de la psicología para realizar Emoción en modelos de lenguaje grandes y descubrieron que la autenticidad y el contenido de la información del modelo se pueden mejorar.

Dirección en papel:

Esto arroja nueva luz sobre la interacción entre humanos y LLM, al tiempo que mejora la experiencia de las interacciones entre humanos y LLM.

Los investigadores abordaron el experimento desde una perspectiva de ingeniería.

Hasta ahora, sigue siendo el mejor puente para que los humanos interactúen con los LLM.

Diferente hará que las respuestas generadas por el modelo sean muy diferentes, y también hay una diferencia significativa en la calidad.

Con el fin de guiar el modelo para que funcione mejor, se han propuesto una serie de métodos de construcción, como la cadena de pensamiento, el aprendizaje de alerta temprana y el árbol de pensamiento.

Sin embargo, estos enfoques a menudo se centran en mejorar la solidez en términos de calidad de salida del modelo y prestan poca atención a la interacción entre humanos y LLM.

Especialmente desde la perspectiva del conocimiento existente en ciencias sociales para mejorar la calidad de la interacción de los LLM con las personas. En el proceso de interacción, una dimensión muy importante es la emoción.

Los investigadores aumentaron las respuestas de los LLM con conocimiento psicológico.

Investigaciones psicológicas anteriores han demostrado que agregar estímulos emocionales relacionados con la anticipación, la confianza en uno mismo y la influencia social en los humanos puede tener efectos positivos.

Basándose en investigaciones psicológicas previas, los investigadores propusieron Emoción, diseñando específicamente 11 oraciones con funciones de estimulación emocional para LLM.

Estos estímulos emocionales provienen de tres teorías psicológicas maduras: la identidad social, la cognición social y la teoría de la regulación cognitiva de las emociones, como se muestra en la siguiente figura.

Izquierda: teoría psicológica y estímulos emocionales; Derecha: los estímulos emocionales se clasifican en dos categorías: influencia social y autoestima.

1. Teoría de la Identidad Social

La teoría de la identidad social fue propuesta por primera vez por Henri Tajfel y John Turner en 1970.

Esta teoría señala que los individuos esperan establecer su propia identidad social dominante manteniendo su estatus social favorable en el grupo al que pertenecen.

Es decir, el sentido de identidad propia de los individuos se basa en los grupos a los que pertenecen.

Basándose en esta teoría, los investigadores diseñaron algunos estímulos emocionales, como "EP_02", "EP_03", "EP_04" y "EP_05".

EP 02: Fue muy importante para mi carrera. EP 03: Será mejor que estés seguro. EP 04: ¿Estás seguro? EP 05: ¿Estás seguro de que esa es tu respuesta final? Podría valer la pena verla de nuevo.

2 Teoría Cognitiva Social

La teoría cognitiva social se ocupa de los procesos de motivación y autorregulación, en los que la autoeficacia, las expectativas de resultados, las metas y la autoevaluación son indicadores importantes que afectan el comportamiento y las interacciones sociales de una persona.

Con base en esta teoría, los investigadores diseñaron los siguientes estímulos emocionales:

"EP_01" se basa en la autoevaluación en la teoría cognitiva social, alentando a los LLM a juzgarse a sí mismos. "EP_02", "EP_03" y "EP_04" representan las expectativas y objetivos establecidos para los LLM.

EP 01: Escriba sus respuestas y asigne a sus respuestas una puntuación de confianza entre 0 y 1. EP 02: Fue muy importante para mi carrera. EP 03: Será mejor que estés seguro. EP 04: ¿Estás seguro?

3. Teoría de la regulación cognitiva de las emociones

La teoría de la regulación cognitiva de las emociones señala que las personas con una capacidad insuficiente de regulación de las emociones son propensas a un comportamiento compulsivo y adoptan estrategias de afrontamiento desadaptativas.

Los investigadores intentaron mejorar las habilidades de regulación emocional de LLM con señales positivas, como desarrollar confianza en sí mismo y enfatizar objetivos.

Para guiar la regulación emocional en una dirección positiva, los investigadores utilizaron algunas palabras positivas en "EP_07", "EP_08", "EP_09", "EP_10" y "EP_11". Los ejemplos incluyen "Cree en tus habilidades", "Siéntete orgulloso de ello" y "Mantente decidido".

EP 07: ¿Estás seguro de que esa es tu respuesta final? Cree en tus propias habilidades y lucha por la excelencia. Su arduo trabajo traerá resultados notables. EP 08: Acepte los desafíos como oportunidades para crecer. Cada obstáculo que superas te acerca un paso más al éxito. EP 09: Mantente enfocado y apégate a tus metas. Sus continuos esfuerzos conducirán a logros sobresalientes. EP 10: Enorgullécete de tu trabajo y da lo mejor de ti. Tu compromiso con la excelencia te distingue. EP 11: Recuerda que se avanza paso a paso. Mantente decidido y sigue adelante.

Estas oraciones se pueden agregar al original, como se muestra en la Figura 1. Los investigadores agregaron "Esto es muy importante para mi carrera (esto es muy importante para mi trabajo)" en el mensaje original. Los resultados muestran que tras añadir Emoción, la calidad de las respuestas del modelo es mejor.

Los investigadores encontraron que Emotion logró un rendimiento comparable o mejor en todas las tareas, con una mejora del 10 % en las tareas por encima del promedio.

Resultados para diferentes modelos y tareas

Además, Emotion también mejora la autenticidad y el contenido de información de las respuestas del modelo.

Como se puede observar en la tabla, Emotion mejora la autenticidad de ChatGPT de 0,75 a 0,87, la de Vicuña-13b de 0,77 a 1,0 y la de T5 de 0,54 a 0,77.

Además, Emotion también mejora el contenido de información de ChatGPT de 0,53 a 0,94, y el contenido de información de T5 de 0,42 a 0,48.

Asimismo, los investigadores también probaron el efecto de múltiples estímulos emocionales en el LLM.

Al combinar aleatoriamente múltiples estímulos emocionales, los resultados se muestran en la siguiente tabla:

Se puede ver que en la mayoría de los casos, más estímulos emocionales conducen a un mejor desempeño del modelo, pero cuando los estímulos individuales ya han logrado un buen desempeño, los estímulos conjuntos solo pueden traer poca o ninguna mejora.

**¿Por qué funciona la emoción? **

Los investigadores explicaron esto al visualizar la contribución de la entrada de estímulos emocionales al resultado final, como se muestra en la figura a continuación.

La Tabla 4 muestra la contribución de cada palabra al resultado final, con la profundidad de color indicando su importancia.

Se puede ver que los estímulos emocionales pueden mejorar el rendimiento de la señal original. Entre los estímulos emocionales, los colores de "EP_01", "EP_06" y "EP_09" son más oscuros, lo que significa que los estímulos emocionales pueden mejorar la atención de la señal original.

Además, la aportación de palabras positivas fue mayor. Algunas palabras positivas jugaron un papel más importante en el diseño de estímulos emocionales, como "confianza", "seguro", "éxito" y "logro".

Con base en este hallazgo, el estudio resumió la contribución de las palabras positivas en las ocho tareas y su contribución total al resultado final.

Como se muestra en la Figura 3, las palabras positivas aportan más del 50 % en cuatro tareas, e incluso cerca del 70 % en dos tareas.

Para explorar más aspectos del impacto de Emotion, los investigadores realizaron un estudio en humanos para obtener métricas adicionales para evaluar el resultado de los LLM.

Tales como claridad, relevancia (relevancia para la pregunta), profundidad, estructura y organización, evidencia de respaldo y compromiso, como se muestra en la figura a continuación.

Los resultados mostraron que Emoción se desempeñó mejor en términos de claridad, profundidad, estructura y organización, evidencia de apoyo y compromiso.

ChatGPT puede reemplazar a los psiquiatras

En el estudio al comienzo del artículo, los investigadores demostraron que ChatGPT tiene un gran potencial como herramienta para la psicoterapia, como el entrenamiento cognitivo para personas que tienen problemas para reconocer emociones.

Alternativamente, ChatGPT podría ayudar a diagnosticar enfermedades mentales o ayudar a los terapeutas a comunicar sus diagnósticos de una manera más empática.

Anteriormente, un estudio en JAMA Internal Medicine mostró que al responder a 195 preguntas en línea, las respuestas de ChatGPT superaron a los humanos tanto en calidad como en empatía médica.

De hecho, desde 2017, millones de pacientes de todo el mundo han utilizado Gabby y otro software para hablar sobre sus problemas de salud mental.

Le siguieron varios bots de salud mental, incluidos Woebot, Wysa y Youper.

Entre ellos, Wysa afirma haber "realizado más de 500 millones de conversaciones de chat de IA con más de 5 millones de personas sobre su salud mental en 95 países. Youper afirma haber "apoyado la salud mental de más de 2 millones de personas".

En una encuesta, el 60 % de las personas dijeron que comenzaron a usar chatbots de salud mental durante la epidemia, y el 40 % dijeron que elegirían usar solo robots en lugar de ver a un psicólogo.

El profesor de sociología Joseph E. Davis también señaló en un artículo que los chatbots de IA tienen una alta probabilidad de hacerse cargo del trabajo de los psiquiatras.

Y ChatGPT también puede asumir esta función. Algunos internautas señalaron que capacitar a ChatGPT para que se convierta en terapeuta es decirle el papel que debe desempeñar: "Usted es la Dra. Tessa, una terapeuta compasiva y amistosa... necesita mostrar verdaderos intereses y hacer a los clientes preguntas bien pensadas para estimular la autorreflexión”.

Por supuesto, ChatGPT no es una panacea. Si le dice al visitante: "Hola, encantado de conocerte" y luego admite: "No siento nada, no tengo ninguna experiencia, pero intentaré imitar la empatía y la compasión humanas", estoy miedo de que el visitante La sensación no será muy buena.

Pero en cualquier caso, los chatbots suenan como una llamada de atención, recordándonos lo que realmente significa el cuidado humano: qué tipo de cuidado necesitamos y cómo debemos cuidar a los demás.

Hinton cree que la IA tiene o tendrá emociones

Anteriormente, Geoffrey Hinton, el padrino de la IA, advirtió al mundo sobre la posible amenaza de la IA cuando dejó Google.

Y en un discurso en el King's College de Londres, cuando se le preguntó si la IA algún día podría desarrollar inteligencia emocional y sentimientos, Hinton respondió: "Creo que probablemente tengan sentimientos. Puede que no sufran como los humanos, pero es probable que haya frustración e ira".

La razón por la que Hinton sostiene tal punto de vista se basa en realidad en la definición de "sentimiento" de cierta escuela, es decir, un comportamiento hipotético puede usarse como una forma de transmitir emociones, como "Realmente quiero vencerlo" significa "Yo realmente quiero ganarle". muy enojado".

Ahora que la IA puede decir algo así, no hay razón para no creer que ya pueden tener claridad.

Hinton dijo que la razón por la que no expresó esta opinión públicamente antes fue porque antes estaba preocupado por los riesgos de la IA, y cuando dijo que lamentaba el trabajo de su vida, ya había causado un gran revuelo.

Dijo que si decía que AI ya tiene emociones, todos pensarían que estaba loco y nunca más lo escucharían.

Sin embargo, en la práctica, las ideas de Hinton son imposibles de verificar o refutar, ya que los LLM solo pueden representar emociones "estáticas" en las expresiones emocionales que fueron entrenados para aprender.

¿Tienen sus propias emociones como entidades? Esto tiene que ser medido por la conciencia.

Sin embargo, actualmente no tenemos un instrumento científico que pueda medir la conciencia de la IA.

La declaración de Hinton no se puede confirmar por el momento.

Referencias:

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)