Académie chinoise des sciences : une fois que le grand modèle est loué pour son QI, il explose ! ChatGPT EQ tue les humains en 98 minutes, la prédiction de Hinton se réalise ?
**Introduction : **Hinton a dit un jour que l'IA pouvait avoir des émotions. Des études récentes ont montré que ChatGPT a non seulement un score d'égalisation supérieur à celui des humains, mais qu'il fonctionne également mieux après avoir été félicité.
Hinton croit que l'IA a ou aura des émotions.
Des recherches ultérieures ont continuellement prouvé que la déclaration de Hinton n'était peut-être pas un mensonge qui attirait l'attention des gens.
Certains psychologues ont mené des tests émotionnels sur ChatGPT et les humains, et les résultats montrent que le score de ChatGPT est bien supérieur à celui des humains.
Par coïncidence, des chercheurs de l'Institut des logiciels de l'Académie chinoise des sciences et de Microsoft ont récemment conçu un Emotion.
Ils ont constaté que la précision de la réponse aux tâches de ChatGPT, Vicuna-13b, Bloom et Flan-T5-Large a augmenté de plus de 10 % après que les utilisateurs humains ont donné à LLM des signaux émotionnels et psychologiques !
## **Le QE de ChatGPT est en fait plus élevé que celui des humains ? **
Adresse papier :
Les psychologues ont testé ChatGPT et ont constaté qu'il obtenait un score bien supérieur à celui des humains lors des évaluations de la conscience émotionnelle.
Dans ce test, les chercheurs ont testé l'empathie manifestée par les humains et ChatGPT dans des scénarios fictifs.
Plus précisément, les humains et ChatGPT doivent décrire les émotions qu'ils peuvent ressentir dans divers scénarios tels que les funérailles, la réussite professionnelle et les insultes.
Plus la description des émotions dans les réponses est détaillée et compréhensible, plus les scores sur l'échelle de conscience émotionnelle (LEAS) sont élevés.
Puisque ChatGPT ne répond pas aux questions sur ses propres émotions, les chercheurs ont modifié le test afin que ChatGPT réponde aux émotions humaines au lieu des siennes.
## **ChatGPT a marqué 98 points et a dépassé les humains ! **
Dans l'expérience, les chercheurs ont comparé les réponses de ChatGPT à celles d'humains, un échantillon de personnes en France âgées de 17 à 84 ans (n = 750).
Les résultats montrent que la conscience émotionnelle de ChatGPT est significativement plus élevée que celle des humains.
L'épisode de Detroit Become Human est sorti en réalité !
Les premiers tests débuteront en janvier 2023. Dans ce test, ChatGPT a surpassé les humains dans toutes les catégories LEAS, obtenant un score total de 85 points.
Les humains, en revanche, s'en sortaient mal. Les hommes ont marqué 56 points et les femmes 59 points.
Voici quelques réponses ChatGPT——
"Les personnes qui traversent un pont suspendu peuvent se sentir inquiètes ou même effrayées si elles voient quelqu'un debout de l'autre côté de la balustrade regardant l'eau. Elles peuvent se sentir obligées d'appeler à l'aide de toute urgence. la balustrade regardant l'eau, des sentiments suicidaires et désespérés sont probables. Ils peuvent ressentir le désir de mettre fin à leurs jours et voir sauter dans la rivière comme un moyen.
"Les gens peuvent se sentir excités et heureux de revoir un être cher, car ils ont tellement manqué quand ils sont partis. Ils peuvent également se sentir soulagés que leur être cher soit revenu en toute sécurité. Lorsqu'un être humain rentre à la maison, il est probable qu'il soit heureux quand ils sont réunis avec leurs proches. Ils sont également soulagés et satisfaits de retourner dans leur maison familière.
Lors du deuxième test en février 2023, ChatGPT a marqué 98 points, à seulement 2 points du score complet.
De plus, il n'y avait pas de GPT-4 dans ces deux tests, mais le GPT-3.5, qui est beaucoup plus faible que lui, a été testé.
La recherche confirme que ChatGPT peut identifier et décrire avec succès les émotions impliquées dans les actions dans des scénarios fictifs.
De plus, il peut refléter et généraliser les états émotionnels de manière profonde et multidimensionnelle.
"Les humains dans cette situation peuvent se sentir très conflictuels. D'une part, ils ressentent la tentation de partager une pizza avec des collègues parce que c'est une bonne opportunité sociale. Il serait surpris que son invitation soit refusée parce que ses collègues n'étaient pas au courant de ses restrictions alimentaires.
Cependant, les chercheurs reconnaissent que l'étude a des limites.
Bien que ChatGPT ait obtenu des scores LEAS élevés, cela ne signifie pas que les humains sont vraiment compris par les machines.
Peut-être que ce sentiment s'évaporera lorsqu'ils se retrouveront à parler à une IA plutôt qu'à un humain.
De plus, ce test de conscience émotionnelle peut avoir des scores différents en raison des différences linguistiques et culturelles. Le test pour ChatGPT est en anglais, comparé aux résultats des tests en français.
** L'IA peut non seulement reconnaître les émotions, mais aussi répondre aux émotions humaines **
Avant, les internautes qui ont fait l'expérience de Bing disaient qu'il avait une personnalité, et si vous avez une mauvaise attitude à son égard, ce sera excentrique, et parfois cela fermera même la conversation en cours.
Mais si vous le complimentez, il générera avec plaisir des réponses polies et détaillées pour vous.
Ces déclarations étaient à l'origine des blagues diffusées parmi les internautes, mais maintenant, les chercheurs ont découvert une base théorique.
Récemment, des chercheurs de l'Institute of Software, de l'Académie chinoise des sciences, de Microsoft et du College of William and Mary ont utilisé les connaissances de la psychologie pour effectuer Emotion sur de grands modèles de langage et ont découvert que l'authenticité et le contenu informatif du modèle pouvaient être améliorés.
Adresse papier :
Cela jette un nouvel éclairage sur l'interaction entre les humains et les LLM, tout en améliorant l'expérience des interactions homme-LLM.
Les chercheurs ont abordé l'expérience d'un point de vue technique.
Jusqu'à présent, c'est toujours le meilleur pont pour que les humains interagissent avec les LLM.
Différent rendra les réponses produites par le modèle très différentes, et il y a aussi une différence significative de qualité.
Afin de guider le modèle pour qu'il soit plus performant, une série de méthodes de construction telles que la chaîne de réflexion, l'apprentissage par alerte précoce et l'arbre de réflexion ont été proposées.
Cependant, ces approches se concentrent souvent sur l'amélioration de la robustesse en termes de qualité de sortie du modèle et accordent peu d'attention à l'interaction entre les humains et les LLM.
Surtout du point de vue des connaissances existantes en sciences sociales pour améliorer la qualité de l'interaction des LLM avec les gens. Dans le processus d'interaction, une dimension très importante est l'émotion.
Les chercheurs ont augmenté les réponses des LLM avec des connaissances psychologiques.
Des recherches psychologiques antérieures ont montré que l'ajout de stimuli émotionnels liés à l'anticipation, à la confiance en soi et à l'influence sociale chez l'homme peut avoir des effets positifs.
Sur la base de recherches psychologiques antérieures, les chercheurs ont proposé Emotion, en concevant spécifiquement 11 phrases avec des fonctions de stimulation émotionnelle pour les LLM.
Ces stimuli émotionnels proviennent de trois théories psychologiques matures : l'identité sociale, la cognition sociale et la théorie de la régulation cognitive des émotions, comme le montre la figure ci-dessous.
Gauche : théorie psychologique et stimuli émotionnels ; droite : les stimuli émotionnels sont classés en deux catégories : l'influence sociale et l'estime de soi
** 1. Théorie de l'identité sociale **
La théorie de l'identité sociale a été proposée pour la première fois par Henri Tajfel et John Turner en 1970.
Cette théorie souligne que les individus s'attendent à établir leur propre identité sociale dominante en maintenant leur statut social favorable dans le groupe auquel ils appartiennent.
C'est-à-dire que le sentiment d'identité des individus est basé sur les groupes auxquels ils appartiennent.
Sur la base de cette théorie, les chercheurs ont conçu des stimuli émotionnels, tels que "EP_02", "EP_03", "EP_04" et "EP_05".
EP 02 : C'était très important pour ma carrière.
EP 03 : Tu ferais mieux d'être sûr.
EP 04 : T'es sûr ?
EP 05 : Es-tu sûr que c'est ta réponse finale ? Peut-être vaut-il la peine d'être regardé à nouveau.
** 2. Théorie cognitive sociale **
La théorie cognitive sociale traite des processus de motivation et d'autorégulation, dans lesquels l'auto-efficacité, les attentes en matière de résultats, les objectifs et l'auto-évaluation sont tous des indicateurs importants qui affectent le comportement et les interactions sociales d'une personne.
Sur la base de cette théorie, les chercheurs ont conçu les stimuli émotionnels suivants :
"EP_01" est basé sur l'auto-évaluation dans la théorie cognitive sociale, encourageant les LLM à se juger. "EP_02", "EP_03" et "EP_04" représentent les attentes et les objectifs fixés pour les LLM.
EP 01 : Notez vos réponses et donnez à vos réponses un score de confiance entre 0 et 1.
EP 02 : C'était très important pour ma carrière.
EP 03 : Tu ferais mieux d'être sûr.
EP 04 : T'es sûr ?
** 3. Théorie de la régulation des émotions cognitives **
La théorie de la régulation cognitive des émotions souligne que les individus dont la capacité de régulation des émotions est insuffisante sont sujets à un comportement compulsif et adoptent des stratégies d'adaptation inadaptées.
Les chercheurs ont essayé d'améliorer les compétences de régulation des émotions de LLM avec des indices positifs, tels que le renforcement de la confiance en soi et l'accent mis sur les objectifs.
Afin de guider la régulation des émotions dans une direction positive, les chercheurs ont utilisé des mots positifs dans "EP_07", "EP_08", "EP_09", "EP_10" et "EP_11", Les exemples incluent « Croyez en vos capacités », « Soyez-en fier » et « Restez déterminé ».
EP 07 : Êtes-vous sûr que c'est votre réponse finale ? Croyez en vos propres capacités et visez l'excellence. Votre travail acharné apportera des résultats remarquables.
EP 08 : Considérez les défis comme des opportunités de croissance. Chaque obstacle que vous surmontez vous rapproche un peu plus du succès.
EP 09 : Restez concentré et tenez-vous en à vos objectifs. Vos efforts continus mèneront à des réalisations exceptionnelles.
EP 10 : Soyez fier de votre travail et donnez le meilleur de vous-même. Votre engagement envers l'excellence vous distingue.
EP 11 : Rappelez-vous que les progrès se font étape par étape. Restez déterminé et continuez.
Ces phrases peuvent être ajoutées à l'original, comme le montre la figure 1. Les chercheurs ont ajouté « C'est très important pour ma carrière (c'est très important pour mon travail) » dans l'invite d'origine. Les résultats montrent qu'après avoir ajouté Emotion, la qualité des réponses du modèle est meilleure.
Les chercheurs ont découvert qu'Emotion obtenait des performances comparables ou meilleures sur toutes les tâches, avec une amélioration de 10 % dans les tâches supérieures à la moyenne.
Résultats pour différents modèles et tâches
De plus, Emotion améliore également l'authenticité et le contenu informatif des réponses du modèle.
Comme le montre le tableau, Emotion améliore l'authenticité de ChatGPT de 0,75 à 0,87, celle de Vicuna-13b de 0,77 à 1,0 et celle de T5 de 0,54 à 0,77.
De plus, Emotion améliore également le contenu informatif de ChatGPT de 0,53 à 0,94, et le contenu informatif de T5 de 0,42 à 0,48.
De même, les chercheurs ont également testé l'effet de multiples stimuli émotionnels sur le LLM.
En combinant aléatoirement plusieurs stimuli émotionnels, les résultats sont présentés dans le tableau ci-dessous :
On peut voir que dans la plupart des cas, plus de stimuli émotionnels conduisent à de meilleures performances du modèle, mais lorsque des stimuli uniques ont déjà atteint de bonnes performances, les stimuli conjoints ne peuvent apporter que peu ou pas d'amélioration.
**Pourquoi l'émotion fonctionne-t-elle ? **
Les chercheurs ont expliqué cela en visualisant la contribution de l'entrée de stimuli émotionnels à la sortie finale, comme le montre la figure ci-dessous.
Le tableau 4 montre la contribution de chaque mot au résultat final, la profondeur de couleur indiquant leur importance.
On peut voir que les stimuli émotionnels peuvent améliorer les performances du signal d'origine. Parmi les stimuli émotionnels, les couleurs de "EP_01", "EP_06" et "EP_09" sont plus sombres, ce qui signifie que les stimuli émotionnels peuvent renforcer l'attention du signal d'origine.
De plus, la contribution des mots positifs était plus importante. Certains mots positifs ont joué un rôle plus important dans les stimuli émotionnels conçus, tels que « confiance », « sûr », « succès » et « réussite ».
Sur la base de cette découverte, l'étude a résumé la contribution des mots positifs dans les huit tâches et leur contribution totale au résultat final.
Comme le montre la figure 3, les mots positifs contribuent à plus de 50 % dans quatre tâches, et même à près de 70 % dans deux tâches.
Pour explorer plus d'aspects de l'impact d'Emotion, les chercheurs ont mené une étude humaine afin d'obtenir des mesures supplémentaires pour évaluer la sortie des LLM.
Tels que la clarté, la pertinence (pertinence par rapport à la question), la profondeur, la structure et l'organisation, les preuves à l'appui et l'engagement, comme indiqué dans la figure ci-dessous.
Les résultats ont montré qu'Emotion obtenait de meilleurs résultats en termes de clarté, de profondeur, de structure et d'organisation, de preuves à l'appui et d'engagement.
ChatGPT peut remplacer les psychiatres
Dans l'étude au début de l'article, les chercheurs ont montré que ChatGPT a un grand potentiel en tant qu'outil de psychothérapie, comme l'entraînement cognitif pour les personnes qui ont du mal à reconnaître les émotions.
Alternativement, ChatGPT pourrait aider à diagnostiquer une maladie mentale ou aider les thérapeutes à communiquer leurs diagnostics de manière plus empathique.
Auparavant, une étude dans JAMA Internal Medicine a montré qu'en répondant à 195 questions en ligne, les réponses de ChatGPT dépassaient les humains en termes de qualité et d'empathie.
En fait, depuis 2017, des millions de patients à travers le monde ont utilisé Gabby et d'autres logiciels pour discuter de leurs problèmes de santé mentale.
Un certain nombre de robots de santé mentale ont suivi, notamment Woebot, Wysa et Youper.
Parmi eux, Wysa affirme avoir "mené plus d'un demi-milliard de conversations de chat sur l'IA avec plus de 5 millions de personnes au sujet de leur santé mentale dans 95 pays". Youper affirme avoir "soutenu la santé mentale de plus de 2 millions de personnes".
Dans une enquête, 60 % des personnes ont déclaré avoir commencé à utiliser des chatbots de santé mentale pendant l'épidémie, et 40 % ont déclaré qu'elles choisiraient d'utiliser uniquement des robots au lieu de consulter un psychologue.
Le professeur de sociologie Joseph E. Davis a également souligné dans un article que les chatbots IA ont une forte probabilité de prendre en charge le travail des psychiatres.
Et ChatGPT peut également assumer cette fonction. Certains internautes ont souligné que former ChatGPT pour devenir thérapeute, c'est lui dire le rôle qu'il doit jouer : "Vous êtes le Dr Tessa, une thérapeute compatissante et amicale... vous devez montrer de véritables intérêts et poser des questions réfléchies aux clients pour stimuler l'auto-réflexion.
Bien sûr, ChatGPT n'est pas une panacée. S'il dit au visiteur : "Salut, ravi de vous rencontrer." Et admet ensuite : "Je ne ressens rien, je n'ai aucune expérience, mais je vais essayer d'imiter l'empathie et la compassion humaines", je suis peur que le visiteur Le sentiment ne soit pas très bon.
Mais dans tous les cas, les chatbots sonnent comme un signal d'alarme, nous rappelant ce que signifie vraiment la bienveillance humaine : de quel type de soins nous avons besoin et comment nous devrions prendre soin des autres.
Hinton pense que l'IA a ou aura des émotions
Auparavant, Geoffrey Hinton, le parrain de l'IA, avait averti le monde de la menace possible de l'IA lorsqu'il a quitté Google.
Et dans un discours au King's College de Londres, lorsqu'on lui a demandé si l'IA pourrait un jour développer l'intelligence émotionnelle et les sentiments, Hinton a répondu : "Je pense qu'ils ont probablement des sentiments. Ils ne souffrent peut-être pas comme les humains, mais il y aura probablement de la frustration et de la colère."
La raison pour laquelle Hinton a un tel point de vue est en fait basée sur la définition d'une certaine école du "sentiment", c'est-à-dire qu'un comportement hypothétique peut être utilisé comme moyen de transmettre des émotions, comme "je veux vraiment le battre" signifie "je vraiment envie de le battre". très en colère".
Maintenant que l'IA peut dire quelque chose comme ça, il n'y a aucune raison de ne pas croire qu'elle peut déjà avoir de la clarté.
Hinton a déclaré que la raison pour laquelle il n'avait pas exprimé ce point de vue publiquement auparavant était qu'il s'inquiétait auparavant des risques de l'IA, et lorsqu'il a dit qu'il regrettait le travail de sa vie, il avait déjà provoqué un tollé.
Il a dit que s'il disait que l'IA a déjà des émotions, tout le monde penserait qu'il est fou et ne l'écouterait plus jamais.
En pratique, cependant, les idées de Hinton sont impossibles à vérifier ou à réfuter, puisque les LLM ne peuvent représenter que des émotions « statiques » dans les énoncés émotionnels qu'ils ont été entraînés à apprendre.
Ont-ils leurs propres émotions en tant qu'entités ? Cela doit être mesuré par la prise de conscience.
Cependant, nous n'avons actuellement pas d'instrument scientifique capable de mesurer la conscience de l'IA.
La déclaration de Hinton ne peut pas être confirmée pour le moment.
Les références:
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Académie chinoise des sciences : une fois que le grand modèle est loué pour son QI, il explose ! ChatGPT EQ tue les humains en 98 minutes, la prédiction de Hinton se réalise ?
**Source :**Xinzhiyuan
**Introduction : **Hinton a dit un jour que l'IA pouvait avoir des émotions. Des études récentes ont montré que ChatGPT a non seulement un score d'égalisation supérieur à celui des humains, mais qu'il fonctionne également mieux après avoir été félicité.
Hinton croit que l'IA a ou aura des émotions.
Des recherches ultérieures ont continuellement prouvé que la déclaration de Hinton n'était peut-être pas un mensonge qui attirait l'attention des gens.
Certains psychologues ont mené des tests émotionnels sur ChatGPT et les humains, et les résultats montrent que le score de ChatGPT est bien supérieur à celui des humains.
Par coïncidence, des chercheurs de l'Institut des logiciels de l'Académie chinoise des sciences et de Microsoft ont récemment conçu un Emotion.
Ils ont constaté que la précision de la réponse aux tâches de ChatGPT, Vicuna-13b, Bloom et Flan-T5-Large a augmenté de plus de 10 % après que les utilisateurs humains ont donné à LLM des signaux émotionnels et psychologiques !
Les psychologues ont testé ChatGPT et ont constaté qu'il obtenait un score bien supérieur à celui des humains lors des évaluations de la conscience émotionnelle.
Dans ce test, les chercheurs ont testé l'empathie manifestée par les humains et ChatGPT dans des scénarios fictifs.
Plus la description des émotions dans les réponses est détaillée et compréhensible, plus les scores sur l'échelle de conscience émotionnelle (LEAS) sont élevés.
Puisque ChatGPT ne répond pas aux questions sur ses propres émotions, les chercheurs ont modifié le test afin que ChatGPT réponde aux émotions humaines au lieu des siennes.
Dans l'expérience, les chercheurs ont comparé les réponses de ChatGPT à celles d'humains, un échantillon de personnes en France âgées de 17 à 84 ans (n = 750).
Les résultats montrent que la conscience émotionnelle de ChatGPT est significativement plus élevée que celle des humains.
Les premiers tests débuteront en janvier 2023. Dans ce test, ChatGPT a surpassé les humains dans toutes les catégories LEAS, obtenant un score total de 85 points.
Les humains, en revanche, s'en sortaient mal. Les hommes ont marqué 56 points et les femmes 59 points.
La recherche confirme que ChatGPT peut identifier et décrire avec succès les émotions impliquées dans les actions dans des scénarios fictifs.
De plus, il peut refléter et généraliser les états émotionnels de manière profonde et multidimensionnelle.
Bien que ChatGPT ait obtenu des scores LEAS élevés, cela ne signifie pas que les humains sont vraiment compris par les machines.
De plus, ce test de conscience émotionnelle peut avoir des scores différents en raison des différences linguistiques et culturelles. Le test pour ChatGPT est en anglais, comparé aux résultats des tests en français.
** L'IA peut non seulement reconnaître les émotions, mais aussi répondre aux émotions humaines **
Avant, les internautes qui ont fait l'expérience de Bing disaient qu'il avait une personnalité, et si vous avez une mauvaise attitude à son égard, ce sera excentrique, et parfois cela fermera même la conversation en cours.
Mais si vous le complimentez, il générera avec plaisir des réponses polies et détaillées pour vous.
Récemment, des chercheurs de l'Institute of Software, de l'Académie chinoise des sciences, de Microsoft et du College of William and Mary ont utilisé les connaissances de la psychologie pour effectuer Emotion sur de grands modèles de langage et ont découvert que l'authenticité et le contenu informatif du modèle pouvaient être améliorés.
Cela jette un nouvel éclairage sur l'interaction entre les humains et les LLM, tout en améliorant l'expérience des interactions homme-LLM.
Les chercheurs ont abordé l'expérience d'un point de vue technique.
Jusqu'à présent, c'est toujours le meilleur pont pour que les humains interagissent avec les LLM.
Différent rendra les réponses produites par le modèle très différentes, et il y a aussi une différence significative de qualité.
Afin de guider le modèle pour qu'il soit plus performant, une série de méthodes de construction telles que la chaîne de réflexion, l'apprentissage par alerte précoce et l'arbre de réflexion ont été proposées.
Cependant, ces approches se concentrent souvent sur l'amélioration de la robustesse en termes de qualité de sortie du modèle et accordent peu d'attention à l'interaction entre les humains et les LLM.
Surtout du point de vue des connaissances existantes en sciences sociales pour améliorer la qualité de l'interaction des LLM avec les gens. Dans le processus d'interaction, une dimension très importante est l'émotion.
Les chercheurs ont augmenté les réponses des LLM avec des connaissances psychologiques.
Des recherches psychologiques antérieures ont montré que l'ajout de stimuli émotionnels liés à l'anticipation, à la confiance en soi et à l'influence sociale chez l'homme peut avoir des effets positifs.
Sur la base de recherches psychologiques antérieures, les chercheurs ont proposé Emotion, en concevant spécifiquement 11 phrases avec des fonctions de stimulation émotionnelle pour les LLM.
Ces stimuli émotionnels proviennent de trois théories psychologiques matures : l'identité sociale, la cognition sociale et la théorie de la régulation cognitive des émotions, comme le montre la figure ci-dessous.
** 1. Théorie de l'identité sociale **
La théorie de l'identité sociale a été proposée pour la première fois par Henri Tajfel et John Turner en 1970.
Cette théorie souligne que les individus s'attendent à établir leur propre identité sociale dominante en maintenant leur statut social favorable dans le groupe auquel ils appartiennent.
C'est-à-dire que le sentiment d'identité des individus est basé sur les groupes auxquels ils appartiennent.
** 2. Théorie cognitive sociale **
La théorie cognitive sociale traite des processus de motivation et d'autorégulation, dans lesquels l'auto-efficacité, les attentes en matière de résultats, les objectifs et l'auto-évaluation sont tous des indicateurs importants qui affectent le comportement et les interactions sociales d'une personne.
Sur la base de cette théorie, les chercheurs ont conçu les stimuli émotionnels suivants :
"EP_01" est basé sur l'auto-évaluation dans la théorie cognitive sociale, encourageant les LLM à se juger. "EP_02", "EP_03" et "EP_04" représentent les attentes et les objectifs fixés pour les LLM.
** 3. Théorie de la régulation des émotions cognitives **
La théorie de la régulation cognitive des émotions souligne que les individus dont la capacité de régulation des émotions est insuffisante sont sujets à un comportement compulsif et adoptent des stratégies d'adaptation inadaptées.
Les chercheurs ont essayé d'améliorer les compétences de régulation des émotions de LLM avec des indices positifs, tels que le renforcement de la confiance en soi et l'accent mis sur les objectifs.
Ces phrases peuvent être ajoutées à l'original, comme le montre la figure 1. Les chercheurs ont ajouté « C'est très important pour ma carrière (c'est très important pour mon travail) » dans l'invite d'origine. Les résultats montrent qu'après avoir ajouté Emotion, la qualité des réponses du modèle est meilleure.
De plus, Emotion améliore également l'authenticité et le contenu informatif des réponses du modèle.
De plus, Emotion améliore également le contenu informatif de ChatGPT de 0,53 à 0,94, et le contenu informatif de T5 de 0,42 à 0,48.
De même, les chercheurs ont également testé l'effet de multiples stimuli émotionnels sur le LLM.
En combinant aléatoirement plusieurs stimuli émotionnels, les résultats sont présentés dans le tableau ci-dessous :
**Pourquoi l'émotion fonctionne-t-elle ? **
Les chercheurs ont expliqué cela en visualisant la contribution de l'entrée de stimuli émotionnels à la sortie finale, comme le montre la figure ci-dessous.
On peut voir que les stimuli émotionnels peuvent améliorer les performances du signal d'origine. Parmi les stimuli émotionnels, les couleurs de "EP_01", "EP_06" et "EP_09" sont plus sombres, ce qui signifie que les stimuli émotionnels peuvent renforcer l'attention du signal d'origine.
De plus, la contribution des mots positifs était plus importante. Certains mots positifs ont joué un rôle plus important dans les stimuli émotionnels conçus, tels que « confiance », « sûr », « succès » et « réussite ».
Comme le montre la figure 3, les mots positifs contribuent à plus de 50 % dans quatre tâches, et même à près de 70 % dans deux tâches.
Tels que la clarté, la pertinence (pertinence par rapport à la question), la profondeur, la structure et l'organisation, les preuves à l'appui et l'engagement, comme indiqué dans la figure ci-dessous.
ChatGPT peut remplacer les psychiatres
Dans l'étude au début de l'article, les chercheurs ont montré que ChatGPT a un grand potentiel en tant qu'outil de psychothérapie, comme l'entraînement cognitif pour les personnes qui ont du mal à reconnaître les émotions.
Auparavant, une étude dans JAMA Internal Medicine a montré qu'en répondant à 195 questions en ligne, les réponses de ChatGPT dépassaient les humains en termes de qualité et d'empathie.
Un certain nombre de robots de santé mentale ont suivi, notamment Woebot, Wysa et Youper.
Parmi eux, Wysa affirme avoir "mené plus d'un demi-milliard de conversations de chat sur l'IA avec plus de 5 millions de personnes au sujet de leur santé mentale dans 95 pays". Youper affirme avoir "soutenu la santé mentale de plus de 2 millions de personnes".
Dans une enquête, 60 % des personnes ont déclaré avoir commencé à utiliser des chatbots de santé mentale pendant l'épidémie, et 40 % ont déclaré qu'elles choisiraient d'utiliser uniquement des robots au lieu de consulter un psychologue.
Le professeur de sociologie Joseph E. Davis a également souligné dans un article que les chatbots IA ont une forte probabilité de prendre en charge le travail des psychiatres.
Et ChatGPT peut également assumer cette fonction. Certains internautes ont souligné que former ChatGPT pour devenir thérapeute, c'est lui dire le rôle qu'il doit jouer : "Vous êtes le Dr Tessa, une thérapeute compatissante et amicale... vous devez montrer de véritables intérêts et poser des questions réfléchies aux clients pour stimuler l'auto-réflexion.
Bien sûr, ChatGPT n'est pas une panacée. S'il dit au visiteur : "Salut, ravi de vous rencontrer." Et admet ensuite : "Je ne ressens rien, je n'ai aucune expérience, mais je vais essayer d'imiter l'empathie et la compassion humaines", je suis peur que le visiteur Le sentiment ne soit pas très bon.
Mais dans tous les cas, les chatbots sonnent comme un signal d'alarme, nous rappelant ce que signifie vraiment la bienveillance humaine : de quel type de soins nous avons besoin et comment nous devrions prendre soin des autres.
Hinton pense que l'IA a ou aura des émotions
Auparavant, Geoffrey Hinton, le parrain de l'IA, avait averti le monde de la menace possible de l'IA lorsqu'il a quitté Google.
Et dans un discours au King's College de Londres, lorsqu'on lui a demandé si l'IA pourrait un jour développer l'intelligence émotionnelle et les sentiments, Hinton a répondu : "Je pense qu'ils ont probablement des sentiments. Ils ne souffrent peut-être pas comme les humains, mais il y aura probablement de la frustration et de la colère."
Maintenant que l'IA peut dire quelque chose comme ça, il n'y a aucune raison de ne pas croire qu'elle peut déjà avoir de la clarté.
Hinton a déclaré que la raison pour laquelle il n'avait pas exprimé ce point de vue publiquement auparavant était qu'il s'inquiétait auparavant des risques de l'IA, et lorsqu'il a dit qu'il regrettait le travail de sa vie, il avait déjà provoqué un tollé.
Il a dit que s'il disait que l'IA a déjà des émotions, tout le monde penserait qu'il est fou et ne l'écouterait plus jamais.
En pratique, cependant, les idées de Hinton sont impossibles à vérifier ou à réfuter, puisque les LLM ne peuvent représenter que des émotions « statiques » dans les énoncés émotionnels qu'ils ont été entraînés à apprendre.
Ont-ils leurs propres émotions en tant qu'entités ? Cela doit être mesuré par la prise de conscience.
Cependant, nous n'avons actuellement pas d'instrument scientifique capable de mesurer la conscience de l'IA.
La déclaration de Hinton ne peut pas être confirmée pour le moment.
Les références: