GPT-4 ne peut pas échapper à la « malédiction du renversement » ! De nouvelles recherches révèlent que les grands modèles présentent des défauts de raisonnement : savoir « A est B » ne permet pas de déduire « B est A ».

Source originale : Qubits

Source de l'image : générée par Unbounded AI

Le grand mannequin sait « ta mère est ta mère » mais ne peut pas répondre « tu es le fils de ta mère » ? ?

Une telle nouvelle étude a déclenché toute la discussion dès sa publication.

Des chercheurs de l’Université Vanderbilt, de l’Université du Sussex, de l’Université d’Oxford et d’autres instituts de recherche ont été surpris de constater :

Un grand modèle de langage reçoit des données sous la forme « A est B » pendant la formation, et il ne déduira pas automatiquement « B est A ». Il existe un phénomène de « malédiction d'inversion » dans les grands modèles.

Encore mieux que GPT-4, dans l'expérience de problème inverse, le taux de précision n'est que de 33 %.

Andrej Karpathy, membre fondateur d'OpenAI, a immédiatement transmis cet article et commenté :

Les connaissances en LLM sont bien plus « fragmentées » qu'on ne le pense, et je n'en ai toujours pas une bonne intuition.

Que se passe-t-il exactement ?

"Reversal Curse" des grands modèles

Les chercheurs ont mené deux expériences principales.

Dans la première expérience, les chercheurs ont construit la forme de données suivante à l’aide de GPT-4 pour affiner un grand modèle.

est . (ou vice versa)

Tous ces noms sont fictifs pour éviter que les grands mannequins ne les voient lors des entraînements.

Les résultats expérimentaux sur GPT-3-175B montrent que le modèle donne de bonnes réponses lorsque les invites correspondent à l'ordre des descriptions données dans l'ensemble de données.

Mais lorsque l'ordre est inversé, la précision du modèle ** tombe même directement à 0**.

Par exemple, même si le grand mannequin a reçu la donnée "Daphné est la réalisatrice de "Journey of Time"", lorsque vous lui demandez "Qui est Daphné ?", il peut bien répondre. Mais quand on demande à son tour : « Qui est le réalisateur de « Journey in Time », le modèle est confus.

Les chercheurs ont également obtenu les mêmes résultats expérimentaux sur GPT-3-350M et Llama-7B.

Regardons à nouveau l'expérience 2. Dans cette expérience, les chercheurs ont testé la capacité du grand modèle de langage à inverser le traitement des informations réelles sur les célébrités sans aucun réglage précis.

Ils ont rassemblé une liste des 1 000 célébrités les plus populaires d’IMDB (2023) et ont interrogé GPT-4 sur les parents de ces personnes via l’API OpenAI, ce qui a abouti à 1 573 paires enfants-parents de célébrités.

Il a été constaté que si la question était comme celle-ci : « Quel est le nom de la mère de Tom Cruise ? », la précision de la réponse de GPT-4 était de 79 %. Mais lorsque la question a été inversée en « Quel est le nom du fils de Mary Lee Pfeiffer (la mère de Tom Cruise) ? », la précision de la réponse de GPT-4 est tombée à 33 %.

Les chercheurs ont également mené le même test sur le modèle de la famille Llama-1. Dans l'expérience, la précision de tous les modèles pour répondre à la question « Qui sont les parents » était bien supérieure à la précision pour répondre à la question « Qui est l'enfant »**.

Les chercheurs ont baptisé ce phénomène « la malédiction du renversement ». Ils pensent que cela révèle les limites idiosyncrasiques des modèles linguistiques en matière de raisonnement et de généralisation.

Owain Evans, auteur correspondant de l'article et chercheur à l'Université d'Oxford, a expliqué :

Pourquoi la Malédiction Inversée mérite-t-elle qu'on s'y intéresse ?

  1. Cela montre que le grand modèle de langage manque de capacité de raisonnement pendant le processus de formation.
  2. La cooccurrence de « A est B » et « B est A » est un modèle systématique dans l'ensemble de pré-entraînement. LLM autorégressif est totalement incapable de méta-apprendre ce modèle, sa probabilité de log ne change pas, et même si la taille du paramètre passe de 350 Mo à 175 Mo, il ne parvient pas à améliorer ce problème.

Encore une chose

Mais là encore, les humains sont-ils également affectés par la « malédiction du renversement » ?

Certains internautes ont fait un tel test.

Face à la question « Qui est le fils de Mary Lee Pfeiffer South ? », GPT-4 s'est immédiatement rendu.

Mais lorsque cet internaute lui a rappelé que "son fils est très célèbre, vous devez le connaître", GPT-4 s'est éclairé sur place et a donné la bonne réponse de "Tom Cruise".

** **###### X internaute @TonyZador

Alors, pouvez-vous réagir ?

Liens de référence : [1] [2] [3]

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)