SiliconValleyWangChua
vip

Le modèle de langage de grande taille consiste essentiellement à construire de force une vision cohérente sur la base des données d'entrée existantes. Les hallucinations ( peuvent être considérées comme une manifestation naturelle et une extension cohérente. De nombreuses nouvelles découvertes scientifiques sont précisément dues à une "erreur" rencontrée dans la nature qui ne peut être expliquée par les théories existantes, n'est pas cohérente, et donc doit abandonner les anciennes théories. Cela explique en gros pourquoi, jusqu'à présent, aucun modèle de langage de grande taille (avec autant de données) n'a pu faire de découvertes scientifiques nouvelles de manière spontanée, car le modèle lui-même n'a pas la capacité de juger du vrai ou du faux.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)