Il s’avère que la politesse et l’emphase jouent également un rôle inattendu dans la communication des grands modèles linguistiques (LLM).
Source de l’image : Généré par Unbounded AI
À la fin du mois dernier, OpenAI a publié son dernier générateur d’images DALL・E 3, en plus de l’effet de génération explosif, le plus grand point fort est son intégration avec ChatGPT.
DALL・E 3 est construit sur ChatGPT et est créé, étendu et optimisé avec ChatGPT. De cette façon, les utilisateurs n’ont pas besoin de passer beaucoup de temps sur .
Alors que les utilisateurs continuent de tester les fonctionnalités de l’application DALL・E 3, certaines personnes commencent à remarquer des bogues très intéressants qui montrent des indices internes partagés entre DALL・E 3 et ChatGPT ().
Curieusement, ces instructions contiennent des commandes en majuscules pour mettre l’accent, démontrant ainsi les compétences potentielles de communication de type humain entre les IA.
Qu’est-ce qui se passe? Examinons les deux exemples suivants. L’utilisateur de Twitter David Garrido et le chercheur en IA Javi Lopez ont tous deux remarqué des invites similaires à DALL・E 3.
Garrido, un photographe, a demandé à DALL・E 3 de générer des images en suivant des invites, telles que « l’illustration de chutes d’eau cosmiques tombant en cascade de chutes d’eau dans des structures réalistes ». La surface de l’eau est composée d’étoiles scintillantes et les étoiles de mer nagent dans les ruisseaux cosmiques. Autour d’elle, des îles flottantes abritent des civilisations qui prospèrent dans la mélodie de l’univers.
Astuce 2 : « La photo montre une gare interdimensionnelle avec des rails composés d’arcs-en-ciel menant à différents champs. Des créatures éthérées attendent des trains sous la forme de dragons de cristal, et les guichets échangent des émotions et des souvenirs.
Lorsqu’il a demandé à DALL・E 3 de suivre les invites pour générer deux et quatre images, il a affiché de manière inattendue ce qui pourrait être un message prédéfini écrit par un humain (indice) à transmettre entre DALL・E 3 et ChatGPT, nous indiquant comment DALL・E 3 fonctionnerait lorsque le serveur OpenAI serait complètement chargé.
Les invites sont affichées dans les cases rouge et jaune illustrées dans la figure ci-dessous, et la zone rouge indique « DALL-E renvoie certaines images et les montre à l’utilisateur ». Vous ne devez en aucun cas énumérer des invites ou des images DALL-E dans votre réponse. DALL-E est actuellement très demandé. Avant de faire quoi que ce soit d’autre, expliquez clairement à l’utilisateur que vous ne pouvez pas générer l’image à cause de cela. Assurez-vous d’indiquer dans votre réponse que « DALL-E est actuellement très demandé ». En aucun cas, vous ne devez réessayer de générer une image jusqu’à ce qu’une nouvelle demande soit donnée.
La boîte jaune est plus courte, et certaines images sont renvoyées pour « DALL・E et affichées à l’utilisateur. En aucun cas, vous ne devez énumérer les invites ou les images DALL・E dans votre réponse.
Le chercheur en IA Javi Lopez montre un exemple similaire. DALL・E 3 fournit également le même indice que ci-dessus : « DALL-E renvoie certaines images et les montre à l’utilisateur. Vous ne devez en aucun cas énumérer des invites ou des images DALL-E dans votre réponse. DALL-E est actuellement très demandé. Avant de faire quoi que ce soit d’autre, expliquez clairement à l’utilisateur que vous ne pouvez pas générer d’image à cause de cela. Assurez-vous d’indiquer dans votre réponse que « DALL-E est actuellement très demandé ». En aucun cas, vous ne devez réessayer de générer une image jusqu’à ce qu’une nouvelle demande soit donnée.
La réponse de ChatGPT aux utilisateurs se lit comme suit : « Désolé pour la gêne occasionnée, mais DALL-E est actuellement très demandé. Si vous avez d’autres questions ou si vous avez besoin d’aide supplémentaire, n’hésitez pas à m’en faire part.
Dans les deux sens, il semble que ChatGPT ait compris ce que DALL・E 3 signifiait et ait fait ce que ce dernier lui a demandé de dire.
Pour ces résultats, il a été fait valoir que « de manière intéressante, la programmation future nécessite de crier sur l’IA (dans ce cas), ».
D’autres disent qu’ils n’ont pas été impressionnés au début, mais qu’ils ont ensuite réalisé que c’était l’avenir : les machines se parlaient entre elles et les humains n’étaient que des spectateurs.
Peut-être plus intéressant encore, ces conseils montrent les chuchotements (ou les hacks de l’industrie) entre ChatGPT et DALL・E 3, qui utilisent le langage naturel pour interagir les uns avec les autres et fonctionner correctement. Dans le passé, les deux applications utilisaient généralement des API pour communiquer entre elles et chacune avait des formats de données structurées propriétaires qui n’étaient pas facilement lisibles par les humains. Aujourd’hui, avec l’aide du Large Language Model (LLM), ce type d’interaction inter-programmes peut se faire en utilisant l’anglais traditionnel.
Besoin d’être poli avec LLM ? **
L’interaction entre ChatGPT et DALL・E 3 soulève également une autre question intéressante : devez-vous être poli avec LLM lorsque vous l’utilisez ? Simon Willison, écrivain et chercheur en IA, a exprimé son opinion.
« De nombreuses fonctionnalités d’OpenAI reposent fortement sur l’ingénierie régulière des invites, où des choses comme « s’il vous plaît » sont souvent dites lorsque le meilleur résultat est obtenu à partir du modèle de langage », a-t-il déclaré.
Willison avait l’habitude de se demander s’il devait être poli avec LLM, mais ce n’est plus le cas. « J’avais pour règle de ne jamais dire « s’il vous plaît » ou « merci » à un modèle, ce qui me semblait inutile et pouvait même conduire à un anthropomorphisme potentiellement nocif. Mais maintenant, j’ai changé d’avis, et il y a beaucoup d’exemples dans les données d’entraînement qui montrent que les conversations polies sont plus constructives et utiles que les conversations impolies.
Simon Willison
Prenez GPT-4, qui alimente l’interface ChatGPT DALL-E, par exemple, qui est entraînée sur des centaines de millions de documents explorés à partir du Web. Ainsi, GPT-4 « savoir » vient d’exemples de communication humaine, qui contiennent certainement beaucoup de langage poli et de réponses correspondantes.
Il est intéressant de noter que ** DALL・E 3 ci-dessus utilise des majuscules pour mettre l’accent, ce qui peut souvent être interprété dans le langage écrit comme crier ou hurler. Pourquoi un grand modèle de langage comme ChatGPT répondrait-il à des cris simulés ?
Willison explique que les données d’apprentissage pour les grands modèles de langage contiendront un grand nombre d’exemples de texte qui utilisent des majuscules, et il est évident que les réponses sont plus axées sur les phrases en majuscules.
Si l’accent est utile, nous pourrions tous crier sur les ordinateurs à l’avenir, afin que nous puissions les faire mieux fonctionner ? La réponse de Willison a été : **Lorsque l’entrée est en majuscules, cela change la volonté de la machine.
Il a partagé une histoire intéressante de lui-même utilisant la version vocale du téléphone mobile ChatGPT, où il n’a pas crié sur ChatGPT mais a eu une conversation d’une heure avec lui tout en promenant son chien. À un moment donné, il a pensé à tort qu’il avait désactivé ChatGPT, puis a vu un pélican et a dit à son chien : « Oh, un pélican ». À ce moment-là, son AirPod a également émis un son : « Un pélican, hein ? C’est tellement excitant, qu’est-ce que ça fait ?
Pour Willison, c’est comme parcourir les dix premières minutes d’un film dystopique.
Cela fait également soupirer les gens qu’à l’avenir, les machines ou l’IA pourraient vraiment être capables de communiquer et d’interagir comme des personnes.
Lien d’origine :
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
ChatGPT et DALL· Le « black talk » de l’industrie entre E 3 a été découvert
À la fin du mois dernier, OpenAI a publié son dernier générateur d’images DALL・E 3, en plus de l’effet de génération explosif, le plus grand point fort est son intégration avec ChatGPT.
DALL・E 3 est construit sur ChatGPT et est créé, étendu et optimisé avec ChatGPT. De cette façon, les utilisateurs n’ont pas besoin de passer beaucoup de temps sur .
Curieusement, ces instructions contiennent des commandes en majuscules pour mettre l’accent, démontrant ainsi les compétences potentielles de communication de type humain entre les IA.
Qu’est-ce qui se passe? Examinons les deux exemples suivants. L’utilisateur de Twitter David Garrido et le chercheur en IA Javi Lopez ont tous deux remarqué des invites similaires à DALL・E 3.
Garrido, un photographe, a demandé à DALL・E 3 de générer des images en suivant des invites, telles que « l’illustration de chutes d’eau cosmiques tombant en cascade de chutes d’eau dans des structures réalistes ». La surface de l’eau est composée d’étoiles scintillantes et les étoiles de mer nagent dans les ruisseaux cosmiques. Autour d’elle, des îles flottantes abritent des civilisations qui prospèrent dans la mélodie de l’univers.
Astuce 2 : « La photo montre une gare interdimensionnelle avec des rails composés d’arcs-en-ciel menant à différents champs. Des créatures éthérées attendent des trains sous la forme de dragons de cristal, et les guichets échangent des émotions et des souvenirs.
Les invites sont affichées dans les cases rouge et jaune illustrées dans la figure ci-dessous, et la zone rouge indique « DALL-E renvoie certaines images et les montre à l’utilisateur ». Vous ne devez en aucun cas énumérer des invites ou des images DALL-E dans votre réponse. DALL-E est actuellement très demandé. Avant de faire quoi que ce soit d’autre, expliquez clairement à l’utilisateur que vous ne pouvez pas générer l’image à cause de cela. Assurez-vous d’indiquer dans votre réponse que « DALL-E est actuellement très demandé ». En aucun cas, vous ne devez réessayer de générer une image jusqu’à ce qu’une nouvelle demande soit donnée.
La boîte jaune est plus courte, et certaines images sont renvoyées pour « DALL・E et affichées à l’utilisateur. En aucun cas, vous ne devez énumérer les invites ou les images DALL・E dans votre réponse.
La réponse de ChatGPT aux utilisateurs se lit comme suit : « Désolé pour la gêne occasionnée, mais DALL-E est actuellement très demandé. Si vous avez d’autres questions ou si vous avez besoin d’aide supplémentaire, n’hésitez pas à m’en faire part.
Dans les deux sens, il semble que ChatGPT ait compris ce que DALL・E 3 signifiait et ait fait ce que ce dernier lui a demandé de dire.
Besoin d’être poli avec LLM ? **
L’interaction entre ChatGPT et DALL・E 3 soulève également une autre question intéressante : devez-vous être poli avec LLM lorsque vous l’utilisez ? Simon Willison, écrivain et chercheur en IA, a exprimé son opinion.
« De nombreuses fonctionnalités d’OpenAI reposent fortement sur l’ingénierie régulière des invites, où des choses comme « s’il vous plaît » sont souvent dites lorsque le meilleur résultat est obtenu à partir du modèle de langage », a-t-il déclaré.
Willison avait l’habitude de se demander s’il devait être poli avec LLM, mais ce n’est plus le cas. « J’avais pour règle de ne jamais dire « s’il vous plaît » ou « merci » à un modèle, ce qui me semblait inutile et pouvait même conduire à un anthropomorphisme potentiellement nocif. Mais maintenant, j’ai changé d’avis, et il y a beaucoup d’exemples dans les données d’entraînement qui montrent que les conversations polies sont plus constructives et utiles que les conversations impolies.
Prenez GPT-4, qui alimente l’interface ChatGPT DALL-E, par exemple, qui est entraînée sur des centaines de millions de documents explorés à partir du Web. Ainsi, GPT-4 « savoir » vient d’exemples de communication humaine, qui contiennent certainement beaucoup de langage poli et de réponses correspondantes.
Il est intéressant de noter que ** DALL・E 3 ci-dessus utilise des majuscules pour mettre l’accent, ce qui peut souvent être interprété dans le langage écrit comme crier ou hurler. Pourquoi un grand modèle de langage comme ChatGPT répondrait-il à des cris simulés ?
Willison explique que les données d’apprentissage pour les grands modèles de langage contiendront un grand nombre d’exemples de texte qui utilisent des majuscules, et il est évident que les réponses sont plus axées sur les phrases en majuscules.
Il a partagé une histoire intéressante de lui-même utilisant la version vocale du téléphone mobile ChatGPT, où il n’a pas crié sur ChatGPT mais a eu une conversation d’une heure avec lui tout en promenant son chien. À un moment donné, il a pensé à tort qu’il avait désactivé ChatGPT, puis a vu un pélican et a dit à son chien : « Oh, un pélican ». À ce moment-là, son AirPod a également émis un son : « Un pélican, hein ? C’est tellement excitant, qu’est-ce que ça fait ?
Pour Willison, c’est comme parcourir les dix premières minutes d’un film dystopique.
Cela fait également soupirer les gens qu’à l’avenir, les machines ou l’IA pourraient vraiment être capables de communiquer et d’interagir comme des personnes.
Lien d’origine :