Sans annonce, OpenAI a discrètement **fermé l'outil de détection de texte AI **, et la page directement 404.
Il n'y a pas eu de réponse officielle à cela, et il a fallu quelques jours avant que quelqu'un trouve une courte description cachée dans la page de blog de l'outil publié il y a six mois.
...Le détecteur d'IA n'est plus disponible en raison d'une faible précision... Nous travaillons sur des techniques de détection de texte plus efficaces et nous nous engageons à développer des techniques de détection audio et visuelles.
De nombreux internautes sont mécontents du comportement de CloseAIOpenAI tuant un produit sans publier d'annonce.
Mais il y a beaucoup de gens qui sont d'accord pour éteindre le détecteur d'IA lui-même, en particulier le groupe d'étudiants.
Trop d'enseignants croient que cette chose est efficace, et un grand nombre d'élèves lésés trichent avec l'IA, qui est devenue une chasse aux sorcières.
** Le taux de précision est presque le même que celui de deviner **
Quelle est la faible précision de cet outil de test officiel ?
Les données fournies par OpenAI lui-même ne peuvent identifier correctement que **26 % ** des textes générés par l'IA et ont lésé ** 9 % ** des textes écrits par des humains.
Lorsqu'il a été publié pour la première fois en janvier, les internautes l'ont résumé comme "presque comme deviner".
De plus, certaines personnes ont fait des expériences et ont découvert que divers outils de détection sur le marché jugeront que des textes historiques tels que la Bible et la Constitution des États-Unis peuvent être écrits par l'IA. Les personnages historiques qui ne peuvent pas écrire ces contenus sont des voyageurs dans le temps, n'est-ce pas ?
Mais il y a encore beaucoup d'enseignants qui essaient de vérifier le travail des élèves avec diverses méthodes de détection.
Dans l'un des cas les plus célèbres, un professeur de la Texas A&M University a presque jugé que la moitié de sa classe était en retard.
La dernière tendance est que les enseignants demandent aux élèves d'écrire des devoirs dans des documents en ligne et de vérifier les enregistrements d'édition, mais les élèves intelligents peuvent également trouver des moyens de contourner cela.
Enfin, dans le domaine de l'éducation, certaines personnes ont suggéré que les devoirs/documents de cours volumineux pourraient devenir de l'histoire, et que les examens à livre fermé ou les examens oraux deviendraient courants.
Les méthodes de détection actuelles peuvent être contournées
Les internautes ont souligné qu'il est contradictoire qu'OpenAI développe en même temps des outils de génération et de détection.
Si un côté va bien, l'autre côté ne va pas bien, et il peut y avoir un conflit d'intérêts.
Cependant, les méthodes de détection développées par des tiers ne sont pas fiables.
Le plus ancien connu sous le nom de "ChatGPT Nemesis" est ** GPTZero ** développé par Edward Tian, étudiant de premier cycle à Princeton, qui utilise la complexité et les changements de longueur et de longueur des phrases pour mesurer si un article est généré par l'IA.
À cette époque, le projet GPTZero était spécialement créé pour les éducateurs, et les enseignants pouvaient y jeter les devoirs de toute la classe pour les tester.
Mais en juillet, l'auteur a avoué avoir renoncé à la direction de détection de la tricherie des élèves. Il est prévu que la prochaine version de GPTZero ne détecte plus si le texte est généré par l'IA, mais met en évidence la partie la plus humaine.
Une autre méthode de détection qui a reçu beaucoup d'attention est la méthode de filigrane développée par l'Université du Maryland, qui nécessite de grands modèles pour masquer les marques lors de la génération de texte et utiliser des méthodes statistiques pour les identifier.
Mais le moyen de le contourner est également très simple.Par exemple, quelqu'un a développé un simple outil de remplacement de synonymes qui peut détruire des caractéristiques statistiques.
Certaines personnes ont même commencé à se demander pourquoi les gens doivent distinguer cela.
Tout comme si les chiffres sont calculés par des humains ou complétés par des ordinateurs, personne ne s'en soucie depuis longtemps.
Est-ce que personne ne se soucie de savoir si le manuscrit de l'orateur est écrit par lui-même ou par le secrétaire ?
Recherche sur le comportement humain, utilisant l'IA comme sujet
L'incapacité à faire la distinction entre l'IA et le contenu humain ne semble pas être entièrement mauvaise.
Il existe déjà des expériences psychologiques qui utilisent l'IA au lieu de sujets humains pour accélérer la recherche.
Un article du sous-journal Cell a souligné que dans des scénarios expérimentaux bien conçus, les réponses de ChatGPT étaient corrélées avec les réponses d'environ 95% des participants humains.
Et les sujets de la machine ne se fatiguent pas, ce qui permet aux scientifiques de collecter des données et de tester des théories sur le comportement humain à une vitesse sans précédent.
Dans un récent article d'opinion paru dans la revue principale Science, Igor Grossman, professeur de psychologie à l'Université de Waterloo, estime :
"L'IA pourrait changer la donne pour la recherche en sciences sociales, où une gestion minutieuse des biais et la fidélité des données sont essentielles."
### Lien de référence
[1]
[2]
[3]
[4]
[5]
[6]
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
ChatGPT supprime l'outil de détection officiel et admet que le texte de l'IA ne peut pas être identifié
Source : "Qubit" (ID : QbitAI), auteur : Mengchen
Sans annonce, OpenAI a discrètement **fermé l'outil de détection de texte AI **, et la page directement 404.
Trop d'enseignants croient que cette chose est efficace, et un grand nombre d'élèves lésés trichent avec l'IA, qui est devenue une chasse aux sorcières.
** Le taux de précision est presque le même que celui de deviner **
Quelle est la faible précision de cet outil de test officiel ?
Les données fournies par OpenAI lui-même ne peuvent identifier correctement que **26 % ** des textes générés par l'IA et ont lésé ** 9 % ** des textes écrits par des humains.
De plus, certaines personnes ont fait des expériences et ont découvert que divers outils de détection sur le marché jugeront que des textes historiques tels que la Bible et la Constitution des États-Unis peuvent être écrits par l'IA. Les personnages historiques qui ne peuvent pas écrire ces contenus sont des voyageurs dans le temps, n'est-ce pas ?
Mais il y a encore beaucoup d'enseignants qui essaient de vérifier le travail des élèves avec diverses méthodes de détection.
Dans l'un des cas les plus célèbres, un professeur de la Texas A&M University a presque jugé que la moitié de sa classe était en retard.
Les méthodes de détection actuelles peuvent être contournées
Les internautes ont souligné qu'il est contradictoire qu'OpenAI développe en même temps des outils de génération et de détection.
Si un côté va bien, l'autre côté ne va pas bien, et il peut y avoir un conflit d'intérêts.
Le plus ancien connu sous le nom de "ChatGPT Nemesis" est ** GPTZero ** développé par Edward Tian, étudiant de premier cycle à Princeton, qui utilise la complexité et les changements de longueur et de longueur des phrases pour mesurer si un article est généré par l'IA.
À cette époque, le projet GPTZero était spécialement créé pour les éducateurs, et les enseignants pouvaient y jeter les devoirs de toute la classe pour les tester.
Mais en juillet, l'auteur a avoué avoir renoncé à la direction de détection de la tricherie des élèves. Il est prévu que la prochaine version de GPTZero ne détecte plus si le texte est généré par l'IA, mais met en évidence la partie la plus humaine.
Tout comme si les chiffres sont calculés par des humains ou complétés par des ordinateurs, personne ne s'en soucie depuis longtemps.
Est-ce que personne ne se soucie de savoir si le manuscrit de l'orateur est écrit par lui-même ou par le secrétaire ?
Recherche sur le comportement humain, utilisant l'IA comme sujet
L'incapacité à faire la distinction entre l'IA et le contenu humain ne semble pas être entièrement mauvaise.
Il existe déjà des expériences psychologiques qui utilisent l'IA au lieu de sujets humains pour accélérer la recherche.
Un article du sous-journal Cell a souligné que dans des scénarios expérimentaux bien conçus, les réponses de ChatGPT étaient corrélées avec les réponses d'environ 95% des participants humains.
Et les sujets de la machine ne se fatiguent pas, ce qui permet aux scientifiques de collecter des données et de tester des théories sur le comportement humain à une vitesse sans précédent.
"L'IA pourrait changer la donne pour la recherche en sciences sociales, où une gestion minutieuse des biais et la fidélité des données sont essentielles."
[1]
[2]
[3]
[4]
[5]
[6]