Auteur : Li Zi, Ph.D. en sociologie de la technologie, stagiaire postdoctoral, Département des sciences humaines et de l'éthique médicales, Université de Columbia
Source de l'image : générée par l'IA illimitée
Au cours du premier semestre de l'année, ChatGPT est né et le potentiel de l'intelligence artificielle a été révélé, ce qui a amené une discussion sur la crise de survie dans de nombreuses industries. GPT peut réussir les examens de qualification du barreau et de l'ingénieur, rédiger des dissertations universitaires sans échouer et même "comprendre" des blagues. Il peut répondre aux questions des gens, organiser des structures linguistiques vives et imiter une variété de styles de langage ; et la combinaison de grands modèles de langage et de technologies d'IA de génération d'images, telles que Midjourney, peut permettre aux personnes qui n'ont reçu aucune formation artistique d'utiliser quelques mots "Créer" de superbes images artistiques.
L'essence de ChatGPT est en fait un grand modèle de langage (Large Language Model, LLM) superposé à l'intelligence artificielle générative. Un grand modèle de langage, comme son nom l'indique, est grand, utilisant un grand nombre de morphèmes pour entraîner un modèle informatique avec des méthodes d'apprentissage automatique. La formule générative utilise une méthode prédictive pour afficher les connexions de morphème les plus probables pendant le dialogue.
Pour les « processeurs » et les « consommateurs » de connaissances, les capacités des grands modèles de langage et de l'intelligence artificielle générative sont énormes. Des données massives de morphèmes, un réseau de neurones profond et une énorme puissance de calcul équivalent à "aplatir" l'ensemble des connaissances d'Internet, puis à les "assembler" par le biais d'une interaction homme-ordinateur.
** En termes de logique de calcul, ChatGPT équivaut à un moteur de recherche plus puissant. ** Les moteurs de recherche ordinaires tels que Google et Baidu "grattent" les informations de l'ensemble d'Internet via le mode crawler et trient des algorithmes complexes. La méthode d'intelligence artificielle utilisant l'apprentissage automatique équivaut à trier les informations de manière prédictive conformément à la logique du langage. Le traitement des connaissances est devenu plus pratique et plus rapide, et la consommation est devenue plus concise et claire, parfois même trop simple, ce qui donne l'occasion de tricher sur les copies d'examen.
En réponse à cela, les optimistes technologiques pensent que, puisque le contenu que les machines peuvent désormais générer, il n'est peut-être pas nécessaire que la plupart des humains utilisent leur cerveau pour le réaliser, tout comme les moteurs de recherche remplacent les cartes de bibliothèque et les calculatrices remplacent le boulier. En effet, même si l'IA n'intervient pas dans la prise de décision finale, ces tâches qui nécessitent beaucoup d'écriture répétitive, ou d'énumération et de tri mécanique, peuvent en effet apporter un degré considérable de productivité et aider les humains dans le traitement et la consommation des connaissances.
Alors, la lecture est-elle utile ? Le personnel des grandes universités et des instituts de recherche peut-il également quitter son travail ?
** Que peut "apprendre" la machine ? **
Les grands modèles de langage et l'intelligence artificielle générative ont apporté un sujet incontournable aux futurs « producteurs » de connaissances : qu'est-ce que la connaissance ? Comment produire des connaissances diverses, impartiales et authentiques ?
La capacité "d'apprentissage" de l'intelligence artificielle est incroyable. Le grand modèle de langage existant et l'application de l'intelligence artificielle ne peuvent être séparés de l'apprentissage automatique comme toile de fond. Le mot "apprentissage" consiste essentiellement à utiliser une grande quantité de données pour entraîner le modèle de prédiction et à trouver un équilibre entre la précision et l'universalité de la prédiction. Ce type de prédiction est en fait basé sur les connaissances existantes, et la prédiction du modèle de langage est également basée sur la connexion entre les langues existantes. Par exemple, saisissez « bœuf braisé » et la machine prédit « viande » ; puis, sur la base de plusieurs entrées, telles que l'emplacement, les personnes, les habitudes, etc., elle donnera des prédictions plus précises, telles que « le bœuf braisé de grand-mère » et bientôt.
Comment cette prédiction s'est-elle réalisée ? Le système de coordonnées que nous connaissons est bidimensionnel. Par exemple, dans l'ensemble de la population, il existe une correspondance approximative entre la taille et le poids : compte tenu de la taille, la machine prédit un poids moyen, qui est une prédiction basée sur des données existantes. Ajoutez une autre dimension, telle que le sexe, puis cela devient une coordonnée tridimensionnelle, et les prédictions des hommes et des femmes seront différentes. Si cela continue, les dimensions des données peuvent être infinies, et le modèle de l'apprentissage automatique consiste à trouver de telles connexions dans un espace multidimensionnel que le cerveau humain ne peut pas imaginer, et à ajuster constamment les poids entre les différentes dimensions. Par exemple, "quelle est l'importance" est la prédiction de la taille par rapport au poids, qui peut être ajustée après un grand nombre d'entrées de données.
** Par conséquent, l'intelligence artificielle basée sur l'apprentissage automatique connectera des données de différentes dimensions dans un espace de dimension supérieure, aura la capacité de découvrir des connexions potentielles entre les données et "apprendra" également certaines choses qui n'existent pas dans la réalité, mais très liens probables. **Utilisée dans le modèle de langage, l'intelligence artificielle peut également apprendre différents styles de langage et déterrer "l'essence" et les "problèmes" du texte existant.
** Plus les données sont volumineuses, plus le modèle est mature et plus ses capacités de calcul et d'exploration sont élevées. ** Semblable à l'IA telle que BERT et GPT, qui sont nées dans de grandes institutions, de nombreuses personnes pensent avoir atteint le "point d'inflexion" de la technologie, et il n'est pas déraisonnable que des changements quantitatifs produisent des changements qualitatifs - c'est une bonne chose chose pour les producteurs de connaissances. Cependant, les grands modèles ont également des problèmes inhérents, et plus le modèle est grand, plus les problèmes sont aigus, en particulier en ce qui concerne les aspects divers, justes et véridiques des connaissances.
Comment produire du vrai
** et des connaissances impartiales ? **
De nouvelles connaissances peuvent être générées à partir de connexions et de nouveaux modèles de connaissances existantes, ce qui est vrai que ce soit au niveau humain ou machine. Cependant, les connaissances existantes sont-elles suffisantes ? Est-il suffisant? Est-ce juste? Si la base des connaissances existantes est insuffisante ou même biaisée, les nouvelles connaissances construites sur celles-ci seront également biaisées.
Depuis que l'IA d'apprentissage automatique a été appliquée à grande échelle, les chercheurs ont continuellement révélé les biais inhérents à ces modèles : sexisme, racisme, production contraire à l'éthique, etc. Les développeurs utilisent divers correctifs et méthodes de correction pour compenser, mais la plupart des problèmes sont cachés dans le processus de production et de formation des données, et le biais de l'IA est également le reflet et l'amplification des préjugés sociaux.
Un autre problème est la qualité des données. L'apprentissage automatique implique non seulement la capacité de former des modèles, mais également la quantité et la qualité des données. Le processus de développement existant met davantage l'accent sur les performances du modèle et même sur la superstition, mais ignore le problème sous-jacent des sources de données. Aujourd'hui, la plupart des données dépendent du nettoyage et du formatage manuels, de la catégorisation, de l'étiquetage, etc. Souvent, ce processus de production de données est opaque, voire gribouillé. Par exemple, derrière le développement de l'IA des grandes entreprises, un grand nombre de main-d'œuvre "sale et salissante" est externalisée vers des "usines d'IA" dans des zones sous-développées. D'une part, ce processus pose des problèmes d'éthique du travail et, d'autre part, il pose également des problèmes de qualité des données.
À l'ère des grands modèles, ce problème peut être caché plus profondément : tous les chercheurs ou équipes n'ont pas la capacité de développer des modèles d'IA à partir de zéro, en particulier des modèles de langage et d'image de grande taille, dont la plupart sont basés sur des modèles existants. Les problèmes et les déviations du grand modèle lui-même seront migrés vers d'autres modèles d'application. Et plus l'écart est faible, plus il est difficile de le gérer par un réglage fin et une correction de l'écart.
Le mode de génération de prédiction du modèle de langage existant amplifiera même l'écart existant des données, entraînant l'effet de "surajustement": par exemple, une certaine maladie a une forte proportion de données statistiques dans un certain groupe ethnique, environ 60% ; Mais si le modèle de langage est utilisé pour générer un portrait d'un patient, alors il y a plus de 90 % de chances que la description du patient générée appartienne à ce groupe.
Désormais, certains entraînements de modèles d'IA adoptent un mode de "combat mutuel" - le soi-disant "réseau antagoniste génératif" (réseau antagoniste génératif), permettant à deux modèles de se générer et de se corriger en continu. Cette méthode améliore l'efficacité de la formation du modèle, mais tout petit écart sera amplifié dans cette "interaction". Dans le même principe, **si un producteur de connaissances qui travaille en étroite collaboration avec des machines s'appuie sur ce type de "génération", alors certains biais du modèle seront intégrés dans davantage de nouvelles connaissances, et les nouvelles connaissances seront absorbées sous forme de données, il renforce encore le biais du modèle. **Les producteurs de connaissances doivent rester vigilants dans ce processus.
**Qu'est-ce qu'une nouvelle connaissance ? La "génération" de l'IA pourrait-elle représenter de nouvelles connaissances ? **
Qu'est-ce que la soi-disant nouvelle connaissance? Si l'IA doit être pleinement utilisée pour produire des connaissances, les producteurs de connaissances doivent alors réfléchir à cette question du point de vue de la combinaison de l'homme et de la machine. Toute information, ainsi que les connaissances acquises par les humains dans le monde réel, doivent être « nettoyées » et « formatées » en données. Outre la qualité des données mentionnée ci-dessus, le processus de génération des données est également important. Bref, quel est le problème que l'on veut étudier ? Dans quel type de données cette question est-elle traduite ? Comment ces données sont-elles produites et représentent-elles pleinement et équitablement les questions que les producteurs de connaissances souhaitent étudier ?
Ce problème est également vrai pour les producteurs de connaissances "traditionnelles". Prenons l'exemple de l'histoire : bien que l'histoire étudie des événements passés, aucun événement passé ne peut être concluant à 100 %. Les chercheurs sont généralement constamment à la recherche de nouveaux matériaux historiques pour compléter leur compréhension des problèmes historiques et pour déterrer des perspectives et des voix négligées dans le passé. Fait intéressant, l'historiographie actuelle recourt souvent à une grande quantité de données, en particulier des données économiques, démographiques et climatiques passées, et s'appuie même sur l'apprentissage automatique pour apporter de nouvelles compréhensions et perspectives à l'histoire.
De même, s'appuyer sur des informations et des opinions générées par des machines peut amplifier l'importance de certaines sources de données. Les producteurs de connaissances d'aujourd'hui comptent trop sur l'information grand public, Internet et électronique pour créer sur des choses qui ont été « traduites » en données par d'autres. ** À l'ère de l'IA, la commodité et l'extensibilité fournies par l'IA permettront potentiellement aux gens d'ignorer plus facilement les connaissances non courantes et expérientielles qui n'ont pas été numérisées, informatisées, et donc de manquer la possibilité de former de nouveaux points de vue et perspectives . **
À un niveau plus profond, de nouvelles connaissances naissent souvent de l'excavation de nouveaux matériaux, de la collision de différents points de vue et perspectives et de la re-déconstruction des connaissances existantes. Le grand modèle de langage offre de nombreuses possibilités d'affichage des connaissances, mais sa logique interne et sa structure peuvent être contraires à ce mode de production.
** Sur la base de la méthode d'apprentissage du grand modèle de langage et des caractéristiques de la sortie générée par le modèle, le poids du contenu de sortie le mieux classé et la plus probable deviendra plus important et les fonctionnalités deviendront plus singulières **. "Généré par l'IA" est presque devenu un adjectif pour décrire les mots sans traits, répétitifs et absurdes qui sont dits comme s'ils n'étaient pas. Il est vrai que pour les consommateurs de connaissances, les réponses « les plus probables » abaissent considérablement le seuil de compréhension ; mais pour les producteurs de connaissances, ces choses peuvent plutôt devenir des obstacles.
**Où devraient aller les producteurs de connaissances dans la nouvelle ère ? **
Peut-être que de nombreux chercheurs en sciences sociales comme moi ont rencontré ce problème lors de l'utilisation de ChatGPT : demandez-lui d'expliquer un concept, et c'est logique ; Un auteur n'a jamais écrit de livre, jamais publié d'article. Plus le domaine est étroit et spécialisé, plus la possibilité de "non-sens" est grande.
Pour en revenir au principe de l'IA, ce type de « création » consiste en fait à extraire les connexions « possibles » des mots et des phrases dans des données massives, mais ces connexions n'existent pas dans la réalité. . Ce nouveau phénomène est maintenant appelé "hallucination". Pour les producteurs de connaissances, comment utiliser l'intelligence artificielle pour exploiter les modèles et les connexions dans la base de connaissances existante, mais rester vigilant face à la "vision" de la machine, ce qui existe et ce qui est douteux, est une compétence très importante.
"Dialogue" avec l'IA deviendra également une nouvelle compétence. L'IA actuelle est encore une mystérieuse "boîte noire" pour la plupart des personnes non techniques (même les techniciens). Comment partir du bas ou du niveau intermédiaire de la technologie pour parler aux machines plus efficacement, comprendre et lutter contre la "vision" nécessite la coopération des producteurs de connaissances et des praticiens techniques.
Pour la recherche de nouvelles connaissances, de nouvelles perspectives et de nouveaux matériaux, la structure et l'interprétation uniques de chaque domaine sont encore très importantes à l'heure actuelle. Les modèles prédictifs des grands modèles de langage et de l'IA générative ont toujours tendance à être uniques et répétitifs, et plus le matériel de formation est limité, plus les capacités seront limitées. Si vous souhaitez combiner les capacités de la machine et de l'homme, vous devez partir de la source de production de données, utiliser des données précises, diverses, justes et nouvelles pour former des modèles d'IA et établir un modèle d'interaction homme-ordinateur bénin.
L'avènement des grands modèles de langage et de l'IA générative n'est que le début des défis pour les chercheurs. Au lieu de parler de "remplacement", il vaut mieux rechercher la possibilité de rodage et de développement sous un regard plus prudent.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Avec ChatGPT, lire est-il toujours utile ?
Auteur : Li Zi, Ph.D. en sociologie de la technologie, stagiaire postdoctoral, Département des sciences humaines et de l'éthique médicales, Université de Columbia
Au cours du premier semestre de l'année, ChatGPT est né et le potentiel de l'intelligence artificielle a été révélé, ce qui a amené une discussion sur la crise de survie dans de nombreuses industries. GPT peut réussir les examens de qualification du barreau et de l'ingénieur, rédiger des dissertations universitaires sans échouer et même "comprendre" des blagues. Il peut répondre aux questions des gens, organiser des structures linguistiques vives et imiter une variété de styles de langage ; et la combinaison de grands modèles de langage et de technologies d'IA de génération d'images, telles que Midjourney, peut permettre aux personnes qui n'ont reçu aucune formation artistique d'utiliser quelques mots "Créer" de superbes images artistiques.
L'essence de ChatGPT est en fait un grand modèle de langage (Large Language Model, LLM) superposé à l'intelligence artificielle générative. Un grand modèle de langage, comme son nom l'indique, est grand, utilisant un grand nombre de morphèmes pour entraîner un modèle informatique avec des méthodes d'apprentissage automatique. La formule générative utilise une méthode prédictive pour afficher les connexions de morphème les plus probables pendant le dialogue.
Pour les « processeurs » et les « consommateurs » de connaissances, les capacités des grands modèles de langage et de l'intelligence artificielle générative sont énormes. Des données massives de morphèmes, un réseau de neurones profond et une énorme puissance de calcul équivalent à "aplatir" l'ensemble des connaissances d'Internet, puis à les "assembler" par le biais d'une interaction homme-ordinateur.
** En termes de logique de calcul, ChatGPT équivaut à un moteur de recherche plus puissant. ** Les moteurs de recherche ordinaires tels que Google et Baidu "grattent" les informations de l'ensemble d'Internet via le mode crawler et trient des algorithmes complexes. La méthode d'intelligence artificielle utilisant l'apprentissage automatique équivaut à trier les informations de manière prédictive conformément à la logique du langage. Le traitement des connaissances est devenu plus pratique et plus rapide, et la consommation est devenue plus concise et claire, parfois même trop simple, ce qui donne l'occasion de tricher sur les copies d'examen.
En réponse à cela, les optimistes technologiques pensent que, puisque le contenu que les machines peuvent désormais générer, il n'est peut-être pas nécessaire que la plupart des humains utilisent leur cerveau pour le réaliser, tout comme les moteurs de recherche remplacent les cartes de bibliothèque et les calculatrices remplacent le boulier. En effet, même si l'IA n'intervient pas dans la prise de décision finale, ces tâches qui nécessitent beaucoup d'écriture répétitive, ou d'énumération et de tri mécanique, peuvent en effet apporter un degré considérable de productivité et aider les humains dans le traitement et la consommation des connaissances.
Alors, la lecture est-elle utile ? Le personnel des grandes universités et des instituts de recherche peut-il également quitter son travail ?
** Que peut "apprendre" la machine ? **
Les grands modèles de langage et l'intelligence artificielle générative ont apporté un sujet incontournable aux futurs « producteurs » de connaissances : qu'est-ce que la connaissance ? Comment produire des connaissances diverses, impartiales et authentiques ?
La capacité "d'apprentissage" de l'intelligence artificielle est incroyable. Le grand modèle de langage existant et l'application de l'intelligence artificielle ne peuvent être séparés de l'apprentissage automatique comme toile de fond. Le mot "apprentissage" consiste essentiellement à utiliser une grande quantité de données pour entraîner le modèle de prédiction et à trouver un équilibre entre la précision et l'universalité de la prédiction. Ce type de prédiction est en fait basé sur les connaissances existantes, et la prédiction du modèle de langage est également basée sur la connexion entre les langues existantes. Par exemple, saisissez « bœuf braisé » et la machine prédit « viande » ; puis, sur la base de plusieurs entrées, telles que l'emplacement, les personnes, les habitudes, etc., elle donnera des prédictions plus précises, telles que « le bœuf braisé de grand-mère » et bientôt.
Comment cette prédiction s'est-elle réalisée ? Le système de coordonnées que nous connaissons est bidimensionnel. Par exemple, dans l'ensemble de la population, il existe une correspondance approximative entre la taille et le poids : compte tenu de la taille, la machine prédit un poids moyen, qui est une prédiction basée sur des données existantes. Ajoutez une autre dimension, telle que le sexe, puis cela devient une coordonnée tridimensionnelle, et les prédictions des hommes et des femmes seront différentes. Si cela continue, les dimensions des données peuvent être infinies, et le modèle de l'apprentissage automatique consiste à trouver de telles connexions dans un espace multidimensionnel que le cerveau humain ne peut pas imaginer, et à ajuster constamment les poids entre les différentes dimensions. Par exemple, "quelle est l'importance" est la prédiction de la taille par rapport au poids, qui peut être ajustée après un grand nombre d'entrées de données.
** Par conséquent, l'intelligence artificielle basée sur l'apprentissage automatique connectera des données de différentes dimensions dans un espace de dimension supérieure, aura la capacité de découvrir des connexions potentielles entre les données et "apprendra" également certaines choses qui n'existent pas dans la réalité, mais très liens probables. **Utilisée dans le modèle de langage, l'intelligence artificielle peut également apprendre différents styles de langage et déterrer "l'essence" et les "problèmes" du texte existant.
** Plus les données sont volumineuses, plus le modèle est mature et plus ses capacités de calcul et d'exploration sont élevées. ** Semblable à l'IA telle que BERT et GPT, qui sont nées dans de grandes institutions, de nombreuses personnes pensent avoir atteint le "point d'inflexion" de la technologie, et il n'est pas déraisonnable que des changements quantitatifs produisent des changements qualitatifs - c'est une bonne chose chose pour les producteurs de connaissances. Cependant, les grands modèles ont également des problèmes inhérents, et plus le modèle est grand, plus les problèmes sont aigus, en particulier en ce qui concerne les aspects divers, justes et véridiques des connaissances.
Comment produire du vrai
** et des connaissances impartiales ? **
De nouvelles connaissances peuvent être générées à partir de connexions et de nouveaux modèles de connaissances existantes, ce qui est vrai que ce soit au niveau humain ou machine. Cependant, les connaissances existantes sont-elles suffisantes ? Est-il suffisant? Est-ce juste? Si la base des connaissances existantes est insuffisante ou même biaisée, les nouvelles connaissances construites sur celles-ci seront également biaisées.
Depuis que l'IA d'apprentissage automatique a été appliquée à grande échelle, les chercheurs ont continuellement révélé les biais inhérents à ces modèles : sexisme, racisme, production contraire à l'éthique, etc. Les développeurs utilisent divers correctifs et méthodes de correction pour compenser, mais la plupart des problèmes sont cachés dans le processus de production et de formation des données, et le biais de l'IA est également le reflet et l'amplification des préjugés sociaux.
À l'ère des grands modèles, ce problème peut être caché plus profondément : tous les chercheurs ou équipes n'ont pas la capacité de développer des modèles d'IA à partir de zéro, en particulier des modèles de langage et d'image de grande taille, dont la plupart sont basés sur des modèles existants. Les problèmes et les déviations du grand modèle lui-même seront migrés vers d'autres modèles d'application. Et plus l'écart est faible, plus il est difficile de le gérer par un réglage fin et une correction de l'écart.
Le mode de génération de prédiction du modèle de langage existant amplifiera même l'écart existant des données, entraînant l'effet de "surajustement": par exemple, une certaine maladie a une forte proportion de données statistiques dans un certain groupe ethnique, environ 60% ; Mais si le modèle de langage est utilisé pour générer un portrait d'un patient, alors il y a plus de 90 % de chances que la description du patient générée appartienne à ce groupe.
Désormais, certains entraînements de modèles d'IA adoptent un mode de "combat mutuel" - le soi-disant "réseau antagoniste génératif" (réseau antagoniste génératif), permettant à deux modèles de se générer et de se corriger en continu. Cette méthode améliore l'efficacité de la formation du modèle, mais tout petit écart sera amplifié dans cette "interaction". Dans le même principe, **si un producteur de connaissances qui travaille en étroite collaboration avec des machines s'appuie sur ce type de "génération", alors certains biais du modèle seront intégrés dans davantage de nouvelles connaissances, et les nouvelles connaissances seront absorbées sous forme de données, il renforce encore le biais du modèle. **Les producteurs de connaissances doivent rester vigilants dans ce processus.
**Qu'est-ce qu'une nouvelle connaissance ? La "génération" de l'IA pourrait-elle représenter de nouvelles connaissances ? **
Qu'est-ce que la soi-disant nouvelle connaissance? Si l'IA doit être pleinement utilisée pour produire des connaissances, les producteurs de connaissances doivent alors réfléchir à cette question du point de vue de la combinaison de l'homme et de la machine. Toute information, ainsi que les connaissances acquises par les humains dans le monde réel, doivent être « nettoyées » et « formatées » en données. Outre la qualité des données mentionnée ci-dessus, le processus de génération des données est également important. Bref, quel est le problème que l'on veut étudier ? Dans quel type de données cette question est-elle traduite ? Comment ces données sont-elles produites et représentent-elles pleinement et équitablement les questions que les producteurs de connaissances souhaitent étudier ?
Ce problème est également vrai pour les producteurs de connaissances "traditionnelles". Prenons l'exemple de l'histoire : bien que l'histoire étudie des événements passés, aucun événement passé ne peut être concluant à 100 %. Les chercheurs sont généralement constamment à la recherche de nouveaux matériaux historiques pour compléter leur compréhension des problèmes historiques et pour déterrer des perspectives et des voix négligées dans le passé. Fait intéressant, l'historiographie actuelle recourt souvent à une grande quantité de données, en particulier des données économiques, démographiques et climatiques passées, et s'appuie même sur l'apprentissage automatique pour apporter de nouvelles compréhensions et perspectives à l'histoire.
De même, s'appuyer sur des informations et des opinions générées par des machines peut amplifier l'importance de certaines sources de données. Les producteurs de connaissances d'aujourd'hui comptent trop sur l'information grand public, Internet et électronique pour créer sur des choses qui ont été « traduites » en données par d'autres. ** À l'ère de l'IA, la commodité et l'extensibilité fournies par l'IA permettront potentiellement aux gens d'ignorer plus facilement les connaissances non courantes et expérientielles qui n'ont pas été numérisées, informatisées, et donc de manquer la possibilité de former de nouveaux points de vue et perspectives . **
À un niveau plus profond, de nouvelles connaissances naissent souvent de l'excavation de nouveaux matériaux, de la collision de différents points de vue et perspectives et de la re-déconstruction des connaissances existantes. Le grand modèle de langage offre de nombreuses possibilités d'affichage des connaissances, mais sa logique interne et sa structure peuvent être contraires à ce mode de production.
** Sur la base de la méthode d'apprentissage du grand modèle de langage et des caractéristiques de la sortie générée par le modèle, le poids du contenu de sortie le mieux classé et la plus probable deviendra plus important et les fonctionnalités deviendront plus singulières **. "Généré par l'IA" est presque devenu un adjectif pour décrire les mots sans traits, répétitifs et absurdes qui sont dits comme s'ils n'étaient pas. Il est vrai que pour les consommateurs de connaissances, les réponses « les plus probables » abaissent considérablement le seuil de compréhension ; mais pour les producteurs de connaissances, ces choses peuvent plutôt devenir des obstacles.
**Où devraient aller les producteurs de connaissances dans la nouvelle ère ? **
Peut-être que de nombreux chercheurs en sciences sociales comme moi ont rencontré ce problème lors de l'utilisation de ChatGPT : demandez-lui d'expliquer un concept, et c'est logique ; Un auteur n'a jamais écrit de livre, jamais publié d'article. Plus le domaine est étroit et spécialisé, plus la possibilité de "non-sens" est grande.
Pour en revenir au principe de l'IA, ce type de « création » consiste en fait à extraire les connexions « possibles » des mots et des phrases dans des données massives, mais ces connexions n'existent pas dans la réalité. . Ce nouveau phénomène est maintenant appelé "hallucination". Pour les producteurs de connaissances, comment utiliser l'intelligence artificielle pour exploiter les modèles et les connexions dans la base de connaissances existante, mais rester vigilant face à la "vision" de la machine, ce qui existe et ce qui est douteux, est une compétence très importante.
"Dialogue" avec l'IA deviendra également une nouvelle compétence. L'IA actuelle est encore une mystérieuse "boîte noire" pour la plupart des personnes non techniques (même les techniciens). Comment partir du bas ou du niveau intermédiaire de la technologie pour parler aux machines plus efficacement, comprendre et lutter contre la "vision" nécessite la coopération des producteurs de connaissances et des praticiens techniques.
Pour la recherche de nouvelles connaissances, de nouvelles perspectives et de nouveaux matériaux, la structure et l'interprétation uniques de chaque domaine sont encore très importantes à l'heure actuelle. Les modèles prédictifs des grands modèles de langage et de l'IA générative ont toujours tendance à être uniques et répétitifs, et plus le matériel de formation est limité, plus les capacités seront limitées. Si vous souhaitez combiner les capacités de la machine et de l'homme, vous devez partir de la source de production de données, utiliser des données précises, diverses, justes et nouvelles pour former des modèles d'IA et établir un modèle d'interaction homme-ordinateur bénin.
L'avènement des grands modèles de langage et de l'IA générative n'est que le début des défis pour les chercheurs. Au lieu de parler de "remplacement", il vaut mieux rechercher la possibilité de rodage et de développement sous un regard plus prudent.