Si l’IA générative actuelle est comme un enfant qui grandit vigoureusement, alors les données continues sont la nourriture qui le nourrit pour grandir.
L'annotation des données est le processus de fabrication de cette « nourriture ».
Cependant, ce processus est vraiment volumineux et fatiguant.
L'« annotateur » qui effectue des annotations doit non seulement identifier à plusieurs reprises divers objets, couleurs, formes, etc. dans l'image, mais doit parfois même nettoyer et prétraiter les données.
Avec les progrès continus de la technologie de l’IA, les limites de l’annotation manuelle des données deviennent de plus en plus évidentes. L’annotation manuelle des données prend non seulement du temps et demande beaucoup de travail, mais la qualité est parfois difficile à garantir.
Afin de résoudre ces problèmes, Google a récemment proposé une méthode qui utilise de grands modèles pour remplacer les humains pour l'annotation des préférences, appelée AI Feedback Reinforcement Learning (RLAIF).
Les résultats de la recherche montrent que le RLAIF peut produire des améliorations comparables à l'apprentissage par renforcement avec feedback humain (RLHF) sans recourir à l'annotation humaine, les deux taux de réussite étant de 50 %. Pendant ce temps, RLAIF et RLHF surpassent la stratégie de base de réglage fin supervisé (SFT).
Ces résultats montrent que RLAIF n'a pas besoin de s'appuyer sur une annotation manuelle et constitue une alternative réalisable au RLHF. **
Ainsi, si cette technologie est réellement promue et popularisée à l'avenir, de nombreuses entreprises qui s'appuient encore sur des « boîtes de tirage » manuelles pour l'annotation des données seront-elles désormais réellement contraintes à une impasse ?
1 État actuel de l'annotation des données
Si nous voulons simplement résumer l'état actuel de l'industrie nationale des annotations, c'est : ** La charge de travail est importante, mais l'efficacité n'est pas très élevée et c'est un état ingrat. **
Les entreprises d'étiquetage sont appelées usines de données dans le domaine de l'IA et sont généralement concentrées dans des zones dotées de riches ressources humaines telles que l'Asie du Sud-Est, l'Afrique ou le Henan, le Shanxi et le Shandong en Chine.
Afin de contrôler les coûts, les patrons de l'entreprise d'étiquetage loueront un espace dans le comté, installeront des ordinateurs et, lorsqu'il y aura des commandes, ils recruteront des personnes à proximité pour travailler à temps partiel. S'il n'y a pas de commandes, ils dissoudront et repose-toi.
Pour faire simple, ce type de travaux s’apparente un peu à ceux des intérimaires en décoration en bordure de route.
Au poste de travail, le système donnera aléatoirement à « l'annotateur » un ensemble de données, qui comprend généralement plusieurs questions et plusieurs réponses.
Après cela, « l'annotateur » doit d'abord marquer à quel type appartient la question, puis noter et classer les réponses.
Auparavant, lorsque les gens parlaient de l'écart entre les grands modèles nationaux et les grands modèles avancés tels que GPT-4, ils résumaient les raisons de la faible qualité des données nationales.
Mais pourquoi la qualité des données n’est-elle pas élevée ? Une partie de la raison réside dans la « chaîne de montage » de l'annotation des données.
Actuellement, il existe deux types de sources de données pour les grands modèles chinois : l'une est constituée d'ensembles de données open source ; l'autre est constituée de données Internet chinoises explorées via des robots d'exploration.
**L'une des principales raisons pour lesquelles les performances des grands modèles chinois ne sont pas assez bonnes est la qualité des données Internet. **Par exemple, les professionnels n'utilisent généralement pas Baidu pour rechercher des informations.
Par conséquent, face à des problèmes de données plus professionnels et verticaux, tels que les soins médicaux, les finances, etc., il est nécessaire de coopérer avec une équipe professionnelle.
Mais à ce moment-là, le problème se pose à nouveau : pour les équipes professionnelles, non seulement le délai de retour des données est long, mais les premiers arrivés risquent de subir des pertes.
Par exemple, si une certaine équipe d’annotation a dépensé beaucoup d’argent et de temps pour produire beaucoup de données, d’autres peuvent simplement les regrouper et les acheter pour une petite somme d’argent.
Face à un tel « dilemme du passager clandestin », les grands modèles nationaux sont tombés dans une étrange situation : disposer de beaucoup de données mais de mauvaise qualité.
Cela étant, comment certaines des principales sociétés étrangères d’IA, comme OpenAI, résolvent-elles ce problème ?
En fait, en termes d’annotation de données, OpenAI n’a pas renoncé à recourir à une main-d’œuvre bon marché et intensive pour réduire les coûts.
Par exemple, il a été révélé précédemment qu'elle avait embauché un grand nombre de travailleurs kenyans pour étiqueter les informations sur les substances toxiques, au prix de 2 dollars US/heure.
**Mais la principale différence réside dans la manière de résoudre les problèmes de qualité des données et d'efficacité des annotations. **
Plus précisément, la plus grande différence entre OpenAI et les entreprises nationales à cet égard réside dans la manière de réduire l'impact de la « subjectivité » et de « l'instabilité » de l'annotation manuelle.
2 L'approche d'OpenAI
Afin de réduire la « subjectivité » et « l'instabilité » de ces annotateurs humains, OpenAI adopte grosso modo deux stratégies principales :
1. Combinaison de rétroaction artificielle et d'apprentissage par renforcement ;
Parlons d’abord du premier point : en termes de méthode d’étiquetage, la plus grande différence entre le feedback manuel d’OpenAI et le feedback domestique est qu’il trie ou note principalement le comportement du système intelligent, plutôt que de modifier ou d’étiqueter sa sortie.
Le comportement d'un système intelligent fait référence au système intelligent qui prend une série d'actions ou de décisions basées sur ses propres objectifs et stratégies dans un environnement complexe.
Par exemple, jouer à un jeu, contrôler un robot, parler à une personne, etc.
La sortie d'un système intelligent fait référence à la génération d'un résultat ou d'une réponse basée sur des données d'entrée dans une tâche simple, comme écrire un article ou dessiner un tableau.
D'une manière générale, le comportement des systèmes intelligents est plus difficile à juger en termes de « bon » ou de « mauvais » que le résultat, et doit être évalué en termes de préférence ou de satisfaction.
Ce type de système d'évaluation basé sur la « préférence » ou la « satisfaction » ne nécessite pas de modification ou d'annotation de contenu spécifique, réduisant ainsi l'impact de la subjectivité humaine, du niveau de connaissances et d'autres facteurs sur la qualité et l'exactitude de l'annotation des données.
Il est vrai que les entreprises nationales utiliseront également des systèmes similaires au « tri » et à la « notation » lors de l'étiquetage, mais en raison de l'absence d'un « modèle de récompense » comme OpenAI comme fonction de récompense pour optimiser la stratégie du système intelligent, tel " tri" et "notation" La "notation" reste essentiellement une méthode de modification ou d'annotation de la sortie.
2. Canaux de sources de données diversifiés et à grande échelle ;
Les principales sources d'annotation de données en Chine sont des sociétés d'annotation tierces ou des équipes d'entreprises technologiques auto-construites. Ces équipes sont principalement composées d'étudiants de premier cycle et manquent de professionnalisme et d'expérience pour fournir des commentaires efficaces et de haute qualité.
En revanche, les commentaires manuels d'OpenAI proviennent de plusieurs canaux et équipes.
OpenAI utilise non seulement des ensembles de données open source et des robots d'exploration Internet pour obtenir des données, mais coopère également avec plusieurs sociétés et institutions de données, telles que Scale AI, Appen, Lionbridge AI, etc., pour obtenir des données plus diversifiées et de haute qualité.
Par rapport à leurs homologues nationaux, les méthodes d'étiquetage de ces sociétés et institutions de données sont beaucoup plus « automatiques » et « intelligentes ».
Par exemple, Scale AI utilise une technique appelée Snorkel, une méthode d'étiquetage des données basée sur un apprentissage faiblement supervisé qui peut générer des étiquettes de haute qualité à partir de plusieurs sources de données imprécises.
Dans le même temps, Snorkel peut également utiliser une variété de signaux tels que des règles, des modèles et des bases de connaissances pour ajouter des étiquettes aux données sans étiqueter manuellement et directement chaque point de données. Cela peut réduire considérablement le coût et la durée de l’annotation manuelle.
À mesure que le coût et le cycle d'annotation des données sont raccourcis, ces sociétés de données bénéficiant d'un avantage concurrentiel peuvent choisir des subdivisions de grande valeur, de grande difficulté et à seuil élevé, telles que la conduite autonome, les grands modèles de langage, les données synthétiques, etc. sa compétitivité de base et ses avantages différenciés.
De cette manière, le dilemme du passager clandestin selon lequel « les premiers arrivés souffriront » a également été éliminé par de fortes barrières technologiques et industrielles.
3 Standardisation VS petit atelier
On peut voir que la technologie d'étiquetage automatique **AI éliminera réellement uniquement les entreprises d'étiquetage qui utilisent encore un étiquetage purement manuel. **
Bien que l'annotation de données ressemble à une industrie « à forte intensité de main-d'œuvre », une fois que vous aurez approfondi les détails, vous constaterez que l'obtention de données de haute qualité n'est pas une tâche facile.
Représentée par Scale AI, une licorne étrangère d'annotation de données, Scale AI utilise non seulement des ressources humaines bon marché d'Afrique et d'ailleurs, mais recrute également des dizaines de docteurs pour traiter des données professionnelles dans divers secteurs.
La qualité de l'annotation des données est la plus grande valeur apportée par Scale AI aux grandes entreprises modèles telles qu'OpenAI.
Afin de garantir au maximum la qualité des données, en plus de l'utilisation de l'annotation assistée par l'IA mentionnée ci-dessus, une autre innovation majeure de **Scale AI est une plateforme de données unifiée. **
Ces plates-formes incluent Scale Audit, Scale Analytics, ScaleData Quality, etc. Grâce à ces plateformes, les clients peuvent surveiller et analyser divers indicateurs du processus d'annotation, vérifier et optimiser les données d'annotation et évaluer l'exactitude, la cohérence et l'exhaustivité de l'annotation.
On peut dire que ces outils et processus standardisés et unifiés sont devenus les facteurs clés qui font la distinction entre les ** « usines à chaîne de montage » ** et les ** « ateliers faits à la main » ** dans les entreprises d'étiquetage.
À cet égard, la plupart des sociétés d'annotation nationales utilisent encore « l'examen manuel » pour examiner la qualité de l'annotation des données. Seuls quelques géants comme Baidu ont introduit des outils de gestion et d'évaluation plus avancés, tels que la plate-forme de services de données intelligentes EasyData.
S'il n'existe pas d'outils spécialisés pour suivre et analyser les résultats et les indicateurs d'annotation dans l'aspect de l'examen des données clés, alors le contrôle de la qualité des données sera toujours réduit à un niveau de type atelier qui s'appuie sur la vision d'un « maître ».
Par conséquent, de plus en plus d'entreprises nationales, telles que Baidu et My Neighbour Totoro Data, commencent à utiliser les technologies d'apprentissage automatique et d'intelligence artificielle pour améliorer l'efficacité et la qualité de l'annotation des données et mettre en œuvre des modèles de collaboration homme-machine.
On peut voir que l'émergence de l'étiquetage de l'IA ne signifie pas la fin des entreprises d'étiquetage nationales, mais la fin d'une méthode d'étiquetage inefficace, bon marché et à forte intensité de main-d'œuvre, dépourvue de contenu technique.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Combien d’entreprises d’étiquetage d’IA le « grand pas » de Google va-t-il tuer ?
Source originale : AI New Intelligence
Si l’IA générative actuelle est comme un enfant qui grandit vigoureusement, alors les données continues sont la nourriture qui le nourrit pour grandir.
L'annotation des données est le processus de fabrication de cette « nourriture ».
Cependant, ce processus est vraiment volumineux et fatiguant.
Avec les progrès continus de la technologie de l’IA, les limites de l’annotation manuelle des données deviennent de plus en plus évidentes. L’annotation manuelle des données prend non seulement du temps et demande beaucoup de travail, mais la qualité est parfois difficile à garantir.
Ces résultats montrent que RLAIF n'a pas besoin de s'appuyer sur une annotation manuelle et constitue une alternative réalisable au RLHF. **
Ainsi, si cette technologie est réellement promue et popularisée à l'avenir, de nombreuses entreprises qui s'appuient encore sur des « boîtes de tirage » manuelles pour l'annotation des données seront-elles désormais réellement contraintes à une impasse ?
1 État actuel de l'annotation des données
Si nous voulons simplement résumer l'état actuel de l'industrie nationale des annotations, c'est : ** La charge de travail est importante, mais l'efficacité n'est pas très élevée et c'est un état ingrat. **
Les entreprises d'étiquetage sont appelées usines de données dans le domaine de l'IA et sont généralement concentrées dans des zones dotées de riches ressources humaines telles que l'Asie du Sud-Est, l'Afrique ou le Henan, le Shanxi et le Shandong en Chine.
Afin de contrôler les coûts, les patrons de l'entreprise d'étiquetage loueront un espace dans le comté, installeront des ordinateurs et, lorsqu'il y aura des commandes, ils recruteront des personnes à proximité pour travailler à temps partiel. S'il n'y a pas de commandes, ils dissoudront et repose-toi.
Pour faire simple, ce type de travaux s’apparente un peu à ceux des intérimaires en décoration en bordure de route.
Après cela, « l'annotateur » doit d'abord marquer à quel type appartient la question, puis noter et classer les réponses.
Auparavant, lorsque les gens parlaient de l'écart entre les grands modèles nationaux et les grands modèles avancés tels que GPT-4, ils résumaient les raisons de la faible qualité des données nationales.
Mais pourquoi la qualité des données n’est-elle pas élevée ? Une partie de la raison réside dans la « chaîne de montage » de l'annotation des données.
Actuellement, il existe deux types de sources de données pour les grands modèles chinois : l'une est constituée d'ensembles de données open source ; l'autre est constituée de données Internet chinoises explorées via des robots d'exploration.
**L'une des principales raisons pour lesquelles les performances des grands modèles chinois ne sont pas assez bonnes est la qualité des données Internet. **Par exemple, les professionnels n'utilisent généralement pas Baidu pour rechercher des informations.
Mais à ce moment-là, le problème se pose à nouveau : pour les équipes professionnelles, non seulement le délai de retour des données est long, mais les premiers arrivés risquent de subir des pertes.
Par exemple, si une certaine équipe d’annotation a dépensé beaucoup d’argent et de temps pour produire beaucoup de données, d’autres peuvent simplement les regrouper et les acheter pour une petite somme d’argent.
Face à un tel « dilemme du passager clandestin », les grands modèles nationaux sont tombés dans une étrange situation : disposer de beaucoup de données mais de mauvaise qualité.
Cela étant, comment certaines des principales sociétés étrangères d’IA, comme OpenAI, résolvent-elles ce problème ?
Par exemple, il a été révélé précédemment qu'elle avait embauché un grand nombre de travailleurs kenyans pour étiqueter les informations sur les substances toxiques, au prix de 2 dollars US/heure.
**Mais la principale différence réside dans la manière de résoudre les problèmes de qualité des données et d'efficacité des annotations. **
Plus précisément, la plus grande différence entre OpenAI et les entreprises nationales à cet égard réside dans la manière de réduire l'impact de la « subjectivité » et de « l'instabilité » de l'annotation manuelle.
2 L'approche d'OpenAI
Afin de réduire la « subjectivité » et « l'instabilité » de ces annotateurs humains, OpenAI adopte grosso modo deux stratégies principales :
1. Combinaison de rétroaction artificielle et d'apprentissage par renforcement ;
Parlons d’abord du premier point : en termes de méthode d’étiquetage, la plus grande différence entre le feedback manuel d’OpenAI et le feedback domestique est qu’il trie ou note principalement le comportement du système intelligent, plutôt que de modifier ou d’étiqueter sa sortie.
Le comportement d'un système intelligent fait référence au système intelligent qui prend une série d'actions ou de décisions basées sur ses propres objectifs et stratégies dans un environnement complexe.
Par exemple, jouer à un jeu, contrôler un robot, parler à une personne, etc.
D'une manière générale, le comportement des systèmes intelligents est plus difficile à juger en termes de « bon » ou de « mauvais » que le résultat, et doit être évalué en termes de préférence ou de satisfaction.
Ce type de système d'évaluation basé sur la « préférence » ou la « satisfaction » ne nécessite pas de modification ou d'annotation de contenu spécifique, réduisant ainsi l'impact de la subjectivité humaine, du niveau de connaissances et d'autres facteurs sur la qualité et l'exactitude de l'annotation des données.
2. Canaux de sources de données diversifiés et à grande échelle ;
Les principales sources d'annotation de données en Chine sont des sociétés d'annotation tierces ou des équipes d'entreprises technologiques auto-construites. Ces équipes sont principalement composées d'étudiants de premier cycle et manquent de professionnalisme et d'expérience pour fournir des commentaires efficaces et de haute qualité.
OpenAI utilise non seulement des ensembles de données open source et des robots d'exploration Internet pour obtenir des données, mais coopère également avec plusieurs sociétés et institutions de données, telles que Scale AI, Appen, Lionbridge AI, etc., pour obtenir des données plus diversifiées et de haute qualité.
Par rapport à leurs homologues nationaux, les méthodes d'étiquetage de ces sociétés et institutions de données sont beaucoup plus « automatiques » et « intelligentes ».
Dans le même temps, Snorkel peut également utiliser une variété de signaux tels que des règles, des modèles et des bases de connaissances pour ajouter des étiquettes aux données sans étiqueter manuellement et directement chaque point de données. Cela peut réduire considérablement le coût et la durée de l’annotation manuelle.
De cette manière, le dilemme du passager clandestin selon lequel « les premiers arrivés souffriront » a également été éliminé par de fortes barrières technologiques et industrielles.
3 Standardisation VS petit atelier
On peut voir que la technologie d'étiquetage automatique **AI éliminera réellement uniquement les entreprises d'étiquetage qui utilisent encore un étiquetage purement manuel. **
Bien que l'annotation de données ressemble à une industrie « à forte intensité de main-d'œuvre », une fois que vous aurez approfondi les détails, vous constaterez que l'obtention de données de haute qualité n'est pas une tâche facile.
Représentée par Scale AI, une licorne étrangère d'annotation de données, Scale AI utilise non seulement des ressources humaines bon marché d'Afrique et d'ailleurs, mais recrute également des dizaines de docteurs pour traiter des données professionnelles dans divers secteurs.
Afin de garantir au maximum la qualité des données, en plus de l'utilisation de l'annotation assistée par l'IA mentionnée ci-dessus, une autre innovation majeure de **Scale AI est une plateforme de données unifiée. **
Ces plates-formes incluent Scale Audit, Scale Analytics, ScaleData Quality, etc. Grâce à ces plateformes, les clients peuvent surveiller et analyser divers indicateurs du processus d'annotation, vérifier et optimiser les données d'annotation et évaluer l'exactitude, la cohérence et l'exhaustivité de l'annotation.
À cet égard, la plupart des sociétés d'annotation nationales utilisent encore « l'examen manuel » pour examiner la qualité de l'annotation des données. Seuls quelques géants comme Baidu ont introduit des outils de gestion et d'évaluation plus avancés, tels que la plate-forme de services de données intelligentes EasyData.
S'il n'existe pas d'outils spécialisés pour suivre et analyser les résultats et les indicateurs d'annotation dans l'aspect de l'examen des données clés, alors le contrôle de la qualité des données sera toujours réduit à un niveau de type atelier qui s'appuie sur la vision d'un « maître ».
On peut voir que l'émergence de l'étiquetage de l'IA ne signifie pas la fin des entreprises d'étiquetage nationales, mais la fin d'une méthode d'étiquetage inefficace, bon marché et à forte intensité de main-d'œuvre, dépourvue de contenu technique.