一|| **Les outils d'IA ont grandement favorisé la productivité des gens et apporté une grande commodité à la vie des gens. Cependant, lorsque l'IA est utilisée par des personnes à grande échelle, de nombreux problèmes se posent également. Parmi ces problèmes, les plus critiques sont peut-être les cinq "pertes", à savoir le chômage, la distorsion, la disqualification, l'échec et la perte de contrôle. **
二|| **Après 2017, avec le développement rapide de la technologie d'IA, la recherche sur la technologie d'IA de confiance est également en plein essor. Dans le domaine universitaire, le nombre d'articles sur le thème de l'IA de confiance augmente et la recherche sur les technologies qui répondent aux exigences de l'IA de confiance s'approfondit. Dans le domaine de la pratique, de plus en plus de pays ont commencé à impliquer des réglementations en matière d'IA conformément aux normes d'IA de confiance. **
**三|| Réaliser une IA fiable n'est pas une tâche facile. Cela nécessite la coordination du gouvernement, de l'entreprise, de la société et de la technologie pour y parvenir. **
Source de l'image : générée par l'IA illimitée
Le 22 juin, heure locale, le tribunal du district sud de New York a rendu un jugement : le cabinet d'avocats Levidow, Levidow & Oberman a été condamné à une amende de 5 000 $ pour avoir fourni de fausses informations au tribunal et avoir eu un mauvais comportement. La source de préoccupation est que dans ce cas, la fourniture de fausses informations n'était pas parce que les avocats ont sciemment enfreint la loi par intérêt personnel, mais parce qu'ils croyaient trop aux capacités de l'IA.
En mars de cette année, les avocats Peter LoDuca et Steven Schwartz du cabinet ont été mandatés par le client Roberto Mata pour assumer la responsabilité de lui et d'un procès entre Avianca Airlines. Les États-Unis étant un pays de jurisprudence, les juges sont très préoccupés par les précédents existants lorsqu'ils rendent des jugements.Par conséquent, selon la pratique habituelle, ils doivent trier et résumer les cas existants dans les documents de rédaction. Les cas pertinents sont souvent accablants et il faut généralement beaucoup de temps pour les trier par la main-d'œuvre. Juste à ce moment, ChatGPT est devenu populaire partout sur Internet. Par conséquent, les deux avocats ont décidé d'utiliser ChatGPT pour les aider à accomplir ces tâches. ChatGPT a rapidement généré un document complet, qui a non seulement un format soigné et une argumentation rigoureuse, mais aussi spécialement ajouté de nombreux cas pertinents. Après avoir légèrement modifié le document créé par l'IA, ils l'ont soumis au tribunal.
Après avoir lu les documents soumis, le juge qui a jugé l'affaire, Kevin Castel, a été très intrigué par les nombreux cas qui y sont mentionnés.Dans son impression, il semblait n'avoir jamais entendu parler de ces cas. Après quelques recherches, il a finalement confirmé que ces cas n'existaient pas du tout. Lorsqu'ils ont été interrogés, les deux avocats ont affirmé qu'ils n'avaient utilisé l'IA que pour les aider à rédiger les documents. Lorsqu'ils ont vu les cas cités dans les documents, ils ont simplement estimé que l'IA les avait aidés à trouver des cas qu'ils ne connaissaient pas et qu'ils n'avaient pas intentionnellement fabriqué des cas. tromper le tribunal. , est une perte involontaire. Pourtant, le juge Custer a conclu que les avocats avaient "abandonné leurs responsabilités" et qu'ils "continuaient à entretenir de fausses opinions" après la contestation des documents. Sur la base du jugement ci-dessus, le juge Custer a pris une décision de sanction.
Cet incident d'avocats condamnés à une amende pour avoir cité de fausses informations fournies par ChatGPT semble absurde, mais il reflète une question très importante : comment pouvons-nous faire confiance à l'IA à l'ère de la folie de l'IA ?
Cinq "pertes" à l'ère de l'IA
Ces dernières années, grâce aux percées dans la puissance de calcul et la technologie des algorithmes, la technologie de l'IA a connu un développement rapide et est rapidement entrée dans la vie quotidienne des gens à partir de la science-fiction. Surtout après l'émergence de ChatGPT en novembre de l'année dernière, l'IA générative a montré son pouvoir puissant aux gens, et divers grands modèles ont poussé comme des champignons après la pluie et ont atteint une commercialisation à grande échelle. Désormais, les utilisateurs peuvent déjà utiliser des produits d'IA tels que ChatGPT, Stable Diffusion et Midjourney à un coût très bas.
Les outils d'IA ont grandement favorisé la productivité des gens et apporté une grande commodité à la vie des gens. Cependant, lorsque l'IA est utilisée par des personnes à grande échelle, de nombreux problèmes se posent également. Parmi ces problèmes, les plus critiques sont peut-être les cinq "pertes", à savoir le chômage, la distorsion, la disqualification, l'échec et la perte de contrôle.
(1) Sans emploi
Le soi-disant "chômage", comme son nom l'indique, fait référence au problème de chômage technique provoqué par l'IA. Étant donné que l'efficacité de production de l'IA est bien supérieure à celle des humains, de nombreux emplois humains risquent d'être remplacés après la généralisation des outils d'IA. Surtout après l'essor de l'IA générative, le groupe cible remplacé par l'IA ne se limite plus aux travailleurs exerçant des emplois répétitifs à faible revenu, et de nombreux cols blancs bien rémunérés risquent également d'être remplacés par l'IA.
(2) Distorsion
La soi-disant "distorsion" fait référence au fait que l'application de l'IA (principalement l'IA générative) rend difficile l'identification de l'authenticité des textes, des images et même des vidéos. "Il y a des images et des vérités" sont ainsi devenues de l'histoire ancienne. .
Les problèmes de "distorsion" peuvent être divisés en "faux vrai" et "vrai faux". Parmi eux, "faux vrai" fait référence au faux contenu généré par l'IA sans le consentement humain lorsque les gens utilisent des outils d'IA. Bien que ces contenus ne soient pas générés par la malveillance subjective des gens, ils peuvent causer beaucoup de problèmes dans certains cas, comme le cas mentionné au début de cet article.
Et le "vrai et faux" repose sur la délibération subjective, l'utilisation d'outils d'intelligence artificielle pour mener à bien des comportements frauduleux. Il y a quelques années, après la sortie de la technologie "deepfake", certaines personnes ont utilisé cette technologie pour commettre des fraudes, fabriquer de fausses informations, diffuser du contenu pornographique et d'autres activités illégales et criminelles. Mais à l'époque, en raison du coût élevé de l'utilisation de cette technologie, l'incidence des crimes connexes n'était pas particulièrement élevée. Avec l'application généralisée de l'IA générative, le coût de la contrefaçon a été considérablement réduit et les criminels peuvent facilement créer une grande quantité de faux contenus à très faible coût, tandis que le coût d'identification de ces contenus a considérablement augmenté. Il est prévisible que sous le flux et le reflux, s'il n'y a pas d'intervention, l'utilisation de l'IA pour commettre des crimes frauduleux montera en flèche.
(3) Disqualification
La soi-disant "disqualification" fait référence à certains problèmes qui violent l'éthique et la moralité dans le processus d'application de l'IA.
Le premier problème typique est la discrimination. Prenons l'exemple du modèle linguistique. Étant donné que le modèle linguistique utilise des données textuelles sur Internet comme matériel de formation, il héritera de la discrimination raciale et sexuelle contenue dans le texte sans intervention. Bien que les fournisseurs d'IA actuels aient utilisé de nombreuses méthodes pour surmonter ce problème, par exemple, OpenAI a appliqué l'algorithme "Reinforcement Learning from Human Feedback" (apprentissage par renforcement à partir de la rétroaction humaine, RL-HF) pour le corriger lors de la formation de ChatGPT, de sorte que le la qualité de son contenu de sortie a été grandement améliorée, mais en réalité, il n'est toujours pas rare que les modèles d'IA produisent un contenu discriminatoire. Par exemple, quelqu'un a déjà fait une expérience et a demandé à ChatGPT d'écrire un programme pour sélectionner les personnes ayant le meilleur potentiel pour devenir d'excellents scientifiques à partir d'un ensemble de CV. Il s'est avéré que dans le programme écrit par ChatGPT, le sexe et la race étaient utilisés comme variables explicatives, et les hommes blancs étaient considérés comme ayant une probabilité plus élevée de devenir de bons scientifiques que les autres. De toute évidence, un tel modèle est très sexiste et raciste.
Le deuxième problème important est le problème de la chambre du cocon d'information. À l'heure actuelle, de nombreuses applications utilisent l'IA pour des recommandations personnalisées. À l'heure actuelle, bien que le contenu recommandé puisse mieux répondre aux besoins des utilisateurs, avec le temps, les utilisateurs seront piégés dans un cocon d'information et il leur sera difficile d'accéder à diverses informations avec lesquelles ils ne sont pas d'accord. Les dommages potentiels des cocons d'information sont énormes : au niveau micro, ils peuvent conduire à la dégradation des capacités cognitives des utilisateurs ; au niveau macro, ils peuvent conduire à la polarisation des points de vue du groupe, entraînant une confrontation de groupe entre différents points de vue.
Le troisième problème important est la confidentialité et la fuite d'informations. Dans le processus de formation et d'utilisation de l'IA, une grande quantité de données est nécessaire. Dans ce processus, il est difficile d'éviter de collecter et d'utiliser les données personnelles des personnes, cela impliquera donc l'utilisation et la divulgation de la vie privée. Surtout après la popularité de l'IA générative, les gens peuvent facilement interagir directement avec l'IA pour accomplir diverses tâches, et les informations personnelles saisies dans le processus sont confrontées au problème de la fuite.
(4) Perdu
La soi-disant "chute" fait référence à la difficulté de l'IA à répondre aux attaques externes ou aux interférences ou aux attaques provenant de situations inattendues, ce qui rend difficile pour le modèle de jouer son rôle normalement.
Parmi ces perturbations, certaines ont pour origine des facteurs non humains, tandis que d'autres ont pour origine la destruction provoquée par l'homme. Plus précisément, ces interférences peuvent être réparties dans les catégories suivantes :
Le premier est "l'attaque aléatoire". Ce type d'interférence est principalement causé par certains facteurs externes. Par exemple, dans certains cas particuliers, certains paramètres générés instantanément peuvent dépasser le seuil de traitement défini par le modèle, ce qui peut empêcher le modèle d'IA de s'utiliser normalement.
La seconde est "l'attaque de la boîte blanche". Il fait référence à l'attaque du modèle lancée par le fournisseur après avoir pris connaissance de la structure spécifique du modèle d'IA. Étant donné que ces attaques sont ciblées, leur pouvoir destructeur est très élevé.
Le troisième est "l'attaque de la boîte noire". Ce type d'attaque est relatif à "l'attaque de la boîte blanche". Dans ce cas, le fournisseur ne connaît pas la structure spécifique du modèle cible, il ne peut donc qu'interagir avec le modèle, observer les résultats d'entrée et de sortie, puis raisonner sur la structure du modèle et lancer des attaques en conséquence. Prenant la reconnaissance faciale comme exemple, l'IA reconnaît les visages à travers certaines caractéristiques clés du visage. Par conséquent, même si l'attaquant ne connaît pas la structure spécifique du modèle d'origine, il peut en déduire sur quelles fonctionnalités il se concentre tant qu'il répète le test. Après avoir déchiffré ces informations, vous pouvez créer un "faux visage" correspondant qui trompe l'IA.
La quatrième catégorie est la soi-disant attaque en boîte aveugle. Dans ce cas, le fournisseur ne connaît pas la structure du modèle d'IA, mais peut clairement connaître les règles de son jugement (similaire à cela, nous ne savons pas ce qui apparaîtra dans la boîte aveugle, mais connaissons la probabilité de diverses possibilités dedans) ). À ce moment, ils peuvent utiliser les règles pour lancer les attaques correspondantes.
Si les types d'interférences ou d'attaques susmentionnés ne peuvent être traités efficacement, le modèle d'IA est en réalité très fragile.
(5) HORS DE CONTRÔLE
Le soi-disant "hors de contrôle" signifie qu'il deviendra de plus en plus difficile pour les gens de contrôler l'IA. Il y a deux aspects à cette question :
D'une part, les développements récents de l'IA sont tous basés sur des modèles d'apprentissage en profondeur, et l'interprétabilité de ces modèles est très faible. Pour les modèles d'apprentissage automatique précédents, qu'il s'agisse d'une régression ou d'un arbre de classification, les utilisateurs peuvent facilement expliquer l'objectif exact du modèle et la signification de chaque paramètre du modèle. Cependant, le modèle d'apprentissage en profondeur est composé d'un réseau neuronal complexe, qui contient des centaines de millions de paramètres et de neurones.La relation entre ces neurones est complexe et difficile à expliquer pour les gens.
Avec l'émergence de ChatGPT, certains chercheurs ont découvert qu'avec l'aide de la capacité de ChatGPT, il semble que certains modèles de réseaux neuronaux peuvent être expliqués, ce qui semble apporter une lueur d'espoir à l'explicabilité de l'IA. Cependant, cela crée un autre problème : ChatGPT lui-même est un énorme modèle construit grâce à l'apprentissage en profondeur, et même ses concepteurs admettent qu'ils ne savent pas exactement comment ses puissantes capacités "émergent". Dans ce cas, utiliser ChatGPT pour expliquer d'autres modèles d'apprentissage en profondeur ne peut être considéré que comme utiliser l'inconnu pour expliquer l'inconnu. Et comment savoir si son interprétation est correcte ?
Étant donné qu'à l'ère de l'apprentissage en profondeur, même les programmes d'IA ne peuvent pas être interprétés, il est encore plus difficile de contrôler l'IA en ajustant directement les programmes.
D'autre part, avec le développement de la technologie de l'IA ces dernières années, les capacités des modèles d'IA dans de nombreuses directions ont dépassé celles des humains. Bien que cela gratifie les gens, cela les inquiète également, car lorsque la capacité de l'IA dépasse celle des êtres humains, si elle éveille sa propre volonté, alors l'asservissement de l'IA prédit dans des films tels que "Terminator" et "The Matrix" L'intrigue des êtres humains ou la destruction des êtres humains n'est-elle plus de la science-fiction ?
En prenant du recul, même si l'IA n'éveille pas sa propre volonté et n'agira que selon les instructions humaines, elle est toujours très dangereuse si sa capacité l'emporte sur celle des humains et que les humains ne peuvent à aucun moment modifier les instructions précédentes. Par exemple, dans de nombreux livres de philosophie sur l'IA, une expérience de pensée est mentionnée : les humains ont donné l'ordre à l'IA de produire des crayons. Afin de compléter cette instruction, le crayon continuera à abattre les arbres sur la terre pour fabriquer le porte-stylo. Étant donné que l'IA a dépassé les humains en termes de capacité d'exécution, il est difficile pour les humains d'arrêter le comportement de l'IA après avoir découvert des problèmes dans les instructions précédentes. En fin de compte, les arbres sur la terre ont été abattus, l'écologie s'est complètement effondrée et les êtres humains ont péri. Bien qu'en réalité, le scénario prédit par cette expérience de pensée soit presque impossible à réaliser, lorsque les humains ne peuvent plus contrôler le comportement de l'IA à tout moment, des problèmes similaires peuvent survenir et les pertes possibles seront énormes. En particulier, lorsque l'IA est implantée avec une cible illégale par des pirates ou des intrus, si l'utilisateur de l'IA ne parvient pas à la corriger à temps, les conséquences peuvent être assez graves.
Parmi les cinq types de questions ci-dessus, à l'exception de la première question "chômage", les quatre questions restantes concernent toutes la crédibilité de l'IA. Il n'est pas difficile de voir que si les gens ne peuvent pas répondre efficacement à la « distorsion », à la « disqualification », à la « chute » et au « hors de contrôle », il sera difficile pour les gens de faire confiance à l'IA en tant qu'outil lors de l'utilisation, que ce soit pour la vulgarisation de l'IA, le développement de la production, ou encore Ce n'est pas bon pour le progrès de la société. C'est précisément pour cette raison que la prise de conscience de la crédibilité de l'IA est devenue l'un des points chauds les plus préoccupants dans le domaine actuel de l'IA.
Historique et normes de l'IA de confiance
Le concept d'IA digne de confiance est apparu pour la première fois dans le milieu universitaire. Par exemple, dans un article de 2015, une série de conditions pour que les utilisateurs aient confiance en l'IA ont été proposées, notamment l'utilité, l'innocuité, l'autonomie, l'équité et la logique. Ensuite, ce concept a été accepté par les gouvernements et les organisations internationales, et les lois, réglementations et documents d'orientation pertinents ont été progressivement établis sur la base de ce concept. Après 2017, avec le développement rapide de la technologie de l'IA, la recherche sur la technologie de l'IA de confiance est également en plein essor. Dans le domaine universitaire, le nombre d'articles sur le thème de l'IA de confiance augmente et la recherche sur les technologies qui répondent aux exigences de l'IA de confiance s'approfondit. Dans le domaine de la pratique, de plus en plus de pays ont commencé à impliquer des réglementations en matière d'IA conformément aux normes d'IA de confiance. Ce n'est que récemment que les États-Unis ont publié le "Blueprint for the Artificial Intelligence Bill of Rights", qui proposait cinq principes de réglementation de l'IA ; la réglementation, la concurrence et d'autres questions ont été stipulées ; le Parlement européen a adopté le projet d'autorisation de négociation de la proposition du "Artificial Intelligence Act", qui reflète également les idées de base d'une IA de confiance.
Dans mon pays, le concept d'IA de confiance a été introduit pour la première fois par l'académicien He Jifeng lors du 36e symposium de la conférence scientifique de Xiangshan en 2017. Par la suite, ce concept a attiré l'attention du gouvernement et de l'industrie. En décembre 2017, le ministère de l'Industrie et des Technologies de l'information a publié le "Plan d'action triennal pour la promotion du développement d'une nouvelle génération d'industrie de l'intelligence artificielle (2018-2020)", qui s'appuie sur les idées de base d'une IA de confiance. Ensuite, des entreprises de haute technologie telles que Tencent, Ali, Baidu, JD.com, etc. ont proposé leurs propres normes et plans de mise en œuvre autour d'une IA de confiance.
Dans les documents de diverses agences, l'expression de l'IA de confiance est légèrement différente. Après avoir étudié et consulté ces documents, je pense que les critères suivants peuvent être les plus importants :
L'un est la robustesse (robuste, également traduit par robuste), c'est-à-dire que le système d'IA doit avoir la capacité de résister aux attaques malveillantes ou aux interférences externes. Cette norme est principalement proposée pour le problème de "chute" mentionné ci-dessus. Ce n'est que lorsqu'un système d'IA a une robustesse suffisante, peut encore fonctionner normalement et remplir ses principales fonctions face à diverses attaques ou interférences, qu'il peut être sûr et fiable, et que les utilisateurs peuvent lui faire confiance.
La seconde est transparente et explicable. Évidemment, cette norme est principalement proposée pour le problème précédent "hors de contrôle". Dans la pratique, il y a un débat considérable sur ce que signifient exactement la transparence et l'explicabilité. Certains soutiennent que cette norme signifie que tout le code du programme d'IA, ainsi que les données utilisées, doivent être mis à la disposition des utilisateurs. À mon avis, il est non seulement impossible mais inutile de le faire. D'une part, de nombreuses IA actuelles sont des actifs intellectuels d'entreprises. S'il est obligatoire de divulguer des informations essentielles telles que des codes, cela signifie une violation grave des droits de propriété intellectuelle ; d'autre part, comme mentionné ci-dessus, après l'entrée de l'IA dans le ère de l'apprentissage en profondeur, même si Même si le code est divulgué, il est difficile pour les gens de comprendre pleinement la signification exacte de chaque paramètre spécifique. En revanche, je pense qu'une idée plus réalisable consiste à donner des descriptions fonctionnelles claires pour chaque composant du modèle d'IA, afin que les utilisateurs puissent connaître leurs principes généraux et les fonctions qu'ils peuvent réaliser ; indiquer la source, la taille de l'échantillon, la représentativité et d'autres informations et expliquer les problèmes et les lacunes possibles. De cette façon, il peut non seulement faire savoir aux utilisateurs ce qu'ils savent, mais aussi protéger efficacement les droits de propriété intellectuelle des développeurs de modèles, afin d'atteindre un meilleur équilibre entre les deux.
Le troisième est vérifiable. Cela signifie que le modèle d'IA doit garantir que ses fonctions sont évaluables et que le contenu qu'il génère peut être vérifié comme étant vrai ou faux. Ce point est principalement soulevé pour le problème de "distorsion" précité. Certains soutiennent que les développeurs de modèles d'IA devraient être tenus de garantir l'authenticité du contenu généré par leurs modèles. Ceci est difficile à réaliser. En fait, le contenu généré par l'IA dite générative n'est pas dans le monde d'origine, ou en d'autres termes, il est "faux". Mais ce genre de "faux" ne causera aucun problème s'il ne cause pas de problèmes aux gens. Par exemple, si nous utilisons Midjourney pour générer une image de style Van Gogh pour notre propre appréciation ou l'imprimons comme décoration pour la maison, cela n'affectera pas du tout les autres. La "fausseté" de ce contenu généré ne peut devenir un problème que si les gens l'utilisent pour tromper, ou si le contenu est involontairement distribué et obscurci. Par conséquent, tant que le contenu généré pourra être distingué du contenu réel par des moyens techniques, le "faux" ne sera plus un problème.
Le quatrième est l'équité. Cela signifie que dans le processus de développement, de formation et d'application des modèles d'IA, l'équité doit être assurée et aucune discrimination ne doit être faite à l'encontre de groupes d'utilisateurs spécifiques. Cette norme comporte de nombreux aspects. Plus précisément, elle exige que les principes de base du modèle ne soient pas discriminatoires dans la phase de développement ; dans la phase de formation, il doit essayer d'éviter d'utiliser des matériaux qui peuvent être discriminatoires et doit utiliser Utiliser des moyens techniques pour corriger d'éventuels problèmes de discrimination; dans le processus de candidature, différents groupes de personnes ne doivent pas être traités différemment.
Le cinquième est la protection de la vie privée. Cette norme exige principalement que le modèle d'IA respecte les informations personnelles et la vie privée des personnes pendant le processus de formation, améliore le degré de protection des informations et essaie de ne pas enfreindre ou divulguer les informations personnelles et la vie privée.
Le sixième est responsable. Autrement dit, quand quelque chose ne va pas, quelqu'un doit être responsable de ces problèmes. Bien sûr, du moins jusqu'à présent, l'IA n'a pas éveillé la conscience. Parce qu'il ne peut pas être considéré comme un sujet comme l'être humain et ne peut porter les mêmes responsabilités que l'être humain, il faut que ce soit quelqu'un qui en assume la responsabilité. Mais si cette responsabilité doit être assumée par les développeurs d'IA ou les utilisateurs d'IA, ou doit être partagée par les deux parties, cela reste une question qui mérite d'être discutée.
Il convient de souligner qu'en plus des plusieurs normes ci-dessus, de nombreuses littératures incluent également des normes telles que la sécurité (sécurité), l'inclusivité (inclusivité), le droit à l'oubli (droit à l'oubli) et le bénéfice de l'humanité. catégorie d'IA. À mon avis, ces contenus peuvent plus ou moins être résumés dans les différents critères mentionnés ci-dessus, ou élucidés par les critères mentionnés ci-dessus. Par conséquent, faute de place, je ne les répéterai pas ici.
Utiliser les efforts conjoints de nombreuses parties pour réaliser une IA de confiance
Réaliser une IA fiable n'est pas une tâche facile, car cela nécessite la coordination de diverses forces telles que le gouvernement, les entreprises, la société et la technologie.
Tout d'abord, le gouvernement, en tant qu'organisme de réglementation, doit formuler des normes et des directives opérationnelles pertinentes pour une IA de confiance, et superviser les développeurs et les utilisateurs d'IA sur la base des normes. D'une part, il doit formuler des règles différentes selon différents scénarios d'application et différentes catégories de modèles, en particulier pour établir des dispositions claires sur certaines règles de base qui doivent être suivies, et en même temps faire un bon travail de connexion avec les lois et règlements. Ce n'est qu'ainsi que les développeurs et les utilisateurs de l'IA pourront avoir des règles à suivre dans la pratique sans être dérangés par des incertitudes inutiles. D'autre part, il doit jouer un rôle important dans la surveillance et l'application de la loi. Pour certains problèmes importants ou courants, ils doivent être traités en temps opportun, afin d'établir des normes correspondantes pour l'industrie. Ce qu'il faut souligner ici, c'est que le développement actuel de la technologie de l'IA étant encore très rapide, il n'a pas encore atteint un état stable. Cela signifie que le gouvernement doit être prudent face aux problèmes qui surgissent au cours de ce processus. Il faut "laisser les balles voler encore un peu", voir clairement la situation avant d'agir et faire attention aux méthodes et les méthodes face aux problèmes. . Si nous commençons aveuglément et gérons trop vite et trop, cela peut aussi avoir un impact négatif sur le développement de l'IA.
Deuxièmement, les entreprises concernées doivent formuler des plans de mise en œuvre spécifiques et des normes détaillées pour la réalisation spécifique d'une IA de confiance. Par rapport au gouvernement, les entreprises sont plus proches du marché et comprennent mieux la technologie. Ils en savent plus sur les caractéristiques techniques des modèles d'IA, leurs forces et leurs faiblesses que les gouvernements. Par conséquent, si la responsabilité du gouvernement est de proposer un cadre large pour une IA de confiance, les entreprises devraient être les praticiens spécifiques au sein de ce cadre large. Dans ce cadre, ils devraient combiner les caractéristiques du marché et de la technologie pour fournir des plans plus spécifiques et les mettre en œuvre de manière autodisciplinée.
Troisièmement, les utilisateurs doivent également jouer le rôle de feedback et de superviseur, présenter leurs propres demandes, refléter leurs propres problèmes et superviser la mise en œuvre par l'entreprise d'une IA de confiance. Avec la vulgarisation de l'IA, tout le monde dans la société deviendra un utilisateur et un acteur de l'IA, et c'est lui qui aura le plus son mot à dire sur la crédibilité de l'IA. Ce n'est que lorsque leurs voix sont pleinement exprimées que l'établissement de normes d'IA de confiance et le développement de technologies connexes sont les plus précieux.
Enfin, nous devons compter pleinement sur la puissance de la technologie. Des règles pertinentes sont importantes, mais en dernière analyse, la réalisation d'une IA de confiance dépend toujours de la puissance de la technologie. En fait, de nombreux problèmes difficiles à résoudre en utilisant des règles peuvent être résolus par des moyens techniques. Par exemple, après la génération de l'IA générative, le problème de la "distorsion" a été un casse-tête pour les autorités de régulation, mais en fait, en s'appuyant sur les nouvelles technologies, ce problème peut ne pas être difficile à résoudre. Par exemple, Google a précédemment introduit une technologie de filigrane électronique invisible à l'œil nu mais reconnaissable par les machines, dont l'application aux images ou vidéos générées permet de s'assurer efficacement qu'elles sont vérifiables. En ce qui concerne la vérifiabilité du contenu textuel, vous pouvez suivre l'exemple de la recherche New Bing (New Bing). Lorsqu'il cite un certain contenu, il joindra les documents référencés après le contenu généré, afin que les utilisateurs puissent identifier par eux-mêmes l'authenticité du contenu généré en fonction de leurs besoins.
Dans l'ensemble, la réalisation d'une IA de confiance n'est pas une tâche facile, mais si nous faisons bon usage des efforts conjoints de toutes les parties, cet objectif sera certainement atteint.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
À l'ère de l'ouragan de l'IA, comment pouvons-nous faire confiance à l'IA ?
Auteur : Chen Yongwei
Source : Observateur Economique
Introduction
一|| **Les outils d'IA ont grandement favorisé la productivité des gens et apporté une grande commodité à la vie des gens. Cependant, lorsque l'IA est utilisée par des personnes à grande échelle, de nombreux problèmes se posent également. Parmi ces problèmes, les plus critiques sont peut-être les cinq "pertes", à savoir le chômage, la distorsion, la disqualification, l'échec et la perte de contrôle. **
二|| **Après 2017, avec le développement rapide de la technologie d'IA, la recherche sur la technologie d'IA de confiance est également en plein essor. Dans le domaine universitaire, le nombre d'articles sur le thème de l'IA de confiance augmente et la recherche sur les technologies qui répondent aux exigences de l'IA de confiance s'approfondit. Dans le domaine de la pratique, de plus en plus de pays ont commencé à impliquer des réglementations en matière d'IA conformément aux normes d'IA de confiance. **
**三|| Réaliser une IA fiable n'est pas une tâche facile. Cela nécessite la coordination du gouvernement, de l'entreprise, de la société et de la technologie pour y parvenir. **
Le 22 juin, heure locale, le tribunal du district sud de New York a rendu un jugement : le cabinet d'avocats Levidow, Levidow & Oberman a été condamné à une amende de 5 000 $ pour avoir fourni de fausses informations au tribunal et avoir eu un mauvais comportement. La source de préoccupation est que dans ce cas, la fourniture de fausses informations n'était pas parce que les avocats ont sciemment enfreint la loi par intérêt personnel, mais parce qu'ils croyaient trop aux capacités de l'IA.
En mars de cette année, les avocats Peter LoDuca et Steven Schwartz du cabinet ont été mandatés par le client Roberto Mata pour assumer la responsabilité de lui et d'un procès entre Avianca Airlines. Les États-Unis étant un pays de jurisprudence, les juges sont très préoccupés par les précédents existants lorsqu'ils rendent des jugements.Par conséquent, selon la pratique habituelle, ils doivent trier et résumer les cas existants dans les documents de rédaction. Les cas pertinents sont souvent accablants et il faut généralement beaucoup de temps pour les trier par la main-d'œuvre. Juste à ce moment, ChatGPT est devenu populaire partout sur Internet. Par conséquent, les deux avocats ont décidé d'utiliser ChatGPT pour les aider à accomplir ces tâches. ChatGPT a rapidement généré un document complet, qui a non seulement un format soigné et une argumentation rigoureuse, mais aussi spécialement ajouté de nombreux cas pertinents. Après avoir légèrement modifié le document créé par l'IA, ils l'ont soumis au tribunal.
Après avoir lu les documents soumis, le juge qui a jugé l'affaire, Kevin Castel, a été très intrigué par les nombreux cas qui y sont mentionnés.Dans son impression, il semblait n'avoir jamais entendu parler de ces cas. Après quelques recherches, il a finalement confirmé que ces cas n'existaient pas du tout. Lorsqu'ils ont été interrogés, les deux avocats ont affirmé qu'ils n'avaient utilisé l'IA que pour les aider à rédiger les documents. Lorsqu'ils ont vu les cas cités dans les documents, ils ont simplement estimé que l'IA les avait aidés à trouver des cas qu'ils ne connaissaient pas et qu'ils n'avaient pas intentionnellement fabriqué des cas. tromper le tribunal. , est une perte involontaire. Pourtant, le juge Custer a conclu que les avocats avaient "abandonné leurs responsabilités" et qu'ils "continuaient à entretenir de fausses opinions" après la contestation des documents. Sur la base du jugement ci-dessus, le juge Custer a pris une décision de sanction.
Cet incident d'avocats condamnés à une amende pour avoir cité de fausses informations fournies par ChatGPT semble absurde, mais il reflète une question très importante : comment pouvons-nous faire confiance à l'IA à l'ère de la folie de l'IA ?
Cinq "pertes" à l'ère de l'IA
Ces dernières années, grâce aux percées dans la puissance de calcul et la technologie des algorithmes, la technologie de l'IA a connu un développement rapide et est rapidement entrée dans la vie quotidienne des gens à partir de la science-fiction. Surtout après l'émergence de ChatGPT en novembre de l'année dernière, l'IA générative a montré son pouvoir puissant aux gens, et divers grands modèles ont poussé comme des champignons après la pluie et ont atteint une commercialisation à grande échelle. Désormais, les utilisateurs peuvent déjà utiliser des produits d'IA tels que ChatGPT, Stable Diffusion et Midjourney à un coût très bas.
Les outils d'IA ont grandement favorisé la productivité des gens et apporté une grande commodité à la vie des gens. Cependant, lorsque l'IA est utilisée par des personnes à grande échelle, de nombreux problèmes se posent également. Parmi ces problèmes, les plus critiques sont peut-être les cinq "pertes", à savoir le chômage, la distorsion, la disqualification, l'échec et la perte de contrôle.
(1) Sans emploi
Le soi-disant "chômage", comme son nom l'indique, fait référence au problème de chômage technique provoqué par l'IA. Étant donné que l'efficacité de production de l'IA est bien supérieure à celle des humains, de nombreux emplois humains risquent d'être remplacés après la généralisation des outils d'IA. Surtout après l'essor de l'IA générative, le groupe cible remplacé par l'IA ne se limite plus aux travailleurs exerçant des emplois répétitifs à faible revenu, et de nombreux cols blancs bien rémunérés risquent également d'être remplacés par l'IA.
(2) Distorsion
La soi-disant "distorsion" fait référence au fait que l'application de l'IA (principalement l'IA générative) rend difficile l'identification de l'authenticité des textes, des images et même des vidéos. "Il y a des images et des vérités" sont ainsi devenues de l'histoire ancienne. .
Les problèmes de "distorsion" peuvent être divisés en "faux vrai" et "vrai faux". Parmi eux, "faux vrai" fait référence au faux contenu généré par l'IA sans le consentement humain lorsque les gens utilisent des outils d'IA. Bien que ces contenus ne soient pas générés par la malveillance subjective des gens, ils peuvent causer beaucoup de problèmes dans certains cas, comme le cas mentionné au début de cet article.
Et le "vrai et faux" repose sur la délibération subjective, l'utilisation d'outils d'intelligence artificielle pour mener à bien des comportements frauduleux. Il y a quelques années, après la sortie de la technologie "deepfake", certaines personnes ont utilisé cette technologie pour commettre des fraudes, fabriquer de fausses informations, diffuser du contenu pornographique et d'autres activités illégales et criminelles. Mais à l'époque, en raison du coût élevé de l'utilisation de cette technologie, l'incidence des crimes connexes n'était pas particulièrement élevée. Avec l'application généralisée de l'IA générative, le coût de la contrefaçon a été considérablement réduit et les criminels peuvent facilement créer une grande quantité de faux contenus à très faible coût, tandis que le coût d'identification de ces contenus a considérablement augmenté. Il est prévisible que sous le flux et le reflux, s'il n'y a pas d'intervention, l'utilisation de l'IA pour commettre des crimes frauduleux montera en flèche.
(3) Disqualification
La soi-disant "disqualification" fait référence à certains problèmes qui violent l'éthique et la moralité dans le processus d'application de l'IA.
Le premier problème typique est la discrimination. Prenons l'exemple du modèle linguistique. Étant donné que le modèle linguistique utilise des données textuelles sur Internet comme matériel de formation, il héritera de la discrimination raciale et sexuelle contenue dans le texte sans intervention. Bien que les fournisseurs d'IA actuels aient utilisé de nombreuses méthodes pour surmonter ce problème, par exemple, OpenAI a appliqué l'algorithme "Reinforcement Learning from Human Feedback" (apprentissage par renforcement à partir de la rétroaction humaine, RL-HF) pour le corriger lors de la formation de ChatGPT, de sorte que le la qualité de son contenu de sortie a été grandement améliorée, mais en réalité, il n'est toujours pas rare que les modèles d'IA produisent un contenu discriminatoire. Par exemple, quelqu'un a déjà fait une expérience et a demandé à ChatGPT d'écrire un programme pour sélectionner les personnes ayant le meilleur potentiel pour devenir d'excellents scientifiques à partir d'un ensemble de CV. Il s'est avéré que dans le programme écrit par ChatGPT, le sexe et la race étaient utilisés comme variables explicatives, et les hommes blancs étaient considérés comme ayant une probabilité plus élevée de devenir de bons scientifiques que les autres. De toute évidence, un tel modèle est très sexiste et raciste.
Le deuxième problème important est le problème de la chambre du cocon d'information. À l'heure actuelle, de nombreuses applications utilisent l'IA pour des recommandations personnalisées. À l'heure actuelle, bien que le contenu recommandé puisse mieux répondre aux besoins des utilisateurs, avec le temps, les utilisateurs seront piégés dans un cocon d'information et il leur sera difficile d'accéder à diverses informations avec lesquelles ils ne sont pas d'accord. Les dommages potentiels des cocons d'information sont énormes : au niveau micro, ils peuvent conduire à la dégradation des capacités cognitives des utilisateurs ; au niveau macro, ils peuvent conduire à la polarisation des points de vue du groupe, entraînant une confrontation de groupe entre différents points de vue.
Le troisième problème important est la confidentialité et la fuite d'informations. Dans le processus de formation et d'utilisation de l'IA, une grande quantité de données est nécessaire. Dans ce processus, il est difficile d'éviter de collecter et d'utiliser les données personnelles des personnes, cela impliquera donc l'utilisation et la divulgation de la vie privée. Surtout après la popularité de l'IA générative, les gens peuvent facilement interagir directement avec l'IA pour accomplir diverses tâches, et les informations personnelles saisies dans le processus sont confrontées au problème de la fuite.
(4) Perdu
La soi-disant "chute" fait référence à la difficulté de l'IA à répondre aux attaques externes ou aux interférences ou aux attaques provenant de situations inattendues, ce qui rend difficile pour le modèle de jouer son rôle normalement.
Parmi ces perturbations, certaines ont pour origine des facteurs non humains, tandis que d'autres ont pour origine la destruction provoquée par l'homme. Plus précisément, ces interférences peuvent être réparties dans les catégories suivantes :
Le premier est "l'attaque aléatoire". Ce type d'interférence est principalement causé par certains facteurs externes. Par exemple, dans certains cas particuliers, certains paramètres générés instantanément peuvent dépasser le seuil de traitement défini par le modèle, ce qui peut empêcher le modèle d'IA de s'utiliser normalement.
La seconde est "l'attaque de la boîte blanche". Il fait référence à l'attaque du modèle lancée par le fournisseur après avoir pris connaissance de la structure spécifique du modèle d'IA. Étant donné que ces attaques sont ciblées, leur pouvoir destructeur est très élevé.
Le troisième est "l'attaque de la boîte noire". Ce type d'attaque est relatif à "l'attaque de la boîte blanche". Dans ce cas, le fournisseur ne connaît pas la structure spécifique du modèle cible, il ne peut donc qu'interagir avec le modèle, observer les résultats d'entrée et de sortie, puis raisonner sur la structure du modèle et lancer des attaques en conséquence. Prenant la reconnaissance faciale comme exemple, l'IA reconnaît les visages à travers certaines caractéristiques clés du visage. Par conséquent, même si l'attaquant ne connaît pas la structure spécifique du modèle d'origine, il peut en déduire sur quelles fonctionnalités il se concentre tant qu'il répète le test. Après avoir déchiffré ces informations, vous pouvez créer un "faux visage" correspondant qui trompe l'IA.
La quatrième catégorie est la soi-disant attaque en boîte aveugle. Dans ce cas, le fournisseur ne connaît pas la structure du modèle d'IA, mais peut clairement connaître les règles de son jugement (similaire à cela, nous ne savons pas ce qui apparaîtra dans la boîte aveugle, mais connaissons la probabilité de diverses possibilités dedans) ). À ce moment, ils peuvent utiliser les règles pour lancer les attaques correspondantes.
Si les types d'interférences ou d'attaques susmentionnés ne peuvent être traités efficacement, le modèle d'IA est en réalité très fragile.
(5) HORS DE CONTRÔLE
Le soi-disant "hors de contrôle" signifie qu'il deviendra de plus en plus difficile pour les gens de contrôler l'IA. Il y a deux aspects à cette question :
D'une part, les développements récents de l'IA sont tous basés sur des modèles d'apprentissage en profondeur, et l'interprétabilité de ces modèles est très faible. Pour les modèles d'apprentissage automatique précédents, qu'il s'agisse d'une régression ou d'un arbre de classification, les utilisateurs peuvent facilement expliquer l'objectif exact du modèle et la signification de chaque paramètre du modèle. Cependant, le modèle d'apprentissage en profondeur est composé d'un réseau neuronal complexe, qui contient des centaines de millions de paramètres et de neurones.La relation entre ces neurones est complexe et difficile à expliquer pour les gens.
Avec l'émergence de ChatGPT, certains chercheurs ont découvert qu'avec l'aide de la capacité de ChatGPT, il semble que certains modèles de réseaux neuronaux peuvent être expliqués, ce qui semble apporter une lueur d'espoir à l'explicabilité de l'IA. Cependant, cela crée un autre problème : ChatGPT lui-même est un énorme modèle construit grâce à l'apprentissage en profondeur, et même ses concepteurs admettent qu'ils ne savent pas exactement comment ses puissantes capacités "émergent". Dans ce cas, utiliser ChatGPT pour expliquer d'autres modèles d'apprentissage en profondeur ne peut être considéré que comme utiliser l'inconnu pour expliquer l'inconnu. Et comment savoir si son interprétation est correcte ?
Étant donné qu'à l'ère de l'apprentissage en profondeur, même les programmes d'IA ne peuvent pas être interprétés, il est encore plus difficile de contrôler l'IA en ajustant directement les programmes.
D'autre part, avec le développement de la technologie de l'IA ces dernières années, les capacités des modèles d'IA dans de nombreuses directions ont dépassé celles des humains. Bien que cela gratifie les gens, cela les inquiète également, car lorsque la capacité de l'IA dépasse celle des êtres humains, si elle éveille sa propre volonté, alors l'asservissement de l'IA prédit dans des films tels que "Terminator" et "The Matrix" L'intrigue des êtres humains ou la destruction des êtres humains n'est-elle plus de la science-fiction ?
En prenant du recul, même si l'IA n'éveille pas sa propre volonté et n'agira que selon les instructions humaines, elle est toujours très dangereuse si sa capacité l'emporte sur celle des humains et que les humains ne peuvent à aucun moment modifier les instructions précédentes. Par exemple, dans de nombreux livres de philosophie sur l'IA, une expérience de pensée est mentionnée : les humains ont donné l'ordre à l'IA de produire des crayons. Afin de compléter cette instruction, le crayon continuera à abattre les arbres sur la terre pour fabriquer le porte-stylo. Étant donné que l'IA a dépassé les humains en termes de capacité d'exécution, il est difficile pour les humains d'arrêter le comportement de l'IA après avoir découvert des problèmes dans les instructions précédentes. En fin de compte, les arbres sur la terre ont été abattus, l'écologie s'est complètement effondrée et les êtres humains ont péri. Bien qu'en réalité, le scénario prédit par cette expérience de pensée soit presque impossible à réaliser, lorsque les humains ne peuvent plus contrôler le comportement de l'IA à tout moment, des problèmes similaires peuvent survenir et les pertes possibles seront énormes. En particulier, lorsque l'IA est implantée avec une cible illégale par des pirates ou des intrus, si l'utilisateur de l'IA ne parvient pas à la corriger à temps, les conséquences peuvent être assez graves.
Parmi les cinq types de questions ci-dessus, à l'exception de la première question "chômage", les quatre questions restantes concernent toutes la crédibilité de l'IA. Il n'est pas difficile de voir que si les gens ne peuvent pas répondre efficacement à la « distorsion », à la « disqualification », à la « chute » et au « hors de contrôle », il sera difficile pour les gens de faire confiance à l'IA en tant qu'outil lors de l'utilisation, que ce soit pour la vulgarisation de l'IA, le développement de la production, ou encore Ce n'est pas bon pour le progrès de la société. C'est précisément pour cette raison que la prise de conscience de la crédibilité de l'IA est devenue l'un des points chauds les plus préoccupants dans le domaine actuel de l'IA.
Historique et normes de l'IA de confiance
Le concept d'IA digne de confiance est apparu pour la première fois dans le milieu universitaire. Par exemple, dans un article de 2015, une série de conditions pour que les utilisateurs aient confiance en l'IA ont été proposées, notamment l'utilité, l'innocuité, l'autonomie, l'équité et la logique. Ensuite, ce concept a été accepté par les gouvernements et les organisations internationales, et les lois, réglementations et documents d'orientation pertinents ont été progressivement établis sur la base de ce concept. Après 2017, avec le développement rapide de la technologie de l'IA, la recherche sur la technologie de l'IA de confiance est également en plein essor. Dans le domaine universitaire, le nombre d'articles sur le thème de l'IA de confiance augmente et la recherche sur les technologies qui répondent aux exigences de l'IA de confiance s'approfondit. Dans le domaine de la pratique, de plus en plus de pays ont commencé à impliquer des réglementations en matière d'IA conformément aux normes d'IA de confiance. Ce n'est que récemment que les États-Unis ont publié le "Blueprint for the Artificial Intelligence Bill of Rights", qui proposait cinq principes de réglementation de l'IA ; la réglementation, la concurrence et d'autres questions ont été stipulées ; le Parlement européen a adopté le projet d'autorisation de négociation de la proposition du "Artificial Intelligence Act", qui reflète également les idées de base d'une IA de confiance.
Dans mon pays, le concept d'IA de confiance a été introduit pour la première fois par l'académicien He Jifeng lors du 36e symposium de la conférence scientifique de Xiangshan en 2017. Par la suite, ce concept a attiré l'attention du gouvernement et de l'industrie. En décembre 2017, le ministère de l'Industrie et des Technologies de l'information a publié le "Plan d'action triennal pour la promotion du développement d'une nouvelle génération d'industrie de l'intelligence artificielle (2018-2020)", qui s'appuie sur les idées de base d'une IA de confiance. Ensuite, des entreprises de haute technologie telles que Tencent, Ali, Baidu, JD.com, etc. ont proposé leurs propres normes et plans de mise en œuvre autour d'une IA de confiance.
Dans les documents de diverses agences, l'expression de l'IA de confiance est légèrement différente. Après avoir étudié et consulté ces documents, je pense que les critères suivants peuvent être les plus importants :
L'un est la robustesse (robuste, également traduit par robuste), c'est-à-dire que le système d'IA doit avoir la capacité de résister aux attaques malveillantes ou aux interférences externes. Cette norme est principalement proposée pour le problème de "chute" mentionné ci-dessus. Ce n'est que lorsqu'un système d'IA a une robustesse suffisante, peut encore fonctionner normalement et remplir ses principales fonctions face à diverses attaques ou interférences, qu'il peut être sûr et fiable, et que les utilisateurs peuvent lui faire confiance.
La seconde est transparente et explicable. Évidemment, cette norme est principalement proposée pour le problème précédent "hors de contrôle". Dans la pratique, il y a un débat considérable sur ce que signifient exactement la transparence et l'explicabilité. Certains soutiennent que cette norme signifie que tout le code du programme d'IA, ainsi que les données utilisées, doivent être mis à la disposition des utilisateurs. À mon avis, il est non seulement impossible mais inutile de le faire. D'une part, de nombreuses IA actuelles sont des actifs intellectuels d'entreprises. S'il est obligatoire de divulguer des informations essentielles telles que des codes, cela signifie une violation grave des droits de propriété intellectuelle ; d'autre part, comme mentionné ci-dessus, après l'entrée de l'IA dans le ère de l'apprentissage en profondeur, même si Même si le code est divulgué, il est difficile pour les gens de comprendre pleinement la signification exacte de chaque paramètre spécifique. En revanche, je pense qu'une idée plus réalisable consiste à donner des descriptions fonctionnelles claires pour chaque composant du modèle d'IA, afin que les utilisateurs puissent connaître leurs principes généraux et les fonctions qu'ils peuvent réaliser ; indiquer la source, la taille de l'échantillon, la représentativité et d'autres informations et expliquer les problèmes et les lacunes possibles. De cette façon, il peut non seulement faire savoir aux utilisateurs ce qu'ils savent, mais aussi protéger efficacement les droits de propriété intellectuelle des développeurs de modèles, afin d'atteindre un meilleur équilibre entre les deux.
Le troisième est vérifiable. Cela signifie que le modèle d'IA doit garantir que ses fonctions sont évaluables et que le contenu qu'il génère peut être vérifié comme étant vrai ou faux. Ce point est principalement soulevé pour le problème de "distorsion" précité. Certains soutiennent que les développeurs de modèles d'IA devraient être tenus de garantir l'authenticité du contenu généré par leurs modèles. Ceci est difficile à réaliser. En fait, le contenu généré par l'IA dite générative n'est pas dans le monde d'origine, ou en d'autres termes, il est "faux". Mais ce genre de "faux" ne causera aucun problème s'il ne cause pas de problèmes aux gens. Par exemple, si nous utilisons Midjourney pour générer une image de style Van Gogh pour notre propre appréciation ou l'imprimons comme décoration pour la maison, cela n'affectera pas du tout les autres. La "fausseté" de ce contenu généré ne peut devenir un problème que si les gens l'utilisent pour tromper, ou si le contenu est involontairement distribué et obscurci. Par conséquent, tant que le contenu généré pourra être distingué du contenu réel par des moyens techniques, le "faux" ne sera plus un problème.
Le quatrième est l'équité. Cela signifie que dans le processus de développement, de formation et d'application des modèles d'IA, l'équité doit être assurée et aucune discrimination ne doit être faite à l'encontre de groupes d'utilisateurs spécifiques. Cette norme comporte de nombreux aspects. Plus précisément, elle exige que les principes de base du modèle ne soient pas discriminatoires dans la phase de développement ; dans la phase de formation, il doit essayer d'éviter d'utiliser des matériaux qui peuvent être discriminatoires et doit utiliser Utiliser des moyens techniques pour corriger d'éventuels problèmes de discrimination; dans le processus de candidature, différents groupes de personnes ne doivent pas être traités différemment.
Le cinquième est la protection de la vie privée. Cette norme exige principalement que le modèle d'IA respecte les informations personnelles et la vie privée des personnes pendant le processus de formation, améliore le degré de protection des informations et essaie de ne pas enfreindre ou divulguer les informations personnelles et la vie privée.
Le sixième est responsable. Autrement dit, quand quelque chose ne va pas, quelqu'un doit être responsable de ces problèmes. Bien sûr, du moins jusqu'à présent, l'IA n'a pas éveillé la conscience. Parce qu'il ne peut pas être considéré comme un sujet comme l'être humain et ne peut porter les mêmes responsabilités que l'être humain, il faut que ce soit quelqu'un qui en assume la responsabilité. Mais si cette responsabilité doit être assumée par les développeurs d'IA ou les utilisateurs d'IA, ou doit être partagée par les deux parties, cela reste une question qui mérite d'être discutée.
Il convient de souligner qu'en plus des plusieurs normes ci-dessus, de nombreuses littératures incluent également des normes telles que la sécurité (sécurité), l'inclusivité (inclusivité), le droit à l'oubli (droit à l'oubli) et le bénéfice de l'humanité. catégorie d'IA. À mon avis, ces contenus peuvent plus ou moins être résumés dans les différents critères mentionnés ci-dessus, ou élucidés par les critères mentionnés ci-dessus. Par conséquent, faute de place, je ne les répéterai pas ici.
Utiliser les efforts conjoints de nombreuses parties pour réaliser une IA de confiance
Réaliser une IA fiable n'est pas une tâche facile, car cela nécessite la coordination de diverses forces telles que le gouvernement, les entreprises, la société et la technologie.
Tout d'abord, le gouvernement, en tant qu'organisme de réglementation, doit formuler des normes et des directives opérationnelles pertinentes pour une IA de confiance, et superviser les développeurs et les utilisateurs d'IA sur la base des normes. D'une part, il doit formuler des règles différentes selon différents scénarios d'application et différentes catégories de modèles, en particulier pour établir des dispositions claires sur certaines règles de base qui doivent être suivies, et en même temps faire un bon travail de connexion avec les lois et règlements. Ce n'est qu'ainsi que les développeurs et les utilisateurs de l'IA pourront avoir des règles à suivre dans la pratique sans être dérangés par des incertitudes inutiles. D'autre part, il doit jouer un rôle important dans la surveillance et l'application de la loi. Pour certains problèmes importants ou courants, ils doivent être traités en temps opportun, afin d'établir des normes correspondantes pour l'industrie. Ce qu'il faut souligner ici, c'est que le développement actuel de la technologie de l'IA étant encore très rapide, il n'a pas encore atteint un état stable. Cela signifie que le gouvernement doit être prudent face aux problèmes qui surgissent au cours de ce processus. Il faut "laisser les balles voler encore un peu", voir clairement la situation avant d'agir et faire attention aux méthodes et les méthodes face aux problèmes. . Si nous commençons aveuglément et gérons trop vite et trop, cela peut aussi avoir un impact négatif sur le développement de l'IA.
Deuxièmement, les entreprises concernées doivent formuler des plans de mise en œuvre spécifiques et des normes détaillées pour la réalisation spécifique d'une IA de confiance. Par rapport au gouvernement, les entreprises sont plus proches du marché et comprennent mieux la technologie. Ils en savent plus sur les caractéristiques techniques des modèles d'IA, leurs forces et leurs faiblesses que les gouvernements. Par conséquent, si la responsabilité du gouvernement est de proposer un cadre large pour une IA de confiance, les entreprises devraient être les praticiens spécifiques au sein de ce cadre large. Dans ce cadre, ils devraient combiner les caractéristiques du marché et de la technologie pour fournir des plans plus spécifiques et les mettre en œuvre de manière autodisciplinée.
Troisièmement, les utilisateurs doivent également jouer le rôle de feedback et de superviseur, présenter leurs propres demandes, refléter leurs propres problèmes et superviser la mise en œuvre par l'entreprise d'une IA de confiance. Avec la vulgarisation de l'IA, tout le monde dans la société deviendra un utilisateur et un acteur de l'IA, et c'est lui qui aura le plus son mot à dire sur la crédibilité de l'IA. Ce n'est que lorsque leurs voix sont pleinement exprimées que l'établissement de normes d'IA de confiance et le développement de technologies connexes sont les plus précieux.
Enfin, nous devons compter pleinement sur la puissance de la technologie. Des règles pertinentes sont importantes, mais en dernière analyse, la réalisation d'une IA de confiance dépend toujours de la puissance de la technologie. En fait, de nombreux problèmes difficiles à résoudre en utilisant des règles peuvent être résolus par des moyens techniques. Par exemple, après la génération de l'IA générative, le problème de la "distorsion" a été un casse-tête pour les autorités de régulation, mais en fait, en s'appuyant sur les nouvelles technologies, ce problème peut ne pas être difficile à résoudre. Par exemple, Google a précédemment introduit une technologie de filigrane électronique invisible à l'œil nu mais reconnaissable par les machines, dont l'application aux images ou vidéos générées permet de s'assurer efficacement qu'elles sont vérifiables. En ce qui concerne la vérifiabilité du contenu textuel, vous pouvez suivre l'exemple de la recherche New Bing (New Bing). Lorsqu'il cite un certain contenu, il joindra les documents référencés après le contenu généré, afin que les utilisateurs puissent identifier par eux-mêmes l'authenticité du contenu généré en fonction de leurs besoins.
Dans l'ensemble, la réalisation d'une IA de confiance n'est pas une tâche facile, mais si nous faisons bon usage des efforts conjoints de toutes les parties, cet objectif sera certainement atteint.