ChatGPT est populaire depuis plus de six mois. En plus du développement rapide, en plus de résoudre les problèmes techniques, la conformité pourrait être le prochain gros problème - après que le Congrès a assigné Sam Altman à comparaître, maintenant la FTC (Federal Trade Commission) dirige également officiellement ChatGPT enquête.
Cela fait écho à ce que disait Bill Gates il y a quelques jours. Dans son dernier article de blog, il a déclaré : "L'IA est l'innovation la plus transformatrice. C'est vrai qu'il y a des risques, mais les risques sont également contrôlables".
Dans le billet de blog, Bill Gates discute principalement des risques et des défis de l'intelligence artificielle et de la manière de les gérer, et fournit également quelques exemples et suggestions.
Bill Gates a d'abord exprimé son affirmation des préoccupations des gens concernant l'IA aujourd'hui - nous sommes maintenant dans une ère de profonds changements dans l'intelligence artificielle, qui est une ère incertaine. Mais il est optimiste que ces risques sont gérables.
Deuxièmement, Bill Gates a également énuméré les risques causés par l'IA actuelle, y compris la falsification profonde et la désinformation générée par l'intelligence artificielle, qui peuvent détruire les élections et la démocratie, faciliter le lancement d'attaques par les individus et les gouvernements et supprimer les emplois des gens. hérite des préjugés humains et invente les choses, les élèves n'apprendront pas à écrire parce que l'IA le fera pour eux, etc.
Enfin, Bill Gates a également avancé une série de propositions pour réglementer l'IA. Au niveau du gouvernement national, les gouvernements doivent accumuler une expertise en intelligence artificielle pour formuler des lois et des réglementations pour faire face à l'IA, pour faire face à la désinformation et aux contrefaçons profondes, aux menaces pour la sécurité, aux changements sur le marché du travail et à l'impact sur l'éducation.
En termes de solutions, les chefs de gouvernement doivent coopérer avec d'autres pays, pas seuls, et la capacité d'avoir un dialogue éclairé et réfléchi avec les gens.
De plus, pour les entreprises, les sociétés d'IA doivent avoir une attitude responsable et des travaux doivent être menés pour assurer la sécurité, y compris la protection de la vie privée des personnes, etc.
Voici le texte intégral, traduit de GPT-4, édité par 36 Krypton :
Les risques posés par l'IA semblent écrasants. Qu'en est-il de ceux qui perdent leur emploi pour être remplacés par des machines intelligentes ? L'IA affectera-t-elle les résultats des élections ? Et si la future IA décidait que les humains ne sont plus nécessaires et voulait se débarrasser de nous ?
Ce sont des questions légitimes et nous devons prendre au sérieux les préoccupations qu'elles soulèvent. Mais nous avons toutes les raisons de croire que nous pouvons y faire face : ce n'est pas la première fois qu'une innovation majeure introduit de nouvelles menaces qu'il faut contenir, et nous les avons déjà rencontrées.
Qu'il s'agisse de l'avènement de l'automobile ou de l'essor de l'ordinateur personnel et d'Internet, les gens ont vécu d'autres moments de transformation qui, malgré de nombreux bouleversements, se sont terminés pour le mieux. Peu de temps après que les premières voitures ont pris la route, les premiers accidents se sont produits. Mais au lieu d'interdire les voitures, nous avons adopté des limites de vitesse, des normes de sécurité, des exigences en matière de permis de conduire, des lois sur l'alcool au volant et d'autres règles de la route.
Nous en sommes maintenant aux premiers stades d'une autre transformation profonde, l'ère de l'IA, semblable à l'ère de l'incertitude avant les limites de vitesse et les ceintures de sécurité. L'IA évolue si rapidement qu'on ne sait pas ce qui va se passer ensuite. Nous sommes confrontés à de grandes questions sur le fonctionnement de la technologie actuelle, comment les gens l'utilisent à des fins malveillantes et comment l'intelligence artificielle nous changera en tant que membres de la société et en tant qu'individus.
Dans des moments comme ceux-ci, il est naturel de se sentir mal à l'aise. Mais l'histoire montre qu'il est possible de relever les défis posés par les nouvelles technologies.
J'ai écrit sur la façon dont l'intelligence artificielle va révolutionner nos vies, en aidant à résoudre des problèmes de santé, d'éducation, de changement climatique, etc., qui semblaient insolubles dans le passé. La Fondation Gates fait de cette question une priorité, et notre PDG, Mark Suzman, a récemment partagé ses réflexions sur le rôle de l'IA dans la réduction des inégalités.
Je parlerai davantage des avantages de l'IA à l'avenir, mais dans cet article, je veux parler des préoccupations les plus courantes que j'entends et lis, dont je partage beaucoup, et expliquer ce que je ressens à leur sujet.
De tous les écrits jusqu'à présent sur les risques de l'intelligence artificielle, une chose est claire, c'est que personne ne détient toutes les réponses. Un autre point qui est clair pour moi est que l'avenir de l'intelligence artificielle n'est pas aussi sombre que certains l'imaginent, ni aussi rose que d'autres l'imaginent. Les risques sont réels, mais j'ai bon espoir qu'ils peuvent être gérés. Au fur et à mesure que j'aborde chaque problème un par un, je reviendrai sur quelques sujets :
De nombreux problèmes soulevés par l'intelligence artificielle ont des précédents historiques. Cela aura un impact énorme sur l'éducation, par exemple, mais tout comme les calculatrices portables il y a des décennies, et plus récemment en autorisant les ordinateurs dans les salles de classe, nous pouvons apprendre des succès passés.
De nombreux problèmes provoqués par l'intelligence artificielle peuvent également être résolus à l'aide de l'intelligence artificielle.
Nous devons adapter les anciennes lois et en promulguer de nouvelles - tout comme les lois antifraude existantes doivent s'adapter au monde en ligne.
Dans cet article, je me concentrerai sur les risques existants ou imminents. Je ne vais pas discuter de ce qui se passera lorsque nous développerons une IA capable d'apprendre n'importe quel sujet ou tâche. Au lieu de cela, je parle aujourd'hui d'une IA spécialement conçue à cet effet.
Que nous arrivions à ce point dans une décennie ou un siècle, la société devra faire face à des questions profondes. Et si une super IA établissait ses propres objectifs ? Et s'ils entrent en conflit avec des objectifs humains ? Devrions-nous construire une super IA ?
Cependant, les risques immédiats ne doivent pas être négligés lorsque l'on considère ces risques à long terme. Je passe maintenant à ces risques à court terme.
Le faux contenu généré par l'IA et la désinformation pourraient détruire les élections et la démocratie
L'utilisation de la technologie pour répandre des mensonges et de la désinformation n'a rien de nouveau. Les gens répandent des mensonges à travers des livres et des tracts depuis des siècles. Cette pratique est devenue plus facile avec l'avènement des traitements de texte, des imprimantes laser, du courrier électronique et des réseaux sociaux.
L'intelligence artificielle a amplifié ce problème de faux texte, permettant à presque n'importe qui de créer de faux audio et vidéo, connus sous le nom de deepfakes. Si vous recevez un message vocal qui ressemble à celui de votre enfant disant "J'ai été kidnappé, veuillez envoyer 1 000 $ sur ce compte bancaire dans les 10 prochaines minutes et n'appelez pas la police", cela générera bien plus que le même contenu. L'effrayant impact émotionnel du courrier.
À plus grande échelle, les deepfakes générés par l'IA pourraient être utilisés pour tenter d'influencer les résultats des élections. Bien sûr, il ne faut pas une technologie sophistiquée pour jeter le doute sur le vainqueur légitime d'une élection, mais l'intelligence artificielle rendra le processus beaucoup plus facile.
Déjà, de fausses vidéos sont apparues qui contiennent des images fabriquées de politiciens bien connus. Imaginez que le matin d'une élection importante, une vidéo d'un candidat cambriolant une banque devienne virale. Même si c'était faux, il a fallu des heures aux agences de presse et aux campagnes pour le prouver. Combien de personnes vont voir cette vidéo et modifier leur vote à la dernière minute ? Cela pourrait changer le résultat de la course, surtout si la course est serrée.
Lorsque le co-fondateur d'Open AI, Sam Altman, a récemment témoigné devant un comité du Sénat américain, les sénateurs des deux partis ont fait part de leurs inquiétudes quant à l'impact de l'IA sur les élections et la démocratie. J'espère que ce sujet continuera d'intéresser tout le monde. Nous n'avons vraiment pas résolu le problème de la désinformation et des deepfakes. Mais deux choses me rendent prudemment optimiste. La première est que les gens ont la capacité d'apprendre à ne pas faire confiance à tout. Pendant des années, les utilisateurs de messagerie ont été dupés par quelqu'un se faisant passer pour un prince nigérian, promettant d'énormes récompenses pour le partage des numéros de carte de crédit. Mais finalement, la plupart des gens apprennent à revérifier ces e-mails. Alors que les tromperies deviennent plus sophistiquées et que de nombreuses cibles sont plus sournoises, nous devons créer la même prise de conscience pour les deepfakes.
Une autre chose qui me donne de l'espoir est que l'IA peut non seulement créer des deepfakes, mais aussi aider à les identifier. Par exemple, Intel a développé un détecteur de deepfake, tandis que l'agence gouvernementale DARPA travaille sur la façon d'identifier si une vidéo ou un son a été trafiqué.
Ce sera un processus circulaire : quelqu'un trouve un moyen de détecter la contrefaçon, quelqu'un d'autre découvre comment la contrer, quelqu'un développe une contre-mesure, etc. Ce ne sera pas un succès parfait, mais nous ne serons pas liés non plus.
L'IA permet aux humains et aux gouvernements de lancer plus facilement des attaques
Aujourd'hui, lorsque les pirates veulent trouver un bogue dans un logiciel, ils écrivent du code par la force brute, attaquant les faiblesses potentielles jusqu'à ce qu'ils trouvent le bogue. Cela implique de nombreux détours, il faut donc du temps et de la patience.
Les professionnels de la sécurité qui veulent lutter contre les pirates doivent faire de même. Chaque correctif logiciel que vous installez sur votre téléphone ou votre ordinateur portable représente beaucoup de temps passé à le rechercher par une personne bénigne ou malveillante.
Les modèles d'IA accéléreront ce processus en aidant les pirates à écrire un code plus efficace. Ils pourront également utiliser des informations publiques sur des individus, telles que leur lieu de travail et leurs amis, pour développer des attaques de phishing plus avancées que celles que nous voyons aujourd'hui.
La bonne nouvelle est que l'IA peut être utilisée à la fois à des fins malveillantes et à des fins utiles. Les équipes de sécurité du gouvernement et du secteur privé doivent disposer des derniers outils pour détecter et corriger les vulnérabilités de sécurité avant que les criminels ne les exploitent. J'espère que l'industrie de la sécurité logicielle étendra le travail qu'elle fait déjà dans ce domaine, cela devrait être leur préoccupation numéro un.
C'est pourquoi nous ne devrions pas essayer d'empêcher temporairement les gens de mettre en œuvre de nouveaux développements en matière d'intelligence artificielle, comme certains l'ont suggéré. Les cybercriminels n'arrêteront pas de fabriquer de nouveaux outils, pas plus que ceux qui veulent utiliser l'IA pour concevoir des armes nucléaires et des attaques bioterroristes, et les arrêter doit continuer au même rythme.
Il existe également des risques connexes au niveau mondial : une course aux armements contre l'IA pourrait être utilisée pour concevoir et lancer des cyberattaques contre d'autres États. Le gouvernement de chaque pays veut disposer de la technologie la plus puissante disponible pour dissuader les attaques adverses. Cette motivation « ne laisser personne d'abord » pourrait déclencher une course pour créer des cyber-armes de plus en plus dangereuses. De cette façon, tout le monde sera moins bien loti.
C'est une idée effrayante, mais nous avons l'histoire comme une leçon. Malgré ses défauts, le régime mondial de non-prolifération des armes nucléaires a empêché la guerre nucléaire totale dont ma génération a grandi terrifiée. Les gouvernements devraient envisager de créer une agence mondiale d'IA similaire à l'Agence internationale de l'énergie atomique.
L'IA prendra des emplois aux gens
Le principal impact de l'intelligence artificielle sur le travail dans les années à venir sera d'aider les gens à faire leur travail plus efficacement. Cela est vrai que vous travailliez dans une usine ou au bureau pour gérer les appels de vente et les comptes fournisseurs. Finalement, la capacité de l'IA à exprimer ses pensées sera suffisamment bonne pour qu'elle puisse écrire des e-mails et gérer votre boîte de réception pour vous. Vous pourrez rédiger une demande en anglais simple ou dans toute autre langue et générer un rapport de travail informatif.
Comme je l'ai dit dans mon article de février, une productivité accrue est bonne pour la société. Cela laisse plus de temps aux gens pour faire autre chose, que ce soit au travail ou à la maison. Et le besoin de personnes utiles, telles que l'enseignement, les soins aux malades et les soins aux personnes âgées, ne disparaîtra jamais.
Mais certains travailleurs ont besoin de soutien et de recyclage alors que nous passons à un lieu de travail axé sur l'IA. C'est le travail des gouvernements et des entreprises de bien le gérer afin que les travailleurs ne soient pas laissés pour compte, sans le genre de perturbation dans la vie des gens qui s'est produite lorsque des emplois manufacturiers américains ont été perdus.
N'oubliez pas non plus que ce n'est pas la première fois que les nouvelles technologies entraînent des changements importants sur le marché du travail. Je ne pense pas que l'impact de l'intelligence artificielle sera aussi énorme que la révolution industrielle, mais il sera certainement aussi énorme que l'avènement de l'ordinateur personnel. Les applications de traitement de texte n'ont pas éliminé le travail de bureau, mais elles l'ont changé à jamais. Les employeurs et les employés ont dû s'adapter, et ils l'ont fait. La transformation provoquée par l'IA sera une transition cahoteuse, mais il y a tout lieu de croire que nous pouvons réduire les perturbations dans la vie et les moyens de subsistance des gens.
L'IA hérite de nos préjugés et les invente
Hallucinations, c'est-à-dire lorsqu'une IA fait en toute confiance une déclaration qui n'est tout simplement pas vraie, et se produit généralement parce que la machine ne comprend pas le contexte de votre demande. Si vous demandez à une IA d'écrire une courte histoire sur des vacances sur la lune, cela pourrait vous donner une réponse très imaginative. Mais si vous le laissez vous aider à planifier un voyage en Tanzanie, il pourrait essayer de vous déposer dans un hôtel qui n'existe pas.
Un autre risque de l'IA est qu'elle reflète ou même exacerbe les préjugés existants sur certaines identités de genre, races, ethnies, etc.
Pour comprendre pourquoi de telles illusions et biais surviennent, il est important de comprendre comment fonctionnent les modèles d'IA actuels les plus courants. Il s'agit essentiellement de versions de code très complexes qui permettent à votre application de messagerie de prédire le prochain mot que vous allez taper : dans certains cas, presque tout le texte disponible sur le Web, et elles analysent de grandes quantités de texte, l'analysent, trouvent modèles dans le langage humain.
Lorsque vous posez une question à l'IA, elle examine les mots que vous utilisez, puis recherche le texte souvent associé à ces mots. Si vous écrivez "liste des ingrédients pour les crêpes", vous remarquerez peut-être que les mots "farine, sucre, sel, levure chimique, lait et œufs" apparaissent fréquemment avec la phrase. Ensuite, sur la base de ce qu'il sait de l'ordre dans lequel ces mots apparaissent généralement, il génère une réponse (les modèles d'IA qui fonctionnent de cette manière utilisent ce qu'on appelle des transformateurs, et GPT-4 est l'un de ces modèles).
Ce processus explique pourquoi l'IA peut halluciner ou être biaisée, sans aucune compréhension contextuelle des questions que vous posez ou des choses que vous lui dites. Si vous lui dites que vous avez fait une faute de frappe, il dira probablement "désolé, j'ai fait une faute de frappe". Mais ce n'est qu'une illusion, il ne fait aucune erreur de frappe, il dit que parce qu'il a scanné suffisamment de texte pour savoir que "désolé, j'ai mal tapé" est l'une des choses que les gens écrivent souvent après avoir été corrigé.
De même, les modèles d'IA héritent des biais inhérents au texte sur lequel ils ont été entraînés. Si l'on lit beaucoup d'articles sur les médecins et que les articles mentionnent principalement des hommes médecins, sa réponse supposera que la plupart des médecins sont des hommes.
Bien que certains chercheurs affirment que les hallucinations sont un problème inhérent, je ne suis pas d'accord. Je suis optimiste sur le fait qu'avec le temps, nous pourrons apprendre aux modèles d'IA à distinguer les faits de la fiction. Par exemple, Open AI a fait un travail prometteur à ce sujet.
D'autres organisations, dont l'Institut Alan Turing et l'Institut national des normes et de la technologie, s'attaquent aux préjugés. Une approche consiste à intégrer des valeurs humaines et un raisonnement de niveau supérieur dans l'IA. C'est similaire à la façon dont les humains conscients d'eux-mêmes fonctionnent : vous pensez peut-être que la plupart des médecins sont des hommes, mais vous êtes suffisamment conscient de cette hypothèse pour savoir que vous devez la combattre consciemment. L'intelligence artificielle peut fonctionner de la même manière, surtout si les modèles sont conçus par des personnes d'horizons différents.
En fin de compte, toute personne utilisant l'IA doit être consciente du problème de biais et être un utilisateur informé. Un article que vous demandez à une IA de rédiger peut être aussi plein de parti pris que d'erreurs factuelles. Vous devez vérifier les préjugés de votre IA, ainsi que les vôtres.
Les élèves n'apprendront pas à écrire car l'IA le fera pour eux
De nombreux enseignants craignent que l'IA perturbe leur travail avec les élèves. À une époque où toute personne disposant d'une connexion Internet peut utiliser l'intelligence artificielle pour rédiger une première ébauche respectable d'une thèse, qu'est-ce qui empêche un étudiant de la remettre comme si c'était la sienne ?
Il existe déjà des outils d'IA qui apprennent à dire si un essai a été écrit par un humain ou un ordinateur, afin que les enseignants puissent dire si leurs élèves font leur propre travail. Mais au lieu d'essayer de décourager leurs élèves d'utiliser l'IA par écrit, certains enseignants l'encouragent en fait.
En janvier, une enseignante d'anglais chevronnée nommée Cherie Shields a publié un article dans Education Week. a publié un article sur la façon dont elle utilise Chat GPT dans sa classe. Chat GPT aide ses étudiants à commencer un essai, à rédiger un plan et même à fournir des commentaires sur leurs devoirs.
Elle écrit : "Les enseignants doivent adopter la technologie de l'IA comme un autre outil que les élèves peuvent utiliser. Tout comme nous avons déjà enseigné aux élèves comment faire une bonne recherche sur Google, les enseignants doivent clarifier la manière dont les robots Chat GPT peuvent aider à la rédaction de dissertations." L'existence de l'IA et aider les élèves à l'utiliser pourrait révolutionner notre façon d'enseigner. » Tous les enseignants n'ont pas le temps d'apprendre et d'utiliser de nouveaux outils, mais des éducateurs comme Cherie Shields offrent un bon argument, selon lequel les enseignants qui ont le temps en bénéficieront grandement. .
Cela me rappelle l'époque où les calculatrices électroniques sont devenues populaires dans les années 1970 et 1980. Certains professeurs de mathématiques craignent que les élèves arrêtent d'apprendre l'arithmétique de base, mais d'autres adoptent la nouvelle technologie et se concentrent sur la pensée derrière l'arithmétique.
L'IA peut également aider à l'écriture et à la pensée critique. Surtout dans les premiers jours, lorsque les hallucinations et les préjugés sont toujours un problème, les éducateurs peuvent demander à l'IA de générer des essais, puis de les vérifier avec les étudiants. Des organisations éducatives à but non lucratif telles que la Khan Academy et le projet OER fournissent aux enseignants et aux étudiants des outils en ligne gratuits qui mettent l'accent sur le test des affirmations, et aucune compétence n'est plus importante que de savoir distinguer le vrai du faux.
Nous devons vraiment nous assurer que les logiciels éducatifs aident à combler l'écart de réussite, et non à l'aggraver. Les logiciels d'aujourd'hui sont principalement destinés aux étudiants déjà motivés à apprendre. Il peut créer un plan d'étude pour vous, vous connecter avec de bonnes ressources et tester vos connaissances. Cependant, il ne sait pas encore comment vous engager dans des sujets qui ne vous intéressent pas encore. C'est un problème que les développeurs doivent résoudre afin que tous les types d'étudiants puissent bénéficier de l'IA.
**Que faire ensuite? **
Je pense que nous avons plus de raisons d'être optimistes quant à la capacité de gérer les risques de l'IA tout en maximisant ses avantages, mais nous devons agir rapidement.
Les gouvernements doivent développer une expertise en IA afin d'élaborer des lois et des réglementations pour faire face à cette nouvelle technologie. Ils doivent faire face à la désinformation et aux deepfakes, aux menaces à la sécurité, aux changements sur le marché du travail et à l'impact sur l'éducation. Juste un exemple : la loi doit clarifier quelles utilisations des deepfakes sont légales et comment les deepfakes doivent être étiquetés afin que chacun comprenne que ce qu'il voit ou entend est faux.
Les dirigeants politiques doivent être en mesure d'engager un dialogue éclairé et réfléchi avec leurs électeurs. Ils doivent également décider du degré de coopération avec d'autres pays sur ces questions, plutôt que de faire cavalier seul.
Dans le secteur privé, les entreprises d'IA doivent faire leur travail de manière sûre et responsable. Cela comprend la protection de la vie privée des personnes, la garantie que leurs modèles d'IA reflètent les valeurs humaines fondamentales, la minimisation des préjugés au profit du plus grand nombre et la prévention de l'exploitation de la technologie par des criminels ou des terroristes. Les entreprises de nombreux secteurs de l'économie devront aider leurs employés à passer à un lieu de travail centré sur l'IA afin que personne ne soit laissé pour compte. Et les clients doivent toujours savoir s'ils interagissent avec une IA ou un humain.
Enfin, j'encourage tout le monde à accorder autant d'attention que possible au développement de l'intelligence artificielle. Il s'agit de l'innovation la plus transformatrice que nous verrons de notre vivant, et un débat public sain dépendra de la compréhension de chacun de la technologie elle-même, de ses avantages et de ses risques. Les avantages de l'intelligence artificielle seront énormes, et la meilleure raison de croire que nous pouvons contrôler les risques est que nous y sommes parvenus.
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Dernier article de blog de Bill Gates : Les risques de l'IA existent mais sont contrôlables
Auteur : Jin Qiong
ChatGPT est populaire depuis plus de six mois. En plus du développement rapide, en plus de résoudre les problèmes techniques, la conformité pourrait être le prochain gros problème - après que le Congrès a assigné Sam Altman à comparaître, maintenant la FTC (Federal Trade Commission) dirige également officiellement ChatGPT enquête.
Cela fait écho à ce que disait Bill Gates il y a quelques jours. Dans son dernier article de blog, il a déclaré : "L'IA est l'innovation la plus transformatrice. C'est vrai qu'il y a des risques, mais les risques sont également contrôlables".
Dans le billet de blog, Bill Gates discute principalement des risques et des défis de l'intelligence artificielle et de la manière de les gérer, et fournit également quelques exemples et suggestions.
Bill Gates a d'abord exprimé son affirmation des préoccupations des gens concernant l'IA aujourd'hui - nous sommes maintenant dans une ère de profonds changements dans l'intelligence artificielle, qui est une ère incertaine. Mais il est optimiste que ces risques sont gérables.
Deuxièmement, Bill Gates a également énuméré les risques causés par l'IA actuelle, y compris la falsification profonde et la désinformation générée par l'intelligence artificielle, qui peuvent détruire les élections et la démocratie, faciliter le lancement d'attaques par les individus et les gouvernements et supprimer les emplois des gens. hérite des préjugés humains et invente les choses, les élèves n'apprendront pas à écrire parce que l'IA le fera pour eux, etc.
Enfin, Bill Gates a également avancé une série de propositions pour réglementer l'IA. Au niveau du gouvernement national, les gouvernements doivent accumuler une expertise en intelligence artificielle pour formuler des lois et des réglementations pour faire face à l'IA, pour faire face à la désinformation et aux contrefaçons profondes, aux menaces pour la sécurité, aux changements sur le marché du travail et à l'impact sur l'éducation.
En termes de solutions, les chefs de gouvernement doivent coopérer avec d'autres pays, pas seuls, et la capacité d'avoir un dialogue éclairé et réfléchi avec les gens.
De plus, pour les entreprises, les sociétés d'IA doivent avoir une attitude responsable et des travaux doivent être menés pour assurer la sécurité, y compris la protection de la vie privée des personnes, etc.
Voici le texte intégral, traduit de GPT-4, édité par 36 Krypton :
Les risques posés par l'IA semblent écrasants. Qu'en est-il de ceux qui perdent leur emploi pour être remplacés par des machines intelligentes ? L'IA affectera-t-elle les résultats des élections ? Et si la future IA décidait que les humains ne sont plus nécessaires et voulait se débarrasser de nous ?
Ce sont des questions légitimes et nous devons prendre au sérieux les préoccupations qu'elles soulèvent. Mais nous avons toutes les raisons de croire que nous pouvons y faire face : ce n'est pas la première fois qu'une innovation majeure introduit de nouvelles menaces qu'il faut contenir, et nous les avons déjà rencontrées.
Qu'il s'agisse de l'avènement de l'automobile ou de l'essor de l'ordinateur personnel et d'Internet, les gens ont vécu d'autres moments de transformation qui, malgré de nombreux bouleversements, se sont terminés pour le mieux. Peu de temps après que les premières voitures ont pris la route, les premiers accidents se sont produits. Mais au lieu d'interdire les voitures, nous avons adopté des limites de vitesse, des normes de sécurité, des exigences en matière de permis de conduire, des lois sur l'alcool au volant et d'autres règles de la route.
Nous en sommes maintenant aux premiers stades d'une autre transformation profonde, l'ère de l'IA, semblable à l'ère de l'incertitude avant les limites de vitesse et les ceintures de sécurité. L'IA évolue si rapidement qu'on ne sait pas ce qui va se passer ensuite. Nous sommes confrontés à de grandes questions sur le fonctionnement de la technologie actuelle, comment les gens l'utilisent à des fins malveillantes et comment l'intelligence artificielle nous changera en tant que membres de la société et en tant qu'individus.
Dans des moments comme ceux-ci, il est naturel de se sentir mal à l'aise. Mais l'histoire montre qu'il est possible de relever les défis posés par les nouvelles technologies.
J'ai écrit sur la façon dont l'intelligence artificielle va révolutionner nos vies, en aidant à résoudre des problèmes de santé, d'éducation, de changement climatique, etc., qui semblaient insolubles dans le passé. La Fondation Gates fait de cette question une priorité, et notre PDG, Mark Suzman, a récemment partagé ses réflexions sur le rôle de l'IA dans la réduction des inégalités.
Je parlerai davantage des avantages de l'IA à l'avenir, mais dans cet article, je veux parler des préoccupations les plus courantes que j'entends et lis, dont je partage beaucoup, et expliquer ce que je ressens à leur sujet.
De tous les écrits jusqu'à présent sur les risques de l'intelligence artificielle, une chose est claire, c'est que personne ne détient toutes les réponses. Un autre point qui est clair pour moi est que l'avenir de l'intelligence artificielle n'est pas aussi sombre que certains l'imaginent, ni aussi rose que d'autres l'imaginent. Les risques sont réels, mais j'ai bon espoir qu'ils peuvent être gérés. Au fur et à mesure que j'aborde chaque problème un par un, je reviendrai sur quelques sujets :
Dans cet article, je me concentrerai sur les risques existants ou imminents. Je ne vais pas discuter de ce qui se passera lorsque nous développerons une IA capable d'apprendre n'importe quel sujet ou tâche. Au lieu de cela, je parle aujourd'hui d'une IA spécialement conçue à cet effet.
Que nous arrivions à ce point dans une décennie ou un siècle, la société devra faire face à des questions profondes. Et si une super IA établissait ses propres objectifs ? Et s'ils entrent en conflit avec des objectifs humains ? Devrions-nous construire une super IA ?
Cependant, les risques immédiats ne doivent pas être négligés lorsque l'on considère ces risques à long terme. Je passe maintenant à ces risques à court terme.
Le faux contenu généré par l'IA et la désinformation pourraient détruire les élections et la démocratie
L'utilisation de la technologie pour répandre des mensonges et de la désinformation n'a rien de nouveau. Les gens répandent des mensonges à travers des livres et des tracts depuis des siècles. Cette pratique est devenue plus facile avec l'avènement des traitements de texte, des imprimantes laser, du courrier électronique et des réseaux sociaux.
L'intelligence artificielle a amplifié ce problème de faux texte, permettant à presque n'importe qui de créer de faux audio et vidéo, connus sous le nom de deepfakes. Si vous recevez un message vocal qui ressemble à celui de votre enfant disant "J'ai été kidnappé, veuillez envoyer 1 000 $ sur ce compte bancaire dans les 10 prochaines minutes et n'appelez pas la police", cela générera bien plus que le même contenu. L'effrayant impact émotionnel du courrier.
À plus grande échelle, les deepfakes générés par l'IA pourraient être utilisés pour tenter d'influencer les résultats des élections. Bien sûr, il ne faut pas une technologie sophistiquée pour jeter le doute sur le vainqueur légitime d'une élection, mais l'intelligence artificielle rendra le processus beaucoup plus facile.
Déjà, de fausses vidéos sont apparues qui contiennent des images fabriquées de politiciens bien connus. Imaginez que le matin d'une élection importante, une vidéo d'un candidat cambriolant une banque devienne virale. Même si c'était faux, il a fallu des heures aux agences de presse et aux campagnes pour le prouver. Combien de personnes vont voir cette vidéo et modifier leur vote à la dernière minute ? Cela pourrait changer le résultat de la course, surtout si la course est serrée.
Lorsque le co-fondateur d'Open AI, Sam Altman, a récemment témoigné devant un comité du Sénat américain, les sénateurs des deux partis ont fait part de leurs inquiétudes quant à l'impact de l'IA sur les élections et la démocratie. J'espère que ce sujet continuera d'intéresser tout le monde. Nous n'avons vraiment pas résolu le problème de la désinformation et des deepfakes. Mais deux choses me rendent prudemment optimiste. La première est que les gens ont la capacité d'apprendre à ne pas faire confiance à tout. Pendant des années, les utilisateurs de messagerie ont été dupés par quelqu'un se faisant passer pour un prince nigérian, promettant d'énormes récompenses pour le partage des numéros de carte de crédit. Mais finalement, la plupart des gens apprennent à revérifier ces e-mails. Alors que les tromperies deviennent plus sophistiquées et que de nombreuses cibles sont plus sournoises, nous devons créer la même prise de conscience pour les deepfakes.
Une autre chose qui me donne de l'espoir est que l'IA peut non seulement créer des deepfakes, mais aussi aider à les identifier. Par exemple, Intel a développé un détecteur de deepfake, tandis que l'agence gouvernementale DARPA travaille sur la façon d'identifier si une vidéo ou un son a été trafiqué.
Ce sera un processus circulaire : quelqu'un trouve un moyen de détecter la contrefaçon, quelqu'un d'autre découvre comment la contrer, quelqu'un développe une contre-mesure, etc. Ce ne sera pas un succès parfait, mais nous ne serons pas liés non plus.
L'IA permet aux humains et aux gouvernements de lancer plus facilement des attaques
Aujourd'hui, lorsque les pirates veulent trouver un bogue dans un logiciel, ils écrivent du code par la force brute, attaquant les faiblesses potentielles jusqu'à ce qu'ils trouvent le bogue. Cela implique de nombreux détours, il faut donc du temps et de la patience.
Les professionnels de la sécurité qui veulent lutter contre les pirates doivent faire de même. Chaque correctif logiciel que vous installez sur votre téléphone ou votre ordinateur portable représente beaucoup de temps passé à le rechercher par une personne bénigne ou malveillante.
Les modèles d'IA accéléreront ce processus en aidant les pirates à écrire un code plus efficace. Ils pourront également utiliser des informations publiques sur des individus, telles que leur lieu de travail et leurs amis, pour développer des attaques de phishing plus avancées que celles que nous voyons aujourd'hui.
La bonne nouvelle est que l'IA peut être utilisée à la fois à des fins malveillantes et à des fins utiles. Les équipes de sécurité du gouvernement et du secteur privé doivent disposer des derniers outils pour détecter et corriger les vulnérabilités de sécurité avant que les criminels ne les exploitent. J'espère que l'industrie de la sécurité logicielle étendra le travail qu'elle fait déjà dans ce domaine, cela devrait être leur préoccupation numéro un.
C'est pourquoi nous ne devrions pas essayer d'empêcher temporairement les gens de mettre en œuvre de nouveaux développements en matière d'intelligence artificielle, comme certains l'ont suggéré. Les cybercriminels n'arrêteront pas de fabriquer de nouveaux outils, pas plus que ceux qui veulent utiliser l'IA pour concevoir des armes nucléaires et des attaques bioterroristes, et les arrêter doit continuer au même rythme.
Il existe également des risques connexes au niveau mondial : une course aux armements contre l'IA pourrait être utilisée pour concevoir et lancer des cyberattaques contre d'autres États. Le gouvernement de chaque pays veut disposer de la technologie la plus puissante disponible pour dissuader les attaques adverses. Cette motivation « ne laisser personne d'abord » pourrait déclencher une course pour créer des cyber-armes de plus en plus dangereuses. De cette façon, tout le monde sera moins bien loti.
C'est une idée effrayante, mais nous avons l'histoire comme une leçon. Malgré ses défauts, le régime mondial de non-prolifération des armes nucléaires a empêché la guerre nucléaire totale dont ma génération a grandi terrifiée. Les gouvernements devraient envisager de créer une agence mondiale d'IA similaire à l'Agence internationale de l'énergie atomique.
L'IA prendra des emplois aux gens
Le principal impact de l'intelligence artificielle sur le travail dans les années à venir sera d'aider les gens à faire leur travail plus efficacement. Cela est vrai que vous travailliez dans une usine ou au bureau pour gérer les appels de vente et les comptes fournisseurs. Finalement, la capacité de l'IA à exprimer ses pensées sera suffisamment bonne pour qu'elle puisse écrire des e-mails et gérer votre boîte de réception pour vous. Vous pourrez rédiger une demande en anglais simple ou dans toute autre langue et générer un rapport de travail informatif.
Comme je l'ai dit dans mon article de février, une productivité accrue est bonne pour la société. Cela laisse plus de temps aux gens pour faire autre chose, que ce soit au travail ou à la maison. Et le besoin de personnes utiles, telles que l'enseignement, les soins aux malades et les soins aux personnes âgées, ne disparaîtra jamais.
Mais certains travailleurs ont besoin de soutien et de recyclage alors que nous passons à un lieu de travail axé sur l'IA. C'est le travail des gouvernements et des entreprises de bien le gérer afin que les travailleurs ne soient pas laissés pour compte, sans le genre de perturbation dans la vie des gens qui s'est produite lorsque des emplois manufacturiers américains ont été perdus.
N'oubliez pas non plus que ce n'est pas la première fois que les nouvelles technologies entraînent des changements importants sur le marché du travail. Je ne pense pas que l'impact de l'intelligence artificielle sera aussi énorme que la révolution industrielle, mais il sera certainement aussi énorme que l'avènement de l'ordinateur personnel. Les applications de traitement de texte n'ont pas éliminé le travail de bureau, mais elles l'ont changé à jamais. Les employeurs et les employés ont dû s'adapter, et ils l'ont fait. La transformation provoquée par l'IA sera une transition cahoteuse, mais il y a tout lieu de croire que nous pouvons réduire les perturbations dans la vie et les moyens de subsistance des gens.
L'IA hérite de nos préjugés et les invente
Hallucinations, c'est-à-dire lorsqu'une IA fait en toute confiance une déclaration qui n'est tout simplement pas vraie, et se produit généralement parce que la machine ne comprend pas le contexte de votre demande. Si vous demandez à une IA d'écrire une courte histoire sur des vacances sur la lune, cela pourrait vous donner une réponse très imaginative. Mais si vous le laissez vous aider à planifier un voyage en Tanzanie, il pourrait essayer de vous déposer dans un hôtel qui n'existe pas.
Un autre risque de l'IA est qu'elle reflète ou même exacerbe les préjugés existants sur certaines identités de genre, races, ethnies, etc.
Pour comprendre pourquoi de telles illusions et biais surviennent, il est important de comprendre comment fonctionnent les modèles d'IA actuels les plus courants. Il s'agit essentiellement de versions de code très complexes qui permettent à votre application de messagerie de prédire le prochain mot que vous allez taper : dans certains cas, presque tout le texte disponible sur le Web, et elles analysent de grandes quantités de texte, l'analysent, trouvent modèles dans le langage humain.
Lorsque vous posez une question à l'IA, elle examine les mots que vous utilisez, puis recherche le texte souvent associé à ces mots. Si vous écrivez "liste des ingrédients pour les crêpes", vous remarquerez peut-être que les mots "farine, sucre, sel, levure chimique, lait et œufs" apparaissent fréquemment avec la phrase. Ensuite, sur la base de ce qu'il sait de l'ordre dans lequel ces mots apparaissent généralement, il génère une réponse (les modèles d'IA qui fonctionnent de cette manière utilisent ce qu'on appelle des transformateurs, et GPT-4 est l'un de ces modèles).
Ce processus explique pourquoi l'IA peut halluciner ou être biaisée, sans aucune compréhension contextuelle des questions que vous posez ou des choses que vous lui dites. Si vous lui dites que vous avez fait une faute de frappe, il dira probablement "désolé, j'ai fait une faute de frappe". Mais ce n'est qu'une illusion, il ne fait aucune erreur de frappe, il dit que parce qu'il a scanné suffisamment de texte pour savoir que "désolé, j'ai mal tapé" est l'une des choses que les gens écrivent souvent après avoir été corrigé.
De même, les modèles d'IA héritent des biais inhérents au texte sur lequel ils ont été entraînés. Si l'on lit beaucoup d'articles sur les médecins et que les articles mentionnent principalement des hommes médecins, sa réponse supposera que la plupart des médecins sont des hommes.
Bien que certains chercheurs affirment que les hallucinations sont un problème inhérent, je ne suis pas d'accord. Je suis optimiste sur le fait qu'avec le temps, nous pourrons apprendre aux modèles d'IA à distinguer les faits de la fiction. Par exemple, Open AI a fait un travail prometteur à ce sujet.
D'autres organisations, dont l'Institut Alan Turing et l'Institut national des normes et de la technologie, s'attaquent aux préjugés. Une approche consiste à intégrer des valeurs humaines et un raisonnement de niveau supérieur dans l'IA. C'est similaire à la façon dont les humains conscients d'eux-mêmes fonctionnent : vous pensez peut-être que la plupart des médecins sont des hommes, mais vous êtes suffisamment conscient de cette hypothèse pour savoir que vous devez la combattre consciemment. L'intelligence artificielle peut fonctionner de la même manière, surtout si les modèles sont conçus par des personnes d'horizons différents.
En fin de compte, toute personne utilisant l'IA doit être consciente du problème de biais et être un utilisateur informé. Un article que vous demandez à une IA de rédiger peut être aussi plein de parti pris que d'erreurs factuelles. Vous devez vérifier les préjugés de votre IA, ainsi que les vôtres.
Les élèves n'apprendront pas à écrire car l'IA le fera pour eux
De nombreux enseignants craignent que l'IA perturbe leur travail avec les élèves. À une époque où toute personne disposant d'une connexion Internet peut utiliser l'intelligence artificielle pour rédiger une première ébauche respectable d'une thèse, qu'est-ce qui empêche un étudiant de la remettre comme si c'était la sienne ?
Il existe déjà des outils d'IA qui apprennent à dire si un essai a été écrit par un humain ou un ordinateur, afin que les enseignants puissent dire si leurs élèves font leur propre travail. Mais au lieu d'essayer de décourager leurs élèves d'utiliser l'IA par écrit, certains enseignants l'encouragent en fait.
En janvier, une enseignante d'anglais chevronnée nommée Cherie Shields a publié un article dans Education Week. a publié un article sur la façon dont elle utilise Chat GPT dans sa classe. Chat GPT aide ses étudiants à commencer un essai, à rédiger un plan et même à fournir des commentaires sur leurs devoirs.
Elle écrit : "Les enseignants doivent adopter la technologie de l'IA comme un autre outil que les élèves peuvent utiliser. Tout comme nous avons déjà enseigné aux élèves comment faire une bonne recherche sur Google, les enseignants doivent clarifier la manière dont les robots Chat GPT peuvent aider à la rédaction de dissertations." L'existence de l'IA et aider les élèves à l'utiliser pourrait révolutionner notre façon d'enseigner. » Tous les enseignants n'ont pas le temps d'apprendre et d'utiliser de nouveaux outils, mais des éducateurs comme Cherie Shields offrent un bon argument, selon lequel les enseignants qui ont le temps en bénéficieront grandement. .
Cela me rappelle l'époque où les calculatrices électroniques sont devenues populaires dans les années 1970 et 1980. Certains professeurs de mathématiques craignent que les élèves arrêtent d'apprendre l'arithmétique de base, mais d'autres adoptent la nouvelle technologie et se concentrent sur la pensée derrière l'arithmétique.
L'IA peut également aider à l'écriture et à la pensée critique. Surtout dans les premiers jours, lorsque les hallucinations et les préjugés sont toujours un problème, les éducateurs peuvent demander à l'IA de générer des essais, puis de les vérifier avec les étudiants. Des organisations éducatives à but non lucratif telles que la Khan Academy et le projet OER fournissent aux enseignants et aux étudiants des outils en ligne gratuits qui mettent l'accent sur le test des affirmations, et aucune compétence n'est plus importante que de savoir distinguer le vrai du faux.
Nous devons vraiment nous assurer que les logiciels éducatifs aident à combler l'écart de réussite, et non à l'aggraver. Les logiciels d'aujourd'hui sont principalement destinés aux étudiants déjà motivés à apprendre. Il peut créer un plan d'étude pour vous, vous connecter avec de bonnes ressources et tester vos connaissances. Cependant, il ne sait pas encore comment vous engager dans des sujets qui ne vous intéressent pas encore. C'est un problème que les développeurs doivent résoudre afin que tous les types d'étudiants puissent bénéficier de l'IA.
**Que faire ensuite? **
Je pense que nous avons plus de raisons d'être optimistes quant à la capacité de gérer les risques de l'IA tout en maximisant ses avantages, mais nous devons agir rapidement.
Les gouvernements doivent développer une expertise en IA afin d'élaborer des lois et des réglementations pour faire face à cette nouvelle technologie. Ils doivent faire face à la désinformation et aux deepfakes, aux menaces à la sécurité, aux changements sur le marché du travail et à l'impact sur l'éducation. Juste un exemple : la loi doit clarifier quelles utilisations des deepfakes sont légales et comment les deepfakes doivent être étiquetés afin que chacun comprenne que ce qu'il voit ou entend est faux.
Les dirigeants politiques doivent être en mesure d'engager un dialogue éclairé et réfléchi avec leurs électeurs. Ils doivent également décider du degré de coopération avec d'autres pays sur ces questions, plutôt que de faire cavalier seul.
Dans le secteur privé, les entreprises d'IA doivent faire leur travail de manière sûre et responsable. Cela comprend la protection de la vie privée des personnes, la garantie que leurs modèles d'IA reflètent les valeurs humaines fondamentales, la minimisation des préjugés au profit du plus grand nombre et la prévention de l'exploitation de la technologie par des criminels ou des terroristes. Les entreprises de nombreux secteurs de l'économie devront aider leurs employés à passer à un lieu de travail centré sur l'IA afin que personne ne soit laissé pour compte. Et les clients doivent toujours savoir s'ils interagissent avec une IA ou un humain.
Enfin, j'encourage tout le monde à accorder autant d'attention que possible au développement de l'intelligence artificielle. Il s'agit de l'innovation la plus transformatrice que nous verrons de notre vivant, et un débat public sain dépendra de la compréhension de chacun de la technologie elle-même, de ses avantages et de ses risques. Les avantages de l'intelligence artificielle seront énormes, et la meilleure raison de croire que nous pouvons contrôler les risques est que nous y sommes parvenus.