Bill Gates : Les risques de l'intelligence artificielle sont réels, mais gérables

Écrit par : Bill Gates

Source : Gatesnotes

Source de l'image : générée par l'outil d'IA illimitée

Nous avons beaucoup appris sur la manière de traiter les problèmes posés par les innovations de rupture.

Les risques posés par l'intelligence artificielle peuvent sembler écrasants. Qu'arrive-t-il aux personnes dont les emplois sont supprimés par des machines intelligentes ? L'intelligence artificielle affectera-t-elle les résultats des élections ? Et si la future intelligence artificielle décidait que les humains ne sont plus nécessaires et voulait se débarrasser de nous ?

Ces questions sont légitimes et les préoccupations qu'elles suscitent doivent être prises au sérieux. Mais nous avons de bonnes raisons de croire que nous pouvons résoudre ces problèmes : ce n'est pas la première fois qu'une innovation majeure apporte de nouvelles menaces qu'il faut contrôler, et nous les avons déjà rencontrées.

Qu'il s'agisse de l'avènement de l'automobile ou de l'essor de l'ordinateur personnel et d'Internet, les gens ont vécu d'autres moments de transformation qui, malgré de nombreux bouleversements, se sont terminés pour le mieux. Peu de temps après que les premières voitures ont pris la route, les premiers accidents se sont produits. Mais au lieu d'interdire les voitures, nous avons adopté des limites de vitesse, des normes de sécurité, des exigences en matière de permis de conduire, des lois sur l'alcool au volant et d'autres règles de la route.

Nous sommes maintenant dans les premières étapes d'une autre transformation profonde, l'ère de l'intelligence artificielle. Cela s'apparente à l'ère de l'incertitude avant les limites de vitesse et les ceintures de sécurité. L'IA évolue si rapidement qu'on ne sait pas ce qui va se passer ensuite. Nous sommes confrontés à de grandes questions sur le fonctionnement de la technologie actuelle, comment les gens l'utiliseront de manière malveillante et comment l'intelligence artificielle changera la société et les individus.

Dans des moments comme ceux-ci, il est naturel de se sentir mal à l'aise. Mais l'histoire montre qu'il est possible de relever les défis posés par les nouvelles technologies.

Une fois, j'ai écrit un article sur la façon dont l'intelligence artificielle va complètement changer nos vies. Cela aidera à résoudre des problèmes de santé, d'éducation, de changement climatique, etc., qui semblaient insolubles dans le passé. La Fondation Gates en a fait une priorité, et notre PDG Mark Suzman a récemment partagé ses réflexions sur le rôle de l'IA dans la réduction des inégalités.

Je parlerai davantage des avantages de l'IA à l'avenir, mais dans cet article, je souhaite aborder certaines des préoccupations que j'entends et lis souvent, dont je partage beaucoup, et expliquer comment je les vois.

Une chose qui ressort clairement de tous les écrits sur les risques de l'IA jusqu'à présent, c'est que personne n'a toutes les réponses. Un autre point clair est que l'avenir de l'intelligence artificielle n'est pas aussi sombre que certains l'imaginent, ni aussi rose que d'autres l'imaginent. Les risques sont réels, mais j'ai bon espoir qu'ils peuvent être gérés. En abordant chacune de ces préoccupations, je reviendrai sur les thèmes suivants :

  • De nombreux problèmes soulevés par l'intelligence artificielle ont des précédents historiques. Cela aura un impact énorme sur l'éducation, par exemple, mais il en sera de même pour les calculatrices portables il y a des décennies et plus récemment pour permettre aux ordinateurs d'entrer dans les salles de classe. Nous pouvons apprendre des succès passés.
  • De nombreux problèmes provoqués par l'intelligence artificielle peuvent également être résolus à l'aide de l'intelligence artificielle.
  • Nous devons adapter les anciennes lois et en adopter de nouvelles, tout comme les lois antifraude existantes doivent s'adapter au monde en ligne.

Dans cet article, je me concentrerai sur les risques existants ou imminents. Je ne discuterai pas de ce qui se passe lorsque nous développons une IA capable d'apprendre n'importe quel sujet ou tâche, contrairement à l'IA dédiée d'aujourd'hui. Que nous arrivions à ce point dans la prochaine décennie ou dans un siècle, la société a des questions profondes à considérer. Et si une IA super intelligente se fixait ses propres objectifs ? Et s'ils entrent en conflit avec les humains ? Doit-on construire une super intelligence artificielle ?

Cependant, penser à ces risques à plus long terme ne doit pas se faire au détriment de risques plus immédiats.

Des fausses informations et des fausses informations générées par l'IA pourraient détruire les élections et la démocratie

L'utilisation de la technologie pour répandre des mensonges et de la désinformation n'a rien de nouveau. Les gens le font à travers des livres et des brochures depuis des siècles. Cela est devenu plus facile avec l'avènement des traitements de texte, des imprimantes laser, du courrier électronique et des réseaux sociaux.

L'intelligence artificielle a pris le problème du faux texte et l'a étendu afin que presque tout le monde puisse créer de faux audio et vidéo, connus sous le nom de deepfakes. Si vous recevez un message vocal qui sonne comme si votre enfant disait "J'ai été kidnappé, veuillez envoyer 1 000 $ sur ce compte bancaire dans les 10 prochaines minutes et n'appelez pas la police", l'impact émotionnel horrible que cela peut avoir sera beaucoup plus puissant qu'un e-mail disant la même chose.

À plus grande échelle, les deepfakes générés par l'IA pourraient être utilisés pour tenter d'influencer les élections. Bien sûr, il n'est pas nécessaire d'utiliser une technologie sophistiquée pour jeter le doute sur le vainqueur légitime d'une élection, mais l'intelligence artificielle rendra les choses beaucoup plus faciles.

Déjà, de fausses vidéos de fausses images de politiciens bien connus ont fait surface. Imaginez que le matin de l'élection, une vidéo montrant un candidat cambriolant une banque devienne virale. C'était faux, mais il a fallu des heures aux agences de presse et à la campagne pour le prouver. Combien de personnes vont voir cette vidéo et modifier leur vote à la dernière minute ? Cela pourrait faire pencher la balance, surtout si la course est serrée.

Récemment, lorsque le co-fondateur d'OpenAI, Sam Altman, a témoigné devant un comité du Sénat américain, des sénateurs des deux partis ont parlé de l'impact de l'IA sur les élections et la démocratie. J'espère que ce sujet continuera d'être à l'ordre du jour de tout le monde.

Nous n'avons certainement pas résolu le problème de la désinformation et des deepfakes. Mais deux choses me rendent prudemment optimiste. La première est que les gens ont la capacité d'apprendre à ne rien prendre pour argent comptant. Pendant des années, les utilisateurs de messagerie ont été embourbés dans des escroqueries se faisant passer pour des princes nigérians promettant de partager des numéros de carte de crédit en échange d'énormes récompenses. Mais finalement, la plupart des gens apprennent à réfléchir à deux fois. À mesure que les tromperies sont devenues plus sophistiquées, de nombreuses cibles sont devenues plus sournoises. Nous devons développer la même capacité pour les deepfakes.

Une autre chose que je trouve encourageante est que l'intelligence artificielle peut aider à identifier les deepfakes et à créer des deepfakes. Par exemple, Intel a développé un détecteur de deepfake et l'agence gouvernementale DARPA développe une technologie pour identifier si la vidéo ou l'audio a été falsifié.

Ce sera un processus itératif : quelqu'un trouvera un moyen de détecter la contrefaçon, quelqu'un trouvera comment la contrer, quelqu'un développera des contre-mesures, etc. Ce ne sera pas parfait, mais nous ne serons pas à bout non plus.

L'IA facilitera les attaques contre les humains et les gouvernements

Aujourd'hui, lorsque les pirates espèrent trouver une vulnérabilité exploitable dans un logiciel, ils le font par "force brute" - en écrivant du code et en attaquant les faiblesses potentielles jusqu'à ce que la vulnérabilité soit découverte. Cela implique de nombreux détours, il faut donc du temps et de la patience.

Les professionnels de la sécurité qui veulent lutter contre les pirates doivent faire de même. Chaque correctif logiciel que vous installez sur votre téléphone ou votre ordinateur portable représente des heures de recherche.

Les modèles d'IA accéléreront ce processus en aidant les pirates à écrire un code plus efficace. Ils sont également capables d'exploiter les informations publiques d'un individu, telles que son lieu de travail et ses amis, pour développer des attaques de phishing plus avancées que celles actuellement disponibles.

La bonne nouvelle est que l'IA est une épée à double tranchant. Les équipes de sécurité du gouvernement et du secteur privé doivent disposer des derniers outils pour trouver et corriger les vulnérabilités de sécurité avant que les criminels ne les exploitent. J'espère que l'industrie de la sécurité logicielle étendra le travail qu'elle fait déjà dans ce domaine, cela devrait être sa principale préoccupation.

Bien sûr, c'est aussi la raison pour laquelle nous ne devrions pas essayer d'empêcher temporairement les gens de mettre en œuvre de nouveaux développements en matière d'intelligence artificielle, comme certains l'ont suggéré. Les cybercriminels n'arrêtent pas de créer de nouveaux outils. Ceux qui veulent utiliser l'intelligence artificielle pour concevoir des armes nucléaires et des attaques bioterroristes ne s'arrêteront pas. Les efforts pour les arrêter doivent se poursuivre au même rythme.

Il existe également un risque connexe au niveau mondial : une course aux armements dans l'intelligence artificielle qui pourrait être utilisée pour concevoir et lancer des cyberattaques contre d'autres États. Le gouvernement de chaque pays veut disposer de la technologie la plus puissante disponible pour dissuader les attaques adverses. Cette motivation « ne laisser personne d'abord » pourrait déclencher une course pour créer des cyber-armes de plus en plus dangereuses. Les choses vont empirer pour tout le monde.

C'est une idée effrayante, mais nous avons l'histoire comme guide. Aussi imparfait que soit le régime mondial de non-prolifération nucléaire, il a empêché la guerre nucléaire totale dont ma génération a grandi terrifiée. Les gouvernements devraient envisager de créer une agence mondiale d'IA similaire à l'Agence internationale de l'énergie atomique.

L'IA prendra les emplois des gens

Le principal impact de l'intelligence artificielle sur le travail dans les années à venir sera d'aider les gens à faire leur travail plus efficacement. Cela est vrai que vous travailliez dans une usine ou au bureau pour gérer les appels de vente et les comptes fournisseurs. A terme, l'IA pourra bien s'exprimer, composer des emails et gérer votre boîte de réception pour vous. En écrivant simplement une demande en anglais ou dans toute autre langue, vous pouvez obtenir le PPT que vous souhaitez.

Comme je l'ai soutenu dans mon article de février, une productivité accrue est bonne pour la société. Cela donne aux gens plus de temps pour faire autre chose au travail et à la maison. Le besoin de personnes utiles ne disparaîtra jamais - comme l'enseignement, les soins aux malades et les soins aux personnes âgées. Mais certains travailleurs ont besoin de soutien et de recyclage alors que nous passons à un lieu de travail axé sur l'IA. C'est le travail des gouvernements et des entreprises de gérer afin que les travailleurs ne soient pas laissés pour compte – sans le genre de perturbation de la vie des gens qui se produit lorsque des emplois manufacturiers américains sont perdus.

N'oubliez pas non plus que ce n'est pas la première fois que les nouvelles technologies entraînent des changements importants sur le marché du travail. Je ne pense pas que l'impact de l'intelligence artificielle sera aussi énorme que la révolution industrielle, mais il sera certainement similaire à l'impact de l'introduction de l'ordinateur personnel. Les applications de traitement de texte n'ont pas éliminé le travail de bureau, mais elles l'ont changé pour toujours. Les employeurs et les employés ont dû s'adapter, et ils l'ont fait. La transformation provoquée par l'IA sera une transition cahoteuse, mais il y a tout lieu de croire que nous pouvons réduire les perturbations dans la vie et les moyens de subsistance des gens.

** L'IA héritera de nos préjugés et les inventera **

Les hallucinations – lorsqu'une IA fait en toute confiance des affirmations qui ne correspondent tout simplement pas à la vérité – se produisent généralement parce que la machine ne comprend pas votre demande. Demandez à une IA d'écrire une courte histoire sur des vacances sur la lune, et cela pourrait vous donner une réponse imaginative. Mais si vous demandez à AI d'écrire vos plans de voyage en Tanzanie pour vous, cela pourrait vous envoyer dans un hôtel qui n'existe même pas.

Un autre risque de l'intelligence artificielle est qu'elle reflète ou même renforce les préjugés des gens sur certains genres, races, ethnies, etc.

Pour comprendre pourquoi les hallucinations et les biais se produisent, il est important de savoir comment fonctionnent les modèles d'IA les plus courants aujourd'hui. Il s'agit essentiellement de versions de code très sophistiquées qui permettent à votre application de messagerie de prédire le prochain mot que vous êtes sur le point de saisir : elles analysent de grandes quantités de texte (dans certains cas, presque tout le texte disponible sur le Web), puis analysent pour trouver des modèles dans le langage humain.

Lorsque vous posez une question à l'IA, elle examine les mots que vous utilisez, puis recherche des morceaux de texte souvent associés à ces mots. Si vous écrivez "énumérez les ingrédients pour les crêpes", l'IA peut remarquer que des mots comme "farine, sucre, sel, levure chimique, lait et œufs" apparaissent fréquemment avec la phrase. Ensuite, sur la base de ce qu'il sait de l'ordre dans lequel ces mots apparaissent généralement, il génère une réponse. (Les modèles d'IA qui fonctionnent de cette manière utilisent ce qu'on appelle des transformateurs. GPT-4 est l'un de ces modèles).

Ce processus explique pourquoi l'IA peut halluciner ou être biaisée. Il n'y a aucun contexte dans la question que vous avez posée ou ce que vous avez dit. Si vous dites à l'IA qu'elle a fait une erreur, elle pourrait dire "désolé, j'ai fait une faute de frappe". Mais ce n'est qu'une illusion, en réalité il n'apporte rien. Il dit cela parce qu'il a scanné suffisamment de texte pour savoir que "désolé, j'ai fait une faute de frappe" est une phrase que les gens écrivent souvent après que quelqu'un d'autre les a corrigés.

De même, les modèles d'IA héritent de biais intégrés dans le texte sur lequel ils ont été entraînés. Si l'on lit beaucoup d'articles sur les médecins et que les articles mentionnent principalement des hommes médecins, sa réponse supposera que la plupart des médecins sont des hommes.

Bien que certains chercheurs affirment que les hallucinations sont un problème inhérent, je ne suis pas d'accord. Je suis optimiste qu'avec le temps, les modèles d'IA peuvent apprendre à distinguer les faits de la fiction. Par exemple, OpenAI a fait des recherches prometteuses dans ce domaine.

D'autres groupes, dont l'Institut Alan Turing et l'Institut national des normes et de la technologie, travaillent également à lutter contre les préjugés. Une approche consiste à intégrer des valeurs humaines et un raisonnement de niveau supérieur dans l'IA. C'est similaire à la façon dont les humains conscients d'eux-mêmes fonctionnent : vous pensez peut-être que la plupart des médecins sont des hommes, mais vous êtes suffisamment conscient de cette hypothèse pour savoir que vous devez la combattre consciemment. L'intelligence artificielle peut fonctionner de manière similaire, surtout si les modèles sont conçus par des personnes d'horizons différents.

En fin de compte, toute personne utilisant l'IA doit être consciente du problème des préjugés et devenir un utilisateur averti. Les articles que vous demandez à une IA de rédiger peuvent être pleins de biais et d'erreurs factuelles. Vous devez examiner les préjugés de l'IA ainsi que les vôtres.

Les élèves n'apprendront pas à écrire car l'IA le fera pour eux

De nombreux enseignants craignent que l'IA ne perturbe leur collaboration avec les élèves. À une époque où toute personne disposant d'une connexion Internet peut utiliser l'IA pour rédiger une première ébauche de thèse décente, qu'est-ce qui empêche un étudiant de la rendre comme la sienne ?

Il existe déjà des outils d'IA qui peuvent apprendre à dire si un essai est écrit par un humain ou un ordinateur, afin que les enseignants puissent savoir quand les élèves font leurs propres devoirs. Mais certains enseignants n'essaient pas de décourager les élèves d'utiliser l'IA dans leur écriture - ils l'encouragent en fait.

En janvier, une enseignante d'anglais chevronnée nommée Cherie Shields a écrit dans Education Week sur la façon dont elle utilise ChatGPT dans sa classe. ChatGPT aide ses élèves à tout, du début de l'écriture à la rédaction des plans, et fournit même des commentaires sur leurs devoirs.

"Les enseignants doivent adopter la technologie de l'IA comme un autre outil que les élèves peuvent utiliser", a-t-elle écrit. "Tout comme nous avons autrefois appris aux élèves comment effectuer une bonne recherche sur Google, les enseignants devraient concevoir des leçons claires sur la manière dont les robots ChatGPT peuvent aider à la rédaction d'essais. Reconnaître l'existence de l'IA et aider les élèves à l'utiliser pourrait révolutionner notre façon d'enseigner." Chaque enseignant a le temps d'apprendre et d'utiliser de nouveaux outils, mais les éducateurs comme Cherie Shields font valoir que ceux qui ont le temps en bénéficieront grandement.

Cela me rappelle les années 1970 et 1980 lorsque les calculatrices électroniques sont devenues populaires. Certains professeurs de mathématiques craignaient que les élèves arrêtent d'apprendre l'arithmétique de base, mais d'autres ont adopté la nouvelle technologie et se sont concentrés sur la réflexion derrière l'arithmétique.

L'IA peut également aider à l'écriture et à la pensée critique. Surtout dans les premiers jours, lorsque les hallucinations et les préjugés sont toujours un problème, les éducateurs peuvent demander à l'IA de générer des essais, puis de les vérifier avec les étudiants. Des organisations éducatives à but non lucratif telles que la Khan Academy, que je finance, et le projet OER fournissent aux enseignants et aux étudiants des outils en ligne gratuits qui mettent fortement l'accent sur le test des affirmations. Il n'y a pas de compétence plus importante que de savoir distinguer le vrai du faux.

Nous devons vraiment nous assurer que les logiciels éducatifs aident à combler l'écart de réussite, et non à l'aggraver. Les logiciels d'aujourd'hui sont principalement destinés aux étudiants déjà motivés à apprendre. Il peut créer un plan d'étude pour vous, vous orienter vers de bonnes ressources et tester vos connaissances. Cependant, il ne sait pas encore comment vous engager dans des sujets qui ne vous intéressent pas encore. C'est un problème que les développeurs doivent résoudre afin que tous les types d'étudiants puissent bénéficier de l'IA.

**Et après? **

Je crois que nous avons d'autant plus de raisons d'être optimistes que nous pouvons gérer les risques de l'IA tout en maximisant ses avantages. Mais nous devons agir vite.

Les gouvernements doivent développer une expertise en IA afin d'élaborer des lois et des réglementations éclairées pour faire face à cette nouvelle technologie. Ils doivent faire face à la désinformation et aux deepfakes, aux menaces à la sécurité, aux changements sur le marché du travail et à l'impact sur l'éducation. Juste un exemple : la loi doit clarifier quelles utilisations des deepfakes sont légales et comment les deepfakes sont étiquetés afin que chacun comprenne que ce qu'il voit ou entend est faux.

Les dirigeants politiques doivent être en mesure d'engager un dialogue éclairé et réfléchi avec leurs électeurs. Ils doivent également décider du degré de coopération avec d'autres pays sur ces questions, plutôt que de faire cavalier seul.

Dans le secteur privé, les entreprises d'IA doivent travailler de manière sûre et responsable. Cela comprend la protection de la vie privée des personnes, la garantie que les modèles d'IA reflètent les valeurs humaines fondamentales, la réduction des préjugés au profit du plus grand nombre de personnes possible et la prévention de l'exploitation de la technologie par des criminels ou des terroristes. Les entreprises de nombreux secteurs de l'économie doivent aider leurs employés à passer à un lieu de travail centré sur l'IA afin que personne ne soit laissé pour compte. Les clients doivent toujours savoir qu'ils interagissent avec l'IA et non avec des humains.

Enfin, j'encourage tout le monde à prêter autant d'attention que possible au développement de l'intelligence artificielle. Il s'agit de l'innovation la plus transformatrice que nous verrons de notre vivant, et un débat public sain dépendra de la compréhension de chacun de cette technologie, de ses avantages et de ses risques. Les avantages de l'intelligence artificielle seront énormes, et la meilleure raison de croire que nous pouvons contrôler le risque est que nous l'avons fait.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)