"Oppenheimer" en salles, Sam Altman sera-t-il le prochain ?

Scénariste : Nathan Gardels

Origine : Noéma

Gouverner les technologies qui pourraient détruire la société.

Source de l'image : générée par l'outil Unbounded AI

Le réalisateur Christopher Nolan a déclaré s'être entretenu avec des scientifiques en intelligence artificielle qui vivent un "moment Oppenheimer" et s'inquiètent du caractère potentiellement destructeur de leurs créations. "Je raconte l'histoire d'Oppenheimer", a-t-il déclaré à propos de son biopic sur Oppenheimer, "parce que je pense que c'est une histoire importante, et c'est définitivement un récit édifiant." En fait, certaines personnes ont comparé Ultraman Sam d'OpenAI avec le père du bombe atomique.

Oppenheimer a été surnommé « le Prométhée de l'Amérique » par ses biographes pour avoir déchiffré des dieux les secrets du feu nucléaire, qui divisait la matière pour libérer une énergie horrible qui, craignait-il, pourrait incinérer la civilisation humaine.

Et Altman s'est également demandé s'il utilisait ChatGPT pour promouvoir le développement de l'intelligence artificielle générative, si c'était aussi une « très mauvaise chose ». "Si cette technologie tourne mal, cela pourrait être catastrophique", a-t-il déclaré lors d'une audition au Sénat. Gregory Hinton, connu comme le parrain de l'intelligence artificielle, a quitté Google en mai, affirmant qu'il n'avait aucun respect pour l'œuvre de sa vie. des machines plus intelligentes que les humains – en partie désolé. "Il nous sera très difficile d'empêcher de mauvais acteurs d'utiliser l'IA pour faire de mauvaises choses", a-t-il prévenu. D'autres de ses pairs ont évoqué le "risque d'extinction de l'IA", en le juxtaposant à d'autres menaces existentielles comme la guerre nucléaire. , le changement climatique et les pandémies.

Pour Yuval Noah Harari (auteur de "A Brief History of Mankind"), l'intelligence artificielle générative pourrait être aussi destructrice pour la société que la bombe atomique. Selon une phrase citée par Oppenheimer dans "Baghavad Gita", "le destructeur du monde le Cette fois, les Homo sapiens sont devenus des dieux, et la progéniture inorganique qu’ils ont produit pourrait un jour remplacer leurs ancêtres. Dans une conversation il y a plusieurs années, Harari l'a exprimé ainsi : « L'histoire de l'humanité commence lorsque les humains créent les dieux. L'histoire de l'humanité se termine lorsque les humains deviennent des dieux. »

Harari et ses co-auteurs Tristan Harris et Aza Raskin expliquent dans un article récent : « Au début, c'était le langage. Le langage est le système opérationnel de la culture humaine. Du langage sont nés le mythe et la loi, les dieux et l'argent, l'art et la science, l'amitié, "États et code informatique. La nouvelle maîtrise du langage par l'IA lui permet désormais de pirater et de manipuler les systèmes d'exploitation de la civilisation. En maîtrisant le langage, l'IA s'empare du passe-partout de la civilisation, des coffres des banques au Saint-Sépulcre."

Ils continuèrent :

Depuis des milliers d'années, nous, les humains, vivons dans les rêves des autres. Nous adorons les dieux, poursuivons de beaux idéaux et consacrons notre vie à des causes qui naissent de l’imagination des prophètes, des poètes ou des hommes d’État. Bientôt, nous nous retrouverons nous aussi à vivre dans l’illusion d’une intelligence sous-humaine…

Bientôt nous serons enfin confrontés au démon de Descartes, à la caverne de Platon et aux Mayas bouddhistes. Un voile d’illusion pourrait recouvrir toute l’humanité et nous ne pourrions plus jamais le lever – ni même prendre conscience de son existence.

La perspective que des entités non humaines écrivent nos récits a tellement alarmé l’historien et philosophe israélien qu’il a conseillé d’urgence à Homo sapiens d’arrêter avant de céder le contrôle de notre royaume aux technologies que nous donnons.

"Nous devons être conscients de l'IA avant que notre politique, notre économie et notre vie quotidienne en dépendent", ont-ils prévenu. "Si nous attendons que le chaos survienne pour agir, il sera trop tard."

** Le scénario "Terminator" est très improbable**

Le vice-président de Google, Blaise Agüera Y Arcas, et ses collègues de l'Institut québécois d'intelligence artificielle ont écrit dans la revue Noema qu'ils ne pensaient pas que la scène hollywoodienne de "Terminator" apparaîtrait dans un avenir proche. Au lieu de cela, ils craignent que se concentrer sur les « menaces existentielles » dans un avenir lointain détourne les gens de l’atténuation des dangers évidents que l’IA représente aujourd’hui pour la société.

Avant que l’IA ne devienne une superintelligence, leurs pires craintes sont déjà là : surveillance de masse, désinformation et manipulation, utilisation militaire abusive de l’IA et suppression massive d’emplois.

Pour ce groupe de scientifiques et de technologues, "l'extinction par une IA malveillante est un scénario extrêmement improbable qui repose sur des hypothèses douteuses sur l'évolution à long terme de la vie, de l'intelligence, de la technologie et de la société. C'est également un scénario improbable, trop probable, car il Il existe de nombreuses limitations et contraintes physiques qu'un système d'IA superintelligent devrait surmonter avant de pouvoir « trahir » de cette manière. Il existe de nombreux points de contrôle naturels que les chercheurs peuvent aider à atténuer en relevant des défis tangibles et urgents. Les risques liés à l'IA sans faire explicitement des risques existentiels un priorité mondiale. »

Selon eux, "il existe trois manières de provoquer l'extinction : la compétition pour les ressources, la chasse et la surconsommation, ou la modification du climat ou de sa niche écologique, conduisant à des conditions environnementales qui conduisent à sa disparition. Aucun de ces trois scénarios ne s'applique à l'intelligence artificielle actuelle. ".

Plus important encore, « Pour le moment, l'IA dépend de nous, et une superintelligence reconnaîtra probablement ce fait et cherchera à protéger l'humanité, car nous sommes à l'existence de l'IA ce que les plantes productrices d'oxygène sont à notre existence. C'est l'évolution de l'interdépendance entre l'intelligence artificielle et les humains est bien plus probable que le résultat de la concurrence".

Payer un « prix infini » pour le « résultat improbable » de l’extinction reviendrait à consacrer toutes nos prouesses technologiques à la défense contre la chance sur un million qu’un météore frappe la Terre, ce qui constitue la première priorité de la Terre. En termes simples, « les risques existentiels posés par l’IA superintelligente ne méritent pas d’être une priorité mondiale aux côtés du changement climatique, de la guerre nucléaire et de la prévention des pandémies ».

Un autre moment Oppenheimer

Tout danger, proche ou lointain, pouvant naître de la compétition entre les humains et la superintelligence naissante ne fera qu’être exacerbé par la compétition entre États-nations.

Au cours de ses dernières années, Oppenheimer a été persécuté, isolé et son habilitation de sécurité a été révoquée par la Commission américaine de l'énergie atomique, car la ferveur maccarthyste du début de la guerre froide le considérait comme un camarade communiste. Ses crimes : s’opposer au déploiement de bombes à hydrogène et appeler à la coopération avec d’autres nations pour contrôler l’utilisation des armes nucléaires.

Dans un discours prononcé devant des scientifiques de l’IA à Pékin en juin, Altman a également appelé à une coopération sur la manière de régir l’utilisation de l’IA. "La Chine possède les meilleurs talents en IA au monde", a-t-il déclaré. Le contrôle des systèmes d'IA avancés « nécessite les meilleurs esprits du monde entier. Avec des systèmes d'IA de plus en plus puissants, les enjeux d'une collaboration mondiale n'ont jamais été aussi élevés ».

On ne peut s’empêcher de se demander combien de temps encore le sens de la responsabilité scientifique générale d’Altman sera, comme celui d’Oppenheimer, emporté par le sentiment hystérique anti-Chine actuel de Washington, à la manière de McCarthy.

Le principal danger évident et actuel que pose l’intelligence artificielle est la manière dont elle peut être utilisée comme arme. Comme Harari le prévient, le moment est venu de faire face à cette menace, et de ne pas agir lorsqu’elle deviendra une réalité et qu’il sera trop tard. Les acteurs responsables devront tirer parti de la sagesse que les machines ne peuvent pas transmettre et collaborer pour réduire les risques. Le risque existentiel se rapproche encore plus si Altman subit un autre moment Oppenheimer.

Dans un signe de bienvenue, le secrétaire d'État américain Antony Blinken et la secrétaire au Commerce Gina Raimondo ont reconnu qu'« aucun pays ni aucune entreprise ne peut à lui seul façonner l'avenir de l'IA... Ce n'est que grâce à l'attention, à la sagesse et à la coopération partagées de la communauté internationale que nous pourrons exploiter pleinement et en toute sécurité le potentiel de l’intelligence artificielle.

Cependant, leurs initiatives jusqu’à présent, bien que vitales, ont été limitées par la concurrence stratégique. Pour les pays du monde entier, le défi le plus sérieux est de savoir comment communiquer directement avant que la course aux armements liée à l’intelligence artificielle ne devienne incontrôlable et empêcher que la situation ne s’aggrave.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)