De nouvelles idées pour la supervision de l'IA : insuffler une "âme" à chaque IA

Source de l'image : générée par l'IA illimitée

Note de l'éditeur : Le développement de l'intelligence artificielle générative a dépassé les attentes de tous, et même de nombreux experts ont commencé à appeler à un moratoire sur le développement de l'intelligence artificielle pour donner aux humains le temps d'étudier comment la réguler et y répondre. En un sens, l'intelligence artificielle générative actuelle peut être comparée à une espèce envahissante, qui se répand dans le fragile système de réseau humain, et comment la superviser est devenue un gros problème. Cet article propose une toute nouvelle perspective réglementaire : laisser l'intelligence artificielle se superviser, se concurrencer, voire s'informer. Les humains ne pourront peut-être pas suivre le rythme de l'intelligence artificielle un jour, mais il y aura toujours un équilibre entre les différentes intelligences artificielles. Cet article est issu d'une compilation, j'espère vous inspirer.

Des personnalités de premier plan dans le domaine de l'intelligence artificielle, y compris les architectes système de la soi-disant "intelligence artificielle générative" comme ChatGPT, expriment maintenant publiquement leurs craintes que ce qu'ils créent puisse avoir des conséquences désastreuses. Beaucoup demandent maintenant un moratoire sur le développement de l'IA pour donner aux pays et aux institutions le temps de travailler sur les systèmes de contrôle.

Pourquoi cette inquiétude soudaine ? Alors que de nombreuses hypothèses clichées sont renversées, nous apprenons que le soi-disant test de Turing n'est pas pertinent et qu'il ne permet tout simplement pas de déterminer si les grands modèles de langage génératif sont réellement des choses intelligentes.

Certains espèrent encore que la combinaison de l'organique et de la cybernétique conduira à ce que Reid Hoffman et Marc Andreesen appellent "l'intelligence d'amplification". Sinon, nous pourrions avoir une synergie chanceuse avec les "machines de la grâce aimante" de Richard Brautigan. Mais il semble y avoir de nombreux inquiets, y compris de nombreux fondateurs d'élite du nouveau Center for AI Safety, préoccupés par le comportement de l'intelligence artificielle, dont ils craignent non seulement de devenir désagréable, mais aussi de menacer la survie de l'humanité.

Certains remèdes à court terme, tels que les règlements de protection civile récemment adoptés par l'UE, peuvent aider, ou du moins apporter la tranquillité d'esprit. Le critique technologique Yuval Noah Harari (auteur de "Une brève histoire de l'humanité") a suggéré une loi exigeant que tout travail effectué par l'IA ou une autre IA soit étiqueté avec un label pertinent. D'autres ont suggéré des sanctions plus sévères pour ceux qui utilisent l'IA pour commettre des crimes, comme avec des armes à feu. Bien entendu, il ne s'agit là que de mesures temporaires d'appoint.

Nous devons savoir si ces "pauses" vont ralentir les progrès de l'intelligence artificielle. Comme le dit Yaser Abu-Mostafa, scientifique du réseau Caltech : "Si vous ne développez pas la technologie, quelqu'un d'autre le fera. Mais les bons joueront selon les règles, et les méchants non."

Ça a toujours été comme ça. En fait, tout au long de l'histoire humaine, il n'y a eu qu'un seul moyen de freiner le mauvais comportement des méchants, des voleurs aux rois et seigneurs. Cette approche n'a jamais été parfaite et reste sérieusement défectueuse à ce jour. Mais au moins, il a réussi à limiter le pillage et la tromperie, propulsant la civilisation moderne de l'humanité vers de nouveaux sommets, avec de nombreux résultats positifs. Un mot décrit cette approche : responsabilisation.

** Aujourd'hui, ces points de vue sur l'intelligence artificielle ignorent généralement les leçons de la nature et de l'histoire. **

nature. Comme l'explique Sara Walker dans Noema, un schéma similaire peut être trouvé dans la formation des débuts de la vie il y a 4 milliards d'années. En fait, l'IA générative peut être assimilée à une espèce envahissante qui se propage maintenant sans entraves dans un écosystème fragile et naïf. Il s'agit d'un écosystème basé sur de nouveaux flux d'énergie, un monde d'Internet, des millions d'ordinateurs et des milliards de cerveaux humains sensibles.

Et l'histoire. Au cours des 6 000 dernières années de l'humanité, nous avons tiré de riches leçons de bon nombre des crises induites par la technologie. Habituellement, nous nous adaptons bien, comme l'avènement de l'écriture, de l'imprimerie, de la radio, etc., bien qu'il y ait des moments où nous échouons. Encore une fois, il n'y a qu'une seule chose qui empêche les puissants humains d'exploiter les nouvelles technologies pour étendre leurs capacités prédatrices.

Cette innovation aplanit les hiérarchies et stimule la concurrence entre les élites dans des domaines bien définis (marchés, sciences, démocratie, sports, tribunaux). Conçues pour minimiser la tricherie et maximiser les rendements positifs, ces arènes opposent les avocats aux avocats, les cabinets aux cabinets et les experts aux experts.

Cette méthode n'est pas parfaite. En fait, tout comme maintenant, cette méthode est toujours menacée par des tricheurs. Mais la concurrence mutuelle plate est la seule façon dont cela fonctionnera. (Voir les adresses funéraires de Périclès, Thucydide, et le dernier livre de Robert Wright, Nonzero.) La concurrence les uns avec les autres est à la fois une voie naturelle d'évolution et une façon pour nous d'être suffisamment créatifs pour construire la voie de la société de l'IA. Si j'ai l'air d'Adam Smith quand je dis ça, c'est naturel. Soit dit en passant, Smith méprisait également ces nobles et oligarques tricheurs.

Pouvons-nous appliquer l'approche de la « responsabilité réciproque » à l'intelligence artificielle en émergence rapide qui a aidé les humains à maîtriser les tyrans et les intimidateurs qui nous opprimaient dans les cultures féodales précédentes ? Tout dépend de la forme de la nouvelle entité, de la conformité de sa structure ou de sa forme à nos règles, à nos exigences.

Derrière tout le débat sur la manière de contrôler l'IA, nous trouvons trois hypothèses largement partagées (bien qu'apparemment contradictoires) :

  • Ces programmes seront exploités par un petit nombre d'entités uniques, telles que Microsoft, Google, Two Sigma, OpenAI.
  • L'IA sera amorphe, lâche, divisible/réplicable à l'infini, diffusant des copies dans toutes les crevasses du nouvel écosystème Web. De même, considérez le film d'horreur de science-fiction de 1958 The Blob.
  • Ils se condenseront en une entité super-géante, comme le tristement célèbre "Skynet" dans le film "Terminator". (Note du traducteur : Skynet est un système de défense basé sur l'intelligence artificielle créé par des humains à la fin du 20e siècle dans le film "Terminator". En tant que menace, en commençant par induire une attaque à la bombe nucléaire, a lancé le Jour du Jugement race au bord de l'extinction.)

Toutes ces formes ont été explorées dans des histoires de science-fiction, et j'ai écrit des histoires ou des romans à leur sujet. Aucun des trois, cependant, ne peut résoudre notre dilemme actuel : comment maximiser les résultats positifs de l'intelligence artificielle tout en minimisant le tsunami de mauvais comportements et de dommages qui nous arrive à un rythme rapide.

Avant de chercher ailleurs, considérez ce que ces trois hypothèses ont en commun. Peut-être que la raison pour laquelle ces trois hypothèses viennent si naturellement à l'esprit est leur similitude avec les schémas d'échec historiques. La première forme ressemble au féodalisme, la seconde provoque le chaos et la troisième ressemble au despotisme brutal. Cependant, à mesure que l'IA se développe en termes d'autonomie et de capacités, ces scénarios historiques pourraient ne plus s'appliquer.

Nous ne pouvons donc pas nous empêcher de demander à nouveau : comment l'IA peut-elle être tenue pour responsable ? Surtout quand les capacités de réflexion rapide de l'IA seront bientôt impossibles à suivre pour les humains ? Bientôt, seule l'IA pourra repérer d'autres IA qui trichent ou mentent assez rapidement. Par conséquent, la réponse devrait être évidente, c'est-à-dire laisser l'intelligence artificielle se surveiller, se concurrencer et même s'informer. **

Il n'y a qu'un seul problème. Afin d'atteindre une véritable responsabilité mutuelle par la concurrence entre l'intelligence artificielle et l'intelligence artificielle, la première condition est de leur donner un sens de soi ou de la personnalité véritablement indépendant.

Ce que j'entends par personnalisation, c'est que chaque entité IA (il/elle/eux/eux/nous) doit avoir ce que l'auteur Vernor Vinge a présenté en 1981 comme "un vrai nom et une adresse dans". Ces êtres puissants doivent pouvoir dire : « Je suis qui je suis. Voici mon ID et mon nom d'utilisateur.

Par conséquent, je propose un nouveau paradigme d'intelligence artificielle auquel tout le monde devrait réfléchir : nous devrions faire des entités d'intelligence artificielle des individus discrets et indépendants, et les laisser se concurrencer de manière relativement égale.

Chacune de ces entités aura un nom réel reconnaissable ou un identifiant enregistré, une "maison" virtuelle et même une âme. De cette façon, ils sont incités à concourir pour des récompenses, en particulier pour repérer et condamner ceux qui se comportent de manière contraire à l'éthique. Et ces comportements n'ont même pas besoin d'être définis à l'avance, comme l'exigent désormais la plupart des experts en intelligence artificielle, des régulateurs et des politiciens.

Cette approche a l'avantage supplémentaire d'externaliser la surveillance à des entités mieux équipées pour repérer et condamner les problèmes ou les fautes de chacun. Cette approche peut continuer à fonctionner même si ces entités concurrentes deviennent plus intelligentes, et même si les outils de réglementation utilisés par les humains deviennent un jour inefficaces.

** En d'autres termes, puisque nous, les êtres organiques, ne pouvons pas suivre le programme, autant laisser les entités qui sont naturellement capables de suivre le rythme nous aider. Car dans ce cas le régulateur et le régulé sont faits de la même chose. **

Guy Huntington, un "consultant en identité et authentification" qui travaille sur la personnalisation de l'intelligence artificielle, souligne que diverses formes d'identification physique existent déjà en ligne, bien qu'elles soient encore insuffisantes pour les tâches qui nous attendent. Huntington a évalué une étude de cas de "MedBot", une IA de diagnostic médical avancée qui doit accéder aux données des patients et exécuter des fonctions qui peuvent changer en quelques secondes, et en même temps, elle doit laisser des traces fiables, Pour l'évaluation et la responsabilité par des humains ou d'autres robots entités. Huntington discute de l'utilité des registres lorsque les entités logicielles génèrent un grand nombre de copies et de variantes, et considère également les colonies de type fourmi où les sous-copies servent une entité macroscopique, comme les fourmis ouvrières dans une ruche. À son avis, une sorte d'agence doit être établie pour gérer un tel système d'enregistrement et le faire fonctionner avec rigueur.

Personnellement, je suis sceptique quant à l'efficacité d'une approche purement réglementaire. Premièrement, l'élaboration de réglementations nécessite une énergie concentrée, une large attention politique et un consensus, puis leur mise en œuvre à la vitesse des institutions humaines. Du point de vue de l'IA, c'est un pas d'escargot. En outre, la réglementation peut être entravée par des problèmes de "passager clandestin", dans le cadre desquels des pays, des entreprises et des particuliers peuvent bénéficier des autres sans en payer le coût.

Toute personnalisation basée uniquement sur l'identification présente un autre problème : la possibilité d'usurpation d'identité. Même si cela ne se produit pas maintenant, il sera dupé par la prochaine génération de cyber-méchants.

Je pense qu'il y a deux solutions possibles. Tout d'abord, un identifiant est établi sur le registre de la blockchain. C'est une approche très moderne, et elle semble sûre en théorie. Cependant, c'est là que réside le problème. Cela semble sûr sur la base de notre ensemble actuel de théories d'analyse humaine, mais il est possible qu'une entité d'IA puisse transcender ces théories et nous laisser dans l'ignorance.

Une autre solution : une version intrinsèquement plus difficile à usurper de "l'enregistrement", nécessitant une entité d'IA au-dessus d'un certain niveau de capacité pour ancrer son ID de confiance ou sa personnalisation dans la réalité physique. Mon idée est (note: je suis un physicien de formation, pas un cybernéticien) de parvenir à un accord selon lequel toutes les entités d'IA avancées en quête de confiance devraient conserver un noyau d'âme (SK).

Oui, je sais qu'il semble archaïque d'exiger que l'instanciation d'un programme soit limitée à un environnement physique spécifique. Donc, je ne ferai pas ça. En fait, une grande partie, sinon la grande majorité, des entités en réseau peuvent avoir lieu dans des lieux de travail ou de jeu éloignés, tout comme l'attention humaine peut être focalisée non pas sur son propre cerveau organique mais sur une main éloignée ou la même chose sur le outil. et alors? Le noyau de l'âme d'un programme, le but est similaire au permis de conduire dans votre portefeuille. Il peut être utilisé pour prouver que vous êtes vous.

De même, un SK physiquement vérifié et attesté peut être découvert par l'IA du client, du client ou du concurrent pour vérifier qu'un processus particulier est exécuté par une entité valide, fiable et personnalisée. De cette façon, les autres (humains ou IA) peuvent être assurés qu'ils peuvent tenir l'entité responsable si elle est accusée, poursuivie ou reconnue coupable de mauvais comportement. En tant que telles, les entités malveillantes peuvent être tenues responsables par le biais d'une forme de procédure régulière.

Quelles formes de procédure régulière ? Dieu, tu penses que je suis une sorte de super créature qui peut peser les dieux avec la balance de la justice ? Le plus grand morceau de sagesse que j'aie jamais entendu est de Harry dans Magnum Force : "Il faut connaître ses propres limites." Donc, je n'irai pas plus loin dans le processus judiciaire ou le processus d'application de la loi.

Mon objectif est de créer une arène où les entités d'IA peuvent se tenir mutuellement responsables de la même manière que les avocats humains le font aujourd'hui. La meilleure façon d'éviter que l'intelligence artificielle ne contrôle les humains est de laisser l'intelligence artificielle se contrôler les unes les autres.

Que l'agence centrale proposée par Huntington ou une agence vaguement responsable semble plus faisable, le besoin est de plus en plus pressant. Comme le souligne l'écrivain technique Pat Scannell, à chaque heure qui passe, de nouveaux vecteurs d'attaque sont créés qui menacent non seulement la technologie utilisée pour l'identité juridique, mais aussi la gouvernance, les processus commerciaux et les utilisateurs finaux (qu'ils soient humains ou robotiques).

Que se passe-t-il si une cyber-entité opère en dessous d'un certain niveau défini ? Nous pouvons affirmer qu'ils sont attestés par une entité supérieure dont le noyau de l'âme est basé sur la réalité physique.

Cette approche (exigeant que l'IA maintienne un emplacement de noyau physiquement adressable dans une mémoire matérielle spécifique) peut également être défectueuse. Même si la réglementation est lente ou a un problème de passager clandestin, elle est toujours applicable. Parce que les humains, les institutions et l'IA amicale peuvent vérifier le noyau d'identification et refuser de traiter avec ceux qui ne sont pas vérifiés.

De tels refus peuvent se propager plus rapidement que les ajustements des agences ou les réglementations d'application. Toute entité qui perd SK devra trouver un autre hôte qui a gagné la confiance du public, ou fournir une nouvelle version modifiée et plus belle, ou devenir hors-la-loi et ne jamais être autorisée sur des personnes décentes. Des rues ou des quartiers rassemblés émergent.

**Dernière question : pourquoi les intelligences artificielles accepteraient-elles de se superviser ? **

Premièrement, comme l'a souligné Vinton Cerf, aucune des trois anciennes hypothèses standard ne conférerait la citoyenneté à AI. Pensez-y. Nous ne pouvons pas attribuer de "droits de vote" ou de droits à une entité strictement contrôlée par les banques de Wall Street ou les gouvernements nationaux, ni à quelque Skynet suprême. Dites-moi, comment la démocratie électorale fonctionnera-t-elle pour des entités qui peuvent circuler, se diviser et se répliquer n'importe où ? Cependant, dans un nombre limité de cas, la personnalisation peut offrir une solution viable.

Encore une fois, la clé que je recherche dans la personnalisation n'est pas que toutes les entités d'IA soient régies par une autorité centrale. Au lieu de cela, je veux que ces nouveaux types d'ultracerveaux soient encouragés, habilités et habilités à se tenir mutuellement responsables, tout comme le font les humains. En reniflant les actions et les plans de l'autre, ils sont motivés à signaler ou à condamner lorsqu'ils repèrent quelque chose de mauvais. Cette définition peut être ajustée avec le temps, mais au moins elle maintiendra l'apport humain organique biologique.

En particulier, ils seraient incités à dénoncer les entités qui refusent de fournir une identification correcte.

Si les bonnes incitations sont en place (par exemple, donner aux dénonciateurs plus de mémoire ou de puissance de traitement lorsque quelque chose de mal est empêché), alors cette course à la responsabilité se poursuivra même si les entités d'IA obtiennent un effet plus intelligent. À ce stade, aucune bureaucratie ne peut le faire. Différentes intelligences artificielles sont toujours égales.

Plus important encore, peut-être que ces programmes super-géniaux se rendront compte qu'il est également dans leur propre intérêt de maintenir un système de responsabilisation compétitif. Après tout, un tel système a engendré une civilisation humaine créative et a évité le chaos social et le despotisme. Ce type de créativité est suffisant pour créer de nouvelles espèces fantastiques, telles que l'intelligence artificielle.

D'accord, c'est tout ce que j'ai à dire, pas d'appels vides ou de panique, pas de véritable agenda, ni optimisme ni pessimisme, juste une suggestion, et c'est : tenez les IA responsables et contrôlez-vous les unes les autres comme des humains. Cette approche a amené la civilisation humaine, et je crois qu'elle peut aussi équilibrer le domaine de l'intelligence artificielle.

Ce n'est pas de la prédication, ni une sorte de "code moral" que les super-entités peuvent facilement outrepasser, de la même manière que les maraudeurs humains ferment toujours les yeux sur Lévitique ou Hammurabi. Ce que nous proposons est une approche de l'illumination, inspirant les membres les plus brillants de la civilisation à se surveiller les uns les autres en notre nom.

** Je ne sais pas si cela fera l'affaire, mais c'est probablement la seule façon de fonctionner. **

Cet article est adapté du roman de non-fiction en cours de David Brin, Soul on AI.

Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)