Aperçu du Sommet sur la sécurité de l’IA au Royaume-Uni : pourquoi maintenant, pourquoi le Royaume-Uni

Texte : Ingrid Lunden

Source: TechCrunch

Source de l’image : Générée par Unbounded AI

Les promesses et les méfaits de l’IA sont des sujets brûlants ces jours-ci. Certains disent que l’intelligence artificielle va nous sauver, aider à diagnostiquer certaines maladies malignes, combler la fracture numérique dans l’éducation, etc. Mais il y a aussi des inquiétudes quant à la menace qu’il représente pour la guerre, la sécurité, la désinformation, etc. C’est devenu un passe-temps pour les gens ordinaires et a sonné l’alarme dans le monde des affaires.

L’IA est très utile, mais elle ne peut pas encore faire taire le bruit d’une pièce pleine de bavardages. Cette semaine, des universitaires, des régulateurs, des chefs de gouvernement, des start-ups, des grandes entreprises technologiques et des dizaines d’organisations à but lucratif et à but non lucratif se réunissent au Royaume-Uni pour discuter et débattre de l’IA.

Pourquoi le Royaume-Uni ? Pourquoi maintenant ? **

Mercredi et jeudi, le Royaume-Uni accueillera le sommet sur la sécurité de l’IA à Bletchley Park, le premier du genre au Royaume-Uni.

Le sommet était prévu depuis plusieurs mois pour explorer certains des problèmes et des risques à long terme posés par l’IA. Les objectifs du sommet sont idéaux plutôt que concrets : « une compréhension commune des risques posés par l’IA de pointe et de la nécessité d’agir », « un processus prospectif de coopération internationale sur la sécurité de l’IA de pointe, y compris la meilleure façon de soutenir les cadres nationaux et internationaux », « les organisations devraient prendre des mesures appropriées pour améliorer la sécurité de l’IA de pointe », et ainsi de suite.

Ce désir de haut niveau se reflète également dans l’identité des participants : de hauts fonctionnaires, des leaders de l’industrie et d’éminents penseurs dans le domaine seront présents. (Selon les derniers rapports : Elon Musk, le président Biden, Justin Trudeau et Olaf Scholz, entre autres, seront présents).

Le sommet avait l’air spécial, et il l’était : le « ticket d’or » pour le sommet (décrit par le fondateur et auteur technologique basé à Londres, Azeem Azhar) était rare. Il est rapporté que le sommet sera à petite échelle et en grande partie fermé. Ces événements comprennent des conférences à la Royal Society (National Academy of Sciences) ; Des conférences « AI Fringe » à grande échelle dans plusieurs villes et des annonces de nombreux groupes de travail, entre autres.

Gina Neff, directrice exécutive du Mindelow Centre for Technology and Democracy de l’Université de Cambridge, a déclaré lors d’une table ronde sur la science et la sécurité à la Royal Society la semaine dernière : « Nous allons jouer le rôle du sommet que nous avons déjà organisé. En d’autres termes, un événement à Bletchley fera ce qu’il est censé faire, et ce qui n’est pas dans le cadre de l’événement sera l’occasion pour les gens de réfléchir à d’autres questions. "

La table ronde de Neff en est un bon exemple : dans une salle comble de la Royal Society, elle s’est assise avec des représentants de Human Rights Watch, des représentants de l’État du grand syndicat Unite, le fondateur du Tech Global Institute, un groupe de réflexion axé sur les questions d’équité technologique dans les pays du Sud, le responsable des politiques publiques de la start-up Stability AI et des informaticiens de l’Université de Cambridge.

Dans le même temps, on peut dire que la réunion dite de bord de l’IA n’est qu’un « avantage » nominal. Le Bletchley Summit se déroulant au même endroit pendant la semaine, avec une liste d’invités très limitée et des possibilités tout aussi limitées d’apprendre ce qui a été discuté, la session AI Edge a rapidement été étendue à Bletchley et a étoffé l’ordre du jour de la conférence. L’événement n’aurait pas été organisé par le gouvernement, mais par une société de relations publiques appelée Milltown Partners (qui a représenté des entreprises telles que DeepMind, Stripe et la société de capital-risque Atomico), et il est intéressant de noter qu’il a duré une semaine complète, s’est tenu dans plusieurs endroits à travers le pays et était gratuit pour ceux qui pouvaient obtenir des billets (de nombreux événements étaient complets), et de nombreuses sessions étaient également disponibles sur les services de streaming.

Malgré la variété, il était très triste de voir que la discussion sur l’IA, malgré ses balbutiements, était toujours aussi divisée : l’une était une réunion des pouvoirs du pouvoir (dont la plupart n’était ouverte qu’aux invités) et l’autre était une réunion du reste d’entre nous.

Plus tôt dans la journée, un groupe de 100 syndicats et militants a envoyé une lettre au Premier ministre disant que le gouvernement « étouffait » leurs voix dans la conversation en ne leur permettant pas de participer à Bletchley Park. (Ils n’ont peut-être pas obtenu les billets, mais leur façon de s’y opposer était tout à fait sensée : le groupe l’a rendue publique en partageant la lettre avec les publications économiques les plus élitistes du pays, telles que le Financial Times).

Il n’y a pas que les gens ordinaires qui sont laissés pour compte. Carissa Véliz, maître de conférences au département de philosophie de l’Université d’Oxford, a déclaré lors de l’événement AI Edge d’aujourd’hui : « Aucune des personnes que je connais n’a été invitée. "

Certains pensent qu’il y a des avantages à la rationalisation.

Marius Hobbhahn, chercheur en intelligence artificielle, est le cofondateur et directeur d’Apollo Research, qui développe des outils de sécurité basés sur l’IA. Il pense qu’un plus petit nombre de personnes peut également attirer plus d’attention : « Plus il y a de personnes dans la salle, plus il est difficile de tirer des conclusions ou d’avoir une discussion efficace », a-t-il déclaré.

Dans un sens plus large, le sommet n’est qu’une « brique » et fait partie d’une conversation plus large qui est actuellement en cours. La semaine dernière, le Premier ministre britannique Rishi Sunak a déclaré qu’il avait l’intention de créer un nouvel institut de sécurité de l’IA et un réseau de recherche au Royaume-Uni pour consacrer plus de temps et d’efforts à l’étude de l’impact de l’IA ; Un groupe d’éminents universitaires, dirigé par Yoshua Bengio et Geoffrey Hinton, s’est collectivement plongé dans ce domaine avec un article intitulé « Gérer les risques liés à l’IA à l’ère du progrès rapide » ; Les Nations Unies ont également annoncé la création de leur propre groupe de travail chargé d’étudier l’impact de l’intelligence artificielle. Récemment, le président américain Joe Biden a également publié le décret présidentiel américain visant à établir des normes de sécurité en matière d’IA.

"Risque existentiel"

L’un des plus grands débats est de savoir si l’idée que l’IA pose un « risque existentiel » est exagérée, ou même intentionnelle, pour éliminer l’examen des activités plus directes de l’IA.

Matt Kelly, professeur de mathématiques systémiques à l’Université de Cambridge, souligne que l’un des domaines les plus fréquemment cités est la désinformation.

« La désinformation n’est pas nouvelle. Ce n’est même pas quelque chose de nouveau dans ce siècle ou le siècle dernier », a-t-il déclaré dans une interview la semaine dernière. « Mais c’est l’un des domaines où nous pensons qu’il existe des risques potentiels pour l’IA à court et moyen terme. Et ces risques se développent lentement au fil du temps. Kelly, membre de la Royal Society of Scientry, a déclaré que la société avait également mené un exercice d’équipe rouge et bleu spécifiquement pour la désinformation scientifique pendant la période précédant le sommet pour voir comment les grands modèles de langage se comporteraient lorsqu’ils essaieraient de rivaliser les uns avec les autres. Il s’agit d’une tentative de mieux comprendre quels sont les risques à l’heure actuelle.

Le gouvernement britannique semble adopter une approche à double face à ce débat, le danger étant plus évident que le nom de l’événement qu’il organise, le Sommet sur la sécurité de l’IA.

Dans son discours de la semaine dernière, M. Sunak a déclaré : « À l’heure actuelle, nous n’avons pas une compréhension commune des risques auxquels nous sommes confrontés. « Sans ce consensus, nous ne pouvons pas nous attendre à faire face à ces risques ensemble. » C’est pourquoi nous insisterons fortement en faveur de la première déclaration internationale sur la nature de ces risques.

Mais en organisant le sommet, le Royaume-Uni s’est d’abord positionné comme un acteur central dans l’établissement de l’ordre du jour de « ce dont nous parlons lorsque nous parlons d’IA », et il a certainement une perspective économique.

« En faisant du Royaume-Uni un leader mondial de l’IA sécurisée, nous attirerons davantage de nouveaux emplois et d’investissements grâce à cette vague de nouvelles technologies », a noté M. Sunak. (Le mémo a également été reçu par d’autres ministères : le ministre de l’Intérieur a organisé aujourd’hui un événement avec l’Internet Watch Foundation et un certain nombre de grandes sociétés d’applications grand public telles que TikTok et Snap pour lutter contre la prolifération des images d’abus sexuels générées par l’IA).

L’implication des géants de la technologie peut sembler aider d’une certaine manière, mais les critiques ont tendance à y voir également un problème. La « capture réglementaire », où les grands acteurs de l’industrie prennent des mesures proactives pour discuter et développer des risques et des protections, a été un autre thème important dans le meilleur des mondes de l’IA, et le sommet de cette semaine n’est pas différent.

« Méfiez-vous des leaders de l’IA qui lèvent la main et disent : « moi, moi ». » Nigel Toon, PDG du fabricant de puces d’IA Graphcore, a astucieusement souligné dans un article qu’il a écrit sur le prochain sommet de cette semaine : « Les gouvernements sont susceptibles d’intervenir et de les croire sur parole. » (Il n’est pas tout à fait marginal, cependant : il assistera lui-même au sommet.)

Dans le même temps, de nombreuses personnes se demandent encore si le soi-disant risque existentiel actuel est un exercice de réflexion utile.

« Je pense que la rhétorique des frontières et de l’intelligence artificielle nous a mis dans un état de peur de la technologie au cours de l’année écoulée », a déclaré Ben Brooks, responsable de la politique publique chez Stability AI, lors d’une table ronde à la Royal Society, citant l’expérience de pensée « Paperclip Maxing » - où l’IA pourrait détruire le monde en créant des trombones sans tenir compte des besoins humains ou de la sécurité - comme exemple de cette approche délibérément limitative. « Ils ne réfléchissent pas aux circonstances dans lesquelles l’IA peut être déployée. Mais vous pouvez le développer en toute sécurité. Nous voulons que tout le monde s’en inspire et se rende compte que l’IA est réalisable et sûre. "

D’autres sont moins certains.

Hobbhahn d’Apollo Research a déclaré : « Pour être juste, je ne pense pas que le risque existentiel soit exact. « Appelons cela un risque catastrophique. » Compte tenu du rythme de développement de ces dernières années, les applications d’IA générative ont fait entrer les grands modèles de langage dans le courant dominant, et il pense que la plus grande préoccupation restera les mauvais acteurs qui utilisent l’IA, plutôt que l’IA elle-même dans une émeute : l’utiliser pour la guerre biologique, la situation de la sécurité nationale et la désinformation qui pourrait altérer le processus démocratique. Tous ces domaines, a-t-il dit, sont des domaines dans lesquels il pense que l’IA est susceptible de jouer un rôle catastrophique.

« Les lauréats du prix Turing sont ouvertement préoccupés par la survie et les risques catastrophiques... Nous devrions vraiment y réfléchir », a-t-il ajouté.

Perspectives d’affaires

Bien qu’il existe de sérieux risques, le Royaume-Uni souhaite également faire du pays un foyer naturel pour les entreprises d’IA en accueillant de grandes conversations sur l’IA. Cependant, certains analystes estiment que le chemin vers l’investissement dans l’IA pourrait ne pas être aussi facile que certains le prédisent.

« Je pense que la réalité commence à émerger : les entreprises commencent à comprendre combien de temps et d’argent elles doivent allouer à des projets d’IA générative afin d’obtenir des résultats fiables qui peuvent vraiment augmenter la productivité et les revenus », a déclaré Avivah Litan, vice-présidente analyste chez Gartner. « Même s’ils effectuent des ajustements itératifs et de l’ingénierie sur le projet, ils ont toujours besoin d’une supervision manuelle des opérations et des résultats. En bref, la sortie de GenAI n’est pas assez fiable et nécessite beaucoup de ressources pour la rendre fiable. Bien sûr, le modèle s’améliore constamment, mais c’est l’état actuel du marché. Pourtant, dans le même temps, nous voyons de plus en plus de projets entrer en phase de production. "

Elle estime que les investissements dans l’IA « ralentiront certainement la croissance des entreprises et des organisations gouvernementales qui utilisent l’IA ». Les fournisseurs poussent leurs applications et produits d’IA, mais les entreprises ne peuvent pas les adopter aussi rapidement qu’ils sont poussés. De plus, il existe de nombreux risques associés aux applications GenAI, tels que la démocratisation de l’accès facile aux informations confidentielles, même au sein d’une organisation. "

Tout comme la « transformation numérique » est en réalité un concept à combustion lente, la stratégie d’investissement d’une entreprise en matière d’IA a également besoin de plus de temps. « Il faut du temps aux entreprises pour verrouiller leurs ensembles de données structurées et non structurées et définir des autorisations correctement et efficacement. Il y a trop de partage excessif dans l’entreprise qui n’avait pas vraiment d’importance jusque-là. Litan ajoute : « Désormais, n’importe qui peut accéder à n’importe quel fichier que d’autres ne sont pas suffisamment protégés à l’aide d’une simple commande dans une langue maternelle, comme l’anglais. » "

Le fait de trouver un équilibre entre les intérêts commerciaux de l’IA et les questions de sécurité et de risque dont Bletchley Park discutera en dit long sur la tâche qui nous attend, mais souligne également la tension de la situation. Plus tard au cours de la conférence, les organisateurs de Bletchley se seraient efforcés d’élargir la discussion au-delà des préoccupations de sécurité de haut niveau à des domaines où des risques peuvent réellement survenir, tels que les soins de santé, bien que ce changement ne soit pas détaillé dans l’ordre du jour actuellement annoncé.

« Il y aura une table ronde d’environ 100 experts, ce qui n’est pas rien. Je suis un critique, mais cela ne semble pas être une mauvaise idée », déclare Neff, professeur à l’Université de Cambridge. « Maintenant, la réglementation mondiale sera-t-elle un sujet de discussion ? Absolument pas. Allons-nous normaliser les relations Est-Ouest ? Probablement pas. Mais nous arrivons à notre sommet. Je pense qu’il pourrait y avoir des opportunités très intéressantes à ce stade. "

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)