Plus de 370 personnes, dont LeCun et Ng Enda, ont signé une lettre commune : un contrôle strict de l’IA est dangereux, et l’ouverture est l’antidote

Source originale : Heart of the Machine

Source de l’image : Généré par Unbounded AI

Ces derniers jours, la discussion sur la façon de superviser l’IA est devenue de plus en plus houleuse, et les grands ont des opinions très différentes.

Par exemple, le triumvirat du prix Turing, Geoffrey Hinton, Yoshua Bengio et Yann LeCun, a deux points de vue. Hinton et Bengio forment une équipe qui appelle fortement à une réglementation plus stricte de l’IA, ce qui pourrait entraîner un risque d'« extinction de l’IA ». LeCun ne partage pas leur point de vue, arguant qu’une réglementation stricte de l’IA conduira inévitablement à un monopole des géants, avec pour résultat que seules quelques entreprises contrôlent la R&D sur l’IA.

Afin d’exprimer leurs idées, de nombreuses personnes ont signé une lettre commune pour exprimer leurs points de vue, par exemple, au cours des derniers jours, Bengio, Hinton et d’autres ont publié une lettre commune intitulée « Gérer les risques liés à l’IA à l’ère de l’évolution rapide », appelant les chercheurs à prendre des mesures de gouvernance urgentes avant de développer des systèmes d’IA.

Dans le même temps, une lettre ouverte intitulée « Déclaration conjointe sur la sécurité et l’ouverture de l’intelligence artificielle » est actuellement en train de fermenter sur les médias sociaux.

Lien vers la lettre ouverte :

Jusqu’à présent, plus de 370 personnes, dont LeCun, l’un des trois géants de l’apprentissage profond, et Andrew Ng, professeur au département d’informatique de l’Université de Stanford, ont signé la lettre ouverte. La liste est constamment mise à jour.

« Un accès ouvert, transparent et large rend la plate-forme logicielle plus sûre et plus fiable. Cette lettre ouverte de la Fondation Mozilla, que j’ai également signée, plaide en faveur de plateformes et de systèmes d’IA ouverts.

Voici le contenu de la lettre ouverte :

Nous sommes à un moment critique de la gouvernance de l’IA. Pour atténuer les méfaits actuels et futurs des systèmes d’IA, nous devons adopter l’ouverture, la transparence et un large accès. Cela doit être une priorité mondiale.
Il est vrai que les modèles accessibles au public sont risqués et vulnérables – les modèles d’IA peuvent être utilisés à mauvais escient par des acteurs malveillants ou déployés par des développeurs mal équipés. Pourtant, à maintes reprises, nous l’avons vu avec toutes sortes de technologies propriétaires – l’accès public accru et la censure rendent la technologie plus sûre, et non plus dangereuse. L’idée qu’un contrôle strict et exclusif des modèles d’IA sous-jacents est le seul moyen de nous protéger contre les dommages de masse est au mieux naïve et au pire dangereuse.

De plus, l’histoire du développement humain nous enseigne que l’adoption rapide d’une mauvaise réglementation peut conduire à une concentration du pouvoir, ce qui peut nuire à la concurrence et à l’innovation. Un modèle ouvert peut éclairer le débat public et améliorer l’élaboration de stratégies. Si notre objectif est la sûreté, la sécurité et la responsabilité, l’ouverture et la transparence sont des facteurs importants pour atteindre cet objectif.
Nous sommes au milieu d’une discussion dynamique sur ce que signifie être « ouvert » à l’ère de l’IA. Cet important débat ne doit pas être ralenti. Au contraire, elle devrait être accélérée, ce qui nous encourage à expérimenter, à apprendre et à développer de nouvelles façons de tirer parti de l’ouverture dans la course à la sécurité de l’IA.

Nous devons construire un ensemble d’approches de l’open source et de l’ouverture qui peuvent servir de blocs de construction pour :

  1. Accélérez la compréhension des risques et des dangers des capacités d’IA grâce à la recherche, à la collaboration et au partage des connaissances indépendants. 2. Améliorer l’examen et la responsabilisation du public en aidant les organismes de réglementation à adopter des outils pour surveiller les systèmes d’IA à grande échelle. 3. Réduire la barrière à l’entrée pour les nouveaux acteurs et se concentrer sur la création d’une IA responsable.
    En tant que signataires de cette lettre ouverte, nous sommes un groupe diversifié de scientifiques, de stratèges, d’ingénieurs, d’activistes, d’entrepreneurs, d’éducateurs et de journalistes, pour n’en nommer que quelques-uns. Nous représentons différents points de vue sur la façon de gérer et de publier l’IA open source. Cependant, nous sommes tout à fait d’accord sur une chose : une approche ouverte, responsable et transparente est essentielle pour assurer notre sécurité à l’ère de l’IA.
    Lorsqu’il s’agit de sécurité de l’IA, l’ouverture est l’antidote, pas le poison.

Signé par :

  • Arthur Mensch, co-fondateur et CEO de la start-up française MistralAI
  • Andrew Ng, fondateur de DeepLearning.AI, fondateur et PDG de Landing AI, professeur d’informatique à l’Université de Stanford
  • Yann Lecun, lauréat du prix Turing, Chief AI Scientist chez Meta
  • Julien Chaumond, Directeur Technique de Hugging Face
  • Brian Behlendorf, membre fondateur d’Apache, directeur technique d’OpenSSF
  • Eric Von Hippel est un économiste américain et professeur à la MIT Sloan School of Management
  • ......

À l’heure actuelle, cette lettre ouverte, qui n’est parue que depuis quelques jours, continue de fermenter et a suscité beaucoup d’attention et de discussions dans la communauté étrangère de l’IA, de sorte que vous pouvez continuer à prêter attention à la mise à jour de la liste.

Si vous êtes d’accord avec l’idée de la lettre commune, vous pouvez également soumettre votre propre signature.

Il faudra du temps pour répondre à la question de savoir si une réglementation stricte de l’IA fera plus de mal que de bien, ou si les avantages l’emportent sur les inconvénients.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)