Peut-être n’y a-t-il jamais eu de technologie qui soit devenue rapidement en quelques mois un consensus de la communauté scientifique et technologique et même de l’ensemble de la société comme le grand modèle de l’IA. Aujourd’hui, tous les géants de la technologie et les grands gouvernements croient presque fermement que l’IA va changer le monde et tout changer.
Mais derrière un grand consensus, il y a encore trop de problèmes : d'un côté, ils sont réels : substitution au travail, prolifération de faux contenus, seuils d'usage inégaux, etc. ; de l'autre, ils sont des problèmes longs. -terme œuvres d'art humaines. La « menace pour la civilisation » exprimée ici. **Selon le magazine "Wired", OpenAI a même stipulé un mécanisme de sortie dans un document financier lorsque l'IA détruit le système économique humain. **
En juillet de cette année, lors d'un événement organisé au siège d'IBM, le chef de la majorité au Sénat américain, Chuck Schumer, a déclaré qu'il convoquerait une série de conférences sur l'intelligence artificielle pour "réunir les meilleures personnes autour de la table et apprendre les unes des autres". , essayez de parvenir à un consensus et à des solutions, et les sénateurs, notre personnel et d'autres écoutent simplement. " ** En fin de compte, Schumer espère "jeter les bases d'une législation politique en matière d'IA" sur la base des échanges lors de la réunion. **
**Deux mois plus tard, la réunion a commencé. **22 participants issus des plus grandes entreprises technologiques ont participé à la réunion à huis clos. Parmi eux figuraient Sam Altman, PDG d'OpenAI, Huang Jenxun, PDG de NVIDIA, Sundar, PDG de Google. Pichai, Mark Zuckerberg, PDG de Meta et d'autres, ainsi que le fondateur de Microsoft, Bill Gates, et l'ancien PDG de Google, Eric Schmidt, les leaders technologiques de la génération précédente d'Internet.
L'IA doit être « contrôlée »
Personne ne niera l'énorme potentiel de l'intelligence artificielle, mais il manque encore beaucoup de consensus sur les risques, les mesures de sécurité, la supervision et l'avenir de l'intelligence artificielle. La seule chose qui est sûre est que l'homme ne peut pas complètement permettre la croissance brutale de l'intelligence artificielle. intelligence.
Après avoir quitté la première réunion à huis clos, Elon Musk, PDG de Tesla, SpaceX et Neuralink, a déclaré publiquement que le rassemblement était "historique" et qu'il soutenait l'idée de créer une nouvelle agence pour réglementer l'intelligence artificielle, et a réaffirmé les énormes risques posés par l’intelligence artificielle.
"Les conséquences d'un dysfonctionnement de l'IA sont graves, nous devons donc être proactifs plutôt que réactifs", a déclaré Musk. "Le problème est en réalité un problème de civilisation, qui présente des risques potentiels pour tous les humains dans le monde."
Musk n'a pas développé en profondeur les dommages spécifiques causés par la soi-disant intelligence artificielle à la civilisation humaine, mais lorsque l'intelligence artificielle sera davantage impliquée dans la gestion et le contrôle des réseaux électriques, des systèmes d'approvisionnement en eau et des systèmes de véhicules, des erreurs entraîneront un beaucoup de problèmes . L’informaticien et chercheur en intelligence artificielle Deb Raji a également mentionné que les décisions biaisées de l’intelligence artificielle affectent tous les aspects de la société.
De plus, l’intelligence artificielle suscite également des préoccupations humaines de longue date.
Mais comment réduire et prévenir les risques posés par l’intelligence artificielle ? Le président de Microsoft, Brad Smith, a proposé que nous devions mettre en place un « frein d'urgence » face aux risques énormes que l'intelligence artificielle peut poser, en particulier dans les systèmes d'intelligence artificielle qui gèrent des infrastructures critiques telles que les réseaux électriques et les systèmes d'eau. « De cette façon, nous pouvons garantir que le Les menaces que beaucoup de gens craignent restent du domaine de la science-fiction et ne deviennent pas une nouvelle réalité."**
Brad Smith, photo/
Smith estime que, tout comme les disjoncteurs que l'on trouve dans chaque bâtiment et chaque maison et qui peuvent immédiatement arrêter le fonctionnement du système électrique si nécessaire, les systèmes d'IA auront besoin de « freins d'urgence » similaires pour garantir que les humains ne soient pas affectés par de tels systèmes.
Par coïncidence, William Dally, scientifique en chef et vice-président senior de NVIDIA, a également souligné que la clé de la possibilité d'erreurs et de dommages graves causés par l'intelligence artificielle en tant que programme informatique réside dans la « participation humaine », c'est-à-dire que les humains sont placés dans Dans les maillons clés du travail sur l'intelligence artificielle, certains pouvoirs décisionnels de l'intelligence artificielle sont restreints. **
William Daly, photo/NVIDIA
"Je pense donc que tant que nous faisons attention à la manière dont nous déployons l'IA, en plaçant les humains dans le lien critique, nous pouvons nous assurer que l'IA ne prend pas le relais et ne coupe pas notre réseau électrique ou ne fasse pas tomber des avions du ciel. ", a déclaré Daly.
**L'IA open source sera-t-elle une boîte de Pandore ? **
À la fin de l’année dernière, lorsque ChatGPT est devenu populaire pour la première fois dans le cercle technologique, certaines personnes ont exprimé leurs inquiétudes quant à l’utilisation de modèles d’IA pour des comportements malveillants tels que la fraude. L'open source semble augmenter le risque d'« abus ».
L'un des débats de la conférence tournait autour des modèles d'IA « open source » téléchargeables et modifiables par le public. Le code ouvert de ces modèles permet aux entreprises et aux chercheurs d’utiliser une technologie d’IA similaire à celle de ChatGPT sans investir d’énormes sommes d’argent et de ressources dans la formation.
Mais les méchants peuvent également abuser des systèmes d'IA open source, y compris OpenAI, qui a arrêté l'open source depuis GPT-3.5. Le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a déclaré : « Dans quelques années, tout le monde verra clairement que l'intelligence artificielle open source L’intelligence n’est pas sage. »
Ilya Sutskever s'entretient avec Jen-Hsun Huang à la GDC, photo/NVIDIA
** Lorsqu'on lui a demandé pourquoi, il a répondu : "Ces modèles sont très solides et deviendront plus forts, et à un moment donné, si quelqu'un le voulait, il serait facile de faire beaucoup de dégâts avec ces modèles." **
En outre, Mustafa Suleyman, co-fondateur de DeepMind et PDG d'Inflection AI, a également évoqué il n'y a pas si longtemps les risques de l'open source. Il a souligné que le problème clé de l'IA open source est que la « diffusion rapide du pouvoir » permettra un seul individu à causer un préjudice sans précédent au monde et à avoir un impact : "Dans les 20 prochaines années, l'open source naïf provoquera presque certainement un désastre." **
Mustafa Suleiman, 图/DeepMind
Cependant, Meta n'est évidemment pas d'accord avec ces déclarations. **Le PDG de Meta, Zuckerberg, a rétorqué que l'open source "démocratisera l'IA, contribuera à une concurrence loyale et promouvra l'innovation individuelle et d'entreprise". **Mais en même temps, il a également déclaré que le modèle open source peut présenter des dangers, mais Meta construit cette technologie de la manière la plus sûre possible.
Lorsque l’IA rencontre l’open source, la question reste ouverte.
Écrivez à la fin
Il y a 2104 ans, sept ans après la mort de l'empereur Wu de la dynastie Han, la cour des Han a convoqué une consultation politique sans précédent, dont l'une des principales questions était l'abolition et la révision de la politique de monopole d'État sur le sel et le vin de fer mise en œuvre sous l'empereur. Période de Wu. À cette fin, les « plus de soixante personnes vertueuses et littéraires » ainsi que des représentants du gouvernement tels que Sang Hongyang, le censeur impérial, furent plus tard appelés « Conférence du sel et du fer ». Cependant, cette Conférence du Sel et du Fer discutait essentiellement de l’orientation de la politique économique de la dynastie Han.
Bien que les thèmes soient différents et que l'environnement de l'époque soit très différent**, qu'il s'agisse de la Conférence du Sel et du Fer il y a plus de 2 000 ans ou de l'actuel Forum sur l'intelligence artificielle, nous sommes tous confrontés à un énorme problème, et nous espérons communiquer à travers le débat sur les « groupes de talents » comme base de la législation. **
Image/Google
Dans un article récent commémorant le 25e anniversaire de Google, l’actuel PDG de Google, Sundar Pichai, a écrit :
(Google) Participez au débat important sur la manière dont ces technologies façonneront notre société, puis travaillez ensemble pour trouver les réponses. L’intelligence artificielle en est un élément clé. Même si nous sommes enthousiasmés par le potentiel de l’IA au bénéfice des individus et de la société**, nous savons que l’IA, comme toute technologie à un stade précoce, comporte des complexités et des risques. Notre développement et notre utilisation de l’IA doivent répondre à ces risques et contribuer à développer la technologie de manière responsable. **
Quelques jours plus tard, huit entreprises, dont Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI et Stability, sont devenues le deuxième groupe d'entreprises à signer un accord pour « développer de manière responsable la technologie de l'intelligence artificielle (IA). » Bien souvent, face à des problèmes qui ne peuvent être résolus par un seul individu, une seule entreprise ou un seul gouvernement, nous devons prendre conscience de la valeur des « efforts conjoints ».
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Qu'ont dit les géants mondiaux de l'IA lorsqu'ils se sont réunis pour une conférence Sel et Fer à l'ère de l'IA ?
Peut-être n’y a-t-il jamais eu de technologie qui soit devenue rapidement en quelques mois un consensus de la communauté scientifique et technologique et même de l’ensemble de la société comme le grand modèle de l’IA. Aujourd’hui, tous les géants de la technologie et les grands gouvernements croient presque fermement que l’IA va changer le monde et tout changer.
Mais derrière un grand consensus, il y a encore trop de problèmes : d'un côté, ils sont réels : substitution au travail, prolifération de faux contenus, seuils d'usage inégaux, etc. ; de l'autre, ils sont des problèmes longs. -terme œuvres d'art humaines. La « menace pour la civilisation » exprimée ici. **Selon le magazine "Wired", OpenAI a même stipulé un mécanisme de sortie dans un document financier lorsque l'IA détruit le système économique humain. **
En juillet de cette année, lors d'un événement organisé au siège d'IBM, le chef de la majorité au Sénat américain, Chuck Schumer, a déclaré qu'il convoquerait une série de conférences sur l'intelligence artificielle pour "réunir les meilleures personnes autour de la table et apprendre les unes des autres". , essayez de parvenir à un consensus et à des solutions, et les sénateurs, notre personnel et d'autres écoutent simplement. " ** En fin de compte, Schumer espère "jeter les bases d'une législation politique en matière d'IA" sur la base des échanges lors de la réunion. **
**Deux mois plus tard, la réunion a commencé. **22 participants issus des plus grandes entreprises technologiques ont participé à la réunion à huis clos. Parmi eux figuraient Sam Altman, PDG d'OpenAI, Huang Jenxun, PDG de NVIDIA, Sundar, PDG de Google. Pichai, Mark Zuckerberg, PDG de Meta et d'autres, ainsi que le fondateur de Microsoft, Bill Gates, et l'ancien PDG de Google, Eric Schmidt, les leaders technologiques de la génération précédente d'Internet.
L'IA doit être « contrôlée »
Personne ne niera l'énorme potentiel de l'intelligence artificielle, mais il manque encore beaucoup de consensus sur les risques, les mesures de sécurité, la supervision et l'avenir de l'intelligence artificielle. La seule chose qui est sûre est que l'homme ne peut pas complètement permettre la croissance brutale de l'intelligence artificielle. intelligence.
Après avoir quitté la première réunion à huis clos, Elon Musk, PDG de Tesla, SpaceX et Neuralink, a déclaré publiquement que le rassemblement était "historique" et qu'il soutenait l'idée de créer une nouvelle agence pour réglementer l'intelligence artificielle, et a réaffirmé les énormes risques posés par l’intelligence artificielle.
"Les conséquences d'un dysfonctionnement de l'IA sont graves, nous devons donc être proactifs plutôt que réactifs", a déclaré Musk. "Le problème est en réalité un problème de civilisation, qui présente des risques potentiels pour tous les humains dans le monde."
Musk n'a pas développé en profondeur les dommages spécifiques causés par la soi-disant intelligence artificielle à la civilisation humaine, mais lorsque l'intelligence artificielle sera davantage impliquée dans la gestion et le contrôle des réseaux électriques, des systèmes d'approvisionnement en eau et des systèmes de véhicules, des erreurs entraîneront un beaucoup de problèmes . L’informaticien et chercheur en intelligence artificielle Deb Raji a également mentionné que les décisions biaisées de l’intelligence artificielle affectent tous les aspects de la société.
De plus, l’intelligence artificielle suscite également des préoccupations humaines de longue date.
Mais comment réduire et prévenir les risques posés par l’intelligence artificielle ? Le président de Microsoft, Brad Smith, a proposé que nous devions mettre en place un « frein d'urgence » face aux risques énormes que l'intelligence artificielle peut poser, en particulier dans les systèmes d'intelligence artificielle qui gèrent des infrastructures critiques telles que les réseaux électriques et les systèmes d'eau. « De cette façon, nous pouvons garantir que le Les menaces que beaucoup de gens craignent restent du domaine de la science-fiction et ne deviennent pas une nouvelle réalité."**
Brad Smith, photo/
Smith estime que, tout comme les disjoncteurs que l'on trouve dans chaque bâtiment et chaque maison et qui peuvent immédiatement arrêter le fonctionnement du système électrique si nécessaire, les systèmes d'IA auront besoin de « freins d'urgence » similaires pour garantir que les humains ne soient pas affectés par de tels systèmes.
Par coïncidence, William Dally, scientifique en chef et vice-président senior de NVIDIA, a également souligné que la clé de la possibilité d'erreurs et de dommages graves causés par l'intelligence artificielle en tant que programme informatique réside dans la « participation humaine », c'est-à-dire que les humains sont placés dans Dans les maillons clés du travail sur l'intelligence artificielle, certains pouvoirs décisionnels de l'intelligence artificielle sont restreints. **
William Daly, photo/NVIDIA
"Je pense donc que tant que nous faisons attention à la manière dont nous déployons l'IA, en plaçant les humains dans le lien critique, nous pouvons nous assurer que l'IA ne prend pas le relais et ne coupe pas notre réseau électrique ou ne fasse pas tomber des avions du ciel. ", a déclaré Daly.
**L'IA open source sera-t-elle une boîte de Pandore ? **
À la fin de l’année dernière, lorsque ChatGPT est devenu populaire pour la première fois dans le cercle technologique, certaines personnes ont exprimé leurs inquiétudes quant à l’utilisation de modèles d’IA pour des comportements malveillants tels que la fraude. L'open source semble augmenter le risque d'« abus ».
L'un des débats de la conférence tournait autour des modèles d'IA « open source » téléchargeables et modifiables par le public. Le code ouvert de ces modèles permet aux entreprises et aux chercheurs d’utiliser une technologie d’IA similaire à celle de ChatGPT sans investir d’énormes sommes d’argent et de ressources dans la formation.
Mais les méchants peuvent également abuser des systèmes d'IA open source, y compris OpenAI, qui a arrêté l'open source depuis GPT-3.5. Le co-fondateur et scientifique en chef d'OpenAI, Ilya Sutskever, a déclaré : « Dans quelques années, tout le monde verra clairement que l'intelligence artificielle open source L’intelligence n’est pas sage. »
Ilya Sutskever s'entretient avec Jen-Hsun Huang à la GDC, photo/NVIDIA
** Lorsqu'on lui a demandé pourquoi, il a répondu : "Ces modèles sont très solides et deviendront plus forts, et à un moment donné, si quelqu'un le voulait, il serait facile de faire beaucoup de dégâts avec ces modèles." **
En outre, Mustafa Suleyman, co-fondateur de DeepMind et PDG d'Inflection AI, a également évoqué il n'y a pas si longtemps les risques de l'open source. Il a souligné que le problème clé de l'IA open source est que la « diffusion rapide du pouvoir » permettra un seul individu à causer un préjudice sans précédent au monde et à avoir un impact : "Dans les 20 prochaines années, l'open source naïf provoquera presque certainement un désastre." **
Mustafa Suleiman, 图/DeepMind
Cependant, Meta n'est évidemment pas d'accord avec ces déclarations. **Le PDG de Meta, Zuckerberg, a rétorqué que l'open source "démocratisera l'IA, contribuera à une concurrence loyale et promouvra l'innovation individuelle et d'entreprise". **Mais en même temps, il a également déclaré que le modèle open source peut présenter des dangers, mais Meta construit cette technologie de la manière la plus sûre possible.
Lorsque l’IA rencontre l’open source, la question reste ouverte.
Écrivez à la fin
Il y a 2104 ans, sept ans après la mort de l'empereur Wu de la dynastie Han, la cour des Han a convoqué une consultation politique sans précédent, dont l'une des principales questions était l'abolition et la révision de la politique de monopole d'État sur le sel et le vin de fer mise en œuvre sous l'empereur. Période de Wu. À cette fin, les « plus de soixante personnes vertueuses et littéraires » ainsi que des représentants du gouvernement tels que Sang Hongyang, le censeur impérial, furent plus tard appelés « Conférence du sel et du fer ». Cependant, cette Conférence du Sel et du Fer discutait essentiellement de l’orientation de la politique économique de la dynastie Han.
Bien que les thèmes soient différents et que l'environnement de l'époque soit très différent**, qu'il s'agisse de la Conférence du Sel et du Fer il y a plus de 2 000 ans ou de l'actuel Forum sur l'intelligence artificielle, nous sommes tous confrontés à un énorme problème, et nous espérons communiquer à travers le débat sur les « groupes de talents » comme base de la législation. **
Image/Google
Dans un article récent commémorant le 25e anniversaire de Google, l’actuel PDG de Google, Sundar Pichai, a écrit :
(Google) Participez au débat important sur la manière dont ces technologies façonneront notre société, puis travaillez ensemble pour trouver les réponses. L’intelligence artificielle en est un élément clé. Même si nous sommes enthousiasmés par le potentiel de l’IA au bénéfice des individus et de la société**, nous savons que l’IA, comme toute technologie à un stade précoce, comporte des complexités et des risques. Notre développement et notre utilisation de l’IA doivent répondre à ces risques et contribuer à développer la technologie de manière responsable. **
Quelques jours plus tard, huit entreprises, dont Adobe, Cohere, IBM, NVIDIA, Palantir, Salesforce, Scale AI et Stability, sont devenues le deuxième groupe d'entreprises à signer un accord pour « développer de manière responsable la technologie de l'intelligence artificielle (IA). » Bien souvent, face à des problèmes qui ne peuvent être résolus par un seul individu, une seule entreprise ou un seul gouvernement, nous devons prendre conscience de la valeur des « efforts conjoints ».