Le discours de Cambridge du « père de ChatGPT » a été boycotté, et les gros bonnets universitaires se sont battus avec acharnement pour la sécurité de l’IA
Cet article a été publié pour la première fois sur l’application Titanium Media
Andrew Ng, fondateur de Google Brain et professeur à l’Université de Stanford, a souligné que la réglementation de l’IA détruit l’innovation. Musk, quant à lui, estime que l’IA est plus dangereuse que les armes nucléaires (bombes nucléaires).
Avec la publication par le gouvernement américain de nouvelles réglementations sur l’IA, il y a eu récemment une résurgence de la controverse sur la réglementation des grands modèles d’IA.
Tôt le matin du 2 novembre, heure de Pékin, lorsque Sam Altman, le « père de ChatGPT » et PDG d’OpenAI, a participé à un événement à Cambridge, en Angleterre, il s’est heurté à une forte résistance de la part des militants anti-IA et a été « écrasé » devant lui dans l’auditorium, et quelques manifestants ont exigé que la compétition d’IA soit arrêtée.
Certains manifestants ont même accroché des banderoles et jeté des tracts sur les balcons, et la scène a été chaotique pendant un certain temps. Bien sûr, Ultraman était très calme et a terminé l’événement calmement.
Dans son discours, Altman a déclaré que même si les modèles d’IA sont suffisamment puissants à l’avenir, ils nécessiteront une énorme puissance de calcul pour fonctionner. Si le seuil de puissance de calcul est relevé, le risque de crime délibéré peut être réduit et l’obligation de rendre des comptes peut également être améliorée. Plus tôt, le cofondateur d’OpenAI, Ilya Sutskever, a carrément déclaré que ChatGPT pourrait être conscient et que l’IA comporterait des risques potentiels.
Dans le même temps, Yann LeCun, scientifique en chef de Meta AI et lauréat du « Turing Award » 2018, a récemment critiqué à plusieurs reprises Altman, le PDG de DeepMind, Demis Hassabis, le PDG d’Anthropic et d’autres sur les plateformes sociales pour « lobbying d’entreprise à grande échelle » auprès du gouvernement américain, ce qui pourrait éventuellement conduire à ce que seuls quelques géants de la technologie soient en mesure de contrôler la technologie de l’IA.
Yang Likun a souligné que ces gens répandaient la peur. « S’ils réussissent, vous et moi conduirons inévitablement à une catastrophe – une poignée d’entreprises prendront le contrôle de l’IA. »
Par la suite, Hassabis a rétorqué : « Je ne suis pas du tout d’accord avec la plupart des remarques de Yang Likun. Il a souligné que Google DeepMind n’essayait pas d’atteindre une « capture réglementaire » lorsqu’il discutait de la meilleure façon d’utiliser l’IA, et qu’il était plus important de commencer à discuter de la façon de réglementer la super-IA potentielle dès maintenant.
À l’heure où la concurrence pour les grands modèles d’IA devient de plus en plus féroce, l’industrie est entrée dans une « mêlée », et tout le monde est engagé dans des batailles féroces autour du sujet des géants contrôlant l’IA.
L’IA est-elle la plus grande menace pour l’humanité ? Musk : l’IA sera plus intelligente que les humains
Au cours des 12 derniers mois, ChatGPT a pris le monde d’assaut, et l’IA générative est complètement devenue un sujet central dans le monde de la technologie cette année.
Aujourd’hui, Apple adopte également l’IA.
Lors de la conférence sur les résultats du quatrième trimestre le matin du 3 novembre, heure de Beijing, le PDG d’Apple, Tim Cook, a déclaré qu’Apple avait effectué divers travaux sur l’IA générative et investissait beaucoup d’argent pour le faire de manière responsable. « Au fil du temps, vous verrez que les produits Apple basés sur ces technologies évolueront. »
Plus tôt, Bloomberg a rapporté qu’Apple rattrapait tranquillement ses concurrents dans le domaine de l’IA, d’une part, il a augmenté le recrutement lié à l’IA, d’autre part, il a accéléré la maturité et la mise en œuvre de la technologie de l’IA par le biais de fusions et d’acquisitions de startups, et a commencé à développer de grands modèles de langage en interne, connus en interne sous le nom d’AppleGPT.
Dans le même temps, l’équipe xAI créée par Elon Musk, l’homme le plus riche du monde dans le domaine de la technologie et PDG de Tesla, avec une valeur nette de 220 milliards de dollars, aurait également reçu le premier lot d’informations sur les produits, y compris Grok lié à la récupération d’informations sur l’IA, à l’IDE de station de travail à mots rapides, etc. En outre, les géants de la technologie tels que Google, Microsoft et Amazon participent également à la vague de l’IA.
Cependant, les leaders de l’industrie, dont Elon Musk et Ultraman, ont récemment parlé de la létalité potentielle de l’IA et des risques de l’IA sur une base hebdomadaire. Cela semble être devenu un « consensus en petit cercle ».
Le 2 novembre, Musk a déclaré lors du British AI Summit que l’IA est l’une des plus grandes menaces pour l’humanité, et que l’IA deviendra la force la plus perturbatrice de l’histoire et sera plus intelligente que les humains. Il pense que l’IA fera un jour perdre son emploi à tout le monde.
« L’IA a la capacité de faire n’importe quoi, et je ne sais pas si cela mettrait les humains à l’aise ou mal à l’aise. Si vous voulez un elfe magique, l’IA exaucera tous vos souhaits, et il n’y a pas de limite, et il n’y aura pas de restriction de seulement 3 souhaits, qui peuvent être bons ou mauvais, et le défi à l’avenir sera de savoir comment nous trouverons le sens de la vie. », a déclaré Musk.
Musk a averti à plusieurs reprises que l’IA est plus dangereuse que les armes nucléaires (bombes nucléaires).
Ultraman a également déclaré à plusieurs reprises que le gouvernement le contrôle. D’ici 10 ans, le monde disposera peut-être d’un puissant système d’IA (IA), mais l’humanité doit maintenant s’y préparer.
Le gouvernement américain a également commencé à réglementer la sécurité de l’IA. Le 30 octobre, le président américain Joe Biden a signé un nouveau décret sur l’IA, prenant la mesure la plus complète jamais prise en ce qui concerne les normes de sécurité de l’IA, la protection de la vie privée des Américains, la promotion de l’équité et des droits civils, la protection des intérêts des consommateurs et des travailleurs, la promotion de l’innovation et de la concurrence, et la promotion du leadership des États-Unis à l’étranger, entre autres, pour gérer les risques potentiels de l’IA.
Il convient de mentionner que dans le nouveau décret, le soutien aux géants de l’IA a été renforcé, par exemple en soutenant la recherche en IA par le biais du financement de la recherche et d’autres moyens, en attirant des talents étrangers, etc.
Une pierre soulève mille vagues.
Par la suite, des experts universitaires de l’IA tels que les « Trois de Turing » ont eu une discussion animée sur la supervision de l’IA, qui était principalement divisée en deux factions : les personnes représentées par Yang Likun et Ng Enda pensaient que la voiture voulait freiner avant d’être construite, et l’IA n’avait pas atteint le stade de la supervision ; Cependant, des personnes telles qu’Elon Musk, Altman et Geoffrey Hinton, le « père de l’apprentissage profond », pensent que l’IA est toujours très dangereuse.
Parmi eux, Yang Likun a carrément déclaré que si les États-Unis continuent de soutenir la recherche sur l’IA des géants de la technologie, cela pourrait éventuellement conduire à ce que seuls quelques grands géants de la technologie soient en mesure de contrôler l’IA, ce qui conduira inévitablement à un risque et à un désastre énormes.
« Comme beaucoup de gens, je suis un grand partisan d’une plateforme d’IA ouverte. Mais je crois aussi que l’avenir de l’IA est une combinaison de créativité des gens, de démocratie, de pouvoir de marché et de réglementation. Yang Likun a écrit sur la plate-forme X.
Andrew Ng, fondateur de Google Brain et professeur à l’Université de Stanford, soutient également Yang. Il a déclaré qu’il s’agissait d’une « conspiration » visant à imposer une réglementation stricte sur le développement de la technologie de l’IA.
« Cela va détruire l’innovation », a noté Ng, « et il y a certainement de grandes entreprises technologiques qui sont réticentes à concurrencer l’IA open source, alors elles créent la crainte que l’IA ne conduise à l’extinction de l’humanité. » Cela a toujours été une arme législative recherchée par les lobbyistes, mais elle est très préjudiciable à la communauté open source. Compte tenu de l’orientation de la réglementation dans de nombreux pays, je pense qu’aucune réglementation ne serait mieux lotie qu’elle ne l’est actuellement. "
Mais dans le même temps, le 25 octobre, le lauréat du prix Turing Yoshua Bengio, le « père de l’apprentissage profond » Geoffrey Hinton, Andrew Yao, Zhang Yaqin et d’autres experts de l’industrie de l’IA ont également signé une lettre commune, qui continuait d’appeler à renforcer la supervision du développement de la technologie de l’IA, et estimait que des mesures de gouvernance urgentes devaient être prises avant que ces systèmes ne soient développés. et un changement majeur vers des pratiques sûres et éthiques dans la R&D en IA.
Aujourd’hui, la bataille féroce entre les gros bonnets universitaires sur la réglementation de la sécurité de l’IA se poursuit. L’IA est désormais présente dans tous les domaines, des moteurs de recherche aux réseaux sociaux en passant par la finance, de sorte que les experts ont soulevé de sérieuses inquiétudes quant aux défis de cette course aux armements de l’IA, aux risques de sécurité et aux deep fakes.
Yoshua Bengio、Geoffrey Hinton、Yann LeCun
Et de nombreux internautes s’inquiètent de savoir si la relation entre les gros bonnets sera affectée par la controverse. Yang Likun a posté une photo avec Yoshua Bengio et Hinton il y a quelque temps, qui semble bien répondre à cette question.
Le 3 novembre, le gouvernement américain a déclaré qu’il avait créé l’AI Security Institute, dans l’espoir d’élaborer des normes et des règles pour réglementer l’avenir de l’IA grâce à la capacité législative du département américain du Commerce et d’autres agences.
Accélération réglementaire dans les 10 prochaines années : l’être humain pourrait entrer pleinement dans l’ère de l’intelligence
Le 1er novembre, lors du premier sommet sur la sécurité de l’IA qui s’est tenu à Bletchley Park, à Londres, au Royaume-Uni, la « Déclaration de Bletchley » a été publiée, déclarant que l’IA offre de grandes opportunités et a le potentiel d’améliorer le bien-être, la paix et la prospérité de l’humanité, mais qu’en même temps, l’IA présente également des risques importants, qui doivent être traités par le biais de la coopération internationale.
Lors de la réunion, plus de 25 pays et régions, dont les États-Unis, la Chine et l’Union européenne, ont signé la déclaration. Le Premier ministre britannique Rishi Sunak a déclaré : « Il s’agit d’une réalisation historique, car les puissances les plus puissantes du monde en matière d’IA reconnaissent l’urgence de « comprendre les risques de l’IA » pour aider à assurer l’avenir à long terme de notre prochaine génération. » En tant que dirigeants, nous avons la responsabilité d’agir et de prendre des mesures pour protéger les gens, et c’est exactement ce que nous faisons. "
La déclaration indique que l’IA présente des risques importants, y compris dans le domaine de la vie quotidienne, et que « toutes les questions sont d’une importance capitale, et nous reconnaissons la nécessité et l’urgence d’y faire face ». "
« Pour y parvenir, nous affirmons que l’IA doit être conçue, développée, déployée et utilisée de manière sûre, centrée sur l’humain, digne de confiance et responsable pour le bénéfice de tous. » Bon nombre des risques posés par l’IA sont de nature internationale et sont mieux traités par la coopération internationale, en identifiant les risques de sécurité liés à l’IA d’intérêt commun et en soutenant un réseau international inclusif de recherche scientifique de pointe sur la sécurité de l’IA, indique la déclaration.
Le 3 novembre, lors du « New Generation Artificial Intelligence Frontier Forum » organisé par l’Université de Pékin, Huang Tiejun, professeur à l’École d’informatique de l’Université de Pékin et doyen de l’Académie de l’intelligence artificielle de Beijing, a déclaré que la controverse actuelle est que la compréhension de base de l’IA de chacun est différente, et que de nombreuses personnes qui s’engagent dans la pensée scientifique ne croient pas que l’intelligence artificielle générale (AGI) sera réalisée, tandis qu’une autre pensée technique, dont Yang Likun, pense que le développement de l’IA est faisable.
« Ce sont deux façons de penser complètement différentes, et ni l’une ni l’autre ne peut convaincre qui que ce soit. Par conséquent, derrière la controverse, tout le monde regarde cette question d’un point de vue complètement différent et d’une façon de penser différente. Huang Tiejun a déclaré dans son discours.
Pour le développement futur de la technologie des grands modèles d’IA, Huang Tiejun a donné des attentes pour 3 ans, 10 ans et 20 ans.
Au cours des trois prochaines années, le grand modèle sera étendu à l’intelligence générale telle que la vision, l’ouïe, l’intelligence incarnée et l’action, et l’échelle deviendra de plus en plus grande, devenant le « cerveau » de l’intelligence incarnée ; Le langage ordinaire est transformé en langage scientifique, et l’intelligence artificielle résout des problèmes scientifiques majeurs.
Au cours des 10 prochaines années, l’humanité entrera dans l’ère de l’intelligence (capacité) d’une manière globale, tout comme la révolution industrielle pour libérer la force physique, tout comme la révolution du pouvoir pour résoudre la circulation de l’énergie, et la construction de la science et de la technologie, de l’économie et de l’écologie sociale avec l’intelligence comme noyau sera achevée.
Au cours des 20 prochaines années : le grand modèle actuel est l’intelligence statique basée sur les données, l’avenir est l’intelligence dynamique pilotée par l’environnement spatio-temporel, et le porteur intelligent est mis à niveau vers un réseau neuronal à pointes semblable à celui du cerveau ; En 2045, l’IAG physique sera l’imitation structurelle du cerveau, la respiration cérébrale fonctionnelle et la performance du super-cerveau.
De plus, il faut accorder une importance au moins égale à la sécurité de l’humanité, sinon l’humanité est en grand danger.
Du point de vue de Huang Tiejun, dans les 10 prochaines années, l’économie, la société, la science et la technologie du monde entier pourraient subir un changement majeur, l’intelligence deviendra l’élément de base du fonctionnement social, tout comme l’électricité d’aujourd’hui est partout, le monde sera formé. En 2045, grâce à la technologie de l’IA, les humains pourront obtenir des données intelligentes en temps réel, et elles seront mises à niveau de manière itérative, et le cerveau et la prise de décision subséquente changeront également.
« Je pense qu’avant 2045, toutes ces capacités d’inspiration et d’innovation comme la nôtre apparaîtront sur un non-organisme, mais si c’est le cas, ce sera un risque énorme, que nous, les humains, fassions cette option, ou que cela puisse être un peu plus lent, cela doit être beaucoup discuté. » », a déclaré Huang Tiejun à la fin de son discours.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le discours de Cambridge du « père de ChatGPT » a été boycotté, et les gros bonnets universitaires se sont battus avec acharnement pour la sécurité de l’IA
Source de l’article : Titanium Media
Auteur : Lin Zhijia
Editeur : Ma Jinnan
Cet article a été publié pour la première fois sur l’application Titanium Media
Avec la publication par le gouvernement américain de nouvelles réglementations sur l’IA, il y a eu récemment une résurgence de la controverse sur la réglementation des grands modèles d’IA.
Tôt le matin du 2 novembre, heure de Pékin, lorsque Sam Altman, le « père de ChatGPT » et PDG d’OpenAI, a participé à un événement à Cambridge, en Angleterre, il s’est heurté à une forte résistance de la part des militants anti-IA et a été « écrasé » devant lui dans l’auditorium, et quelques manifestants ont exigé que la compétition d’IA soit arrêtée.
Dans son discours, Altman a déclaré que même si les modèles d’IA sont suffisamment puissants à l’avenir, ils nécessiteront une énorme puissance de calcul pour fonctionner. Si le seuil de puissance de calcul est relevé, le risque de crime délibéré peut être réduit et l’obligation de rendre des comptes peut également être améliorée. Plus tôt, le cofondateur d’OpenAI, Ilya Sutskever, a carrément déclaré que ChatGPT pourrait être conscient et que l’IA comporterait des risques potentiels.
Dans le même temps, Yann LeCun, scientifique en chef de Meta AI et lauréat du « Turing Award » 2018, a récemment critiqué à plusieurs reprises Altman, le PDG de DeepMind, Demis Hassabis, le PDG d’Anthropic et d’autres sur les plateformes sociales pour « lobbying d’entreprise à grande échelle » auprès du gouvernement américain, ce qui pourrait éventuellement conduire à ce que seuls quelques géants de la technologie soient en mesure de contrôler la technologie de l’IA.
Yang Likun a souligné que ces gens répandaient la peur. « S’ils réussissent, vous et moi conduirons inévitablement à une catastrophe – une poignée d’entreprises prendront le contrôle de l’IA. »
À l’heure où la concurrence pour les grands modèles d’IA devient de plus en plus féroce, l’industrie est entrée dans une « mêlée », et tout le monde est engagé dans des batailles féroces autour du sujet des géants contrôlant l’IA.
L’IA est-elle la plus grande menace pour l’humanité ? Musk : l’IA sera plus intelligente que les humains
Au cours des 12 derniers mois, ChatGPT a pris le monde d’assaut, et l’IA générative est complètement devenue un sujet central dans le monde de la technologie cette année.
Aujourd’hui, Apple adopte également l’IA.
Lors de la conférence sur les résultats du quatrième trimestre le matin du 3 novembre, heure de Beijing, le PDG d’Apple, Tim Cook, a déclaré qu’Apple avait effectué divers travaux sur l’IA générative et investissait beaucoup d’argent pour le faire de manière responsable. « Au fil du temps, vous verrez que les produits Apple basés sur ces technologies évolueront. »
Plus tôt, Bloomberg a rapporté qu’Apple rattrapait tranquillement ses concurrents dans le domaine de l’IA, d’une part, il a augmenté le recrutement lié à l’IA, d’autre part, il a accéléré la maturité et la mise en œuvre de la technologie de l’IA par le biais de fusions et d’acquisitions de startups, et a commencé à développer de grands modèles de langage en interne, connus en interne sous le nom d’AppleGPT.
Dans le même temps, l’équipe xAI créée par Elon Musk, l’homme le plus riche du monde dans le domaine de la technologie et PDG de Tesla, avec une valeur nette de 220 milliards de dollars, aurait également reçu le premier lot d’informations sur les produits, y compris Grok lié à la récupération d’informations sur l’IA, à l’IDE de station de travail à mots rapides, etc. En outre, les géants de la technologie tels que Google, Microsoft et Amazon participent également à la vague de l’IA.
Cependant, les leaders de l’industrie, dont Elon Musk et Ultraman, ont récemment parlé de la létalité potentielle de l’IA et des risques de l’IA sur une base hebdomadaire. Cela semble être devenu un « consensus en petit cercle ».
Le 2 novembre, Musk a déclaré lors du British AI Summit que l’IA est l’une des plus grandes menaces pour l’humanité, et que l’IA deviendra la force la plus perturbatrice de l’histoire et sera plus intelligente que les humains. Il pense que l’IA fera un jour perdre son emploi à tout le monde.
Musk a averti à plusieurs reprises que l’IA est plus dangereuse que les armes nucléaires (bombes nucléaires).
Ultraman a également déclaré à plusieurs reprises que le gouvernement le contrôle. D’ici 10 ans, le monde disposera peut-être d’un puissant système d’IA (IA), mais l’humanité doit maintenant s’y préparer.
Le gouvernement américain a également commencé à réglementer la sécurité de l’IA. Le 30 octobre, le président américain Joe Biden a signé un nouveau décret sur l’IA, prenant la mesure la plus complète jamais prise en ce qui concerne les normes de sécurité de l’IA, la protection de la vie privée des Américains, la promotion de l’équité et des droits civils, la protection des intérêts des consommateurs et des travailleurs, la promotion de l’innovation et de la concurrence, et la promotion du leadership des États-Unis à l’étranger, entre autres, pour gérer les risques potentiels de l’IA.
Il convient de mentionner que dans le nouveau décret, le soutien aux géants de l’IA a été renforcé, par exemple en soutenant la recherche en IA par le biais du financement de la recherche et d’autres moyens, en attirant des talents étrangers, etc.
Une pierre soulève mille vagues.
Par la suite, des experts universitaires de l’IA tels que les « Trois de Turing » ont eu une discussion animée sur la supervision de l’IA, qui était principalement divisée en deux factions : les personnes représentées par Yang Likun et Ng Enda pensaient que la voiture voulait freiner avant d’être construite, et l’IA n’avait pas atteint le stade de la supervision ; Cependant, des personnes telles qu’Elon Musk, Altman et Geoffrey Hinton, le « père de l’apprentissage profond », pensent que l’IA est toujours très dangereuse.
Parmi eux, Yang Likun a carrément déclaré que si les États-Unis continuent de soutenir la recherche sur l’IA des géants de la technologie, cela pourrait éventuellement conduire à ce que seuls quelques grands géants de la technologie soient en mesure de contrôler l’IA, ce qui conduira inévitablement à un risque et à un désastre énormes.
« Comme beaucoup de gens, je suis un grand partisan d’une plateforme d’IA ouverte. Mais je crois aussi que l’avenir de l’IA est une combinaison de créativité des gens, de démocratie, de pouvoir de marché et de réglementation. Yang Likun a écrit sur la plate-forme X.
Andrew Ng, fondateur de Google Brain et professeur à l’Université de Stanford, soutient également Yang. Il a déclaré qu’il s’agissait d’une « conspiration » visant à imposer une réglementation stricte sur le développement de la technologie de l’IA.
« Cela va détruire l’innovation », a noté Ng, « et il y a certainement de grandes entreprises technologiques qui sont réticentes à concurrencer l’IA open source, alors elles créent la crainte que l’IA ne conduise à l’extinction de l’humanité. » Cela a toujours été une arme législative recherchée par les lobbyistes, mais elle est très préjudiciable à la communauté open source. Compte tenu de l’orientation de la réglementation dans de nombreux pays, je pense qu’aucune réglementation ne serait mieux lotie qu’elle ne l’est actuellement. "
Mais dans le même temps, le 25 octobre, le lauréat du prix Turing Yoshua Bengio, le « père de l’apprentissage profond » Geoffrey Hinton, Andrew Yao, Zhang Yaqin et d’autres experts de l’industrie de l’IA ont également signé une lettre commune, qui continuait d’appeler à renforcer la supervision du développement de la technologie de l’IA, et estimait que des mesures de gouvernance urgentes devaient être prises avant que ces systèmes ne soient développés. et un changement majeur vers des pratiques sûres et éthiques dans la R&D en IA.
Aujourd’hui, la bataille féroce entre les gros bonnets universitaires sur la réglementation de la sécurité de l’IA se poursuit. L’IA est désormais présente dans tous les domaines, des moteurs de recherche aux réseaux sociaux en passant par la finance, de sorte que les experts ont soulevé de sérieuses inquiétudes quant aux défis de cette course aux armements de l’IA, aux risques de sécurité et aux deep fakes.
Et de nombreux internautes s’inquiètent de savoir si la relation entre les gros bonnets sera affectée par la controverse. Yang Likun a posté une photo avec Yoshua Bengio et Hinton il y a quelque temps, qui semble bien répondre à cette question.
Le 3 novembre, le gouvernement américain a déclaré qu’il avait créé l’AI Security Institute, dans l’espoir d’élaborer des normes et des règles pour réglementer l’avenir de l’IA grâce à la capacité législative du département américain du Commerce et d’autres agences.
Accélération réglementaire dans les 10 prochaines années : l’être humain pourrait entrer pleinement dans l’ère de l’intelligence
Le 1er novembre, lors du premier sommet sur la sécurité de l’IA qui s’est tenu à Bletchley Park, à Londres, au Royaume-Uni, la « Déclaration de Bletchley » a été publiée, déclarant que l’IA offre de grandes opportunités et a le potentiel d’améliorer le bien-être, la paix et la prospérité de l’humanité, mais qu’en même temps, l’IA présente également des risques importants, qui doivent être traités par le biais de la coopération internationale.
Lors de la réunion, plus de 25 pays et régions, dont les États-Unis, la Chine et l’Union européenne, ont signé la déclaration. Le Premier ministre britannique Rishi Sunak a déclaré : « Il s’agit d’une réalisation historique, car les puissances les plus puissantes du monde en matière d’IA reconnaissent l’urgence de « comprendre les risques de l’IA » pour aider à assurer l’avenir à long terme de notre prochaine génération. » En tant que dirigeants, nous avons la responsabilité d’agir et de prendre des mesures pour protéger les gens, et c’est exactement ce que nous faisons. "
La déclaration indique que l’IA présente des risques importants, y compris dans le domaine de la vie quotidienne, et que « toutes les questions sont d’une importance capitale, et nous reconnaissons la nécessité et l’urgence d’y faire face ». "
« Pour y parvenir, nous affirmons que l’IA doit être conçue, développée, déployée et utilisée de manière sûre, centrée sur l’humain, digne de confiance et responsable pour le bénéfice de tous. » Bon nombre des risques posés par l’IA sont de nature internationale et sont mieux traités par la coopération internationale, en identifiant les risques de sécurité liés à l’IA d’intérêt commun et en soutenant un réseau international inclusif de recherche scientifique de pointe sur la sécurité de l’IA, indique la déclaration.
Le 3 novembre, lors du « New Generation Artificial Intelligence Frontier Forum » organisé par l’Université de Pékin, Huang Tiejun, professeur à l’École d’informatique de l’Université de Pékin et doyen de l’Académie de l’intelligence artificielle de Beijing, a déclaré que la controverse actuelle est que la compréhension de base de l’IA de chacun est différente, et que de nombreuses personnes qui s’engagent dans la pensée scientifique ne croient pas que l’intelligence artificielle générale (AGI) sera réalisée, tandis qu’une autre pensée technique, dont Yang Likun, pense que le développement de l’IA est faisable.
« Ce sont deux façons de penser complètement différentes, et ni l’une ni l’autre ne peut convaincre qui que ce soit. Par conséquent, derrière la controverse, tout le monde regarde cette question d’un point de vue complètement différent et d’une façon de penser différente. Huang Tiejun a déclaré dans son discours.
Au cours des trois prochaines années, le grand modèle sera étendu à l’intelligence générale telle que la vision, l’ouïe, l’intelligence incarnée et l’action, et l’échelle deviendra de plus en plus grande, devenant le « cerveau » de l’intelligence incarnée ; Le langage ordinaire est transformé en langage scientifique, et l’intelligence artificielle résout des problèmes scientifiques majeurs. Au cours des 10 prochaines années, l’humanité entrera dans l’ère de l’intelligence (capacité) d’une manière globale, tout comme la révolution industrielle pour libérer la force physique, tout comme la révolution du pouvoir pour résoudre la circulation de l’énergie, et la construction de la science et de la technologie, de l’économie et de l’écologie sociale avec l’intelligence comme noyau sera achevée.
Du point de vue de Huang Tiejun, dans les 10 prochaines années, l’économie, la société, la science et la technologie du monde entier pourraient subir un changement majeur, l’intelligence deviendra l’élément de base du fonctionnement social, tout comme l’électricité d’aujourd’hui est partout, le monde sera formé. En 2045, grâce à la technologie de l’IA, les humains pourront obtenir des données intelligentes en temps réel, et elles seront mises à niveau de manière itérative, et le cerveau et la prise de décision subséquente changeront également.
« Je pense qu’avant 2045, toutes ces capacités d’inspiration et d’innovation comme la nôtre apparaîtront sur un non-organisme, mais si c’est le cas, ce sera un risque énorme, que nous, les humains, fassions cette option, ou que cela puisse être un peu plus lent, cela doit être beaucoup discuté. » », a déclaré Huang Tiejun à la fin de son discours.