"Il y a des gens qui veulent que l'IA soit fortement réglementée en général parce qu'ils ont peur des conséquences de l'IA. Parce qu'ils disent que si quelqu'un peut maîtriser l'IA, s'il peut faire tout ce qu'il veut avec l'IA, alors la situation sera Cela peut être très dangereux, il doit donc y avoir une réglementation stricte de l'IA. Je suis totalement en désaccord avec cela.
Il a fallu beaucoup de temps aux humains pour établir les mécanismes actuels d'éthique et de gouvernance. Si l'intelligence artificielle est autorisée à développer la conscience et l'intelligence comme les humains, comment les humains peuvent-ils répondre aux exigences de l'éthique et de la gouvernance ? Quel est le mécanisme d'intervention humaine dans l'intelligence artificielle ?
Le 6 juillet, la Conférence mondiale sur l'intelligence artificielle 2023 s'est ouverte à Shanghai. Yann LeCun, lauréat du prix Turing 2018 et scientifique en chef de l'intelligence artificielle de l'équipe de l'institut de recherche sur l'intelligence artificielle Meta AI Basic, a déclaré lors de la cérémonie d'ouverture qu'il n'était absolument pas d'accord avec le fait que "parce que n'importe qui peut utiliser l'intelligence artificielle pour faire n'importe quoi, la situation peut être très dangereux." , donc l'intelligence artificielle doit être strictement réglementée. " À long terme, la seule façon de rendre les plates-formes d'IA sûres, bonnes et utiles est de les ouvrir.
Yang Likun a expliqué comment l'intelligence artificielle devient intelligente et contrôlable. "Si vous pensez que le moyen d'atteindre l'intelligence artificielle au niveau humain est de faire un LLM (Large Language Model) autorégressif plus grand, puis d'utiliser des tests de données multi-modèles, alors vous pouvez penser que ces systèmes d'intelligence artificielle ne sont pas sûrs. Mais dans En fait, je ne pense pas que ce système puisse être très intelligent. Je pense que la façon dont ils deviennent intelligents est aussi le moyen de les rendre contrôlables, c'est-à-dire le concept d'intelligence artificielle axée sur les objectifs. Essentiellement, il s'agit de leur donner des objectifs cela doit être atteint. » Yang Likun a déclaré : Certains de ces objectifs sont des objectifs définis par la tâche, comme le système a-t-il répondu à la question ? Le système a-t-il démarré votre voiture ? Le système a-t-il débarrassé la table ? D'autres objectifs agissent comme des barrières de sécurité, comme ne blesser personne.
Yang Likun pense que ces systèmes d'intelligence artificielle ne tromperont pas ou ne domineront pas les humains en s'infiltrant petit à petit. Les humains peuvent fixer des objectifs qui obligent les IA à être honnêtes, comme forcer les IA à succomber aux humains, faire attention à ne pas les rendre curieux et leur donner accès à des ressources qu'ils ne devraient pas avoir. "Je pense donc que ces systèmes vont être complètement contrôlables et manipulables. Les systèmes peuvent être conçus pour être sûrs, mais ce n'est pas facile. Concevoir ces cibles, rendre le système sûr, va être un défi technique difficile."
Mais Yang Likun a déclaré que les humains n'ont pas à bien le concevoir dès le début, mais peuvent commencer par construire un système aussi intelligent qu'une souris.L'objectif des humains est d'en faire une bonne souris. "Nous allons les mettre dans un bac à sable ou un environnement de simulation et nous voulons nous assurer qu'ils sont en sécurité, ce qui est un problème important car il y a des gens qui, en général, veulent que l'IA soit fortement réglementée parce qu'ils ont peur des conséquences de l'IA. Parce qu'ils disent que si quelqu'un peut mettre la main sur l'IA, s'il peut faire ce qu'il veut avec l'IA, alors la situation pourrait être très dangereuse, il doit donc y avoir une réglementation stricte de l'IA. d'accord avec ça du tout.
Au contraire, Yang Likun estime qu'à long terme, la seule façon de rendre les plates-formes d'intelligence artificielle sûres, bonnes et pratiques est de s'ouvrir. À l'avenir, tout le monde interagira avec le monde numérique par le biais d'assistants d'intelligence artificielle, et toutes les informations humaines doivent passer par cet assistant d'intelligence artificielle. Si la technologie est contrôlée par quelques entreprises, ce n'est pas une bonne chose. "Les futurs systèmes d'IA seront un trésor de toutes les connaissances humaines, et la façon dont ils sont formés doit être basée sur de nombreuses sources. Nous verrons donc plus de LLM open source et plus de systèmes d'IA open source à l'avenir."
Voir l'original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
Yang Likun, lauréat du prix Turing : La seule façon de rendre les plates-formes d'IA sûres, bonnes et pratiques est l'open source
Source: Le papier
Le journaliste Zhang Jing
"Il y a des gens qui veulent que l'IA soit fortement réglementée en général parce qu'ils ont peur des conséquences de l'IA. Parce qu'ils disent que si quelqu'un peut maîtriser l'IA, s'il peut faire tout ce qu'il veut avec l'IA, alors la situation sera Cela peut être très dangereux, il doit donc y avoir une réglementation stricte de l'IA. Je suis totalement en désaccord avec cela.
Il a fallu beaucoup de temps aux humains pour établir les mécanismes actuels d'éthique et de gouvernance. Si l'intelligence artificielle est autorisée à développer la conscience et l'intelligence comme les humains, comment les humains peuvent-ils répondre aux exigences de l'éthique et de la gouvernance ? Quel est le mécanisme d'intervention humaine dans l'intelligence artificielle ?
Le 6 juillet, la Conférence mondiale sur l'intelligence artificielle 2023 s'est ouverte à Shanghai. Yann LeCun, lauréat du prix Turing 2018 et scientifique en chef de l'intelligence artificielle de l'équipe de l'institut de recherche sur l'intelligence artificielle Meta AI Basic, a déclaré lors de la cérémonie d'ouverture qu'il n'était absolument pas d'accord avec le fait que "parce que n'importe qui peut utiliser l'intelligence artificielle pour faire n'importe quoi, la situation peut être très dangereux." , donc l'intelligence artificielle doit être strictement réglementée. " À long terme, la seule façon de rendre les plates-formes d'IA sûres, bonnes et utiles est de les ouvrir.
Yang Likun a expliqué comment l'intelligence artificielle devient intelligente et contrôlable. "Si vous pensez que le moyen d'atteindre l'intelligence artificielle au niveau humain est de faire un LLM (Large Language Model) autorégressif plus grand, puis d'utiliser des tests de données multi-modèles, alors vous pouvez penser que ces systèmes d'intelligence artificielle ne sont pas sûrs. Mais dans En fait, je ne pense pas que ce système puisse être très intelligent. Je pense que la façon dont ils deviennent intelligents est aussi le moyen de les rendre contrôlables, c'est-à-dire le concept d'intelligence artificielle axée sur les objectifs. Essentiellement, il s'agit de leur donner des objectifs cela doit être atteint. » Yang Likun a déclaré : Certains de ces objectifs sont des objectifs définis par la tâche, comme le système a-t-il répondu à la question ? Le système a-t-il démarré votre voiture ? Le système a-t-il débarrassé la table ? D'autres objectifs agissent comme des barrières de sécurité, comme ne blesser personne.
Yang Likun pense que ces systèmes d'intelligence artificielle ne tromperont pas ou ne domineront pas les humains en s'infiltrant petit à petit. Les humains peuvent fixer des objectifs qui obligent les IA à être honnêtes, comme forcer les IA à succomber aux humains, faire attention à ne pas les rendre curieux et leur donner accès à des ressources qu'ils ne devraient pas avoir. "Je pense donc que ces systèmes vont être complètement contrôlables et manipulables. Les systèmes peuvent être conçus pour être sûrs, mais ce n'est pas facile. Concevoir ces cibles, rendre le système sûr, va être un défi technique difficile."
Mais Yang Likun a déclaré que les humains n'ont pas à bien le concevoir dès le début, mais peuvent commencer par construire un système aussi intelligent qu'une souris.L'objectif des humains est d'en faire une bonne souris. "Nous allons les mettre dans un bac à sable ou un environnement de simulation et nous voulons nous assurer qu'ils sont en sécurité, ce qui est un problème important car il y a des gens qui, en général, veulent que l'IA soit fortement réglementée parce qu'ils ont peur des conséquences de l'IA. Parce qu'ils disent que si quelqu'un peut mettre la main sur l'IA, s'il peut faire ce qu'il veut avec l'IA, alors la situation pourrait être très dangereuse, il doit donc y avoir une réglementation stricte de l'IA. d'accord avec ça du tout.
Au contraire, Yang Likun estime qu'à long terme, la seule façon de rendre les plates-formes d'intelligence artificielle sûres, bonnes et pratiques est de s'ouvrir. À l'avenir, tout le monde interagira avec le monde numérique par le biais d'assistants d'intelligence artificielle, et toutes les informations humaines doivent passer par cet assistant d'intelligence artificielle. Si la technologie est contrôlée par quelques entreprises, ce n'est pas une bonne chose. "Les futurs systèmes d'IA seront un trésor de toutes les connaissances humaines, et la façon dont ils sont formés doit être basée sur de nombreuses sources. Nous verrons donc plus de LLM open source et plus de systèmes d'IA open source à l'avenir."