Auteur : Mariana Lenharo, Compilateur : Heart of the Metaverse
L'idée d'une intelligence artificielle génératrice de conscience fait depuis longtemps partie de la science-fiction, rappelant le superordinateur devenu méchant HAL 9000 dans le film de 1968 2001 : L'Odyssée de l'espace. Avec le développement rapide de l’intelligence artificielle, cette possibilité devient moins bizarre, même reconnue par les sommités de l’intelligence artificielle.
L'année dernière, Ilya Sutskever, scientifique en chef chez OpenAI, la société à l'origine du chatbot ChatGPT, a tweeté que certains des réseaux d'IA les plus avancés pourraient devenir « légèrement conscients ».
De nombreux chercheurs affirment que les systèmes d’intelligence artificielle ne sont pas encore conscients. Mais la vitesse à laquelle l’IA évolue les amène à réfléchir : comment savoir si une IA est consciente ?
Pour répondre à cette question, une équipe de 19 neuroscientifiques, philosophes et informaticiens a dressé une liste de critères qui, s'ils sont remplis, indiqueraient qu'un système a une forte probabilité d'être conscient. Ils ont publié les directives provisoires, qui n'ont pas encore été évaluées par des pairs, dans le référentiel de préimpression arXiv plus tôt cette semaine.
Le co-auteur Robert Long, philosophe au Center for AI Safety de San Francisco, en Californie, a déclaré avoir effectué ce travail parce qu'« il semble y avoir un réel manque de recherches détaillées, empiriques et réfléchies sur la conscience de l'IA ». . " discuter ".
L'équipe de recherche affirme que l'incapacité de déterminer si un système d'IA est conscient pourrait avoir des implications éthiques importantes. Megan Peters, neuroscientifique et co-auteur de l'étude, a déclaré que si quelque chose devait être qualifié de « conscient », « cela devrait changer radicalement la façon dont nous, en tant qu'humains, l'abordons ».
Long a ajouté qu'à sa connaissance, les entreprises qui construisent des systèmes d'IA avancés n'ont pas fait suffisamment pour évaluer la connaissance de ces modèles et planifier en conséquence. Il a déclaré : « Bien que j'aie entendu certains discours de chefs de laboratoires de premier plan, ils ont dit que la conscience de l'intelligence artificielle ou la perception de l'intelligence artificielle mérite d'être réfléchie, mais je ne pense pas que cela soit suffisant.
Nature a contacté deux des principales entreprises technologiques à l’origine du développement de l’IA : Microsoft et Google. Un porte-parole de Microsoft a déclaré que l'essentiel du développement de l'intelligence artificielle par l'entreprise était d'aider les humains à être plus productifs de manière responsable, et non de reproduire l'intelligence humaine.
Le porte-parole a déclaré que depuis le lancement de GPT-4, la dernière version de la version publique de ChatGPT, il est devenu clair que « notre quête pour réaliser tout le potentiel de l'intelligence artificielle au profit de la société dans son ensemble nécessite de nouvelles façons d'évaluer ces Capacités artificielles du modèle intelligent". Google n'a pas répondu.
01. Qu'est-ce que la conscience ?
L’un des défis de l’étude de la conscience de l’IA est de définir ce qu’est la conscience. Pour les besoins du rapport, les chercheurs se sont concentrés sur la « conscience phénoménale » ou l'expérience subjective, a déclaré Peters. C’est-à-dire les sens qui existent chez les humains, les animaux ou les systèmes d’intelligence artificielle (s’il s’avère que l’un d’entre eux est conscient).
Il existe de nombreuses théories basées sur les neurosciences qui décrivent les bases biologiques de la conscience. Mais il n’y a pas de consensus sur lequel est le « bon ». Par conséquent, les auteurs emploient une gamme de théories pour créer leur cadre. Leur pensée est que si la fonctionnalité d'un système d'IA correspond à plusieurs aspects de ces théories, alors il a plus de chances d'être conscient.
Ils soutiennent que cette façon d’évaluer la conscience est meilleure que de simplement effectuer des tests comportementaux, comme demander à ChatGPT s’il est conscient, ou le contester et observer ses réponses. Parce que les systèmes d’IA ont fait des progrès incroyables en imitant les humains.
Le neuroscientifique Anil Seth, directeur du Centre pour la science de la conscience à l'Université du Sussex au Royaume-Uni, estime que l'approche théoriquement rigoureuse de l'équipe est bonne. Cependant, dit-il, « des théories de la conscience plus précises et plus éprouvées sont nécessaires ».
02. Une approche à forte intensité théorique
Pour formuler leurs critères, les auteurs postulent que la conscience est liée à la manière dont les systèmes traitent l'information, qu'ils soient constitués de neurones, de puces informatiques ou d'autres matériaux. Cette approche est connue sous le nom de fonctionnalisme informatique. Ils ont également émis l’hypothèse que les théories de la conscience basées sur les neurosciences, dérivées d’analyses cérébrales et d’autres études techniques sur les humains et les animaux, pourraient être appliquées à l’intelligence artificielle.
Sur la base de ces hypothèses, l'équipe a sélectionné six de ces théories, dont elle a extrait une série d'indicateurs de conscience.
L’une d’elles est la théorie de l’espace de travail global, selon laquelle les humains et les autres animaux utilisent de nombreux systèmes spécialisés (également appelés modules) pour effectuer des tâches cognitives telles que la vision et l’audition. Ces modules fonctionnent indépendamment mais en parallèle et s'intègrent dans un système unique pour partager des informations.
Selon Long, « en examinant l'architecture du système et la manière dont les informations y circulent », on peut évaluer si un système d'IA particulier présente les indicateurs dérivés de la théorie.
Seth a été impressionné par la proposition de l'équipe. "C'est très bien pensé, ce n'est pas grandiloquent et cela énonce clairement ses hypothèses", a-t-il déclaré. Même si je ne suis pas d'accord avec certaines hypothèses, c'est tout à fait acceptable car il est possible que je me trompe. "
Les auteurs affirment que l’article est loin d’être concluant sur la manière d’évaluer les systèmes d’IA conscients, et ils espèrent que d’autres chercheurs les aideront à affiner leur méthodologie. Mais ces normes peuvent déjà être appliquées aux systèmes d'intelligence artificielle existants.
Par exemple, le rapport évalue des modèles de langage à grande échelle tels que ChatGPT et constate que ces systèmes peuvent être considérés comme ayant certains indicateurs de sensibilisation liés à la théorie de l'espace de travail global. Pourtant, les travaux ne suggèrent pas que les systèmes d’IA existants soient de bons candidats à la conscience, du moins pas encore.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Si l’intelligence artificielle prenait conscience : comment les scientifiques pourraient le découvrir
Auteur : Mariana Lenharo, Compilateur : Heart of the Metaverse
L'idée d'une intelligence artificielle génératrice de conscience fait depuis longtemps partie de la science-fiction, rappelant le superordinateur devenu méchant HAL 9000 dans le film de 1968 2001 : L'Odyssée de l'espace. Avec le développement rapide de l’intelligence artificielle, cette possibilité devient moins bizarre, même reconnue par les sommités de l’intelligence artificielle.
L'année dernière, Ilya Sutskever, scientifique en chef chez OpenAI, la société à l'origine du chatbot ChatGPT, a tweeté que certains des réseaux d'IA les plus avancés pourraient devenir « légèrement conscients ».
De nombreux chercheurs affirment que les systèmes d’intelligence artificielle ne sont pas encore conscients. Mais la vitesse à laquelle l’IA évolue les amène à réfléchir : comment savoir si une IA est consciente ?
Pour répondre à cette question, une équipe de 19 neuroscientifiques, philosophes et informaticiens a dressé une liste de critères qui, s'ils sont remplis, indiqueraient qu'un système a une forte probabilité d'être conscient. Ils ont publié les directives provisoires, qui n'ont pas encore été évaluées par des pairs, dans le référentiel de préimpression arXiv plus tôt cette semaine.
Le co-auteur Robert Long, philosophe au Center for AI Safety de San Francisco, en Californie, a déclaré avoir effectué ce travail parce qu'« il semble y avoir un réel manque de recherches détaillées, empiriques et réfléchies sur la conscience de l'IA ». . " discuter ".
L'équipe de recherche affirme que l'incapacité de déterminer si un système d'IA est conscient pourrait avoir des implications éthiques importantes. Megan Peters, neuroscientifique et co-auteur de l'étude, a déclaré que si quelque chose devait être qualifié de « conscient », « cela devrait changer radicalement la façon dont nous, en tant qu'humains, l'abordons ».
Long a ajouté qu'à sa connaissance, les entreprises qui construisent des systèmes d'IA avancés n'ont pas fait suffisamment pour évaluer la connaissance de ces modèles et planifier en conséquence. Il a déclaré : « Bien que j'aie entendu certains discours de chefs de laboratoires de premier plan, ils ont dit que la conscience de l'intelligence artificielle ou la perception de l'intelligence artificielle mérite d'être réfléchie, mais je ne pense pas que cela soit suffisant.
Nature a contacté deux des principales entreprises technologiques à l’origine du développement de l’IA : Microsoft et Google. Un porte-parole de Microsoft a déclaré que l'essentiel du développement de l'intelligence artificielle par l'entreprise était d'aider les humains à être plus productifs de manière responsable, et non de reproduire l'intelligence humaine.
Le porte-parole a déclaré que depuis le lancement de GPT-4, la dernière version de la version publique de ChatGPT, il est devenu clair que « notre quête pour réaliser tout le potentiel de l'intelligence artificielle au profit de la société dans son ensemble nécessite de nouvelles façons d'évaluer ces Capacités artificielles du modèle intelligent". Google n'a pas répondu.
01. Qu'est-ce que la conscience ?
L’un des défis de l’étude de la conscience de l’IA est de définir ce qu’est la conscience. Pour les besoins du rapport, les chercheurs se sont concentrés sur la « conscience phénoménale » ou l'expérience subjective, a déclaré Peters. C’est-à-dire les sens qui existent chez les humains, les animaux ou les systèmes d’intelligence artificielle (s’il s’avère que l’un d’entre eux est conscient).
Il existe de nombreuses théories basées sur les neurosciences qui décrivent les bases biologiques de la conscience. Mais il n’y a pas de consensus sur lequel est le « bon ». Par conséquent, les auteurs emploient une gamme de théories pour créer leur cadre. Leur pensée est que si la fonctionnalité d'un système d'IA correspond à plusieurs aspects de ces théories, alors il a plus de chances d'être conscient.
Ils soutiennent que cette façon d’évaluer la conscience est meilleure que de simplement effectuer des tests comportementaux, comme demander à ChatGPT s’il est conscient, ou le contester et observer ses réponses. Parce que les systèmes d’IA ont fait des progrès incroyables en imitant les humains.
Le neuroscientifique Anil Seth, directeur du Centre pour la science de la conscience à l'Université du Sussex au Royaume-Uni, estime que l'approche théoriquement rigoureuse de l'équipe est bonne. Cependant, dit-il, « des théories de la conscience plus précises et plus éprouvées sont nécessaires ».
02. Une approche à forte intensité théorique
Pour formuler leurs critères, les auteurs postulent que la conscience est liée à la manière dont les systèmes traitent l'information, qu'ils soient constitués de neurones, de puces informatiques ou d'autres matériaux. Cette approche est connue sous le nom de fonctionnalisme informatique. Ils ont également émis l’hypothèse que les théories de la conscience basées sur les neurosciences, dérivées d’analyses cérébrales et d’autres études techniques sur les humains et les animaux, pourraient être appliquées à l’intelligence artificielle.
Sur la base de ces hypothèses, l'équipe a sélectionné six de ces théories, dont elle a extrait une série d'indicateurs de conscience.
L’une d’elles est la théorie de l’espace de travail global, selon laquelle les humains et les autres animaux utilisent de nombreux systèmes spécialisés (également appelés modules) pour effectuer des tâches cognitives telles que la vision et l’audition. Ces modules fonctionnent indépendamment mais en parallèle et s'intègrent dans un système unique pour partager des informations.
Selon Long, « en examinant l'architecture du système et la manière dont les informations y circulent », on peut évaluer si un système d'IA particulier présente les indicateurs dérivés de la théorie.
Seth a été impressionné par la proposition de l'équipe. "C'est très bien pensé, ce n'est pas grandiloquent et cela énonce clairement ses hypothèses", a-t-il déclaré. Même si je ne suis pas d'accord avec certaines hypothèses, c'est tout à fait acceptable car il est possible que je me trompe. "
Les auteurs affirment que l’article est loin d’être concluant sur la manière d’évaluer les systèmes d’IA conscients, et ils espèrent que d’autres chercheurs les aideront à affiner leur méthodologie. Mais ces normes peuvent déjà être appliquées aux systèmes d'intelligence artificielle existants.
Par exemple, le rapport évalue des modèles de langage à grande échelle tels que ChatGPT et constate que ces systèmes peuvent être considérés comme ayant certains indicateurs de sensibilisation liés à la théorie de l'espace de travail global. Pourtant, les travaux ne suggèrent pas que les systèmes d’IA existants soient de bons candidats à la conscience, du moins pas encore.