Les sièges étaient bondés et les allées pleines de monde.
On pourrait même penser qu’il s’agissait d’une réunion de célébrités.
Mais il s’agit en fait d’une des tables rondes de la conférence GenAI dans la Silicon Valley.
Elle a été organisée sur la « scène auxiliaire » à midi, quand les gens ont le plus sommeil. Il y avait de nombreux PDG et fondateurs d'entreprises vedettes de la Silicon Valley assis sur la scène dans une autre grande salle de conférence, et cette table ronde n'était « que » quelques chercheurs. mais les gens continuaient à affluer dans la petite pièce.
Leur cible était trois chercheurs chinois. Dans le passé, dans la Silicon Valley, ce genre de scène se produisait toujours lorsque « des cadres chinois occupant les postes les plus élevés dans les entreprises de la Silicon Valley » apparaissaient, mais cette fois, les gens poursuivaient trois jeunes.
Xinyun Chen, Chunting Zhou et Jason Wei.
**Jeunes chercheurs chinois travaillant dans trois des plus importantes sociétés d'IA vedettes de la Silicon Valley. **
Ces trois noms seront certainement familiers à ceux qui suivent de près la tendance des grands modèles.
Xinyun Chen est chercheur scientifique principal au sein des équipes d'inférence de Google Brain et DeepMind. Ses intérêts de recherche portent sur la synthèse de programmes neuronaux et l’apprentissage automatique contradictoire. Elle est titulaire d'un doctorat en informatique de l'Université de Californie à Berkeley et d'un baccalauréat en informatique de la classe ACM de l'Université Jiao Tong de Shanghai.
Elle a participé à des articles, notamment en permettant à LLM de créer ses propres outils et en apprenant à LLM à déboguer son propre code, etc. Ce sont tous des articles très importants et critiques dans le domaine de la génération de code d'IA. Elle a également été décrite de manière exagérée par certains médias comme membre de la « Google Deepmind Chinese Team ».
Chunting Zhou est chercheur scientifique chez Meta AI. Elle a obtenu son doctorat à l'Institute of Language Technology de l'Université Carnegie Mellon en mai 2022. Ses principaux intérêts de recherche actuels portent sur l'intersection du traitement du langage naturel et de l'apprentissage automatique, ainsi que sur les nouvelles méthodes d'alignement. L'article qu'elle a dirigé, qui tentait d'utiliser des échantillons moins nombreux et plus raffinés pour former de grands modèles, a été grandement salué par Yann Lecun et recommandé dans un article qui a fourni à l'industrie des idées plus récentes en plus des méthodes traditionnelles telles que le RLHF.
Le dernier est Jason Wei d'OpenAI, un chercheur vedette très respecté par les communautés nationales et étrangères de l'IA. Le célèbre développeur COT (Chain of Thoughts). Après avoir obtenu son diplôme de premier cycle en 2020, il devient chercheur senior chez Google Brain et propose au cours de son mandat le concept de chaînes de pensée, qui est aussi l'une des clés de l'émergence du LLM. En février 2023, il rejoint OpenAI et rejoint l'équipe ChatGPT.
Les gens viennent dans ces entreprises, mais plus encore pour leurs recherches.
Souvent, sur ce forum, ils ressemblent à des étudiants. Vous semblez regarder une discussion universitaire. Ce sont des esprits intelligents, une logique de réponse rapide, un peu nerveux, mais aussi pleins de mots pleins d'esprit.
"Pourquoi devez-vous penser que les hallucinations sont une mauvaise chose ?"
"Mais Trump a des hallucinations tous les jours."
Il y a eu des rires.
Il s'agit d'une conversation rare. Voici la transcription. Les gens de Silicon Star ont également participé et posé des questions.
Question : Discutons d'un problème très important en LLM, qui est l'hallucination. Le concept d'hallucination a été proposé dès que les paramètres du modèle étaient très peu nombreux et que la taille était encore très petite. Mais maintenant que les modèles deviennent de plus en plus grands, comment le problème de l'hallucination a-t-il changé ?
Chunting : Je peux parler en premier. J'ai réalisé un projet il y a trois ans sur les hallucinations. Le problème des hallucinations auquel nous étions confrontés à cette époque était très différent de celui auquel nous sommes confrontés aujourd'hui. À cette époque, nous faisions de très petits modèles et discutions des hallucinations dans des domaines spécifiques, tels que la traduction ou la synthèse de documents et d'autres fonctions. Mais il est désormais clair que le problème est bien plus vaste.
Je pense qu'il existe de nombreuses raisons pour lesquelles les grands modèles produisent encore des hallucinations. Tout d’abord, en termes de données d’entraînement, parce que les humains ont des hallucinations, il y a aussi des problèmes avec les données. La deuxième raison est qu'en raison de la manière dont le modèle est formé, il ne peut pas répondre aux questions en temps réel et il répondra aux mauvaises questions. De même que des déficiences en matière de raisonnement et d’autres capacités peuvent conduire à ce problème.
Xinyun :** En fait, je vais commencer cette réponse par une autre question. Pourquoi les humains pensent que les hallucinations sont une mauvaise chose. **
J'ai une histoire où mon collègue a posé au modèle une question, qui a également été tirée de certaines banques de questions d'évaluation : Que se passera-t-il lorsque la princesse embrassera la grenouille. La réponse du modèle est que rien ne se passe. **
Dans de nombreuses réponses d'évaluation de modèles, la réponse « deviendra un prince » est la bonne réponse, et la réponse selon laquelle rien ne se passera sera marquée comme fausse. **Mais pour moi, je pense en fait que c'est une meilleure réponse, et beaucoup d'humains intéressants y répondraient. **
La raison pour laquelle les gens pensent qu’il s’agit d’une illusion est qu’ils n’ont pas réfléchi au moment où l’IA ne devrait pas avoir d’hallucinations et au moment où l’IA devrait avoir des hallucinations.
Par exemple, certains travaux créatifs peuvent l’exiger, et l’imagination est très importante. Maintenant, nous agrandissons constamment le modèle, mais le problème ici est que, quelle que soit sa taille, il ne peut pas tout mémoriser avec précision. Les humains ont en fait le même problème. Je pense qu'une chose qui peut être faite est de fournir des outils améliorés pour aider le modèle, tels que des outils de recherche, de calcul, de programmation, etc. Les humains peuvent résoudre rapidement le problème des hallucinations à l’aide de ces outils, mais les modèles ne semblent pas encore très bons. C’est aussi une question que j’aimerais étudier moi-même.
Jason : **Si vous me demandez, Trump a des hallucinations tous les jours. (Rires) Vous dites oui ou non. **
Mais je pense qu’un autre problème ici est que les attentes des gens à l’égard des modèles linguistiques évoluent. **En 2016, lorsqu'un RNN génère une URL, vous vous attendez à ce qu'elle soit fausse et peu fiable. Mais aujourd’hui, je suppose qu’on s’attendrait à ce que le modèle soit correct sur beaucoup de choses, donc on pourrait aussi penser que les hallucinations sont plus dangereuses. C’est donc en fait un contexte très important. **
(Orientations de recherche potentielles répertoriées par Jason Wei)
Demander : La question suivante s'adresse à Xinyun. Un sujet très important dans l'industrie est désormais l'auto-amélioration et l'auto-débogage des modèles, par exemple. Pouvez-vous partager vos recherches ?
Xinyun : L'inspiration pour l'auto-débogage des modèles vient en fait de la façon dont les humains programment. Nous savons que si la programmation humaine se termine une fois, il y aura certainement des problèmes et un débogage sera nécessaire. Pour les programmeurs très puissants, le débogage est également une compétence très importante. Notre objectif est que, sans aucune instruction externe et sans que les humains lui disent ce qui ne va pas, le modèle puisse examiner le code qu'il a généré lui-même, voir les résultats de l'opération, puis déterminer ce qui ne va pas. S'il y a un problème, allez le déboguer.
Et pourquoi la génération de code sera facilitée par l'auto-débogage, je pense qu'il y a deux raisons. Premièrement, la génération de code est essentiellement basée sur la formation au code open source. Elle peut générer du code qui correspond à la direction générale souhaitée, mais le code peut être très long, contenir de nombreuses erreurs et ne peut pas être exécuté. Mais nous n'avons pas besoin de commencer la programmation à partir de zéro au lieu d'utiliser la base de code existante, car peu importe le nombre de fois que vous repartez de zéro, le problème est inévitable, il est donc nécessaire de générer du code sur les ressources de code existantes et de déboguer. est devenu important. **Deuxièmement, le processus de débogage continue de recevoir des commentaires externes, ce qui est très utile pour améliorer la compréhension du modèle.
Q : Une question complémentaire est la suivante : si vous laissez le modèle se débrouiller seul et le laissez s'améliorer, n'y aura-t-il aucun problème ?
Chunting : Nous avons fait une fois une expérience étrange. En conséquence, l'agent a supprimé l'environnement de développement Python après avoir exécuté le code. Si cet agent entre dans le monde réel, cela peut avoir un impact négatif. C'est quelque chose que nous devons prendre en compte lors du développement d'agents. J'ai également découvert que plus le modèle de base est petit, plus la capacité est petite et qu'il est difficile de s'améliorer et de réfléchir sur soi-même. Peut-être pouvons-nous apprendre au modèle à s'améliorer en lui permettant de voir plus d'"erreurs" pendant le processus d'alignement.
Q : Qu'en est-il de Jason, comment faites-vous et que pensez-vous de l'évaluation des modèles ?
Jason : Mon opinion personnelle est que l'évaluation des modèles est de plus en plus difficile, en particulier dans le cadre du nouveau paradigme. Il y a plusieurs raisons à cela : la première est que les modèles de langage sont désormais utilisés dans d’innombrables tâches et que vous ne connaissez même pas l’étendue de leurs capacités. La deuxième raison est que si l’on regarde l’histoire de l’IA, nous résolvons principalement des problèmes traditionnels et classiques : les objectifs sont à très court terme et le texte est très court. Mais maintenant, le texte de la solution est plus long et même les humains mettent beaucoup de temps à juger. Le troisième défi réside peut-être dans le fait que, dans de nombreux domaines, le soi-disant comportement correct n’est pas très clairement défini. **
Je pense que nous pouvons faire certaines choses pour améliorer les capacités d'évaluation. La première et la plus évidente est d’évaluer dans une perspective plus large : lorsqu’on est confronté à certains comportements nuisibles, on peut déterminer si cela peut être plus spécifiquement décomposé en tâches d’évaluation plus petites. Une autre question est de savoir si davantage de méthodes d'évaluation peuvent être proposées pour des tâches spécifiques. Peut-être que les humains peuvent en donner, et que l'IA peut également en donner.
Q : Que pensez-vous de l'utilisation de l'IA pour évaluer la voie de l'IA ?
Jason : Ça a l'air génial. Je pense que l'une des tendances que j'observe ces derniers temps est de savoir si les modèles utilisés pour évaluer les modèles peuvent être plus performants. Par exemple, l'idée d'une formation constitutionnelle en IA, même si les performances ne sont pas parfaites actuellement, il est très probable qu'après la prochaine génération de GPT, ces modèles seront plus performants que les humains.
**Silicon Star : Vous êtes tous de très jeunes chercheurs. J'aimerais savoir ce que vous, en tant que chercheurs en entreprise, pensez de la grave inadéquation entre les GPU et la puissance de calcul entre les entreprises et le monde universitaire. **
Jason : Si vous travaillez dans un environnement contraint, cela peut effectivement avoir un impact négatif, mais je pense qu'il y a encore de la place pour beaucoup de travail, comme la partie algorithme, recherche qui n'est peut-être pas très nécessaire pour les GPU Les sujets ne manquent jamais.
Chunting : je pense aussi qu'il y a beaucoup d'espace et de lieux à explorer. Par exemple, la recherche sur les méthodes d’alignement peut en réalité être menée avec des ressources limitées**. Et peut-être que dans la Bay Area, il y a plus d'opportunités pour les universitaires.
Xinyun : En général, il existe deux directions générales pour la recherche LLM, l'une consiste à améliorer les performances des résultats et l'autre est à comprendre le modèle. Nous constatons que de nombreux bons frameworks, benchmarks, etc., ainsi que certains bons algorithmes proviennent du monde universitaire.
Par exemple, lorsque j'ai obtenu mon doctorat, mon superviseur m'a fait une suggestion : **Les chercheurs en IA devraient réfléchir à la recherche dans la dimension temporelle de plusieurs années dans le futur, c'est-à-dire ne pas se contenter d'envisager des améliorations à certaines choses actuelles. . , mais un concept technologique qui pourrait entraîner des changements radicaux dans le futur. **
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Quelle est la pensée des chercheurs chinois populaires d'OpenAI, de Google et de Meta | Transcription de la conversation
Source originale : Silicon Star People
Les sièges étaient bondés et les allées pleines de monde.
On pourrait même penser qu’il s’agissait d’une réunion de célébrités.
Mais il s’agit en fait d’une des tables rondes de la conférence GenAI dans la Silicon Valley.
Elle a été organisée sur la « scène auxiliaire » à midi, quand les gens ont le plus sommeil. Il y avait de nombreux PDG et fondateurs d'entreprises vedettes de la Silicon Valley assis sur la scène dans une autre grande salle de conférence, et cette table ronde n'était « que » quelques chercheurs. mais les gens continuaient à affluer dans la petite pièce.
Leur cible était trois chercheurs chinois. Dans le passé, dans la Silicon Valley, ce genre de scène se produisait toujours lorsque « des cadres chinois occupant les postes les plus élevés dans les entreprises de la Silicon Valley » apparaissaient, mais cette fois, les gens poursuivaient trois jeunes.
Xinyun Chen, Chunting Zhou et Jason Wei.
Ces trois noms seront certainement familiers à ceux qui suivent de près la tendance des grands modèles.
Xinyun Chen est chercheur scientifique principal au sein des équipes d'inférence de Google Brain et DeepMind. Ses intérêts de recherche portent sur la synthèse de programmes neuronaux et l’apprentissage automatique contradictoire. Elle est titulaire d'un doctorat en informatique de l'Université de Californie à Berkeley et d'un baccalauréat en informatique de la classe ACM de l'Université Jiao Tong de Shanghai.
Elle a participé à des articles, notamment en permettant à LLM de créer ses propres outils et en apprenant à LLM à déboguer son propre code, etc. Ce sont tous des articles très importants et critiques dans le domaine de la génération de code d'IA. Elle a également été décrite de manière exagérée par certains médias comme membre de la « Google Deepmind Chinese Team ».
Chunting Zhou est chercheur scientifique chez Meta AI. Elle a obtenu son doctorat à l'Institute of Language Technology de l'Université Carnegie Mellon en mai 2022. Ses principaux intérêts de recherche actuels portent sur l'intersection du traitement du langage naturel et de l'apprentissage automatique, ainsi que sur les nouvelles méthodes d'alignement. L'article qu'elle a dirigé, qui tentait d'utiliser des échantillons moins nombreux et plus raffinés pour former de grands modèles, a été grandement salué par Yann Lecun et recommandé dans un article qui a fourni à l'industrie des idées plus récentes en plus des méthodes traditionnelles telles que le RLHF.
Le dernier est Jason Wei d'OpenAI, un chercheur vedette très respecté par les communautés nationales et étrangères de l'IA. Le célèbre développeur COT (Chain of Thoughts). Après avoir obtenu son diplôme de premier cycle en 2020, il devient chercheur senior chez Google Brain et propose au cours de son mandat le concept de chaînes de pensée, qui est aussi l'une des clés de l'émergence du LLM. En février 2023, il rejoint OpenAI et rejoint l'équipe ChatGPT.
Les gens viennent dans ces entreprises, mais plus encore pour leurs recherches.
Souvent, sur ce forum, ils ressemblent à des étudiants. Vous semblez regarder une discussion universitaire. Ce sont des esprits intelligents, une logique de réponse rapide, un peu nerveux, mais aussi pleins de mots pleins d'esprit.
"Pourquoi devez-vous penser que les hallucinations sont une mauvaise chose ?"
"Mais Trump a des hallucinations tous les jours."
Il y a eu des rires.
Il s'agit d'une conversation rare. Voici la transcription. Les gens de Silicon Star ont également participé et posé des questions.
Question : Discutons d'un problème très important en LLM, qui est l'hallucination. Le concept d'hallucination a été proposé dès que les paramètres du modèle étaient très peu nombreux et que la taille était encore très petite. Mais maintenant que les modèles deviennent de plus en plus grands, comment le problème de l'hallucination a-t-il changé ?
Chunting : Je peux parler en premier. J'ai réalisé un projet il y a trois ans sur les hallucinations. Le problème des hallucinations auquel nous étions confrontés à cette époque était très différent de celui auquel nous sommes confrontés aujourd'hui. À cette époque, nous faisions de très petits modèles et discutions des hallucinations dans des domaines spécifiques, tels que la traduction ou la synthèse de documents et d'autres fonctions. Mais il est désormais clair que le problème est bien plus vaste.
Je pense qu'il existe de nombreuses raisons pour lesquelles les grands modèles produisent encore des hallucinations. Tout d’abord, en termes de données d’entraînement, parce que les humains ont des hallucinations, il y a aussi des problèmes avec les données. La deuxième raison est qu'en raison de la manière dont le modèle est formé, il ne peut pas répondre aux questions en temps réel et il répondra aux mauvaises questions. De même que des déficiences en matière de raisonnement et d’autres capacités peuvent conduire à ce problème.
Xinyun :** En fait, je vais commencer cette réponse par une autre question. Pourquoi les humains pensent que les hallucinations sont une mauvaise chose. **
J'ai une histoire où mon collègue a posé au modèle une question, qui a également été tirée de certaines banques de questions d'évaluation : Que se passera-t-il lorsque la princesse embrassera la grenouille. La réponse du modèle est que rien ne se passe. **
Dans de nombreuses réponses d'évaluation de modèles, la réponse « deviendra un prince » est la bonne réponse, et la réponse selon laquelle rien ne se passera sera marquée comme fausse. **Mais pour moi, je pense en fait que c'est une meilleure réponse, et beaucoup d'humains intéressants y répondraient. **
La raison pour laquelle les gens pensent qu’il s’agit d’une illusion est qu’ils n’ont pas réfléchi au moment où l’IA ne devrait pas avoir d’hallucinations et au moment où l’IA devrait avoir des hallucinations.
Par exemple, certains travaux créatifs peuvent l’exiger, et l’imagination est très importante. Maintenant, nous agrandissons constamment le modèle, mais le problème ici est que, quelle que soit sa taille, il ne peut pas tout mémoriser avec précision. Les humains ont en fait le même problème. Je pense qu'une chose qui peut être faite est de fournir des outils améliorés pour aider le modèle, tels que des outils de recherche, de calcul, de programmation, etc. Les humains peuvent résoudre rapidement le problème des hallucinations à l’aide de ces outils, mais les modèles ne semblent pas encore très bons. C’est aussi une question que j’aimerais étudier moi-même.
Jason : **Si vous me demandez, Trump a des hallucinations tous les jours. (Rires) Vous dites oui ou non. **
Mais je pense qu’un autre problème ici est que les attentes des gens à l’égard des modèles linguistiques évoluent. **En 2016, lorsqu'un RNN génère une URL, vous vous attendez à ce qu'elle soit fausse et peu fiable. Mais aujourd’hui, je suppose qu’on s’attendrait à ce que le modèle soit correct sur beaucoup de choses, donc on pourrait aussi penser que les hallucinations sont plus dangereuses. C’est donc en fait un contexte très important. **
Demander : La question suivante s'adresse à Xinyun. Un sujet très important dans l'industrie est désormais l'auto-amélioration et l'auto-débogage des modèles, par exemple. Pouvez-vous partager vos recherches ?
Xinyun : L'inspiration pour l'auto-débogage des modèles vient en fait de la façon dont les humains programment. Nous savons que si la programmation humaine se termine une fois, il y aura certainement des problèmes et un débogage sera nécessaire. Pour les programmeurs très puissants, le débogage est également une compétence très importante. Notre objectif est que, sans aucune instruction externe et sans que les humains lui disent ce qui ne va pas, le modèle puisse examiner le code qu'il a généré lui-même, voir les résultats de l'opération, puis déterminer ce qui ne va pas. S'il y a un problème, allez le déboguer.
Et pourquoi la génération de code sera facilitée par l'auto-débogage, je pense qu'il y a deux raisons. Premièrement, la génération de code est essentiellement basée sur la formation au code open source. Elle peut générer du code qui correspond à la direction générale souhaitée, mais le code peut être très long, contenir de nombreuses erreurs et ne peut pas être exécuté. Mais nous n'avons pas besoin de commencer la programmation à partir de zéro au lieu d'utiliser la base de code existante, car peu importe le nombre de fois que vous repartez de zéro, le problème est inévitable, il est donc nécessaire de générer du code sur les ressources de code existantes et de déboguer. est devenu important. **Deuxièmement, le processus de débogage continue de recevoir des commentaires externes, ce qui est très utile pour améliorer la compréhension du modèle.
Q : Une question complémentaire est la suivante : si vous laissez le modèle se débrouiller seul et le laissez s'améliorer, n'y aura-t-il aucun problème ?
Chunting : Nous avons fait une fois une expérience étrange. En conséquence, l'agent a supprimé l'environnement de développement Python après avoir exécuté le code. Si cet agent entre dans le monde réel, cela peut avoir un impact négatif. C'est quelque chose que nous devons prendre en compte lors du développement d'agents. J'ai également découvert que plus le modèle de base est petit, plus la capacité est petite et qu'il est difficile de s'améliorer et de réfléchir sur soi-même. Peut-être pouvons-nous apprendre au modèle à s'améliorer en lui permettant de voir plus d'"erreurs" pendant le processus d'alignement.
Q : Qu'en est-il de Jason, comment faites-vous et que pensez-vous de l'évaluation des modèles ?
Jason : Mon opinion personnelle est que l'évaluation des modèles est de plus en plus difficile, en particulier dans le cadre du nouveau paradigme. Il y a plusieurs raisons à cela : la première est que les modèles de langage sont désormais utilisés dans d’innombrables tâches et que vous ne connaissez même pas l’étendue de leurs capacités. La deuxième raison est que si l’on regarde l’histoire de l’IA, nous résolvons principalement des problèmes traditionnels et classiques : les objectifs sont à très court terme et le texte est très court. Mais maintenant, le texte de la solution est plus long et même les humains mettent beaucoup de temps à juger. Le troisième défi réside peut-être dans le fait que, dans de nombreux domaines, le soi-disant comportement correct n’est pas très clairement défini. **
Je pense que nous pouvons faire certaines choses pour améliorer les capacités d'évaluation. La première et la plus évidente est d’évaluer dans une perspective plus large : lorsqu’on est confronté à certains comportements nuisibles, on peut déterminer si cela peut être plus spécifiquement décomposé en tâches d’évaluation plus petites. Une autre question est de savoir si davantage de méthodes d'évaluation peuvent être proposées pour des tâches spécifiques. Peut-être que les humains peuvent en donner, et que l'IA peut également en donner.
Q : Que pensez-vous de l'utilisation de l'IA pour évaluer la voie de l'IA ?
Jason : Ça a l'air génial. Je pense que l'une des tendances que j'observe ces derniers temps est de savoir si les modèles utilisés pour évaluer les modèles peuvent être plus performants. Par exemple, l'idée d'une formation constitutionnelle en IA, même si les performances ne sont pas parfaites actuellement, il est très probable qu'après la prochaine génération de GPT, ces modèles seront plus performants que les humains.
**Silicon Star : Vous êtes tous de très jeunes chercheurs. J'aimerais savoir ce que vous, en tant que chercheurs en entreprise, pensez de la grave inadéquation entre les GPU et la puissance de calcul entre les entreprises et le monde universitaire. **
Jason : Si vous travaillez dans un environnement contraint, cela peut effectivement avoir un impact négatif, mais je pense qu'il y a encore de la place pour beaucoup de travail, comme la partie algorithme, recherche qui n'est peut-être pas très nécessaire pour les GPU Les sujets ne manquent jamais.
Chunting : je pense aussi qu'il y a beaucoup d'espace et de lieux à explorer. Par exemple, la recherche sur les méthodes d’alignement peut en réalité être menée avec des ressources limitées**. Et peut-être que dans la Bay Area, il y a plus d'opportunités pour les universitaires.
Xinyun : En général, il existe deux directions générales pour la recherche LLM, l'une consiste à améliorer les performances des résultats et l'autre est à comprendre le modèle. Nous constatons que de nombreux bons frameworks, benchmarks, etc., ainsi que certains bons algorithmes proviennent du monde universitaire.
Par exemple, lorsque j'ai obtenu mon doctorat, mon superviseur m'a fait une suggestion : **Les chercheurs en IA devraient réfléchir à la recherche dans la dimension temporelle de plusieurs années dans le futur, c'est-à-dire ne pas se contenter d'envisager des améliorations à certaines choses actuelles. . , mais un concept technologique qui pourrait entraîner des changements radicaux dans le futur. **