Après qu'OpenAI ait publié ChatGPT fin 2022, la compréhension du domaine de l'investissement dans le domaine de l'intelligence artificielle a continué de s'approfondir. La chaîne industrielle de l’intelligence artificielle peut être grossièrement divisée en fournisseurs de technologies de base, systèmes d’intelligence artificielle et utilisateurs d’intelligence artificielle. À en juger par la perception générale des investisseurs mondiaux, tout le monde se rend désormais compte que l'intelligence artificielle est susceptible de devenir une voie d'investissement pendant longtemps dans le futur, à l'instar des ordinateurs il y a 30 ans ou d'Internet il y a 20 ans. Et pour l’avenir, les applications sont déjà une réalité.
Pour comprendre l'investissement dans des domaines subdivisés, nous devons toujours apprendre des investisseurs du secteur. Le célèbre capital-risqueur A16Z continue de miser lourdement sur le domaine de l’intelligence artificielle. Récemment, ils ont eu une conversation avec la CTO d’OpenAI, Mira Murati. Elle a partagé l'histoire de ChatGPT et l'avenir de l'intelligence artificielle et de l'interaction homme-machine.
Résumé
ChatGPT est né d'une réflexion sur la manière de créer un système d'intelligence artificielle sûr qui utilise les commentaires humains pour l'apprentissage par renforcement.
OpenAI redéfinit la façon dont les gens interagissent avec les informations numériques, devenant un assistant semblable à un partenaire et améliorant continuellement la cohérence et la sécurité des systèmes d'intelligence artificielle. Dans le contexte de la production, obtenir les commentaires des utilisateurs du monde réel ne se résume pas à rester assis dans un laboratoire.
ChatGPT ajoute des images, des vidéos et autres basées sur du texte. Cela permet aux modèles de fournir une image plus complète du monde qui nous entoure, similaire à la façon dont nous comprenons et observons le monde.
Même s’il n’y aura pas un seul modèle pour gouverner le monde à l’avenir, car les gens finiront par chercher l’outil qui correspond le mieux à leurs besoins.
#Mira Murati Contexte
Mira est née en Albanie, juste après la fin du communisme. L’Albanie de cette époque ressemblait beaucoup à la Corée du Nord d’aujourd’hui. À une époque de changement et d’incertitude constants, l’éducation est la clé de tout. De plus, hormis les livres, il y avait peu de divertissements à cette époque. À cette époque, Mira cherchait des réponses dans les livres. Mira préfère les vérités scientifiques qui sont stables et peuvent être étudiées en profondeur. Et les sources des matières humaines telles que l’histoire et la sociologie sont discutables car l’histoire est en constante évolution. Ainsi, Mira a été élevée avec une tendance intuitive et naturelle vers les sciences et les mathématiques. Fondamentalement, Mira est toujours engagée dans les mathématiques à Open AI.
Grâce à ses excellents résultats scolaires, Mira a reçu une bourse et a complété ses deux dernières années d'études secondaires au Canada.
À l’université, Mira a étudié le génie mécanique parce qu’elle pensait que c’était le meilleur moyen d’appliquer ses connaissances à des problèmes du monde réel. À cette époque, Mira était très intéressée par les moyens d’apporter des transports et des énergies durables au monde. Son projet de fin d’études à l’époque était de construire une voiture de course hybride utilisant des supercondensateurs.
Peu de temps après, Mira a rejoint Tesla et a participé aux travaux sur le double moteur Model S. Elle a travaillé avec le Model X dès les premiers jours de sa conception initiale et a finalement dirigé le lancement de l'ensemble du projet.
C’est également son travail chez Tesla qui a rendu Mira très intéressée par l’application de l’intelligence artificielle, en particulier la conduite autonome. Parce qu’il peut utiliser l’IA et la vision par ordinateur pour révolutionner les voyages. Elle a commencé à réfléchir davantage aux différentes applications de l’intelligence artificielle. Mira s’est donc intéressée de plus en plus à l’IA et aux changements qu’elle pourrait apporter au monde.
Plus précisément, elle est très curieuse de savoir comment l’IA affecte l’interaction homme-machine et la façon dont les gens interagissent avec l’information en général, et s’intéresse beaucoup à l’informatique spatiale. Après cela, elle a rejoint Leap Motion, une entreprise de technologie noire, en tant que vice-présidente des produits et de l'ingénierie. C'est cette expérience qui a encore renforcé ses capacités de production.
(À propos, le fondateur de Leap Motion, David Holz, a fondé une autre application d'intelligence artificielle populaire, Midjourney, après avoir vendu Leap Motion).
En 2018, Mira a rejoint OpenAI. C’est à ce moment-là qu’elle a commencé à réfléchir davantage à ce qui se passerait si elle se concentrait uniquement sur la polyvalence.
De plus, à partir de la discussion de Mira sur les méthodes de recherche, nous pouvons voir son esprit exploratoire pour l’innovation technologique dans un environnement incertain :
Parfois, vous faites une sieste et vous vous réveillez avec de nouvelles idées. Au fil des jours ou des semaines, vous arriverez à votre solution finale. Il ne s’agit pas d’un retour rapide, ni parfois itératif.
C'est presque comme une façon différente de penser, vous développez votre intuition, mais vous avez aussi la discipline nécessaire pour aborder les problèmes et vous faire confiance pour les résoudre. Au fil du temps, vous développerez une intuition quant aux problèmes qui doivent réellement être résolus.
Résumé de la conversation
Le célèbre capital-risqueur A16Z a fait un gros pari dans le domaine de l’intelligence artificielle. Les extraits suivants sont des extraits d'une conversation entre Martin, le gestionnaire de fonds d'A16Z, et Mira. Mira a partagé l'histoire de ChatGPT et l'avenir de l'intelligence artificielle et de l'interaction homme-machine. Nous pouvons également constater que Mira, qui a une formation de chef de produit, est extrêmement préoccupée par l'applicabilité des produits.
MARTIN : Pensez-vous qu'il s'agit davantage d'un problème de système ou d'un problème d'ingénierie en ce moment ?
Mira : Les deux. Les problèmes de systèmes et d'ingénierie sont énormes, et nous déployons ces technologies et essayons de les faire évoluer, de les rendre plus efficaces et de les rendre accessibles. Cela signifie que vous n'avez pas besoin de connaître les subtilités du ML pour les utiliser.
En fait, nous pouvons voir un contraste entre la fourniture de ces modèles via l'API et la fourniture de la technologie via ChatGPT. Il s'agit fondamentalement de la même technologie, à une exception près : ChatGPT dispose de capacités d'apprentissage par renforcement et de rétroaction humaine. Cela signifie que la réponse et la capacité à captiver l'imagination des gens et à leur permettre d'utiliser cette technologie au quotidien sont complètement différentes.
interface en langage naturel
Martin : Je pense aussi que l'API ChatGPT est une chose très intéressante. Chaque fois que j'utilise ces modèles dans mes programmes, j'ai toujours l'impression d'emballer un supercalculateur dans un boulier. Parfois, je dis : « Je vais donner au modèle un clavier et une souris et le laisser faire la programmation. » L'API est en anglais et je lui dirai quoi faire et il fera toute la programmation. Je suis curieux, lorsque vous concevez quelque chose comme ChatGPT, pensez-vous qu'au fil du temps, l'interface réelle sera en langage naturel, ou pensez-vous que les programmes ont encore un grand rôle à jouer ?
Mira : La programmation devient moins abstraite dans ChatGPT et nous pouvons parler aux ordinateurs en utilisant un langage naturel à haut débit. Mais peut-être qu’un autre vecteur est que cette technologie nous aide à comprendre comment l’utiliser plutôt que la programmer. La couche de programmation devient plus simple et plus accessible car vous pouvez programmer en langage naturel. Mais l’autre aspect que nous constatons avec ChatGPT est que vous pouvez réellement travailler avec le modèle comme un partenaire ou un collègue.
MARTIN : Il sera intéressant de voir ce qui se passera au fil du temps. Vous avez décidé d'avoir une API dans ChatGTP, mais en tant que collègue, vous n'avez pas d'API. Vous parlez à un collègue. Au fil du temps, ces choses peuvent évoluer vers le langage naturel. Ou pensez-vous qu'il doit toujours y avoir un composant dans le système qui soit une machine à états finis ou un ordinateur traditionnel ?
Mira : Il y a actuellement un point critique où nous redéfinissons la façon dont nous interagissons avec l'information numérique, et c'est sous la forme de ces systèmes d'intelligence artificielle que nous le faisons. Peut-être avons-nous plusieurs systèmes d’IA, peut-être qu’ils ont tous des capacités différentes. Peut-être avons-nous un système universel qui nous suit partout, connaît mon parcours, ce que j'ai fait aujourd'hui, quels sont mes objectifs dans la vie et au travail, m'aide dans les moments difficiles, me guide, etc. Comme vous pouvez l’imaginer, c’est super puissant.
Nous sommes aujourd’hui à un point d’inflexion dans sa redéfinition. Nous ne savons pas à quoi ressemblera l'avenir et nous travaillons dur pour rendre ces outils et techniques accessibles à de nombreuses autres personnes afin qu'elles puissent expérimenter et que nous puissions voir ce qui se passe. C’est la stratégie que nous avons utilisée depuis le début.
Lors du ChatGPT de la semaine précédente, nous craignions que ce ne soit pas assez bon. Nous avons tous vu ce qui s'est passé. Nous l'avons diffusé et les gens nous ont dit qu'il permettait de trouver de nouveaux cas très bien. C'est ce qui se produit lorsque vous rendez ces éléments accessibles et faciles à utiliser, et que vous permettez à tout le monde de les utiliser facilement.
Feuille de route de développement OpenAI
MARTIN : En matière d'intelligence artificielle, les gens ne savent pas encore comment penser. Il faut des conseils, il faut faire des choix. Vous êtes chez OpenAI et vous devez décider quoi faire ensuite. Si vous pouviez parcourir ce processus de prise de décision : comment décidez-vous quoi faire, sur quoi vous concentrer, quoi publier ou comment vous positionner ?
Mira : Si vous réfléchissez à la façon dont ChatGPT est né, ce n'était pas un produit que nous voulions lancer. En fait, ses véritables racines remontent à plus de 5 ans, lorsque nous réfléchissions à la manière de créer un système d'intelligence artificielle sûr. Vous ne voulez pas nécessairement qu'un humain écrive réellement la fonction objectif, parce que vous ne voulez pas qu'un remplaçant le fasse pour une fonction objectif complexe, ou vous ne voulez pas faire d'erreurs car cela peut être très dangereux.
C’est là qu’intervient l’apprentissage par renforcement utilisant le feedback humain. Ce que nous essayons réellement de réaliser, c'est d'aligner les systèmes d'IA sur les valeurs humaines et de leur permettre d'accepter les commentaires humains. Sur la base des commentaires humains, il est plus probable que vous fassiez la bonne chose et moins susceptible de faire quelque chose que vous ne voulez pas faire. Ensuite, après avoir développé GPT-3 et l'avoir publié sur l'API, c'était la première fois que nous appliquions réellement nos recherches en matière de sécurité au monde réel. Ceci est réalisé grâce au modèle de suivi des instructions.
Nous utilisons cette approche pour prendre exemple sur les clients utilisant l'API, puis nous demandons aux sous-traitants de générer des commentaires dont le modèle pourra tirer des leçons. Nous avons affiné le modèle sur la base de ces données et construit un modèle qui suivait les instructions. Ils sont plus susceptibles de suivre l’intention de l’utilisateur et de faire ce que vous voulez réellement qu’il fasse. C’est très puissant car la sécurité de l’IA n’est pas seulement un concept théorique dont on discute. Cela devient en réalité : nous entrons maintenant dans l’ère des systèmes de sécurité à intelligence artificielle, comment intégrer cela dans le monde réel ?
De toute évidence, dans les grands modèles linguistiques, nous voyons de grandes représentations de concepts et d’idées du monde réel. Mais en termes de rendement, les problèmes sont nombreux. L’un des plus gros problèmes est évidemment l’hallucination. Nous avons travaillé sur les questions d'illusion et d'authenticité. Comment faire en sorte que ces modèles expriment l’incertitude ?
Le prédécesseur de ChatGPT était en fait un autre projet que nous appelions WebGPT, qui utilisait la récupération pour obtenir des informations et citer des sources. Ce projet est finalement devenu ChatGPT parce que nous pensions que les conversations étaient spéciales. Cela vous permet de poser des questions, de corriger l’autre personne et d’exprimer son incertitude.
MARTIN : Des erreurs sont constamment découvertes parce que vous interagissez...
Mira : Oui, avec ce genre d’interaction, vous pouvez comprendre la vérité la plus profonde. Nous avons commencé à aller dans cette direction, et à l'époque nous le faisions avec GPT-3 et GPT-3.5. Du point de vue de la sécurité, nous sommes très enthousiastes à ce sujet. Mais une chose que les gens oublient, c’est qu’à l’heure actuelle, nous avons formé GPT-4. Au sein d'OpenAI, nous sommes très enthousiasmés par GPT-4 et avons ChatGPT dans le rétroviseur. Nous avons ensuite réalisé : « Nous allons passer six mois à nous concentrer sur l'alignement et la sécurité de GPT-4 » et nous avons commencé à réfléchir à ce que nous pourrions faire. L’une des principales choses est de mettre ChatGPT entre les mains des chercheurs et ils peuvent nous faire part de leurs commentaires maintenant que nous avons ce modèle conversationnel. L'objectif initial est d'obtenir les commentaires des chercheurs et de les utiliser pour rendre GPT-4 plus cohérent, sécurisé, robuste et fiable.
MARTIN : Quand vous parlez de cohérence et de sécurité, avez-vous raison d'inclure cela, qu'il fait ce qu'il veut ? Ou voulez-vous dire en sécurité, en vous protégeant réellement d’une sorte de danger ?
Mira : Par cohérent, j'entends généralement qu'il correspond à l'intention de l'utilisateur, donc qu'il fait exactement ce que vous voulez qu'il fasse. Mais la sécurité inclut également d’autres éléments, tels que les abus, dans lesquels les utilisateurs tentent intentionnellement d’utiliser un modèle pour produire des résultats nuisibles. Avec ChatGPT, nous essayons en fait de rendre plus probable que le modèle fasse ce que vous voulez qu'il fasse, le rendant ainsi plus cohérent. Nous voulions également comprendre le problème des hallucinations, qui est évidemment un problème extrêmement difficile.
Je pense que cette approche consistant à utiliser le feedback humain pour l'apprentissage par renforcement, si nous essayons de le faire, c'est peut-être ce dont nous avons besoin.
MARTIN : Alors, pas de grand projet ? Que devons-nous faire pour atteindre l’AGI ? Il s'agit simplement de procéder étape par étape.
Mira : Oui. Et toutes les petites décisions que vous prenez en cours de route. Il est peut-être plus probable que cela se produise parce que nous avons pris la décision stratégique il y a quelques années de poursuivre ce produit. Nous faisons cela parce que nous pensons qu'il est impossible de rester assis dans un laboratoire et de développer ces choses dans le vide, sans retour d'informations des utilisateurs du monde réel. C'est l'hypothèse. Je pense que cela nous aide à prendre certaines de ces décisions et à construire l'infrastructure sous-jacente afin que nous puissions éventuellement déployer quelque chose comme ChatGPT.
Loi des proportions
MARTIN : Vous pouvez répéter la loi de la proportion. Je pense que c'est un gros problème que tout le monde a. Le rythme des progrès est étonnant. Mais l’histoire de l’intelligence artificielle semble montrer qu’à un moment donné, les rendements sont décroissants, et ce n’est pas paramétrique. Cela diminue en quelque sorte. De votre point de vue (qui est probablement le point de vue le plus sage de toute l’industrie), pensez-vous que la loi de la mise à l’échelle se maintiendra et que nous continuerons à voir des progrès, ou pensez-vous que nous nous dirigeons vers des rendements décroissants ?
Mira : Rien ne prouve qu'à mesure que nous continuons à étendre le modèle sur les axes de données et de calcul, nous n'obtiendrons pas de modèles meilleurs et plus puissants. Que cela aille jusqu’à l’AGI (Artificial General Intelligence) est une autre question. Dans ce processus, d’autres percées et avancées pourraient être nécessaires. Pour vraiment tirer le meilleur parti de ces modèles plus grands, les lois de la mise à l’échelle ont encore un long chemin à parcourir.
MARTIN : Comment définissez-vous AGI ?
Mira : Dans notre charte OpenAI. Nous le définissons comme un système informatique capable d’effectuer la plupart des travaux intellectuels de manière autonome.
Martin : Je déjeunais et Robert Nishihara d'Anyscale était là. Il a posé ce que j'appelle la question de Robert Nishihara. Je pense que c'est en fait une assez bonne caractérisation. Il a dit : " Il y a un continuum entre les ordinateurs et les Einstein. Vous allez des ordinateurs aux chats, des chats aux gens ordinaires, et des gens ordinaires aux Einstein. " Puis il a posé la question : " Nous sommes sur un continuum. " Quels problèmes seront résolus ?
Tout le monde s’accorde à dire que l’on sait passer du chat à l’être humain. On ne sait pas comment passer d'un ordinateur à un chat car c'est un problème de perception universel. Nous en sommes proches, mais nous n'en sommes pas encore là, et nous ne savons pas vraiment comment faire Einstein, et c'est un raisonnement établi.
Mira : Vous pouvez obtenir beaucoup de choses avec des ajustements précis, mais dans l'ensemble, je pense que dans la plupart des missions, nous sommes actuellement au niveau stagiaire. Le problème est la fiabilité. Vous ne pouvez pas compter entièrement sur le système pour faire ce que vous voulez qu’il fasse à tout moment. Dans de nombreuses tâches, il ne peut tout simplement pas le faire. Comment améliorer la fiabilité au fil du temps, puis étendre les nouvelles capacités offertes par ces modèles ?
Je pense qu'il est important de prêter attention à ces capacités émergentes, même si elles sont très peu fiables. Surtout pour les personnes qui créent une entreprise aujourd'hui, il faut vraiment réfléchir à la question : "Qu'est-ce qui est possible aujourd'hui ? Que voyez-vous aujourd'hui ?" Ces modèles deviennent très rapidement fiables.
**Un seul modèle peut conquérir le monde ? **
MARTIN : Je vais demander tout de suite, prédire à quoi ressemblera l'avenir. Mais avant de vous demander, égoïstement, comment pensez-vous que les conséquences économiques de cette situation vont se dérouler. Je vous dis ce que ça me rappelle. Cela me rappelle l’industrie du silicium. Je me souviens que dans les années 90, lorsque vous achetiez un ordinateur, il y avait beaucoup de processeurs d'écriture bizarres. "C'est une correspondance de chaîne, c'est une virgule flottante, c'est du cryptage", tout cela consomme le processeur.
Il s’avère que la polyvalence est si puissante qu’elle crée un certain type d’économie dans laquelle Intel et AMD sont tous deux acteurs. Bien sûr, la fabrication de ces puces coûte beaucoup d’argent.
Vous pouvez donc imaginer deux futurs. À l’avenir, la polyvalence sera si forte que les grands modèles absorberont essentiellement toutes les fonctionnalités au fil du temps. Et puis il y a un autre futur où il y a un tas de modèles différents, toutes sortes de pièces, différents points dans l'espace de conception. Avez-vous ce sentiment : OpenAI est-il unique ou a-t-il de nombreux modèles ?
Mira : Cela dépend de ce que vous voulez faire. De toute évidence, la trajectoire actuelle est que ces systèmes d’intelligence artificielle feront de plus en plus le travail que nous effectuons. Ils pourront fonctionner de manière autonome, mais nous devrons leur fournir une orientation, des conseils et une surveillance. Mais je ne veux pas faire beaucoup de travail répétitif que je dois faire tous les jours. Je veux me concentrer sur d'autres choses. Peut-être que nous ne sommes pas obligés de travailler 10 ou 12 heures par jour, peut-être pouvons-nous travailler moins et être plus productifs. C'est ce que j'espère. En ce qui concerne le fonctionnement de la plateforme, vous pouvez constater aujourd'hui encore que nous disposons de nombreux modèles disponibles via l'API, depuis les très petits modèles jusqu'à nos modèles de pointe.
Il n’est pas toujours nécessaire d’utiliser le modèle le plus puissant et le plus performant. Parfois, ils ont simplement besoin d’un modèle qui correspond vraiment à leur cas d’utilisation spécifique, et c’est beaucoup plus économique. Je pense qu'il y aura une gamme. Mais en ce qui concerne la façon dont nous imaginons les jeux de plateforme, nous voulons absolument que les gens s'appuient sur notre modèle, et nous voulons leur donner les outils pour le rendre plus facile et leur donner de plus en plus d'accès et de contrôle. Vous pouvez apporter vos données, vous pouvez personnaliser ces modèles. Vous pouvez vraiment vous concentrer sur les couches extérieures au modèle et définir le produit, ce qui est en réalité très, très difficile. On se concentre désormais beaucoup sur la construction d'un plus grand nombre de modèles, mais il est très difficile de construire de bons produits à partir de ces modèles.
5 à 10 prochaines années
MARTIN : J'aimerais que vous prédisiez où, selon vous, cela se passera dans trois, cinq ou dix ans.
Mira : Je pense que le modèle fondateur d'aujourd'hui a une grande représentation du monde dans le texte. Nous ajoutons d'autres modèles comme des images, des vidéos et toutes sortes d'autres choses, afin que ces modèles puissent fournir une image plus complète du monde qui nous entoure, similaire à la façon dont nous comprenons et observons le monde. Le monde existe non seulement en mots mais aussi en images. Nous allons définitivement dans cette direction, et nous aurons des modèles plus vastes qui emploieront tous ces modèles dans le travail de pré-formation. Nous voulons vraiment que ces modèles pré-entraînés comprennent le monde comme nous.
Dans la partie sortie du modèle, nous introduisons l’apprentissage par renforcement avec feedback humain. Nous voulons que le modèle fasse réellement ce que nous lui demandons de faire, et nous voulons que cela soit fiable. Cela nécessite beaucoup de travail et peut-être l'introduction de la navigation afin que de nouvelles informations puissent être obtenues, référencées et les hallucinations résolues. Je ne pense pas que ce soit possible. Je pense que c'est réalisable.
Du côté des produits, nous voulons rassembler tout cela dans une collection de produits avec lesquels les gens travaillent et fournir une plate-forme sur laquelle les gens peuvent s'appuyer. Si vous allez vraiment vers l’extérieur, ces modèles sont très, très puissants. Évidemment, cela s’accompagne de la crainte que ces modèles très puissants soient incompatibles avec nos intentions. Un grand défi est le Super Alignement, qui est un défi technique difficile. Nous avons toute une équipe chez OpenAI qui se concentre sur ce problème.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
a16z s'entretient avec OpenAI CTO : Comment la technologie de l'IA va-t-elle stimuler l'innovation future ?
Écrit par Saint Paul
Après qu'OpenAI ait publié ChatGPT fin 2022, la compréhension du domaine de l'investissement dans le domaine de l'intelligence artificielle a continué de s'approfondir. La chaîne industrielle de l’intelligence artificielle peut être grossièrement divisée en fournisseurs de technologies de base, systèmes d’intelligence artificielle et utilisateurs d’intelligence artificielle. À en juger par la perception générale des investisseurs mondiaux, tout le monde se rend désormais compte que l'intelligence artificielle est susceptible de devenir une voie d'investissement pendant longtemps dans le futur, à l'instar des ordinateurs il y a 30 ans ou d'Internet il y a 20 ans. Et pour l’avenir, les applications sont déjà une réalité.
Pour comprendre l'investissement dans des domaines subdivisés, nous devons toujours apprendre des investisseurs du secteur. Le célèbre capital-risqueur A16Z continue de miser lourdement sur le domaine de l’intelligence artificielle. Récemment, ils ont eu une conversation avec la CTO d’OpenAI, Mira Murati. Elle a partagé l'histoire de ChatGPT et l'avenir de l'intelligence artificielle et de l'interaction homme-machine.
Résumé
#Mira Murati Contexte
Mira est née en Albanie, juste après la fin du communisme. L’Albanie de cette époque ressemblait beaucoup à la Corée du Nord d’aujourd’hui. À une époque de changement et d’incertitude constants, l’éducation est la clé de tout. De plus, hormis les livres, il y avait peu de divertissements à cette époque. À cette époque, Mira cherchait des réponses dans les livres. Mira préfère les vérités scientifiques qui sont stables et peuvent être étudiées en profondeur. Et les sources des matières humaines telles que l’histoire et la sociologie sont discutables car l’histoire est en constante évolution. Ainsi, Mira a été élevée avec une tendance intuitive et naturelle vers les sciences et les mathématiques. Fondamentalement, Mira est toujours engagée dans les mathématiques à Open AI.
Grâce à ses excellents résultats scolaires, Mira a reçu une bourse et a complété ses deux dernières années d'études secondaires au Canada.
À l’université, Mira a étudié le génie mécanique parce qu’elle pensait que c’était le meilleur moyen d’appliquer ses connaissances à des problèmes du monde réel. À cette époque, Mira était très intéressée par les moyens d’apporter des transports et des énergies durables au monde. Son projet de fin d’études à l’époque était de construire une voiture de course hybride utilisant des supercondensateurs.
Peu de temps après, Mira a rejoint Tesla et a participé aux travaux sur le double moteur Model S. Elle a travaillé avec le Model X dès les premiers jours de sa conception initiale et a finalement dirigé le lancement de l'ensemble du projet.
C’est également son travail chez Tesla qui a rendu Mira très intéressée par l’application de l’intelligence artificielle, en particulier la conduite autonome. Parce qu’il peut utiliser l’IA et la vision par ordinateur pour révolutionner les voyages. Elle a commencé à réfléchir davantage aux différentes applications de l’intelligence artificielle. Mira s’est donc intéressée de plus en plus à l’IA et aux changements qu’elle pourrait apporter au monde.
Plus précisément, elle est très curieuse de savoir comment l’IA affecte l’interaction homme-machine et la façon dont les gens interagissent avec l’information en général, et s’intéresse beaucoup à l’informatique spatiale. Après cela, elle a rejoint Leap Motion, une entreprise de technologie noire, en tant que vice-présidente des produits et de l'ingénierie. C'est cette expérience qui a encore renforcé ses capacités de production.
(À propos, le fondateur de Leap Motion, David Holz, a fondé une autre application d'intelligence artificielle populaire, Midjourney, après avoir vendu Leap Motion).
En 2018, Mira a rejoint OpenAI. C’est à ce moment-là qu’elle a commencé à réfléchir davantage à ce qui se passerait si elle se concentrait uniquement sur la polyvalence.
De plus, à partir de la discussion de Mira sur les méthodes de recherche, nous pouvons voir son esprit exploratoire pour l’innovation technologique dans un environnement incertain :
Résumé de la conversation
Le célèbre capital-risqueur A16Z a fait un gros pari dans le domaine de l’intelligence artificielle. Les extraits suivants sont des extraits d'une conversation entre Martin, le gestionnaire de fonds d'A16Z, et Mira. Mira a partagé l'histoire de ChatGPT et l'avenir de l'intelligence artificielle et de l'interaction homme-machine. Nous pouvons également constater que Mira, qui a une formation de chef de produit, est extrêmement préoccupée par l'applicabilité des produits.
MARTIN : Pensez-vous qu'il s'agit davantage d'un problème de système ou d'un problème d'ingénierie en ce moment ?
Mira : Les deux. Les problèmes de systèmes et d'ingénierie sont énormes, et nous déployons ces technologies et essayons de les faire évoluer, de les rendre plus efficaces et de les rendre accessibles. Cela signifie que vous n'avez pas besoin de connaître les subtilités du ML pour les utiliser.
En fait, nous pouvons voir un contraste entre la fourniture de ces modèles via l'API et la fourniture de la technologie via ChatGPT. Il s'agit fondamentalement de la même technologie, à une exception près : ChatGPT dispose de capacités d'apprentissage par renforcement et de rétroaction humaine. Cela signifie que la réponse et la capacité à captiver l'imagination des gens et à leur permettre d'utiliser cette technologie au quotidien sont complètement différentes.
interface en langage naturel
Martin : Je pense aussi que l'API ChatGPT est une chose très intéressante. Chaque fois que j'utilise ces modèles dans mes programmes, j'ai toujours l'impression d'emballer un supercalculateur dans un boulier. Parfois, je dis : « Je vais donner au modèle un clavier et une souris et le laisser faire la programmation. » L'API est en anglais et je lui dirai quoi faire et il fera toute la programmation. Je suis curieux, lorsque vous concevez quelque chose comme ChatGPT, pensez-vous qu'au fil du temps, l'interface réelle sera en langage naturel, ou pensez-vous que les programmes ont encore un grand rôle à jouer ?
Mira : La programmation devient moins abstraite dans ChatGPT et nous pouvons parler aux ordinateurs en utilisant un langage naturel à haut débit. Mais peut-être qu’un autre vecteur est que cette technologie nous aide à comprendre comment l’utiliser plutôt que la programmer. La couche de programmation devient plus simple et plus accessible car vous pouvez programmer en langage naturel. Mais l’autre aspect que nous constatons avec ChatGPT est que vous pouvez réellement travailler avec le modèle comme un partenaire ou un collègue.
MARTIN : Il sera intéressant de voir ce qui se passera au fil du temps. Vous avez décidé d'avoir une API dans ChatGTP, mais en tant que collègue, vous n'avez pas d'API. Vous parlez à un collègue. Au fil du temps, ces choses peuvent évoluer vers le langage naturel. Ou pensez-vous qu'il doit toujours y avoir un composant dans le système qui soit une machine à états finis ou un ordinateur traditionnel ?
Mira : Il y a actuellement un point critique où nous redéfinissons la façon dont nous interagissons avec l'information numérique, et c'est sous la forme de ces systèmes d'intelligence artificielle que nous le faisons. Peut-être avons-nous plusieurs systèmes d’IA, peut-être qu’ils ont tous des capacités différentes. Peut-être avons-nous un système universel qui nous suit partout, connaît mon parcours, ce que j'ai fait aujourd'hui, quels sont mes objectifs dans la vie et au travail, m'aide dans les moments difficiles, me guide, etc. Comme vous pouvez l’imaginer, c’est super puissant.
Nous sommes aujourd’hui à un point d’inflexion dans sa redéfinition. Nous ne savons pas à quoi ressemblera l'avenir et nous travaillons dur pour rendre ces outils et techniques accessibles à de nombreuses autres personnes afin qu'elles puissent expérimenter et que nous puissions voir ce qui se passe. C’est la stratégie que nous avons utilisée depuis le début.
Lors du ChatGPT de la semaine précédente, nous craignions que ce ne soit pas assez bon. Nous avons tous vu ce qui s'est passé. Nous l'avons diffusé et les gens nous ont dit qu'il permettait de trouver de nouveaux cas très bien. C'est ce qui se produit lorsque vous rendez ces éléments accessibles et faciles à utiliser, et que vous permettez à tout le monde de les utiliser facilement.
Feuille de route de développement OpenAI
MARTIN : En matière d'intelligence artificielle, les gens ne savent pas encore comment penser. Il faut des conseils, il faut faire des choix. Vous êtes chez OpenAI et vous devez décider quoi faire ensuite. Si vous pouviez parcourir ce processus de prise de décision : comment décidez-vous quoi faire, sur quoi vous concentrer, quoi publier ou comment vous positionner ?
Mira : Si vous réfléchissez à la façon dont ChatGPT est né, ce n'était pas un produit que nous voulions lancer. En fait, ses véritables racines remontent à plus de 5 ans, lorsque nous réfléchissions à la manière de créer un système d'intelligence artificielle sûr. Vous ne voulez pas nécessairement qu'un humain écrive réellement la fonction objectif, parce que vous ne voulez pas qu'un remplaçant le fasse pour une fonction objectif complexe, ou vous ne voulez pas faire d'erreurs car cela peut être très dangereux.
C’est là qu’intervient l’apprentissage par renforcement utilisant le feedback humain. Ce que nous essayons réellement de réaliser, c'est d'aligner les systèmes d'IA sur les valeurs humaines et de leur permettre d'accepter les commentaires humains. Sur la base des commentaires humains, il est plus probable que vous fassiez la bonne chose et moins susceptible de faire quelque chose que vous ne voulez pas faire. Ensuite, après avoir développé GPT-3 et l'avoir publié sur l'API, c'était la première fois que nous appliquions réellement nos recherches en matière de sécurité au monde réel. Ceci est réalisé grâce au modèle de suivi des instructions.
Nous utilisons cette approche pour prendre exemple sur les clients utilisant l'API, puis nous demandons aux sous-traitants de générer des commentaires dont le modèle pourra tirer des leçons. Nous avons affiné le modèle sur la base de ces données et construit un modèle qui suivait les instructions. Ils sont plus susceptibles de suivre l’intention de l’utilisateur et de faire ce que vous voulez réellement qu’il fasse. C’est très puissant car la sécurité de l’IA n’est pas seulement un concept théorique dont on discute. Cela devient en réalité : nous entrons maintenant dans l’ère des systèmes de sécurité à intelligence artificielle, comment intégrer cela dans le monde réel ?
De toute évidence, dans les grands modèles linguistiques, nous voyons de grandes représentations de concepts et d’idées du monde réel. Mais en termes de rendement, les problèmes sont nombreux. L’un des plus gros problèmes est évidemment l’hallucination. Nous avons travaillé sur les questions d'illusion et d'authenticité. Comment faire en sorte que ces modèles expriment l’incertitude ?
Le prédécesseur de ChatGPT était en fait un autre projet que nous appelions WebGPT, qui utilisait la récupération pour obtenir des informations et citer des sources. Ce projet est finalement devenu ChatGPT parce que nous pensions que les conversations étaient spéciales. Cela vous permet de poser des questions, de corriger l’autre personne et d’exprimer son incertitude.
MARTIN : Des erreurs sont constamment découvertes parce que vous interagissez...
Mira : Oui, avec ce genre d’interaction, vous pouvez comprendre la vérité la plus profonde. Nous avons commencé à aller dans cette direction, et à l'époque nous le faisions avec GPT-3 et GPT-3.5. Du point de vue de la sécurité, nous sommes très enthousiastes à ce sujet. Mais une chose que les gens oublient, c’est qu’à l’heure actuelle, nous avons formé GPT-4. Au sein d'OpenAI, nous sommes très enthousiasmés par GPT-4 et avons ChatGPT dans le rétroviseur. Nous avons ensuite réalisé : « Nous allons passer six mois à nous concentrer sur l'alignement et la sécurité de GPT-4 » et nous avons commencé à réfléchir à ce que nous pourrions faire. L’une des principales choses est de mettre ChatGPT entre les mains des chercheurs et ils peuvent nous faire part de leurs commentaires maintenant que nous avons ce modèle conversationnel. L'objectif initial est d'obtenir les commentaires des chercheurs et de les utiliser pour rendre GPT-4 plus cohérent, sécurisé, robuste et fiable.
MARTIN : Quand vous parlez de cohérence et de sécurité, avez-vous raison d'inclure cela, qu'il fait ce qu'il veut ? Ou voulez-vous dire en sécurité, en vous protégeant réellement d’une sorte de danger ?
Mira : Par cohérent, j'entends généralement qu'il correspond à l'intention de l'utilisateur, donc qu'il fait exactement ce que vous voulez qu'il fasse. Mais la sécurité inclut également d’autres éléments, tels que les abus, dans lesquels les utilisateurs tentent intentionnellement d’utiliser un modèle pour produire des résultats nuisibles. Avec ChatGPT, nous essayons en fait de rendre plus probable que le modèle fasse ce que vous voulez qu'il fasse, le rendant ainsi plus cohérent. Nous voulions également comprendre le problème des hallucinations, qui est évidemment un problème extrêmement difficile.
Je pense que cette approche consistant à utiliser le feedback humain pour l'apprentissage par renforcement, si nous essayons de le faire, c'est peut-être ce dont nous avons besoin.
MARTIN : Alors, pas de grand projet ? Que devons-nous faire pour atteindre l’AGI ? Il s'agit simplement de procéder étape par étape.
Mira : Oui. Et toutes les petites décisions que vous prenez en cours de route. Il est peut-être plus probable que cela se produise parce que nous avons pris la décision stratégique il y a quelques années de poursuivre ce produit. Nous faisons cela parce que nous pensons qu'il est impossible de rester assis dans un laboratoire et de développer ces choses dans le vide, sans retour d'informations des utilisateurs du monde réel. C'est l'hypothèse. Je pense que cela nous aide à prendre certaines de ces décisions et à construire l'infrastructure sous-jacente afin que nous puissions éventuellement déployer quelque chose comme ChatGPT.
Loi des proportions
MARTIN : Vous pouvez répéter la loi de la proportion. Je pense que c'est un gros problème que tout le monde a. Le rythme des progrès est étonnant. Mais l’histoire de l’intelligence artificielle semble montrer qu’à un moment donné, les rendements sont décroissants, et ce n’est pas paramétrique. Cela diminue en quelque sorte. De votre point de vue (qui est probablement le point de vue le plus sage de toute l’industrie), pensez-vous que la loi de la mise à l’échelle se maintiendra et que nous continuerons à voir des progrès, ou pensez-vous que nous nous dirigeons vers des rendements décroissants ?
Mira : Rien ne prouve qu'à mesure que nous continuons à étendre le modèle sur les axes de données et de calcul, nous n'obtiendrons pas de modèles meilleurs et plus puissants. Que cela aille jusqu’à l’AGI (Artificial General Intelligence) est une autre question. Dans ce processus, d’autres percées et avancées pourraient être nécessaires. Pour vraiment tirer le meilleur parti de ces modèles plus grands, les lois de la mise à l’échelle ont encore un long chemin à parcourir.
MARTIN : Comment définissez-vous AGI ?
Mira : Dans notre charte OpenAI. Nous le définissons comme un système informatique capable d’effectuer la plupart des travaux intellectuels de manière autonome.
Martin : Je déjeunais et Robert Nishihara d'Anyscale était là. Il a posé ce que j'appelle la question de Robert Nishihara. Je pense que c'est en fait une assez bonne caractérisation. Il a dit : " Il y a un continuum entre les ordinateurs et les Einstein. Vous allez des ordinateurs aux chats, des chats aux gens ordinaires, et des gens ordinaires aux Einstein. " Puis il a posé la question : " Nous sommes sur un continuum. " Quels problèmes seront résolus ?
Tout le monde s’accorde à dire que l’on sait passer du chat à l’être humain. On ne sait pas comment passer d'un ordinateur à un chat car c'est un problème de perception universel. Nous en sommes proches, mais nous n'en sommes pas encore là, et nous ne savons pas vraiment comment faire Einstein, et c'est un raisonnement établi.
Mira : Vous pouvez obtenir beaucoup de choses avec des ajustements précis, mais dans l'ensemble, je pense que dans la plupart des missions, nous sommes actuellement au niveau stagiaire. Le problème est la fiabilité. Vous ne pouvez pas compter entièrement sur le système pour faire ce que vous voulez qu’il fasse à tout moment. Dans de nombreuses tâches, il ne peut tout simplement pas le faire. Comment améliorer la fiabilité au fil du temps, puis étendre les nouvelles capacités offertes par ces modèles ?
Je pense qu'il est important de prêter attention à ces capacités émergentes, même si elles sont très peu fiables. Surtout pour les personnes qui créent une entreprise aujourd'hui, il faut vraiment réfléchir à la question : "Qu'est-ce qui est possible aujourd'hui ? Que voyez-vous aujourd'hui ?" Ces modèles deviennent très rapidement fiables.
**Un seul modèle peut conquérir le monde ? **
MARTIN : Je vais demander tout de suite, prédire à quoi ressemblera l'avenir. Mais avant de vous demander, égoïstement, comment pensez-vous que les conséquences économiques de cette situation vont se dérouler. Je vous dis ce que ça me rappelle. Cela me rappelle l’industrie du silicium. Je me souviens que dans les années 90, lorsque vous achetiez un ordinateur, il y avait beaucoup de processeurs d'écriture bizarres. "C'est une correspondance de chaîne, c'est une virgule flottante, c'est du cryptage", tout cela consomme le processeur.
Il s’avère que la polyvalence est si puissante qu’elle crée un certain type d’économie dans laquelle Intel et AMD sont tous deux acteurs. Bien sûr, la fabrication de ces puces coûte beaucoup d’argent.
Vous pouvez donc imaginer deux futurs. À l’avenir, la polyvalence sera si forte que les grands modèles absorberont essentiellement toutes les fonctionnalités au fil du temps. Et puis il y a un autre futur où il y a un tas de modèles différents, toutes sortes de pièces, différents points dans l'espace de conception. Avez-vous ce sentiment : OpenAI est-il unique ou a-t-il de nombreux modèles ?
Mira : Cela dépend de ce que vous voulez faire. De toute évidence, la trajectoire actuelle est que ces systèmes d’intelligence artificielle feront de plus en plus le travail que nous effectuons. Ils pourront fonctionner de manière autonome, mais nous devrons leur fournir une orientation, des conseils et une surveillance. Mais je ne veux pas faire beaucoup de travail répétitif que je dois faire tous les jours. Je veux me concentrer sur d'autres choses. Peut-être que nous ne sommes pas obligés de travailler 10 ou 12 heures par jour, peut-être pouvons-nous travailler moins et être plus productifs. C'est ce que j'espère. En ce qui concerne le fonctionnement de la plateforme, vous pouvez constater aujourd'hui encore que nous disposons de nombreux modèles disponibles via l'API, depuis les très petits modèles jusqu'à nos modèles de pointe.
Il n’est pas toujours nécessaire d’utiliser le modèle le plus puissant et le plus performant. Parfois, ils ont simplement besoin d’un modèle qui correspond vraiment à leur cas d’utilisation spécifique, et c’est beaucoup plus économique. Je pense qu'il y aura une gamme. Mais en ce qui concerne la façon dont nous imaginons les jeux de plateforme, nous voulons absolument que les gens s'appuient sur notre modèle, et nous voulons leur donner les outils pour le rendre plus facile et leur donner de plus en plus d'accès et de contrôle. Vous pouvez apporter vos données, vous pouvez personnaliser ces modèles. Vous pouvez vraiment vous concentrer sur les couches extérieures au modèle et définir le produit, ce qui est en réalité très, très difficile. On se concentre désormais beaucoup sur la construction d'un plus grand nombre de modèles, mais il est très difficile de construire de bons produits à partir de ces modèles.
5 à 10 prochaines années
MARTIN : J'aimerais que vous prédisiez où, selon vous, cela se passera dans trois, cinq ou dix ans.
Mira : Je pense que le modèle fondateur d'aujourd'hui a une grande représentation du monde dans le texte. Nous ajoutons d'autres modèles comme des images, des vidéos et toutes sortes d'autres choses, afin que ces modèles puissent fournir une image plus complète du monde qui nous entoure, similaire à la façon dont nous comprenons et observons le monde. Le monde existe non seulement en mots mais aussi en images. Nous allons définitivement dans cette direction, et nous aurons des modèles plus vastes qui emploieront tous ces modèles dans le travail de pré-formation. Nous voulons vraiment que ces modèles pré-entraînés comprennent le monde comme nous.
Dans la partie sortie du modèle, nous introduisons l’apprentissage par renforcement avec feedback humain. Nous voulons que le modèle fasse réellement ce que nous lui demandons de faire, et nous voulons que cela soit fiable. Cela nécessite beaucoup de travail et peut-être l'introduction de la navigation afin que de nouvelles informations puissent être obtenues, référencées et les hallucinations résolues. Je ne pense pas que ce soit possible. Je pense que c'est réalisable.
Du côté des produits, nous voulons rassembler tout cela dans une collection de produits avec lesquels les gens travaillent et fournir une plate-forme sur laquelle les gens peuvent s'appuyer. Si vous allez vraiment vers l’extérieur, ces modèles sont très, très puissants. Évidemment, cela s’accompagne de la crainte que ces modèles très puissants soient incompatibles avec nos intentions. Un grand défi est le Super Alignement, qui est un défi technique difficile. Nous avons toute une équipe chez OpenAI qui se concentre sur ce problème.