Après avoir lu cette conversation "humaine virtuelle" qui a choqué tout le monde, j'ai senti que le métaverse pourrait vraiment arriver...

Source de l'image : générée par Unbounded AI

Depuis que le concept de métaverse a été popularisé par Zuckerberg en 2021, il a toujours semblé aux gens comme un « étranger le plus familier », toujours distant, parfois lointain et parfois proche. Pour le dire franchement, tout le monde estime que sa présence n'est pas assez forte et qu'elle n'est pas aussi puissante qu'on l'imagine.

Car lorsqu’on évoque l’Univers Yuan, l’impression dans l’esprit des internautes est toujours la suivante :

Zuckerberg a pris un selfie avec le célèbre avatar d'Horizon Worlds qui a été "ridiculé" par la foule. La photo vient de Facebook

Mais en seulement un an, une conversation à distance d’une heure qui a eu lieu dans le monde du métavers est sortie de nulle part, faisant exploser les réseaux sociaux. Cette fois, c'était au tour des internautes d'être abasourdis et de s'exclamer, comment cela a-t-il pu évoluer tranquillement ainsi sans y prêter attention ? !

Récemment, Lex Fridman, scientifique du MIT, qui est également un gourou de l'intelligence artificielle et un animateur de podcast bien connu, a mené une interview approfondie avec le PDG de Meta, Mark Zuckerberg, sur la réalité augmentée, l'IA et les grands modèles de langage.

La différence avec le passé est que cette fois, les deux ne se sont pas rencontrés dans le monde physique**, mais ont été séparés par plus de la moitié des États-Unis et ont complété la conversation dans le métaverse en utilisant une image virtuelle 3D super réaliste** . Au moment où Silicon Star était sous presse, l'interview intitulée "Première interview dans le métaverse" avait recueilli près de 13 millions de vues sur X (anciennement Twitter).

Photo de la chaîne Youtube de Lex Fridman

Au début de la vidéo, l'avatar numérique haute définition complet de Lex Fridman est apparu dans un espace futuriste blanc. Il a déclaré : " Bien que Mark et moi soyons à des centaines de kilomètres l'un de l'autre dans le monde réel, parce que nos images sont toutes des modèles 3D avec précision au niveau de la photo. En nous modélisant et en nous présentant avec l'audio spatial, nous avons l'impression de communiquer face à face dans la même pièce. Cette technologie est tellement incroyable ! Je pense que ce sera le moyen pour les humains de se connecter les uns aux autres dans un manière plus profonde et plus significative sur Internet à l'avenir. "

Les deux hommes portaient des casques Meta Quest Pro VR lors de l’entretien. C'était peut-être parce que l'effet dans le champ de vision était trop réel. Lex était comme un bébé curieux pendant un moment. En plus de sourire, il n'arrêtait pas de soupirer : " Où suis-je ? Mark est-il vraiment toi ? C'est génial ! Tu ne le fais pas. " Ça ne me dérange pas. "Est-ce que c'est trop près de toi ?"

Bien entendu, la distance de visibilité peut être ajustée. De plus, vous pouvez également régler la position de la source lumineuse en contrôlant la poignée pour trouver l'angle d'éclairage qui met le mieux en valeur les avantages de votre visage.

Zuckerberg a déclaré que contrairement aux versions de dessins animés ou aux transmissions vidéo dans Horizon Worlds, la création de ces nouveaux avatars Meta Codec qui simulent de vraies personnes nécessite une analyse approfondie des diverses expressions faciales et détails de mouvement de l'utilisateur, puis une modélisation et une compression dans une version codée.

Les capacités de suivi oculaire et facial en temps réel du casque capturent ensuite les expressions de l'utilisateur, les mappent sur un avatar 3D et « envoient une version codée de votre apparence » à la personne à l'autre bout du monde virtuel ou de la conférence téléphonique. Présentez-leur devant eux une personne qui ressemble à votre vrai vous.

Étant donné que les données d'image dans le métaverse sont transmises sous une forme codée, elles sont non seulement réalistes, mais également plus efficaces en termes de bande passante que l'envoi d'une vidéo immersive complète.

À en juger par la vidéo de l'interview, la capacité de l'avatar à restituer les détails de personnes réelles est en effet trop forte. Selon les mots de Lex : « Il capture tout, y compris les défauts du visage humain. Pour moi, ces défauts sont les subtilités des gens. » Les petites taches de rousseur, les rides, les joues asymétriques, l'expression au coin des yeux quand on sourit... ils me font profiter davantage et me font réaliser que la perfection n'est pas la clé de l'immersion.

"Les yeux sont en effet importants", a déclaré Zuckerberg. "De nombreuses études ont prouvé que la communication humaine s'effectue principalement par les expressions et les mouvements du corps, plutôt que par le langage. Meta a travaillé dur pour capturer ces expressions avec son propre système virtuel classique, à travers des photos. apporte un sentiment particulier de présence. » Il pense que cela touche également le noyau visuel de la réalité virtuelle et de la réalité augmentée, qui consiste à permettre aux gens de se sentir ensemble, peu importe où ils se trouvent dans le monde.

Imaginez entrer dans une salle de conférence dans le futur. Certaines personnes sont réellement présentes, et certaines personnes apparaissent sous cette forme virtuelle réaliste, superposée à l'environnement physique en combinant la technologie de réalité mixte : vous pensez qu'elles sont assises à la table et vous parlent de projets, mais en fait, ils sont à des milliers de kilomètres : en pleine nuit, lorsque vous êtes seul dans un pays étranger et que vous manquez de chez vous, vous pouvez porter un casque pour voir vos proches à portée de main. Le froncement de sourcils et le sourire de la personne d'en face, ainsi que chaque expression faciale subtile, peuvent être reproduits de manière réaliste en trois dimensions, presque sans retard ni perte.

Au cours de l'expérience, Lex n'a pas pu s'empêcher de s'exclamer que c'était si merveilleux : « Mon cœur bat très vite en ce moment, et l'intimité de la conversation peut être réalisée à distance comme ça. Je ressens les émotions, et je ressens aussi que toi et moi sommes vraiment là. C'est la chose la plus difficile de ma vie. " Une des expériences les plus incroyables, vraiment révélatrice ! "

Cependant, il convient de noter que réaliser des effets de dialogue dans des vidéos n’est pas encore facile pour le commun des mortels. Avant de commencer l'entretien, ils se sont tous deux rendus à Pittsburgh à l'avance et ont effectué une analyse détaillée pendant plusieurs heures au sein de l'équipe du projet Meta Codec, qui intégrait la plus haute technologie des logiciels et du matériel actuels.

Lors de la conférence Connect qui vient de se terminer il y a quelques jours, Zuckerberg a déclaré que sa plus grande vision était de rendre ces technologies haut de gamme accessibles au grand public et de changer la vie du plus grand nombre. Alors, qu’a-t-il en tête pour l’avenir cette fois-ci ?

Xiao Zha a dit que nous ne faisions que commencer. En scannant d'abord un petit nombre de personnes et en collectant suffisamment de données sur les expressions faciales, nous pouvons explorer dans quelle mesure l'ensemble du processus peut être simplifié, puis le rendre plus fluide lorsqu'il est appliqué à un grand nombre de personnes. Bien que cette technologie ne soit pas encore entièrement prête à être introduite sur le marché, elle continuera à être ajustée et optimisée au cours des prochaines années pour être appliquée le plus rapidement possible aux scénarios de travail afin de résoudre les problèmes de productivité.

Ce que Meta travaille dur pour réaliser, c'est qu'il vous suffit d'utiliser un téléphone portable pour effectuer une analyse faciale très rapide, comme décrocher le téléphone portable, le secouer devant votre visage, dire quelques mots et faire quelques expressions. L'ensemble du processus ne prendra peut-être que deux ou trois minutes pour produire les mêmes résultats qu'aujourd'hui. Comment être plus efficace tout en garantissant l’expérience reste l’un des prochains défis.

Lex pense que les nouveaux avatars Meta Codec ont clairement dépassé la « vallée de la terreur » du passé. Xiao Zha dans la caméra lui ressemble exactement. Puis il a souri timidement et a demandé : « Nous n'avons donc plus besoin de bras et de jambes. ,Droite?"

"Non, non, nous allons quand même résoudre ces problèmes", a expliqué Zuckerberg à la hâte. "En fait, il y a un problème. La numérisation de haute précision du corps entier nécessite une puissance de calcul puissante, à la fois pour les capteurs du visiocasque et les capacités de rendu. On pourrait donc envisager de restaurer le corps avec une moindre fidélité, comme en conservant les grands mouvements, mais c'est le visage qui doit être le plus analysé. Après tout, bouger les sourcils d'un millimètre peut transmettre des émotions complètement différentes. Bouger son bras d'un centimètre ne semble plus si important.

Les avatars d'Horizon Worlds ont été décrits comme « l'étrange effet de vallée » en raison de leurs expressions pâles et de l'absence de bas de leur corps.

Les deux ont ensuite parlé du nouveau Quest 3, de la réalité augmentée, de l'intelligence artificielle dans le métaverse et de l'avenir de l'humanité. Lex a ridiculisé cette interview de Zuckerberg en la qualifiant de "la rencontre de deux personnes avec les expressions les plus rigides d'Internet dans le métaverse." Il a estimé que dans cet espace virtuel, son expressivité était plus facile à capturer et plus réelle. Pour transmettre parfaitement l'émotion : " J'espère vraiment que davantage de gens pourront venir en faire l'expérience par eux-mêmes !" Xiao Zha a également déclaré qu'il attendait avec impatience la réaction des internautes après avoir regardé cet épisode du podcast. La seule inquiétude est de savoir si le public pourra réellement en faire l'expérience à travers l'écran 2D. Cette sensation de véritable choc est sur le point de se manifester.

À en juger par les commentaires des internautes, il est évident qu'ils l'ont non seulement ressenti, mais qu'ils ont également été choqués.

Même si les derniers mois ont été baptisés par plusieurs séries de mises à jour houleuses de Google, Microsoft et surtout de ChatGPT d'OpenAI, on peut considérer que c'est une vision du monde.Cette interview dans le métaverse dépasse encore la portée de la cognition des gens. MrBeast, le meilleur Youtubeur au monde, a laissé un commentaire sous la vidéo et a déclaré : " Comment en sommes-nous arrivés là à partir des avatars en pixels ? Qu'est-ce que j'ai manqué ? " D'autres ont également commenté : " C'est la chose la plus incroyable que j'ai jamais vue. L'une des les choses."

Certains disent que Meta aura toujours sa place parmi les leaders de l’innovation technologique. Après avoir été remis en question, taquiné et même critiqué pendant si longtemps, le Metaverse a néanmoins évolué vers une forme 3.0 si puissante.

Lex a dit, j'ai vu l'avenir.

"Je pense que l'année prochaine va être assez folle", a déclaré Zuckerberg.

Quelle que soit la façon dont Meta se développera ou évoluera dans le futur, cette première conversation air-air entre une « vraie personne » s’étendant sur une centaine de kilomètres et dans le métaverse est une étape importante. Nous avons la chance de naître à cette époque et de voir l’impossible devenir possible.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 1
  • Partager
Commentaire
0/400
Hnjjndevip
· 2023-10-01 04:20
La grenouille du village a dit que ce n'étaient que des mensonges et des faux. Les robots sont également constitués de vraies personnes portant des vêtements et faisant des choses inutiles.
Voir l'originalRépondre0
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)