Le cerveau de l’IA se réalise avec un délai de seulement 0,25 seconde ! Nouvelle étude Meta Milestone : le MEG décode les images cérébrales en temps réel, ce que LeCun aime
Aujourd’hui, LeCun a transmis la dernière percée de Meta AI : l’IA a été capable de décoder la perception d’images dans l’activité cérébrale en temps réel !
L’étude, réalisée par FAIR-Paris en collaboration avec l’Ecole des Arts et des Arts et des Sciences (PSL) (ENS), est une nouvelle étape dans l’utilisation des signaux de magnétoencéphalographie (MEG) pour reconstruire l’entrée visuelle et vocale.
Adresse papier :
À l’aide de la magnétoencéphalographie (MEG), une technique de neuroimagerie non invasive, Meta scanne des milliers de scans d’activité cérébrale par seconde et a développé un système d’IA capable de décoder les représentations visuelles dans le cerveau en temps quasi réel.
Ce système peut être déployé en temps réel, en reconstruisant des images que le cerveau perçoit et traite à chaque instant en fonction de l’activité cérébrale.
On peut dire que cette recherche ouvre une nouvelle voie sans précédent pour aider la communauté scientifique à comprendre comment les images sont représentées dans le cerveau, jetant ainsi un éclairage supplémentaire sur d’autres aspects de l’intelligence humaine.
À long terme, il peut également servir de base à des interfaces cerveau-ordinateur non invasives dans les milieux cliniques, aidant ceux qui perdent la capacité de parler après avoir subi une lésion cérébrale à communiquer avec le monde extérieur.
Plus précisément, Meta a développé un système composé d’un encodeur d’image, d’un encodeur cérébral et d’un décodeur d’image.
Les encodeurs d’images construisent indépendamment un riche ensemble de représentations d’images à l’extérieur du cerveau. Le codeur cérébral apprend alors à intégrer et à aligner le signal MEG avec ces images construites.
Enfin, le décodeur d’images génère des images crédibles à partir de ces représentations cérébrales.
Meta a d’abord comparé les performances de décodage de divers modules d’image pré-entraînés et a constaté que les signaux cérébraux sont très cohérents avec les systèmes d’IA de vision par ordinateur tels que DINOv2.
Les résultats confirment que l’apprentissage auto-supervisé permet aux systèmes d’IA d’apprendre des représentations semblables à celles du cerveau – les neurones artificiels dans les algorithmes ont tendance à être activés de la même manière que les neurones physiques dans le cerveau pour répondre aux mêmes images.
Cette coordination du système d’IA et des fonctions cérébrales permet à l’IA de produire des images très similaires à celles vues par les humains dans un scanner.
Sur la base de ce principe, Meta a entraîné le système sur un ensemble de données MEG accessible au public.
Meta estime que si l’imagerie par résonance magnétique fonctionnelle (IRMf) peut mieux décoder les images, les décodeurs MEG peuvent générer des résultats en temps réel, décodant en continu l’activité cérébrale, générant un flux continu et presque en temps réel d’images.
C’est essentiel pour aider les patients qui sont incapables de communiquer avec le monde extérieur en raison de lésions cérébrales et de communiquer avec le monde extérieur en temps réel.
**Prémisse, qu’est-ce que la magnétoencéphalographie (MEG) ? **
La magnétoencéphalographie (MEG) est une technique de neuroimagerie fonctionnelle qui cartographie l’activité cérébrale en utilisant un magnétomètre très sensible pour enregistrer le champ magnétique généré par les courants électriques naturels dans le cerveau.
Les réseaux SQUID (Superconducting Quantum Interferometer) sont actuellement les magnétomètres les plus courants, tandis que les magnétomètres SERF (Spin Free Exchange Relaxation) sont à l’étude pour les futures machines MEG.
Les applications de la MEG comprennent la recherche fondamentale sur les processus cérébraux perceptifs et cognitifs, la localisation des zones pathologiquement affectées avant la résection chirurgicale, la détermination de la fonction de diverses parties du cerveau et le neurofeedback. Cela peut être appliqué dans un cadre clinique pour trouver des emplacements anormaux, ou dans un cadre expérimental pour simplement mesurer l’activité cérébrale.
Le Dr Cohen a testé le premier MEG à l’aide de SQUID dans une pièce blindée du MIT
Le Dr Cohen a testé le premier MEG à l’aide de SQUID dans une pièce blindée du MIT
Architecture technique de la lecture cérébrale par IA
L’auteur propose un pipeline de formation multimodal :
(1) L’activité MEG est d’abord alignée sur les caractéristiques de l’image pré-entraînées ;
(2) Générer des images à partir de flux de signaux MEG
Figure 1 : (A) Méthode, Geler le modèle pré-entraîné (B) Schéma de traitement, contrairement à la génération d’images, la récupération d’images peut être effectuée dans un sous-espace aligné, mais nécessite des images d’échantillon positives dans l’ensemble de récupération.
Les auteurs mentionnent que ce système a deux contributions majeures :
Les décodeurs MEG permettent (1) la récupération et la génération d’images hautes performances,
(2) Fournir de nouvelles méthodes d’interprétation du traitement visuel dans le cerveau. Cela montre que la méthode proposée a la capacité de vraiment généraliser à de nouvelles idées visuelles et d’ouvrir la voie à un décodage visuel « de forme libre ».
En bref, les résultats de l’étude ont ouvert une voie prometteuse pour le décodage en temps réel des représentations visuelles en laboratoire et en clinique.
Méthode
1. Description du problème
L’objectif de l’étude des auteurs était de demander à un groupe de participants en bonne santé de regarder une série d’images naturelles, d’enregistrer leur activité cérébrale à l’aide de MEG, puis de décoder les images à partir des signaux de séries temporelles, sur lesquels le décodeur s’appuie sur des modèles génératifs.
2. Objectifs de la formation
Le pipeline proposé par les auteurs comporte plusieurs parties, de sorte qu’une stratégie d’optimisation multi-objectifs est utilisée, et CLIP Loss est utilisé lors de la récupération d’images.
Pour évaluer la qualité de l’image générée, MSE Loss,
Enfin, les auteurs utilisent une combinaison convexe pondérée pour combiner les pertes CLIP et MSE afin d’atteindre l’objectif d’entraînement.
3. Modèle de cerveau
L’auteur utilise l’architecture de réseau de neurones convolutifs pour extraire des caractéristiques et, sur cette base, une couche d’agrégation de séries chronologiques est ajoutée pour réduire la dimensionnalité et économiser la surcharge de calcul.
4. Modèle d’image
Pour l’encodage des caractéristiques des images, les auteurs explorent VGG-19, CLIP et ses variantes, ainsi que la structure Transformer.
5. Générer le modèle
Afin de pouvoir comparer équitablement les résultats de l’IRMf, les auteurs ont utilisé un modèle pré-entraîné comme d’autres articles et se sont entraînés sur cette tâche.
6. Consommation de ressources de calcul pour l’entraînement
La tâche de récupération de la modalité quarrel a été entraînée sur environ 63 000 images et l’ensemble de validation était d’environ 15 800 images. Un GPU Volta avec 32 Go de RAM est utilisé.
7. Méthodologie d’évaluation
Afin d’évaluer l’efficacité de la méthode, les auteurs ont utilisé le rang médian relatif de l’index de recherche, la précision du top 5 et ont généré les indicateurs PixCorr, SSIM, SwAV. Dans le même temps, afin d’évaluer équitablement les performances de décodage MEG, les auteurs utilisent des démonstrations d’images répétées dans l’ensemble de données pour faire la moyenne des valeurs prédites avant d’évaluer les indicateurs.
8. Jeu de données:
Jeu de données THINGS
LES AUTEURS TESTENT LA MÉTHODE SUR LE JEU DE DONNÉES THINGS-MEG. Quatre participants (âgés en moyenne de 23,25 ans) ont suivi 12 formations MEG et, au cours du processus de formation, ils ont vu 22 448 images sélectionnées dans l’ensemble de données THING. Sur cette base, on leur montre un ensemble d’images sélectionnées dans la base de données THINGS, et ces images sont utilisées pour étendre l’échelle de récupération et améliorer la capacité de récupération, améliorant ainsi la robustesse de la méthode.
Résultat
L’apprentissage automatique est considéré comme un modèle efficace pour comprendre les réponses cérébrales**
Quels modèles offrent les performances de décodage les plus puissantes pour une représentation naturelle de l’image ?
Pour répondre à cette question, Meta a utilisé des modèles de régression linéaire de crête pour prédire 16 représentations visuelles potentielles différentes compte tenu de la réponse MEG aplatie pour chaque image, et a comparé les performances de récupération. Ceci est illustré dans le tableau suivant.
Tous les plongements d’images ont montré des performances supérieures à celles de la récupération aléatoire, mais les modèles d’alignement texte/image supervisés (par exemple, VGG, CLIP) ont obtenu les scores de récupération les plus élevés.
L’apprentissage automatique est considéré comme un outil efficace pour apprendre les réponses cérébrales**
Meta compare ensuite ces lignes de base linéaires à des structures de réseau convolutives profondes entraînées sur la même tâche, en récupérant les images correspondantes dans la fenêtre MEG.
L’utilisation du modèle de profondeur a permis d’améliorer les performances de 7 fois par rapport à une ligne de base linéaire (Figure 2 ci-dessous).
Une variété de types d’intégration d’images ont montré de bonnes performances de récupération, parmi lesquels les cinq principaux taux de précision de VGG-19 (apprentissage supervisé), CLIP-Vision (alignement texte/image) et DINOv2 (apprentissage auto-supervisé) étaient : 70,33 ± 2,80 %, 68,66 ± 2,84 %, 68,00 ± 2,86 % (calcul de l’erreur type de la métrique moyenne de l’image).
Une conclusion similaire peut être tirée du paramètre de l’ensemble de test « grand », bien que les performances soient inférieures, le décodage dépend non seulement de la classe d’image, mais doit également distinguer plusieurs images de la même catégorie. Un exemple de recherche représentatif est illustré dans la figure ci-dessous.
Récupération d’images au niveau de la résolution temporelle
Pour étudier plus en détail la possibilité que des représentations visuelles se déploient dans le cerveau, les auteurs ont analysé sur une fenêtre glissante de 250 ms :
Tous les modèles ont atteint une représentation de niveau de référence avant que l’image ne soit rendue. Le premier pic évident peut être observé dans la fenêtre de 0 ~ 250 ms de l’image, suivi du deuxième pic après le décalage de l’image, puis retombant rapidement à la fenêtre de 0 à 250 ms, tous les modèles sont conformes à cette loi.
Il est intéressant de noter que le récent modèle auto-supervisé DINOv2 fonctionne particulièrement bien après un biais d’image.
Pour mieux comprendre la signification de la métrique de décodage, la figure ci-dessous montre que les résultats de la recherche ont été testés sur l’ensemble de test d’origine avec un ensemble supplémentaire composé de 3 659 images que les participants n’avaient jamais vues.
On peut voir que le décodeur tire parti des réponses cérébrales associées au biais de l’image, et dès 250 ms, les informations de catégorie dominaient ces représentations visuelles.
Générer des images à partir de signaux MEG
Bien que le décodage en tant que tâche de récupération produise de bons résultats, il nécessite que des images d’échantillons positifs se trouvent dans l’ensemble de récupération, ce qui a une application limitée dans la pratique. Pour résoudre ce problème, les auteurs ont entraîné trois modules cérébraux différents à prédire.
Selon les mesures d’évaluation du tableau 1, les images générées présentaient une qualité visuelle relativement élevée, et plusieurs images générées présentaient correctement les catégories sémantiques. Cependant, ces images générées semblent contenir des informations visuelles de bas niveau provenant de l’image réelle.
Discuter
Impact
Cette recherche a des implications fondamentales et pratiques.
Premièrement, on s’attend à ce que la capacité de décoder des représentations perceptuelles complexes au fil du temps fasse progresser considérablement la compréhension humaine des divers processus impliqués dans le traitement visuel du cerveau.
De nombreux travaux sont en cours pour examiner la nature et le moment des représentations construites en cours de route par les systèmes de vision. Cependant, ces résultats peuvent être difficiles à interpréter, en particulier pour les fonctionnalités avancées.
Le décodage génératif de cette étude fournit des prédictions concrètes et interprétables.
Deuxièmement, le cas d’utilisation le plus évident de la technologie de décodage cérébral est d’aider les patients dont les lésions cérébrales affectent la communication.
Cependant, ce cas d’utilisation nécessite un décodage en temps réel, limitant ainsi l’utilisation de modalités de neuroimagerie à plus faible résolution temporelle telles que l’IRMf.
En conséquence, les efforts actuels ouvrent la voie au décodage en temps réel à l’avenir.
Limitations
L’analyse de Meta a mis en évidence trois limites principales dans le décodage des images à partir de signaux MEG.
Tout d’abord, le décodage des caractéristiques sémantiques de haut niveau prime sur le décodage des caractéristiques de bas niveau : en particulier, l’image résultante conserve mieux la sémantique (par exemple, les catégories d’objets) que les caractéristiques de bas niveau (par exemple, les contours, les ombres).
Il est difficile d’attribuer ce phénomène au déroulement de l’étude : en effet, l’application d’une procédure similaire aux enregistrements d’IRMf 7T permet de reconstruire raisonnablement des caractéristiques de bas niveau.
Au lieu de cela, ce résultat fait écho au fait que la résolution spatiale (≈ cm) de la MEG est beaucoup plus faible que celle de l’IRMf 7T (≈ mm).
Deuxièmement, l’approche actuelle repose directement sur le pré-entraînement de plusieurs modèles et n’apprend que de bout en bout à aligner les signaux MEG avec ces plongements pré-entraînés.
Les résultats de l’étude montrent que cette méthode surpasse les fonctionnalités traditionnelles de vision par ordinateur telles que les histogrammes de couleur, les transformées de Fourier rapides et les histogrammes à gradient directionnel (HOG).
Ceci est cohérent avec des études MEG récentes qui ont montré que les plongements pré-entraînés sont supérieurs aux approches complètes de bout en bout dans le contexte du décodage de la parole.
Cependant, deux aspects doivent encore être testés à l’avenir :
(1) Affinez l’image et générez le module
(2) La combinaison de différents types de caractéristiques visuelles peut-elle améliorer les performances de décodage ?
Ressources:
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Le cerveau de l’IA se réalise avec un délai de seulement 0,25 seconde ! Nouvelle étude Meta Milestone : le MEG décode les images cérébrales en temps réel, ce que LeCun aime
Source originale : Shin Ji Yuan
La lecture de l’esprit par l’IA est terminée !?
Aujourd’hui, LeCun a transmis la dernière percée de Meta AI : l’IA a été capable de décoder la perception d’images dans l’activité cérébrale en temps réel !
À l’aide de la magnétoencéphalographie (MEG), une technique de neuroimagerie non invasive, Meta scanne des milliers de scans d’activité cérébrale par seconde et a développé un système d’IA capable de décoder les représentations visuelles dans le cerveau en temps quasi réel.
À long terme, il peut également servir de base à des interfaces cerveau-ordinateur non invasives dans les milieux cliniques, aidant ceux qui perdent la capacité de parler après avoir subi une lésion cérébrale à communiquer avec le monde extérieur.
Plus précisément, Meta a développé un système composé d’un encodeur d’image, d’un encodeur cérébral et d’un décodeur d’image.
Meta a d’abord comparé les performances de décodage de divers modules d’image pré-entraînés et a constaté que les signaux cérébraux sont très cohérents avec les systèmes d’IA de vision par ordinateur tels que DINOv2.
Les résultats confirment que l’apprentissage auto-supervisé permet aux systèmes d’IA d’apprendre des représentations semblables à celles du cerveau – les neurones artificiels dans les algorithmes ont tendance à être activés de la même manière que les neurones physiques dans le cerveau pour répondre aux mêmes images.
Cette coordination du système d’IA et des fonctions cérébrales permet à l’IA de produire des images très similaires à celles vues par les humains dans un scanner.
Meta estime que si l’imagerie par résonance magnétique fonctionnelle (IRMf) peut mieux décoder les images, les décodeurs MEG peuvent générer des résultats en temps réel, décodant en continu l’activité cérébrale, générant un flux continu et presque en temps réel d’images.
C’est essentiel pour aider les patients qui sont incapables de communiquer avec le monde extérieur en raison de lésions cérébrales et de communiquer avec le monde extérieur en temps réel.
La magnétoencéphalographie (MEG) est une technique de neuroimagerie fonctionnelle qui cartographie l’activité cérébrale en utilisant un magnétomètre très sensible pour enregistrer le champ magnétique généré par les courants électriques naturels dans le cerveau.
Les réseaux SQUID (Superconducting Quantum Interferometer) sont actuellement les magnétomètres les plus courants, tandis que les magnétomètres SERF (Spin Free Exchange Relaxation) sont à l’étude pour les futures machines MEG.
Architecture technique de la lecture cérébrale par IA
L’auteur propose un pipeline de formation multimodal :
(1) L’activité MEG est d’abord alignée sur les caractéristiques de l’image pré-entraînées ;
(2) Générer des images à partir de flux de signaux MEG
Les auteurs mentionnent que ce système a deux contributions majeures :
Les décodeurs MEG permettent (1) la récupération et la génération d’images hautes performances,
(2) Fournir de nouvelles méthodes d’interprétation du traitement visuel dans le cerveau. Cela montre que la méthode proposée a la capacité de vraiment généraliser à de nouvelles idées visuelles et d’ouvrir la voie à un décodage visuel « de forme libre ».
En bref, les résultats de l’étude ont ouvert une voie prometteuse pour le décodage en temps réel des représentations visuelles en laboratoire et en clinique.
Méthode
1. Description du problème
L’objectif de l’étude des auteurs était de demander à un groupe de participants en bonne santé de regarder une série d’images naturelles, d’enregistrer leur activité cérébrale à l’aide de MEG, puis de décoder les images à partir des signaux de séries temporelles, sur lesquels le décodeur s’appuie sur des modèles génératifs.
2. Objectifs de la formation
Le pipeline proposé par les auteurs comporte plusieurs parties, de sorte qu’une stratégie d’optimisation multi-objectifs est utilisée, et CLIP Loss est utilisé lors de la récupération d’images.
L’auteur utilise l’architecture de réseau de neurones convolutifs pour extraire des caractéristiques et, sur cette base, une couche d’agrégation de séries chronologiques est ajoutée pour réduire la dimensionnalité et économiser la surcharge de calcul.
4. Modèle d’image
Pour l’encodage des caractéristiques des images, les auteurs explorent VGG-19, CLIP et ses variantes, ainsi que la structure Transformer.
5. Générer le modèle
Afin de pouvoir comparer équitablement les résultats de l’IRMf, les auteurs ont utilisé un modèle pré-entraîné comme d’autres articles et se sont entraînés sur cette tâche.
6. Consommation de ressources de calcul pour l’entraînement
La tâche de récupération de la modalité quarrel a été entraînée sur environ 63 000 images et l’ensemble de validation était d’environ 15 800 images. Un GPU Volta avec 32 Go de RAM est utilisé.
7. Méthodologie d’évaluation
Afin d’évaluer l’efficacité de la méthode, les auteurs ont utilisé le rang médian relatif de l’index de recherche, la précision du top 5 et ont généré les indicateurs PixCorr, SSIM, SwAV. Dans le même temps, afin d’évaluer équitablement les performances de décodage MEG, les auteurs utilisent des démonstrations d’images répétées dans l’ensemble de données pour faire la moyenne des valeurs prédites avant d’évaluer les indicateurs.
8. Jeu de données:
LES AUTEURS TESTENT LA MÉTHODE SUR LE JEU DE DONNÉES THINGS-MEG. Quatre participants (âgés en moyenne de 23,25 ans) ont suivi 12 formations MEG et, au cours du processus de formation, ils ont vu 22 448 images sélectionnées dans l’ensemble de données THING. Sur cette base, on leur montre un ensemble d’images sélectionnées dans la base de données THINGS, et ces images sont utilisées pour étendre l’échelle de récupération et améliorer la capacité de récupération, améliorant ainsi la robustesse de la méthode.
Résultat
L’apprentissage automatique est considéré comme un modèle efficace pour comprendre les réponses cérébrales**
Quels modèles offrent les performances de décodage les plus puissantes pour une représentation naturelle de l’image ?
Pour répondre à cette question, Meta a utilisé des modèles de régression linéaire de crête pour prédire 16 représentations visuelles potentielles différentes compte tenu de la réponse MEG aplatie pour chaque image, et a comparé les performances de récupération. Ceci est illustré dans le tableau suivant.
L’apprentissage automatique est considéré comme un outil efficace pour apprendre les réponses cérébrales**
Meta compare ensuite ces lignes de base linéaires à des structures de réseau convolutives profondes entraînées sur la même tâche, en récupérant les images correspondantes dans la fenêtre MEG.
L’utilisation du modèle de profondeur a permis d’améliorer les performances de 7 fois par rapport à une ligne de base linéaire (Figure 2 ci-dessous).
Une conclusion similaire peut être tirée du paramètre de l’ensemble de test « grand », bien que les performances soient inférieures, le décodage dépend non seulement de la classe d’image, mais doit également distinguer plusieurs images de la même catégorie. Un exemple de recherche représentatif est illustré dans la figure ci-dessous.
Pour étudier plus en détail la possibilité que des représentations visuelles se déploient dans le cerveau, les auteurs ont analysé sur une fenêtre glissante de 250 ms :
Tous les modèles ont atteint une représentation de niveau de référence avant que l’image ne soit rendue. Le premier pic évident peut être observé dans la fenêtre de 0 ~ 250 ms de l’image, suivi du deuxième pic après le décalage de l’image, puis retombant rapidement à la fenêtre de 0 à 250 ms, tous les modèles sont conformes à cette loi.
Il est intéressant de noter que le récent modèle auto-supervisé DINOv2 fonctionne particulièrement bien après un biais d’image.
Générer des images à partir de signaux MEG
Bien que le décodage en tant que tâche de récupération produise de bons résultats, il nécessite que des images d’échantillons positifs se trouvent dans l’ensemble de récupération, ce qui a une application limitée dans la pratique. Pour résoudre ce problème, les auteurs ont entraîné trois modules cérébraux différents à prédire.
Discuter
Impact
Cette recherche a des implications fondamentales et pratiques.
Premièrement, on s’attend à ce que la capacité de décoder des représentations perceptuelles complexes au fil du temps fasse progresser considérablement la compréhension humaine des divers processus impliqués dans le traitement visuel du cerveau.
De nombreux travaux sont en cours pour examiner la nature et le moment des représentations construites en cours de route par les systèmes de vision. Cependant, ces résultats peuvent être difficiles à interpréter, en particulier pour les fonctionnalités avancées.
Le décodage génératif de cette étude fournit des prédictions concrètes et interprétables.
Deuxièmement, le cas d’utilisation le plus évident de la technologie de décodage cérébral est d’aider les patients dont les lésions cérébrales affectent la communication.
Cependant, ce cas d’utilisation nécessite un décodage en temps réel, limitant ainsi l’utilisation de modalités de neuroimagerie à plus faible résolution temporelle telles que l’IRMf.
En conséquence, les efforts actuels ouvrent la voie au décodage en temps réel à l’avenir.
Limitations
L’analyse de Meta a mis en évidence trois limites principales dans le décodage des images à partir de signaux MEG.
Tout d’abord, le décodage des caractéristiques sémantiques de haut niveau prime sur le décodage des caractéristiques de bas niveau : en particulier, l’image résultante conserve mieux la sémantique (par exemple, les catégories d’objets) que les caractéristiques de bas niveau (par exemple, les contours, les ombres).
Il est difficile d’attribuer ce phénomène au déroulement de l’étude : en effet, l’application d’une procédure similaire aux enregistrements d’IRMf 7T permet de reconstruire raisonnablement des caractéristiques de bas niveau.
Deuxièmement, l’approche actuelle repose directement sur le pré-entraînement de plusieurs modèles et n’apprend que de bout en bout à aligner les signaux MEG avec ces plongements pré-entraînés.
Les résultats de l’étude montrent que cette méthode surpasse les fonctionnalités traditionnelles de vision par ordinateur telles que les histogrammes de couleur, les transformées de Fourier rapides et les histogrammes à gradient directionnel (HOG).
Ceci est cohérent avec des études MEG récentes qui ont montré que les plongements pré-entraînés sont supérieurs aux approches complètes de bout en bout dans le contexte du décodage de la parole.
Cependant, deux aspects doivent encore être testés à l’avenir :
(1) Affinez l’image et générez le module
(2) La combinaison de différents types de caractéristiques visuelles peut-elle améliorer les performances de décodage ?
Ressources: