Les expressions faciales chez la souris révèlent des variables cognitives latentes et leurs corrélats neuronaux

« Décoder les variables cognitives latentes par les expressions faciales » — Analyse approfondie d’une nouvelle étude publiée dans Nature Neuroscience

Introduction : Un dialogue silencieux entre cerveau et comportement

Dans le domaine des sciences du comportement animal et humain, la théorie traditionnelle se concentrait principalement sur les mouvements « intentionnels », adaptatifs — c’est-à-dire des actions produites pour accomplir une tâche ou poursuivre un objectif. Pourtant, les scientifiques ont depuis longtemps remarqué que l’activité cérébrale pouvait également « fuir » de façon involontaire dans le corps, générant une série de mouvements et expressions non volontaires et inadaptés. Ces phénomènes, appelés « mouvements incidentels » (incidental movements), ou « expressions faciales incidentelles », ont longtemps été considérés en psychologie populaire comme liés aux émotions et aux états internes ; cependant, il manquait jusque-là de preuves systématiques dans le champ de la neurobiologie et des neurosciences.

Ces dernières années, les chercheurs ont découvert que les mouvements corporels, et en particulier les expressions faciales, ne sont pas uniquement des marqueurs émotionnels ; ils peuvent aussi refléter des variables cognitives complexes, telles que la mémoire, la prise de décision et les états internes de l’animal. Par exemple, la posture des rongeurs peut révéler leur contenu de mémoire de travail (réf. 3,4) ; chez l’humain, le gain du réflexe du bras peut suivre l’accumulation des preuves sensorielles lors d’une décision (réf. 5) ; chez l’animal, le diamètre pupillaire varie non seulement en fonction de la lumière, mais reflète également l’état d’éveil et l’incertitude (réf. 10–12). Ces découvertes repoussent les frontières classiques de la science cognitive et comportementale, et soulèvent une question fondamentale : les manifestations corporelles peuvent-elles vraiment servir d’indicateur non invasif pour « lire » les calculs cognitifs latents du cerveau ? Et la « fuite » de ces variables révèle-t-elle seulement les processus reliés à l’exécution de tâches, ou peut-elle dévoiler des dynamiques cognitives plus profondes et générales ?

Cependant, un défi majeur demeure : les mouvements du corps reflètent-ils réellement les variables cognitives ou ne résultent-ils que des contraintes physiques propres à l’exécution de la tâche ? Par exemple, certains mouvements incidentels pourraient n’être présents que parce qu’ils sont liés à la réponse motrice (appuyer sur un bouton ou tourner la tête), sans refléter véritablement les calculs cognitifs internes. Ainsi, détecter l’expression corporelle de variables cognitives « abstraites », indépendantes de la tâche exécutée, devient le test clé pour cette hypothèse.

Source de l’étude et équipe de recherche

Cet article original est publié dans Nature Neuroscience (volume 28, novembre 2025, 2310–2318), sous le titre « facial expressions in mice reveal latent cognitive variables and their neural correlates » (« Les expressions faciales des souris révèlent des variables cognitives latentes et leurs corrélats neuronaux »). L’équipe d’auteurs comprend Fanny Cazettes, Davide Reato, Elisabete Augusto, Raphael Steinfeld, Alfonso Renart et Zachary F. Mainen, issus de la Champalimaud Foundation (Lisbonne, Portugal), l’Institut de Neurosciences de la Timone (Marseille, France), le Département BEL, Centre CMP, Mines Saint-Etienne (Gardanne, France), etc. Une équipe multidisciplinaire alliant neurosciences, sciences cognitives, éthologie et bénéficiant des ressources de plusieurs institutions de premier plan.

Démarche expérimentale et détails des protocoles

L’étude utilise la souris comme modèle expérimental, avec un design multimodal innovant, dont le flux de travail comprend principalement :

1. Conception de la tâche comportementale — tâche probabiliste de décision de recherche alimentaire

Les souris, la tête fixée à un tapis roulant linéaire, peuvent librement basculer entre deux points de recherche artificiels ; l’état de récompense de chaque site est contrôlé par un état caché (rewarding/depleted). Les souris obtiennent une goutte d’eau sucrée à chaque léchage au port de distribution, chaque léchage ayant une probabilité de 90 % d’obtenir 1 μl d’eau en état de récompense. À chaque léchage, il y a 30 % de chance que le site soit « épuisé », forçant la souris à changer de site pour continuer à être récompensée. Le cœur de la décision réside dans le choix du moment de quitter le site actuel, choix guidé par diverses stratégies cognitives complexes (accumulation d’évidence, intégration récompense/sanction, etc.).

Différenciation des stratégies comportementales et modélisation – Algorithme LM-HMM

Les chercheurs ont utilisé un modèle de Markov caché associé à une régression linéaire (LM-HMM) pour modéliser les stratégies décisionnelles et isoler les « variables décisionnelles » :

  • Stratégie basée sur l’inférence (inference-based strategy) : repose uniquement sur l’accumulation de l’échec consécutif (« consecutive failures »), le compteur étant réinitialisé en cas de récompense.
  • Stratégie basée sur le stimulus (stimulus-bound strategy) : dépend du cumul des récompenses reçues (negative value), plus la récompense est élevée, plus la souris reste longtemps.
  • Stratégie d’inférence impulsive (impulsive inference strategy) : typiquement de courte durée et guidée par un biais élevé.

Avec une validation croisée imbriquée et une estimation du maximum de vraisemblance, le modèle identifie de façon stable trois stratégies, capables de décrire précisément les variables décisionnelles selon la stratégie active.

2. Enregistrements synchronisés comportement/neural

Les enregistrements simultanés comprennent :

  • Données comportementales : Caméra haute vitesse (60 ips) capturant les vidéos faciales lors des léchages.
  • Données neuronales : Utilisation de matrices d’électrodes Neuropixels (374 sites d’enregistrement) pour obtenir l’activité multi-neuronale dans le cortex moteur secondaire (M2) et autres zones.
  • Traitement vidéo : Outil open-source Facemap pour extraire l’« énergie motrice » et, via SVD, obtenir 100 composantes principales (PCs) du mouvement facial.

3. Décodage multimodal des expressions faciales et des variables cognitives latentes

  • Régression multivariée (GLM) : utilisation des PCs du mouvement facial comme variables indépendantes pour prédire les variables cognitives latentes (consecutive failures/negative value) via des modèles linéaires régularisés et une validation croisée stricte.
  • Contrôle des facteurs de confusion : orthogonalisation (décorrélation) des variables décisionnelles par rapport aux résultats moteurs et à la fréquence de léchage ; extraction de l’effet propre à chaque variable.
  • Analyse de représentation spatiale : sommation pondérée des images pour reconstruire les cartes spatiales des variables latentes sur le visage de la souris et comparaison de la constance entre individus et conditions.

4. Exploration causale par analyses neuronales et interventionnelles

  • Analyse temporelle : Modèles GLM par fenêtres glissantes pour comparer les délais d’expression des variables décisionnelles (précocité, précision) entre l’activité de M2, du cortex orbitofrontal (OFC), du cortex olfactif (OC) et les mouvements faciaux.
  • Intervention optogénétique : Mice Vgat-ChR2 : activation lumineuse (bleu) des neurones GABAergiques pour inhiber M2 sur 30 % des essais, avec monitoring vidéo des variations faciales et impact sur le décodage des variables latentes.

Principaux résultats expérimentaux et relations logiques

(1) Identification des stratégies comportementales et des variables cognitives latentes

Grâce au LM-HMM, trois stratégies sont objectivement distinguées, chacune reposant sur une variable de décision principale différente. La régression logistique multivariée démontre que la variable échecs consécutifs explique mieux les stratégies d’inférence, tandis que la variable negative value est fortement corrélée à la stratégie stimulus-dépendante.

(2) Expressions faciales hautement représentatives des variables cognitives

  • Les PCs du mouvement facial permettent de décoder non seulement la variable cognitive majoritairement utilisée pour le comportement, mais aussi les variables « latentes » calculées par le cerveau et non manifestées dans la conduite.
  • Des motifs spatiaux distincts se dégagent (par exemple, le negative value impacte surtout la région du nez, alors que consecutive failures s’exprime de façon subtile).
  • Ces expressions sont hautement consistantes entre individus, et au sein d’un même animal au fil des sessions.

(3) Fonction de « réservoir » cognitif des expressions faciales

L’expérience montre que, même lorsqu’une stratégie n’est pas utilisée actuellement, sa variable cognitive correspondante reste exprimée dans l’expression faciale, sans relation avec la stratégie comportementale. Cela prouve que le visage laisse « fuiter » plusieurs variables cognitives calculées en parallèle par le cerveau, constituant un « réservoir cognitif ».

(4) Délai neuro-facial et causalité

  • La précision du décodage des variables par les mouvements faciaux est similaire à celle obtenue dans M2, mais les expressions faciales accusent un léger retard (~50 ms) sur l’activité neuronale de M2. Les corrélations avec OFC et OC sont plus faibles et plus retardées.
  • L’inactivation optogénétique de M2 modifie les expressions faciales, diminue significativement la précision de décodage des variables cognitives latentes et allonge leurs délais, ces effets étant fortement corrélés à l’intensité du mouvement facial.

Conclusions et significations scientifiques

Cette étude prouve de façon convaincante que les expressions faciales animales ne sont pas de simples reflets des émotions, mais constituent une fenêtre en temps réel sur la fuite de variables cognitives cérébrales complexes. Les micro-mouvements faciaux représentent précisément (et de façon stable) les multiples variables décisionnelles parallèlement calculées dans le cerveau, même si elles ne sont pas directement exprimées par le comportement. De plus, une partie de cette expressivité faciale provient de l’activité de la région M2, positionnant l’expression faciale au carrefour du neuro-cognitif et du comportemental.

D’un point de vue scientifique, ce travail révèle la multiplicité des « fuites » cognitives, brisant la vision classique qui voulait que le comportement ne reflète que la variable décisionnelle du moment. Il offre une nouvelle perspective pour la neuroéthologie cognitive. Sur le plan applicatif, la surveillance non invasive des expressions faciales ouvre des perspectives pour comprendre l’activité mentale d’animaux ou d’humains, voire pour remplacer partiellement les méthodes d’enregistrement neural — utile en diagnostic, interaction homme-machine, santé intelligente, etc.

Points forts et innovations de l’étude

  • Design expérimental innovant : recueil synchronisé multimodal du comportement et des signaux neuronaux, modèle LM-HMM original pour l’analyse orthogonale des variables cognitives multiples.
  • Innovation méthodologique : Décodage pour la première fois via les composantes principales de l’énergie motrice vidéo, à la fois de variables cognitives liées ou non au comportement, démontrant que le visage est une fenêtre scientifiquement valide de fuite cognitive latente.
  • Preuve causale : Inactivation optogénétique de M2 montrant la base neuronale de l’expression faciale des variables cognitives.
  • Grande consistance : Forte reproductibilité des expressions faciales entre souris et à travers différentes sessions, fondant une validité biologique et potentielle universalité.
  • Généralisation inter-tâches : Décodage possible pour des variables cognitives lentes (numéro d’essai, etc.) ou sur d’autres tâches (2AFC auditive), sans spécificité de tâche.

Informations additionnelles de valeur

L’article alerte aussi sur la problématique croissante de la protection de la vie privée liée aux technologies de reconnaissance biométrique et vidéo non invasives – les expressions faciales pouvant révéler un vaste éventail de processus internes. Les auteurs appellent à des évolutions réglementaires et éthiques, tout en rendant accessibles les outils développés (Facemap, LM-HMM) en open source pour la communauté internationale.

Synthèse et perspectives

Ce travail décode le lien entre expression faciale et variables cognitives cérébrales, et inaugure un nouveau paradigme d’interaction « expression-cognition » en neurosciences. À l’avenir, cette approche pourra trouver des applications dans le diagnostic des troubles psychiatriques, la surveillance intelligente, ou encore l’interface homme-machine, formant un socle porté par la synergie interdisciplinaire.