Ce que notre cerveau entend au-delà des mots
Comment sait-on qu’une phrase est prononcée par une femme ? Comment sait-on que ce qu’elle nous a dit était une question ? Des chercheur-ses de l’Université de Zurich et du PRN Evolving Language ont décrit les processus complexes qui ont lieu dans notre cerveau, et qui nous permettent de comprendre l’information contenue dans le ton.
Par le PRN Evolving Language
Quand on écoute quelqu’un parler, nous entendons plus que leurs mots ! Leur ton révèle aussi des informations paralinguistiques clés, qui nous en disent plus sur l’identité de l’orateur (leur âge, leur genre…), mais aussi sur le sens de la phrase, en nous permettant de différencier entre les questions et les affirmations par exemple.
Pour comprendre ce que quelqu’un dit, notre cerveau transforme l’information auditive en représentations abstraites et invariantes qui font interface avec notre système conceptuel. Mais comment cela marche-t-il avec le ton ? Dans une nouvelle étude publiée dans Communications Biology, un groupe de chercheur-ses de l’Université de Zurich et du PRN Evolving Language ont étudié comment le cerveau enregistre ces informations importantes. En utilisant la magnétoencéphalographie (MEG), ils sont parvenus à repérer précisément les voies impliquées dans le traitement du ton. Et à leur surprise, ce ne sont pas les mêmes que celles utilisées pour le reste de l’information auditive !
Des stimuli à ton variable
Pour étudier comment le ton est traité par le cerveau, les chercheur-ses ont dû créer des signaux langagiers contenant des variations dans cet indice paralinguistique. Pour cela, ils ont créé de multiples stimuli, pas prononcés par une vraie personne, ajustant la hauteur du ton et la dynamique du signal auditif. “Cela nous a permis de contrôler avec attention les paramètres acoustiques, afin d’éliminer des potentiels facteurs de confusion”, dit Chantal Oderbolz, première auteure de l’étude. La hauteur variante du signal représentait le genre de l’orateur de fiction, et la dynamique du signal, si le stimulus pouvait être compris comme une question ou une affirmation.
Les stimuli synthétisés ont ensuite été joués pour 34 participant-es, alors que leur activité cérébrale était enregistrée par une machine d’imagerie qui mesure les signaux neuromagnétiques. Après chaque stimulus, les participant-es le classifiaient comme une question ou une affirmation.
Les chercheur-ses ont ensuite analysé les données enregistrées avec des méthodes computationnelles, pour déterminer ce qui se passait exactement dans le cerveau quand on entend le ton. “En utilisant une analyse de similarité représentationnelle (RSA), nous obtenons des cartes de (dis)similarités de nos données, c’est-à-dire comment les différents stimuli sont liés les uns aux autres, lesquelles ont été comparées avec des modèles de ce à quoi ces cartes ressembleraient si le cerveau représentait les stimuli de manière acoustiquement détaillée ou selon le type de phrase”, explique Oderbolz.
Un chemin dans le côté droit du cerveau
Avec leur analyse en profondeur des activités cérébrales des participant-es, les chercheur-ses ont déterminé que les premières phases du traitement du signal, dans les régions auditives précoces du côté droit du cerveau, accordent une grande importance aux détails acoustiques des stimuli. “Cela signifie qu’à ce moment, le cerveau représente des informations sur le genre de l’orateur-rice, et sur la clarté avec laquelle iel a signifié le type de la phrase”, souligne Chantal Oderbolz. En contraste, les stades de traitement plus tardif, se passant dans les régions extra-auditives antérieures droites, ne s’occupent que de la catégorie du type de phrase (question ou affirmation). “Cela montre qu’il y a une transformation d’un signal acoustique à une représentation abstraite, pendant le traitement du ton”, ajoute la chercheuse. Et au plus cette transformation est précise, au mieux les auditeur-rices parviennent à classifier les stimuli correctement.
Après cette transformation, les données montrent des échanges entre les côtés droits et gauches du cerveau, ce qui pourrait indiquer la transmission des représentations finales, déterminant la classification du signal par l’auditeur-rice.
Un processus hiérarchique
Les résultats montrent que le ton est traité par le cerveau d’une manière hiérarchique. “Cela signifie que le cerveau construit le sens pas à pas, de simple à complexe, en changeant les sons en des unités sensées”, dit Oderbolz. Une telle organisation est déjà bien établie dans la compréhension de la parole, mais aussi dans la vision et le contrôle moteur.
Et maintenant, cela a été étendu au traitement du ton. Pour la chercheuse, cela ajoute à la théorie que cela serait un principe d’organisation générale utilisé par le cerveau. “Cela a aussi été observé chez les primates non-humains, ce qui a des implications évolutionnaires intéressantes”, ajoute-t-elle.
Dans le futur, les chercheur-ses souhaitent pousser leur analyse plus loin, dans un environnement moins contrôlé. “La perception de la parole n’arrive pas en isolation : les gens parlent généralement avec des phrases complètes, qui sont très riches en informations et en contexte”, dit Oderbolz. “Une piste de recherche future consisterait à examiner comment le ton est traité dans un contexte plus naturel et quelles en sont les conséquences sur la perception et le comportement”, complète l’auteur senior Martin Meyer. Dans son nouveau laboratoire Vivid Sound Lab, il sera possible de mener ce type d’études qui examinent toutes sortes de compréhensions et de productions linguistiques dans un environnement naturel.
Utiliser la magnétoencéphalographie
Pour cette expérience, les chercheur-ses ont utilisé un appareil de magnétoencéphalographie (MEG), localisé à la Human Neuroscience Platform (HNP) au Campus Biotech, la seule disponible pour la recherche en Suisse à ce jour.
La MEG a la capacité de mesurer l’activité cérébrale avec une haute résolution temporelle. Elle enregistre les très petits champs magnétiques qui sont générés par l’activité électrique des neurones. “Grâce à ça, la MEG est superbe pour l’étude de la perception de la parole, puisque c’est un processus si rapide et dynamique qui implique de nombreuses régions du cerveau”, dit Chantal Oderbolz.
Mais bien que cette technique soit très bonne en analyse temporelle, elle est un peu moins précise pour l’information spatiale. Pour cette raison, les chercheur-ses ont combiné leurs données MEG avec de l’imagerie par résonance magnétique (IRM), afin d’être encore plus confiants sur l’origine exacte des signaux.
“Même si ça a beaucoup d’avantages, de nombreux facteurs peuvent rendre les participant-es incompatibles avec la machine”, partage Oderbolz. En effet, le signal est sensible à tout ce qui est magnétique ou métallique, donc les personnes avec des implants, des appareils dentaires, des tatouages, et même des cheveux teints récemment, ne pouvaient pas participer à l’étude. “La liste est longue, et il était difficile de trouver des gens qui répondaient à tous les critères”, ajoute la chercheuse. “Mais cela en valait vraiment la peine, parce que nous avons maintenant une excellente base de données MEG, et des résultats très intéressants, qui nous permettent de mieux comprendre comment nous transformons la parole en signification”, conclut-elle.
