Voix ou son ? Le cerveau a l'ouïe fine

Pour distinguer la voix du son, le cerveau s’adapte à l’intention de la personne. Selon la tâche qui lui est demandée le cortex auditif ne se concentre pas de la même manière sur ces deux composantes du langage.

Pour distinguer la voix du son, le cerveau s’adapte à l’intention de la personne en privilégiant soit l’écoute de la voix, soit celle des sons.

Des chercheurs de l’Université de Genève (UNIGE), en collaboration avec l’Université de Maastricht, ont créé des pseudo-mots dictés par trois voix aux timbres différents. Leur but était d’observer la manière dont le cerveau traite ces informations, lorsqu’il se focalise soit sur la voix, soit sur les sons. Ils ont constaté que le cortex auditif ne se concentre pas sur les mêmes aspects - voix ou sons - en fonction de la tâche qui lui est demandée. Ces résultats permettent d’éclaircir les mécanismes cérébraux du traitement de la parole.

L’information langagière est caractérisée par deux facteurs : d’une part la voix de l’interlocuteur, d’autre part les sons qu’il prononce (phonèmes). Le cerveau traite-t-il ces deux informations de la même manière ? « Pour répondre à cette question, nous avons créé 120 pseudo-mots qui respectent la phonologie française, mais qui n’ont aucun sens, afin que le traitement sémantique ne vienne pas interférer avec la perception pure des phonèmes » explique Narly Golestani, professeure à la Faculté de psychologie et des sciences de l’éducation (FPSE) de l’UNIGE.

Ces pseudo-mots mettaient en avant des phonèmes comme /pe/, /te/ et /ke/, à l’image de /gabratade/, /preperibion/ ou encore /ecalimacre/. L’équipe de l’UNIGE a enregistré la voix d’une phonéticienne qui articulait l’ensemble des pseudo-mots, qu’elle a ensuite convertis en trois voix différentes, de graves à aigus.

Comment le cerveau trie les informations langagières

Les scientifiques ont ensuite placé les participants de l’étude dans un scanner pour imagerie par résonnance magnétique fonctionnelle à haut champ magnétique (7 Tesla) qui permet de mesurer l’oxygénation du sang dans le cerveau, donc son activité. Plus il y a d’oxygène dans une zone du cerveau, plus cela signifie que cette zone est employée. Les participants ont écouté les pseudo-mots lus par les trois voix et devaient d’abord identifier les phonèmes /pe/, /te/ et /ke/, puis dire si ceux-ci étaient lus par la voix 1, 2 ou 3.

Les chercheurs avaient préalablement analysé les pseudo-mots enregistrés, au niveau acoustique, en se focalisant sur la fréquence (haut/bas), la modulation temporelle (à quelle rapidité le son change à travers le temps) et la modulation spectrale (comment l’énergie est rependue à travers les différentes fréquences). Ils en avaient déduit que : 

Ils ont ensuite analysé - grâce aux résultats de l’IRM - l’activation cérébrale dans le cortex auditif lors du traitement des sons durant ces deux tâches. Lorsque les participants devaient se concentrer sur les voix, le cortex auditif amplifiait les hautes modulations spectrales. Pour les phonèmes, il répondait plus aux modulations temporelles rapides et aux modulations spectrales basses. « Dans les deux cas, nous voyons que les résultats d’analyse des sons et celles des résultats de l’IRM sont très similaires », se réjouit Narly Golestani.

Ces analyses comparatives permettent de relever que pendant l’écoute, le cortex auditif amplifie l’aspect acoustique critique pour répondre à la tâche demandée : soit distinguer une voix, soit différencier des phonèmes. « C’est la première fois chez l’homme que l’on démontre, à l’aide de méthodes non invasives, que le cerveau s’adapte à la tâche et aux spécificités des informations acoustiques sur lesquelles on veut porter notre attention dans la parole » souligne Sanne Rutten, chercheuse à la Section de psychologie de la FPSE de l’UNIGE.

Cette étude permet aujourd’hui de comprendre les mécanismes du traitement des sons et des bases du traitement langagier par le cerveau. « Cela sera utile pour nos recherches futures, en particulier sur le traitement d’autres niveaux de langage, y compris la sémantique, la syntaxe et la prosodie, thèmes que nous envisageons d’explorer dans le cadre d’un Pôle de recherche national sur l’origine et l’avenir du langage que nous avons demandé en collaboration avec des chercheurs de toute la Suisse » conclut Narly Golestani.

Sources :
Cortical encoding of speech enhances task-relevant acoustic information
Sanne Rutten, Roberta Santoro, Alexis Hervais-Adelman, Elia Formisano & Narly Golestani
in Nature Human Behaviour (2019)