Variation de la voix, gestuelle, syntaxe ou encore sémantique… La perception du discours diffère en fonction de multiples paramètres. Mieux comprendre cette multimodalité du langage représente alors un véritable enjeu en linguistique fondamentale mais aussi en amélioration du traitement automatique du langage !

Pour mieux comprendre un discours oral, chacun, appelé ici « récepteur », va le découper en petites unités. Ces coupures, appelées « frontières » sont influencées par plusieurs paramètres que sont les gestes des mains ou la prosodie (variations de rythmes et de mélodie de la voix).
Afin de mesurer la force de perception des frontières et leur impact, Manon Lelandais, maître de conférences au laboratoire CLILLAC-ARP d’Université Paris Cité, et Gabriel Thiberge, chercheur post-doctorant au Laboratoire de Linguistique Formelle (Université Paris Cité, CNRS), ont étudié la façon dont certains paramètres sont utilisés par le récepteur pour découper le discours. Ils se sont particulièrement intéressés à la prosodie et aux gestes manuels dits représentationnels, utilisés pour décrire, de manière concrète ou abstraite, une idée ou un objet.
Un panel de 37 personnes dites « naïves », c’est-à-dire n’ayant pas de connaissances particulières en linguistique, a donc été constitué et interrogé dans le cadre de cette étude expérimentale.
La tâche était simple. Le récepteur devait observer de courts extraits vidéos (7 secondes environ) présentant un seul locuteur dont les mains sont visibles mais dont le visage est flouté pour ne pas influencer la perception des frontières par les mimiques du visage (regard, haussement de sourcil). Dans certains extraits, le contenu sémantique du discours n’était pas disponible, comme si la conversation était entendue depuis une autre pièce. Les récepteurs n’avaient pas accès au sens même de ce qu’ils entendaient et ne pouvaient donc que se focaliser sur les paramètres choisis : gestuelle des mains, rythme et mélodie de la voix. Concernant la gestuelle des mains, les conditions pouvaient varier d’un extrait à l’autre : absence, présence, répétitions ou différences …
Après visionnage, les participants devaient indiquer s’ils avaient perçu ou non une frontière à un endroit précis du discours et préciser si cette perception était plus ou moins importante (la frontière étant définie comme « tout ce qui permet de découper le discours en plusieurs unités »). Ce processus expérimental a ainsi permis de voir comment le récepteur du message perçoit et découpe le discours qu’il entend, en prenant en compte des indices multimodaux, souvent peu étudiés ensemble en linguistique.
Cette étude diffère des autres études faites en linguistique par les stimuli utilisés lors du processus expérimental. En effet, les enregistrements audios diffusés ne sont pas des extraits directement créés en laboratoire mais sont issus de véritables conversations spontanées entre plusieurs paires d’amis. Ces données sont donc plus authentiques mais peuvent en contrepartie comprendre un nombre important de biais potentiels. Même si le panel de participants est de taille réduite, les modèles de tests statistiques utilisés ont permis de généraliser les résultats obtenus et de compenser les biais possibles.
Les résultats de cette étude ont permis de confirmer des données précédemment obtenues comme le poids de certains indices prosodiques, rythme et mélodie, dans la découpe du discours et dans la perception forte des frontières. La structure syntaxique joue également un rôle dans cette perception mais contrairement à ce qui était attendu, la gestuelle des mains, n’est, à elle seule, pas suffisante pour percevoir une frontière, excepté lors de la répétition de deux gestes identiques.
Cette étude expérimentale permet d’explorer les interfaces syntaxe – prosodie et syntaxe – gestualité et ainsi d’amener un jeu de données essentiel en linguistique sur l’articulation possible des différentes manières de structurer notre langage.
Plus concrètement, elle permet aussi des avancées dans la modélisation de la parole et le traitement automatique du langage. Plus les algorithmes seront enrichis de données provenant de conversations spontanées et proposant une approche multimodale du langage, plus ils seront performants pour comprendre la parole et ses subtilités.
À lire aussi

Retour sur la présentation des appels européen du Cluster 2 : Culture, créativité et Société Inclusives
Le 18 mars 2025 matin s’est tenu à l’auditorium Dumézil l’évènement Cluster 2 : SHS. Ce séminaire organisé par l’université Paris Cité et l’Inalco dans le cadre du Réseau Recherche Europe* avait pour but principal de présenter les opportunités de financements...
lire plus
UPCité, au coeur de l’innovation
L'Université Paris Cité joue un rôle clé dans l'écosystème de l'innovation, en développant des technologies de pointe à travers ses laboratoires et instituts, soutenues par une stratégie globale. Son expertise a fait l'objet d'une visite de plusieurs laboratoires du...
lire plus
Retour sur l’événement « Faire communauté dans l’ingénierie de recherche » organisé par RésIn
Le 6 février 2025, l’amphithéâtre Vulpian a accueilli près de 80 participantes et participants à l’événement « Faire communauté dans l’ingénierie de recherche », organisé dans le cadre du projet RésIn. Coordonné par Université Paris Cité et Sciences Po,...
lire plus
Une avancée majeure dans le traitement du syndrome d’Ehlers-Danlos vasculaire pour réduire la survenue de lésions artérielles
Les équipes du centre de référence des maladies artérielles rares et du centre d’investigation clinique de l’hôpital européen Georges-Pompidou AP-HP, de l’université Paris Cité et de l’Inserm, ont mené une étude, coordonnée par les Professeurs Xavier Jeunemaitre et...
lire plus