Variation de la voix, gestuelle, syntaxe ou encore sémantique… La perception du discours diffère en fonction de multiples paramètres. Mieux comprendre cette multimodalité du langage représente alors un véritable enjeu en linguistique fondamentale mais aussi en amélioration du traitement automatique du langage !
Pour mieux comprendre un discours oral, chacun, appelé ici « récepteur », va le découper en petites unités. Ces coupures, appelées « frontières » sont influencées par plusieurs paramètres que sont les gestes des mains ou la prosodie (variations de rythmes et de mélodie de la voix).
Afin de mesurer la force de perception des frontières et leur impact, Manon Lelandais, maître de conférences au laboratoire CLILLAC-ARP d’Université Paris Cité, et Gabriel Thiberge, chercheur post-doctorant au Laboratoire de Linguistique Formelle (Université Paris Cité, CNRS), ont étudié la façon dont certains paramètres sont utilisés par le récepteur pour découper le discours. Ils se sont particulièrement intéressés à la prosodie et aux gestes manuels dits représentationnels, utilisés pour décrire, de manière concrète ou abstraite, une idée ou un objet.
Un panel de 37 personnes dites « naïves », c’est-à-dire n’ayant pas de connaissances particulières en linguistique, a donc été constitué et interrogé dans le cadre de cette étude expérimentale.
La tâche était simple. Le récepteur devait observer de courts extraits vidéos (7 secondes environ) présentant un seul locuteur dont les mains sont visibles mais dont le visage est flouté pour ne pas influencer la perception des frontières par les mimiques du visage (regard, haussement de sourcil). Dans certains extraits, le contenu sémantique du discours n’était pas disponible, comme si la conversation était entendue depuis une autre pièce. Les récepteurs n’avaient pas accès au sens même de ce qu’ils entendaient et ne pouvaient donc que se focaliser sur les paramètres choisis : gestuelle des mains, rythme et mélodie de la voix. Concernant la gestuelle des mains, les conditions pouvaient varier d’un extrait à l’autre : absence, présence, répétitions ou différences …
Après visionnage, les participants devaient indiquer s’ils avaient perçu ou non une frontière à un endroit précis du discours et préciser si cette perception était plus ou moins importante (la frontière étant définie comme « tout ce qui permet de découper le discours en plusieurs unités »). Ce processus expérimental a ainsi permis de voir comment le récepteur du message perçoit et découpe le discours qu’il entend, en prenant en compte des indices multimodaux, souvent peu étudiés ensemble en linguistique.
Cette étude diffère des autres études faites en linguistique par les stimuli utilisés lors du processus expérimental. En effet, les enregistrements audios diffusés ne sont pas des extraits directement créés en laboratoire mais sont issus de véritables conversations spontanées entre plusieurs paires d’amis. Ces données sont donc plus authentiques mais peuvent en contrepartie comprendre un nombre important de biais potentiels. Même si le panel de participants est de taille réduite, les modèles de tests statistiques utilisés ont permis de généraliser les résultats obtenus et de compenser les biais possibles.
Les résultats de cette étude ont permis de confirmer des données précédemment obtenues comme le poids de certains indices prosodiques, rythme et mélodie, dans la découpe du discours et dans la perception forte des frontières. La structure syntaxique joue également un rôle dans cette perception mais contrairement à ce qui était attendu, la gestuelle des mains, n’est, à elle seule, pas suffisante pour percevoir une frontière, excepté lors de la répétition de deux gestes identiques.
Cette étude expérimentale permet d’explorer les interfaces syntaxe – prosodie et syntaxe – gestualité et ainsi d’amener un jeu de données essentiel en linguistique sur l’articulation possible des différentes manières de structurer notre langage.
Plus concrètement, elle permet aussi des avancées dans la modélisation de la parole et le traitement automatique du langage. Plus les algorithmes seront enrichis de données provenant de conversations spontanées et proposant une approche multimodale du langage, plus ils seront performants pour comprendre la parole et ses subtilités.
À lire aussi
26 Highly Cited Researchers 2024 : 26 citations pour l’université Paris Cité
Avec 26 mentions en première affiliation, l’université Paris Cité assoit sa position qui confirme l’influence de sa communauté de recherche au niveau mondial. Université Paris Cité félicite ces 26 highly cited researchers.
lire plus[Retour sur la conférence La Guilde] L’Intelligence artificielle dans l’enseignement supérieur et la recherche : débats et perspectives
Le 6 novembre 2024, l’université Paris Cité et l’Université PSL ont réuni les communautés des universités membres du réseau La Guilde lors d’un événement consacré à l’intelligence artificielle et son impact sur les universités, au sein du PariSanté Campus. Stéphanie...
lire plusFIRE-UP : un projet structurant au service des grands axes de transformation de l’université Paris Cité
Dans le cadre de sa stratégie d’établissement, l’université Paris Cité coordonne plusieurs projets visant à accompagner la transformation interne de l’établissement et ses interactions avec le territoire. Parmi ces projets figure FIRE-UP, (renForcer...
lire plusDoctorat et entreprise : défis et opportunités pour les doctorantes et doctorants d’UPCité
À la suite de la remise du rapport sur la valorisation du doctorat dans les entreprises, nous avons rencontré Raphaël Porcher, directeur du collège des écoles doctorales de l’université Paris Cité.
lire plus