Variation de la voix, gestuelle, syntaxe ou encore sémantique… La perception du discours diffère en fonction de multiples paramètres. Mieux comprendre cette multimodalité du langage représente alors un véritable enjeu en linguistique fondamentale mais aussi en amélioration du traitement automatique du langage !
Pour mieux comprendre un discours oral, chacun, appelé ici « récepteur », va le découper en petites unités. Ces coupures, appelées « frontières » sont influencées par plusieurs paramètres que sont les gestes des mains ou la prosodie (variations de rythmes et de mélodie de la voix).
Afin de mesurer la force de perception des frontières et leur impact, Manon Lelandais, maître de conférences au laboratoire CLILLAC-ARP d’Université Paris Cité, et Gabriel Thiberge, chercheur post-doctorant au Laboratoire de Linguistique Formelle (Université Paris Cité, CNRS), ont étudié la façon dont certains paramètres sont utilisés par le récepteur pour découper le discours. Ils se sont particulièrement intéressés à la prosodie et aux gestes manuels dits représentationnels, utilisés pour décrire, de manière concrète ou abstraite, une idée ou un objet.
Un panel de 37 personnes dites « naïves », c’est-à-dire n’ayant pas de connaissances particulières en linguistique, a donc été constitué et interrogé dans le cadre de cette étude expérimentale.
La tâche était simple. Le récepteur devait observer de courts extraits vidéos (7 secondes environ) présentant un seul locuteur dont les mains sont visibles mais dont le visage est flouté pour ne pas influencer la perception des frontières par les mimiques du visage (regard, haussement de sourcil). Dans certains extraits, le contenu sémantique du discours n’était pas disponible, comme si la conversation était entendue depuis une autre pièce. Les récepteurs n’avaient pas accès au sens même de ce qu’ils entendaient et ne pouvaient donc que se focaliser sur les paramètres choisis : gestuelle des mains, rythme et mélodie de la voix. Concernant la gestuelle des mains, les conditions pouvaient varier d’un extrait à l’autre : absence, présence, répétitions ou différences …
Après visionnage, les participants devaient indiquer s’ils avaient perçu ou non une frontière à un endroit précis du discours et préciser si cette perception était plus ou moins importante (la frontière étant définie comme « tout ce qui permet de découper le discours en plusieurs unités »). Ce processus expérimental a ainsi permis de voir comment le récepteur du message perçoit et découpe le discours qu’il entend, en prenant en compte des indices multimodaux, souvent peu étudiés ensemble en linguistique.
Cette étude diffère des autres études faites en linguistique par les stimuli utilisés lors du processus expérimental. En effet, les enregistrements audios diffusés ne sont pas des extraits directement créés en laboratoire mais sont issus de véritables conversations spontanées entre plusieurs paires d’amis. Ces données sont donc plus authentiques mais peuvent en contrepartie comprendre un nombre important de biais potentiels. Même si le panel de participants est de taille réduite, les modèles de tests statistiques utilisés ont permis de généraliser les résultats obtenus et de compenser les biais possibles.
Les résultats de cette étude ont permis de confirmer des données précédemment obtenues comme le poids de certains indices prosodiques, rythme et mélodie, dans la découpe du discours et dans la perception forte des frontières. La structure syntaxique joue également un rôle dans cette perception mais contrairement à ce qui était attendu, la gestuelle des mains, n’est, à elle seule, pas suffisante pour percevoir une frontière, excepté lors de la répétition de deux gestes identiques.
Cette étude expérimentale permet d’explorer les interfaces syntaxe – prosodie et syntaxe – gestualité et ainsi d’amener un jeu de données essentiel en linguistique sur l’articulation possible des différentes manières de structurer notre langage.
Plus concrètement, elle permet aussi des avancées dans la modélisation de la parole et le traitement automatique du langage. Plus les algorithmes seront enrichis de données provenant de conversations spontanées et proposant une approche multimodale du langage, plus ils seront performants pour comprendre la parole et ses subtilités.
À lire aussi
Augmentation des cas de scorbut chez les enfants en France depuis la pandémie de COVID-19
Les équipes du service de pédiatrie générale et du centre de référence des rhumatismes inflammatoires et maladies auto-immunes systémiques de l’enfant (RAISE) de l’hôpital Robert-Debré AP-HP, de l’Inserm, de l’université Paris Cité et du département de pédiatrie de...
lire plusUn laboratoire d’astrochimie et d’exobiologie de nouvelle génération en orbite autour de la Terre
Mardi 17 décembre 2024, un dispositif expérimental tout à fait inédit, conçu et assemblé au Laboratoire interuniversitaire des systèmes atmosphériques en collaboration avec le CNES, a été installé à l’extérieur de la Station spatiale internationale (ISS), sur la plateforme Bartolomeo d’Airbus, pour une durée d’un an.
lire plusFélicitations aux lauréates et lauréats UPCité 2024 des Prix solennels de thèse de la Chancellerie des universités de Paris !
C'est avec une immense fierté que nous saluons aujourd'hui les 11 lauréates et lauréats UPCité des Prix solennels de thèse de la Chancellerie des universités de Paris, figures emblématiques de la recherche scientifique et médicale. « Ces jeunes...
lire plus[Paris-Dakar] Renforcement du partenariat lors du colloque sur les maladies non transmissibles
Le 25 novembre 2024 s’est tenu à Dakar, le colloque international sur les maladies non transmissibles organisé par l’université Paris Cité, l’université Cheikh Anta Diop (UCAD) et le réseau African Research Network. Cet événement s’inscrit dans une démarche visant à...
lire plus