Affichage des articles dont le libellé est lecture labiale. Afficher tous les articles
Affichage des articles dont le libellé est lecture labiale. Afficher tous les articles

28 octobre 2018

Reconnaissance de la lecture labiale: réponses réduites dans les régions de mouvements visuels, mais pas dans les autres régions liées à la parole dans l'autisme

Aperçu: G.M.
Les informations vocales inhérentes aux mouvements de visage sont importantes pour comprendre ce qui se dit dans une communication face à face. Les personnes avec un diagnostic de "troubles du spectre de l'autisme" (dTSA) ont des difficultés à extraire les informations du discours des mouvements du visage, processus appelé reconnaissance visuelle du discours. À l'heure actuelle, on ignore quels régions ou réseaux de cerveau dysfonctionnels sous-tendent le déficit de reconnaissance visuelle-parole chez les TSA. Les chercheurs ont mené une étude d'imagerie par résonance magnétique fonctionnelle (IRMf) avec un suivi oculaire simultané afin d'étudier la reconnaissance visuelle-parole chez les adultes avec un dTSA et un fonctionnement élevé et chez des adultes contrôle au développement typique, appariés par paires. Par rapport au groupe témoin (n = 17), le groupe TSA  (n = 17) a présenté une diminution de la réponse en fonction du niveau d'oxygénation du sang (BOLD) lors de la reconnaissance visuelle du langage dans l'aire visuelle droite 5 (V5 / MT) et du discours dans la zone visuel temporel gauche. (TVSA) - régions du cerveau impliquées dans la perception du mouvement visuel. La V5 / MT droite a montré une corrélation positive avec les performances de la tâche visual-speech dans le groupe TSA , mais pas dans le groupe témoin. L'analyse des interactions psychophysiologiques (PPI) a révélé que la connectivité fonctionnelle entre le TVSA gauche et le V5 / MT bilatéral et entre le V5 / MT droit et le IFG gauche était inférieure dans le groupe ASD par rapport au groupe témoin. En revanche, les réponses dans d'autres régions motrices de la parole et leur connectivité se situaient au niveau neurotypique. Les réponses réduites et la connectivité réseau des régions de mouvement visuel associées à des mécanismes intacts liés à la parole indiquent que les mécanismes de perception pourraient être au cœur du déficit de reconnaissance visuelle de la parole chez les TSA. Les déficits de communication dans les TSA pourraient au moins en partie provenir d'un traitement sensoriel atypique et non d'un traitement cognitif d'ordre supérieur d'informations socialement pertinentes.

Neuroimage Clin. 2018 Sep 24;20:1078-1091. doi: 10.1016/j.nicl.2018.09.019.

Recognizing visual speech: Reduced responses in visual-movement regions, but not other speech regions in autism

Author information

1
Max Planck Institute for Human Cognitive and Brain Sciences, Stephanstraße 1a, 04103 Leipzig, Germany; Berlin School of Mind and Brain, Humboldt University of Berlin, Luisenstraße 56, 10117 Berlin, Germany; Technische Universität Dresden, Bamberger Straße 7, 01187 Dresden, Germany. Electronic address: borowiak@cbs.mpg.de.
2
Max Planck Institute for Human Cognitive and Brain Sciences, Stephanstraße 1a, 04103 Leipzig, Germany; Technische Universität Dresden, Bamberger Straße 7, 01187 Dresden, Germany.

Abstract

Speech information inherent in face movements is important for understanding what is said in face-to-face communication. Individuals with autism spectrum disorders (ASD) have difficulties in extracting speech information from face movements, a process called visual-speech recognition. Currently, it is unknown what dysfunctional brain regions or networks underlie the visual-speech recognition deficit in ASD. We conducted a functional magnetic resonance imaging (fMRI) study with concurrent eye tracking to investigate visual-speech recognition in adults diagnosed with high-functioning autism and pairwise matched typically developed controls. Compared to the control group (n = 17), the ASD group (n = 17) showed decreased Blood Oxygenation Level Dependent (BOLD) response during visual-speech recognition in the right visual area 5 (V5/MT) and left temporal visual speech area (TVSA) - brain regions implicated in visual-movement perception. The right V5/MT showed positive correlation with visual-speech task performance in the ASD group, but not in the control group. Psychophysiological interaction analysis (PPI) revealed that functional connectivity between the left TVSA and the bilateral V5/MT and between the right V5/MT and the left IFG was lower in the ASD than in the control group. In contrast, responses in other speech-motor regions and their connectivity were on the neurotypical level. Reduced responses and network connectivity of the visual-movement regions in conjunction with intact speech-related mechanisms indicate that perceptual mechanisms might be at the core of the visual-speech recognition deficit in ASD. Communication deficits in ASD might at least partly stem from atypical sensory processing and not higher-order cognitive processing of socially relevant information.
PMID:30368195
DOI:10.1016/j.nicl.2018.09.019

13 octobre 2014

Les capacités visuelles sont importantes pour la reconnaissance de la parole auditive seule: la preuve dans le trouble du spectre autistique.

Traduction: G.M.

Neuropsychologia. 2014 Oct 1. pii: S0028-3932(14)00336-4. doi: 10.1016/j.neuropsychologia.2014.09.031. [Epub ahead of print]

Visual abilities are important for auditory-only speech recognition: Evidence from autism spectrum disorder

Author information

  • 1Max Planck Institute for Human Cognitive and Brain Sciences, Stephanstraße 1a, 04103 Leipzig, Germany. Electronic address: schelinski@cbs.mpg.de
  • 2Max Planck Institute for Human Cognitive and Brain Sciences, Stephanstraße 1a, 04103 Leipzig, Germany; Faculty of Medicine Carl Gustav Carus at the Technische Universität Dresden, Fetscherstraße 74, 01307 Dresden, Germany. Electronic address: philipp.riedel@uniklinikum-dresden.de
  • 3Max Planck Institute for Human Cognitive and Brain Sciences, Stephanstraße 1a, 04103 Leipzig, Germany; Humboldt University of Berlin, Rudower Chaussee 18, 12489 Berlin, Germany. Electronic address: kriegstein@cbs.mpg.de

Abstract

In auditory-only conditions, for example when we listen to someone on the phone, it is essential to fast and accurately recognize what is said (speech recognition). Previous studies have shown that speech recognition performance in auditory-only conditions is better if the speaker is known not only by voice, but also by face. 
Here, we tested the hypothesis that such an improvement in auditory-only speech recognition depends on the ability to lip-read. 
Dans des conditions auditives seule, par exemple lorsque nous écoutons quelqu'un au téléphone, il est essentiel de reconnaître rapidement et avec précision ce qui est dit (reconnaissance vocale). Des études antérieures ont montré que les performances de reconnaissance de la parole dans des conditions auditives seule est meilleure si l'orateur est connu non seulement par la voix, mais aussi par le visage. Ici, nous avons testé l'hypothèse qu'une telle amélioration auditive reconnaissance de la seule parole dépend de la capacité à lire sur les lèvres.
To test this we recruited a group of adults with autism spectrum disorder (ASD), a condition associated with difficulties in lip-reading, and typically-developed controls. All participants were trained to identify six speakers by name and voice. Three speakers were learned by a video showing their face and three others were learned in a matched control condition without face. After training, participants performed an auditory-only speech recognition test that consisted of sentences spoken by the trained speakers. As a control condition, the test also included speaker identity recognition on the same auditory material. 
The results showed that, in the control group, performance in speech recognition was improved for speakers known by face in comparison to speakers learned in the matched control condition without face. The ASD group lacked such a performance benefit. For the ASD group auditory-only speech recognition was even worse for speakers known by face compared to speakers not known by face. 
Les résultats ont montré que, dans le groupe de contrôle, la performance dans la reconnaissance vocale a été améliorée pour les intervenants connus par leur visage par rapport aux orateurs apprises dans la condition de contrôle apparié ans visage. Le groupe TSA ne profitait d'un tel avantage de performance. Pour le groupe TSA la reconnaissance de la parole auditive seule était encore pire pour orateurs connus par rapport aux orateurs au visage connu comparé aux orateurs au visage inconnu. 
In speaker identity recognition, the ASD group performed worse than the control group independent of whether the speakers were learned with or without face. Two additional visual experiments showed that the ASD group performed worse in lip-reading whereas face identity recognition was within the normal range. The findings support the view that auditory-only communication involves specific visual mechanisms. Further, they indicate that in ASD, speaker-specific dynamic visual information is not available to optimize auditory-only speech recognition.
Dans la reconnaissance de l'identité du locuteur, le groupe TSA a été moins performant que le groupe de contrôle indépendant du fait que les orateurs ont été découvert avec ou sans visage. Deux expériences visuelles supplémentaires ont montré que le groupe TSA était moins performant en lecture sur les lèvres alors que la reconnaissance de l'identité de visage était dans la fourchette normale.  
Les résultats soutiennent l'idée que la communication auditive seule implique des mécanismes visuels spécifiques. En outre, ils indiquent que dans les TSA, l'information visuelle dynamique spécifique au locuteur n'est pas disponible pour optimiser la reconnaissance du langage auditif seul.  

Copyright © 2014. Published by Elsevier Ltd.
PMID: 25283605