Affichage des articles dont le libellé est perception du langage. Afficher tous les articles
Affichage des articles dont le libellé est perception du langage. Afficher tous les articles

11 juin 2017

Indices électrophysiologiques de la perception du discours audiovisuel dans le Phénotype d'autisme plus large

Aperçu: G.M.
Lorsqu'un interlocuteur parle, les conséquences peuvent être entendues (audio) et visualisées (visuelles). Une nouvelle tâche de restauration phonémique visuelle a été utilisée pour évaluer la discrimination comportementale et les signatures neuronales (potentiels liés à l'événement, ou ERP) du traitement audiovisuel dans les enfants au développement typique avec une gamme de compétences sociales et communicatives évaluées à l'aide de l'échelle de réactivité sociale, une mesure des traits associés à l'autisme.
Un concept auditif fantaisiste présentait deux types de stimuli pour l'auditeur, un exemple clair d'une syllabe auditive consonne-voyelle / ba / (le stimulus standard le plus fréquent) et une syllabe dans laquelle les signaux auditifs pour la consonne étaient considérablement affaiblis, créant un stimulus qui ressemble davantage à / a / (le stimulus déviant rarement présenté). Tous les signes de discours ont été jumelés avec un visage produisant / ba / ou un visage avec une bouche pixelée contenant du mouvement mais pas de discours visuel. Dans ce paradigme, le visuel / ba / devrait provoquer l'audition / a / être perçue comme / ba /, créant une réponse bizarre atténuée; En revanche, une vidéo pixelée (sans information articulatoire) ne devrait pas avoir cet effet.   
De manière comportementale, les participants ont montré une restauration phonémique visuelle (une précision réduite dans la détection de déviant / a /) en présence d'un visage parlant. En outre, les ERP ont été observés à la fois dans une fenêtre de temps précoce (N100) et une fenêtre de temps ultérieure (P300) sensibles au contexte de la parole (/ ba / ou / a /) et modulés par le contexte du visage (visage parlant avec articulation visible ou avec bouche pixelée). Plus précisément, les réponses fantaisistes pour les N100 et P300 ont été atténuées en présence d'un visage produisant / ba / par rapport à un visage pixelé, ce qui représente un corrélatif neuronal possible de l'effet de restauration phonémique. De façon notable, les personnes ayant plus de traits associés à l'autisme (encore dans la gamme non clinique) ont eu des réponses P300 plus petites en général, quel que soit le contexte du visage, ce qui suggère généralement une réduction de la discrimination phonémique. 


Brain Sci. 2017 Jun 2;7(6). pii: E60. doi: 10.3390/brainsci7060060.

Electrophysiological Indices of Audiovisual Speech Perception in the Broader Autism Phenotype

Author information

1
Haskins Laboratories, New Haven, CT 06511, USA. julia.irwin@yale.edu.
2
Department of Psychology, Southern Connecticut State University, New Haven, CT 06515, USA. julia.irwin@yale.edu.
3
Haskins Laboratories, New Haven, CT 06511, USA. trey.avery@yale.edu.
4
Haskins Laboratories, New Haven, CT 06511, USA. jacqueline.turcios@yale.edu.
5
Department of Communication Disorders, Southern Connecticut State University, New Haven, CT 06515, USA. jacqueline.turcios@yale.edu.
6
Haskins Laboratories, New Haven, CT 06511, USA. brancaziol1@southernct.edu.
7
Department of Psychology, Southern Connecticut State University, New Haven, CT 06515, USA. brancaziol1@southernct.edu.
8
Department of Communication Disorders, Southern Connecticut State University, New Haven, CT 06515, USA. cookb5@southernct.edu.
9
Haskins Laboratories, New Haven, CT 06511, USA. nicole.landi@yale.edu.
10
Psychological Sciences, University of Connecticut, Storrs, CT 06269, USA. nicole.landi@yale.edu.

Abstract

When a speaker talks, the consequences of this can both be heard (audio) and seen (visual). A novel visual phonemic restoration task was used to assess behavioral discrimination and neural signatures (event-related potentials, or ERP) of audiovisual processing in typically developing children with a range of social and communicative skills assessed using the social responsiveness scale, a measure of traits associated with autism. An auditory oddball design presented two types of stimuli to the listener, a clear exemplar of an auditory consonant-vowel syllable /ba/ (the more frequently occurring standard stimulus), and a syllable in which the auditory cues for the consonant were substantially weakened, creating a stimulus which is more like /a/ (the infrequently presented deviant stimulus). All speech tokens were paired with a face producing /ba/ or a face with a pixelated mouth containing motion but no visual speech. In this paradigm, the visual /ba/ should cause the auditory /a/ to be perceived as /ba/, creating an attenuated oddball response; in contrast, a pixelated video (without articulatory information) should not have this effect. Behaviorally, participants showed visual phonemic restoration (reduced accuracy in detecting deviant /a/) in the presence of a speaking face. In addition, ERPs were observed in both an early time window (N100) and a later time window (P300) that were sensitive to speech context (/ba/ or /a/) and modulated by face context (speaking face with visible articulation or with pixelated mouth). Specifically, the oddball responses for the N100 and P300 were attenuated in the presence of a face producing /ba/ relative to a pixelated face, representing a possible neural correlate of the phonemic restoration effect. Notably, those individuals with more traits associated with autism (yet still in the non-clinical range) had smaller P300 responses overall, regardless of face context, suggesting generally reduced phonemic discrimination.
PMID:28574442
DOI:10.3390/brainsci7060060

17 octobre 2014

Développement d'une application audiovisuelle de perception de la parole pour les enfants avec des troubles du spectre autistique

Traduction: G.M.

Clin Linguist Phon. 2014 Oct 14:1-8. [Epub ahead of print]

Development of an audiovisual speech perception app for children with autism spectrum disorders

Author information

  • 1Haskins Laboratories , New Haven, CT , USA .

Résumé

La  perception du langage parlé nécessite une attention aux sons ainsi qu'à l'information phonétique visible. Cet article examine les différences connues dans la perception audiovisuelle de la parole chez les enfants avec un trouble du spectre autistique (TSA) et indique la nécessité d'interventions qui répondent à cette construction.
Des éléments d'un programme de formation à l'audiovisuel sont décrits. Ce programme développé par des chercheurs via une application iPad présente le langage naturel dans un contexte d'augmentation du bruit, mais supporté par un visage parlant. 
Les enfants sont positionnés pour s'atteler à l'information articulatoire visible pour aider à la perception des paroles.  
Les données de quatre enfants avec TSA âgés de 8 à 10 ans sont présentées montrant que les enfants ont amélioré leur performance sur une tâche auditive sans formation dans un environnement bruyant.

Abstract

Abstract Perception of spoken language requires attention to acoustic as well as visible phonetic information. This article reviews the known differences in audiovisual speech perception in children with autism spectrum disorders (ASD) and specifies the need for interventions that address this construct. Elements of an audiovisual training program are described. This researcher-developed program delivered via an iPad app presents natural speech in the context of increasing noise, but supported with a speaking face. Children are cued to attend to visible articulatory information to assist in perception of the spoken words. Data from four children with ASD ages 8-10 are presented showing that the children improved their performance on an untrained auditory speech-in-noise task.
PMID: 25313714