Affichage des articles dont le libellé est voix. Afficher tous les articles
Affichage des articles dont le libellé est voix. Afficher tous les articles

17 avril 2017

Analyse acoustique du modèle d'intonation vocale chez les personnes avec un diagnostic de trouble du spectre de l'autisme

Aperçu: G.M.
Cette étude visait à analyser les éléments prosodiques des segments de la parole des étudiants avec un diagnostic de trouble du spectre de l'autisme (TSA) et à comparer avec le groupe témoin, en utilisant une analyse acoustique.
Il y avait des différences significatives pour les variables tessiture, l'amplitude mélodique de la voyelle tonique, l'amplitude mélodique de la voyelle prétonique, l'intensité maximale, l'intensité minimale, la durée de la voyelle tonique, la durée de la voyelle prétonique et la durée de la phrase.Les personnes avec un diagnostic de trouble du spectre de l'autisme présentent des différences significatives dans la prosodie par rapport à celles ayant un développement typique. Il convient toutefois de souligner la nécessité d'études supplémentaires sur la caractérisation des aspects prosodiques de la parole des personnes avec un diagnostic de trouble du spectre de l'autisme avec un échantillon plus important et un groupe d'âge plus restreint.


Codas. 2017 Apr 10;29(2):e20160081. doi: 10.1590/2317-1782/20172016081.

Acoustic analysis of speech intonation pattern of individuals with Autism Spectrum Disorders

[Article in English, Portuguese]

Author information

1
Universidade Estadual Paulista "Júlio de Mesquita Filho" - UNESP - Marília (SP), Brasil.
2
Universidade de São Paulo - USP - São Paulo (SP), Brasil.

Abstract

Purpose:

This study aimed to analyze prosodic elements of speech segments of students with Autism Spectrum Disorders (ASD) and compare with the control group, using an acoustic analysis.

Methods:

Speech recordings were performed with a sample of individuals with ASD (n = 19) and with typical development (n = 19) of the male gender, age range: 8-33 years. The prosody questionnaire ALIB (Brazilian Linguistic Atlas) was used as script, which contains interrogative, affirmative and imperative sentences. Data were analyzed using the PRAAT software and forwarded to statistical analysis in order to verify possible significant differences between the two groups studied in each prosodic parameter evaluated (fundamental frequency, intensity and duration) and its respective variables.

Results:

There were significant differences for the variables tessitura, melodic amplitude of tonic vowel, melodic amplitude of pretonic vowel, maximum intensity, minimum intensity, tonic vowel duration, pretonic vowel duration and phrase duration.

Conclusion:

Individuals with ASD present significant differences in prosody compared to those with typical development. It is noteworthy, however, the necessity of additional studies on the characterization of prosodic aspects of speech of individuals with ASD with a larger sample and a more restricted age group.
PMID: 28403279
DOI: 10.1590/2317-1782/20172016081

28 mars 2017

Acquisition du temps d'apparition de la voix chez les tout-petits à faible et fort un risque de développer un trouble du spectre de l'autisme

Aperçu: G.M.
Bien que le retard de langage soit fréquent dans le trouble du spectre de l'autisme (TSA), la recherche est équivoque sur la question de savoir si le développement de la parole est affecté.
Le temps d'apparition de la parole (VOT), la principale différence acoustique entre b et p, a été mesuré à partir des mots spontanément produits à 18, 24 et 36 mois.
Le développement de la distinction entre b et p a été suivi prospectivement chez 22 enfants avec faible risque de TSA (LRC), 22 à risque élevé de TSA sans TSA (HRA-) et 11 à risque élevé de TSA qui ont reçu un diagnostic de TSA à 36 Mois (HRA +). 
Les enfants HRA + étaient significativement moins susceptibles de produire des b et p p acoustiquement distincts à 36 mois,

Autism Res. 2017 Mar 24. doi: 10.1002/aur.1775.

Acquisition of voice onset time in toddlers at high and low risk for autism spectrum disorder

Author information

1
Music and Neuroimaging Lab, Neurology Department, Beth Israel Deaconess Medical Center, 330 Brookline Avenue, Boston, Massachusetts.
2
Department of Psychological and Brain Sciences, Center for Autism Research Excellence at Boston University, 100 Cummington Mall, Boston, Massachusetts.

Abstract

Although language delay is common in autism spectrum disorder (ASD), research is equivocal on whether speech development is affected. We used acoustic methods to investigate the existence of sub-perceptual differences in the speech of toddlers who developed ASD. Development of the distinction between b and p was prospectively tracked in 22 toddlers at low risk for ASD (LRC), 22 at high risk for ASD without ASD (HRA-), and 11 at high risk for ASD who were diagnosed with ASD at 36 months (HRA+). Voice onset time (VOT), the main acoustic difference between b and p, was measured from spontaneously produced words at 18, 24, and 36 months. Number of words, number of tokens (instances) of syllable-initial b and p produced, error rates, language scores, and motor ability were also assessed. All groups' mean language scores were within the average range or slightly higher. No between-group differences were found in number of words, b's, p's, or errors produced; or in mean or standard deviation of VOT. Binary logistic regression showed that only diagnostic status, not language score, motor ability, number of words, number of b's and p's, or number of errors significantly predicted whether a toddler produced acoustically distinct b and p populations at 36 months. HRA+ toddlers were significantly less likely to produce acoustically distinct b's and p's at 36 months, which may indicate that the HRA+ group may be using different strategies to produce this distinction. Autism Res 2017. © 2017 International Society for Autism Research, Wiley Periodicals, Inc.
PMID: 28339140
DOI: 10.1002/aur.1775

09 août 2016

"Est-ce que la voix un marqueur de trouble du spectre de l'autisme ? Une revue et méta-analyse systématique

Traduction: G.M.

Autism Res. 2016 Aug 8. doi: 10.1002/aur.1678.

"Is voice a marker for Autism spectrum disorder? A systematic review and meta-analysis"

Author information

  • 1The Interacting Minds Centre, Aarhus University, Aarhus, Denmark.
  • 2Autism Research Group, City University London, London, UK.
  • 3Wellcome Trust Centre for Neuroimaging, Institute of Neurology, University College London, London, UK.
  • 4Calleva Research Centre for Evolution and Human Sciences, Magdalen College, University of Oxford, Oxford, UK.

Abstract

Individuals with Autism Spectrum Disorder (ASD) are reported to speak in distinctive ways. Distinctive vocal production should be better understood as it can affect social interactions and social development and could represent a non-invasive marker for ASD. We systematically review the existing scientific literature reporting quantitative acoustic analysis of vocal production in ASD and identify repeated and consistent findings of higher pitch mean and variability but not of other differences in acoustic features. We also identify a recent approach relying on multiple aspects of vocal production and machine learning algorithms to automatically identify ASD from voice only. This latter approach is very promising, but requires more systematic replication and comparison across languages and contexts. We outline three recommendations to further develop the field: open data, open methods, and theory-driven research. Individuals with Autism Spectrum Disorder (ASD) tend to show distinctive, atypical acoustic patterns of speech. These behaviors affect social interactions and social development and could represent a non-invasive marker for ASD. We systematically reviewed the literature quantifying acoustic patterns in ASD. Search terms were: (prosody OR intonation OR inflection OR intensity OR pitch OR fundamental frequency OR speech rate OR voice quality OR acoustic) AND (autis* OR Asperger). 
Les personnes avec un diagnostic de troubles du spectre de l'autisme (TSA) sont signalés comme parlant de manière particulière. La production vocale originale doit être mieux comprise car elle peut affecter les interactions sociales et le développement social et pourrait représenter un marqueur non invasif pour les TSA. Nous examinons systématiquement la littérature scientifique existante rapportant des analyses acoustiques quantitatives sur la production vocale dans le TSA et identifions les conclusions répétées et cohérentes de hauteur moyenne supérieure et de la variabilité, mais pas d'autres différences dans les caractéristiques acoustiques. Nous identifions également une approche récente reposant sur de multiples aspects d'algorithmes de production et d'apprentissage de la machine vocale pour identifier automatiquement TSA à partir de la seule voix. Cette dernière approche est très prometteuse, mais nécessite la réplication plus systématique et la comparaison entre les langues et les contextes. Nous présentons trois recommandations pour développer davantage le terrain: les données ouvertes, les méthodes ouvertes, et la recherche axée sur la théorie. Les personnes présentant un trouble du spectre de l'autisme (TSA) tendent à montrer des modèles acoustiques distinctifs, atypiques de la parole. Ces comportements affectent les interactions sociales et le développement social et pourraient représenter un marqueur non invasif pour les TSA. Nous avons systématiquement examiné la littérature quantifier les modèles acoustiques dans les TSA. Les termes de recherche sont: (prosodie OU intonation OU inflexion ou intensité ou hauteur ou fréquence fondamentale ou débit de parole ou qualité de la voix ou acoustique) ET (autis* OU Asperger).
Results were filtered to include only: empirical studies quantifying acoustic features of vocal production in ASD, with a sample size >2, and the inclusion of a neurotypical comparison group and/or correlations between acoustic measures and severity of clinical features. We identified 34 articles, including 30 univariate studies and 15 multivariate machine-learning studies. We performed meta-analyses of the univariate studies, identifying significant differences in mean pitch and pitch range between individuals with ASD and comparison participants (Cohen's d of 0.4-0.5 and discriminatory accuracy of about 61-64%). The multivariate studies reported higher accuracies than the univariate studies (63-96%). However, the methods used and the acoustic features investigated were too diverse for performing meta-analysis. We conclude that multivariate studies of acoustic patterns are a promising but yet unsystematic avenue for establishing ASD markers. We outline three recommendations for future studies: open data, open methods, and theory-driven research. 
Les résultats ont été filtrés pour inclure uniquement: les études empiriques quantifiant les caractéristiques acoustiques de la production vocale dans le TSA, avec une taille d'échantillon > 2, et l'inclusion d'un groupe de comparaison neurotypique et / ou des corrélations entre les mesures acoustiques et la sévérité des signes cliniques. Nous avons identifié 34 articles, dont 30 études univariées et 15 études multivariées d'apprentissage machine. Nous avons effectué des méta-analyses des études univariées, l'identification des différences significatives dans la hauteur moyenne et la tessiture entre les personnes avec TSA et les participants de comparaison (le d de Cohen de 0,4-0,5 et de précision discriminatoire d'environ 61-64%). Les études multivariées ont rapporté des exactitudes plus élevées que les études univariées (63-96 de%). Cependant, les méthodes utilisées et les caractéristiques acoustiques étudiées étaient trop diverses pour effectuer une méta-analyse. Nous concluons que les études multivariées de modèles acoustiques sont une voie prometteuse mais encore non systématique pour établir des marqueurs TSA. Nous présentons trois recommandations pour les études futures: les données ouvertes, les méthodes ouvertes, et la recherche axée sur la théorie. 
Autism Res 2016. © 2016 International Society for Autism Research, Wiley Periodicals, Inc.
© 2016 International Society for Autism Research, Wiley Periodicals, Inc.

16 janvier 2015

Preuve des déficits partagées dans l'identification des émotions des visages et des voix dans les troubles du spectre autistique et les troubles spécifiques du langage

Traduction: G.M.

Int J Lang Commun Disord. 2015 Jan 14. doi: 10.1111/1460-6984.12146.

Evidence for shared deficits in identifying emotions from faces and from voices in autism spectrum disorders and specific language impairment

Author information

  • 1Neurocognitive Development Unit, School of Psychology, University of Western Australia, Crawley, WA, Australia; Telethon Institute for Child Health Research, Centre for Child Health Research, University of Western Australia, Crawley, WA, Australia.

Abstract

BACKGROUND:

While autism spectrum disorder (ASD) and specific language impairment (SLI) have traditionally been conceptualized as distinct disorders, recent findings indicate that the boundaries between these two conditions are not clear-cut. While considerable research has investigated overlap in the linguistic characteristics of ASD and SLI, relatively less research has explored possible overlap in the socio-cognitive domain, particularly in terms of the emotion recognition abilities of these two groups of children.
Alors que les troubles du spectre autistique (TSA) et les troubles spécifiques du langage (SLI) ont traditionnellement été conceptualisés comme deux troubles distincts, des découvertes récentes indiquent que les frontières entre ces deux conditions ne sont pas claires. Bien que des recherches considérables aient enquêté sur le chevauchement sur les caractéristiques linguistiques du TSA et des SLI, relativement moins de recherches  ont exploré le chevauchement possible dans le domaine socio-cognitif, en particulier en termes de capacités de reconnaissance de l'émotion chez ces deux groupes d'enfants.

AIMS:

To investigate facial and vocal emotion recognition in children with ASD, children with SLI and typically developing (TD) children. To do so, the ASD group was subdivided into those with 'normal' (ALN) and those with 'impaired' (ALI) language to explore the extent to which language ability influenced performance on the emotion recognition task.
Enquêter sur la reconnaissance des émotions faciales et vocales chez les enfants avec TSA, les enfants avec SLI et les enfants avec un développement typique (TD). Pour ce faire, le groupe TSA a été subdivisé entre ceux qui avaient un langage «normal» (ALN) et ceux avec qui avaient des troubles du langage (ALI) afin d'explorer la mesure dans laquelle la capacité de la langue influence la performance dans la tâche de reconnaissance des émotions.

METHODS & PROCEDURES:

Twenty-nine children with ASD (17 ALN and 12 ALI), 18 children with SLI and 66 TD children completed visual and auditory versions of an emotion recognition task. For the visual version of the task, the participants saw photographs of people expressing one of six emotions (happy, sad, scared, angry, surprised, disgusted) on the whole face. For the auditory modality, the participants heard a neutral sentence that conveyed one of the six emotional expressions in the tone of the voice. In both conditions, the children were required to indicate how the person they could see/hear was feeling by selecting a cartoon face that was presented on the computer screen.

OUTCOMES & RESULTS:

The results showed that all clinical groups were less accurate than the TD children when identifying emotions on the face and in the voice. While the ALN children were less accurate than the TD children only when identifying expressions that require inferring another's mental state (surprise, disgust) emotional expressions, the ALI and the SLI children were less accurate than the TD children when identifying the basic (happy, sad, scared, angry) as well as the inferred emotions.
Les résultats ont montré que tous les groupes cliniques étaient moins précis que les enfants TD lors de l'identification des émotions sur le visage et dans la voix. Alors que les enfants ALN étaient moins précis que les enfants TD uniquement lors de l'identification des expressions qui nécessitent d'inférer les expressions émotionnelles d'un état mental à autrui (surprise, dégoût), les enfants avec ALI et les enfants avec SLI étaient moins précis que les enfants TD dans l'identification des émotions de base (joie, tristesse, peur, colère) ainsi que des émotions présumées.

CONCLUSIONS & IMPLICATIONS:

The results indicate that children with ALI and children with SLI share emotion recognition deficits, which are likely to be driven by the poor language abilities of these two groups.
Les résultats indiquent que les enfants avec ALI et les enfants avec SLI partagent des déficits de reconnaissance des émotions, qui sont susceptibles de conduire vers des capacités linguistiques diminuées dans ces deux groupes.

© 2015 Royal College of Speech and Language Therapists.

PMID: 25588870


19 août 2004

Une anomalie dans la réponse cérébrale à la perception de la voix humaine dans l'autisme

Une étude menée au sein de l'équipe mixte Inserm-CEA « Imagerie Cérébrale en Psychiatrie » au Service Hospitalier Frédéric Joliot révèle une incapacité des autistes à activer les aires cérébrales spécifiques de la reconnaissance de la voix humaine. Ces résultats étayent l'hypothèse selon laquelle les difficultés des autistes seraient liées à un déficit de la perception des stimuli sociaux.

Une étude menée au sein de l'équipe mixte Inserm-CEA « Imagerie Cérébrale en Psychiatrie » au Service Hospitalier Frédéric Joliot [ En collaboration avec le Centre de Recherche en Neuropsychologie et Cognition (CERNEC) et l'Université de Montréal] révèle une incapacité des autistes à activer les aires cérébrales spécifiques de la reconnaissance de la voix humaine. Ces résultats étayent l'hypothèse selon laquelle les difficultés des autistes seraient liées à un déficit de la perception des stimuli sociaux. Le détail de cette étude est publié dans le numéro d'août de la revue Nature Neuroscience.

La voix humaine est riche en informations verbales mais aussi non-verbales : elle constitue un véritable "visage auditif" que nous savons interpréter. Nos capacités à percevoir ces informations vocales jouent un rôle crucial dans nos interactions sociales. De plus, une équipe de chercheurs a mis en évidence, par l'imagerie cérébrale fonctionnelle, que la perception vocale implique des régions corticales spécifiques appelées "aires de la voix", situées chez la plupart des individus le long du sillon temporal supérieur.

L'autisme est une pathologie sévère du développement de l'enfant qui se caractérise par des difficultés dans les interactions sociales. Des études comportementales ont permis d'observer également un déficit dans la perception de la voix humaine. Afin de préciser les bases cérébrales de cette pathologie, les chercheurs de l'équipe mixte Inserm-Cea ont étudié par imagerie fonctionnelle (IRM fonctionnelle) comment le cerveau des sujets autistes adultes perçoit la voix humaine par rapport à d'autres sons. Pour cela, l'activité cérébrale de cinq adultes atteints d'autisme et de huit volontaires sains a été enregistrée alors qu'ils écoutaient des séquences de sons alternant la voix humaine (parole, cri, rire, pleur, chant) et d'autres types de sons non vocaux (animaux, cloches, instruments de musique, voitures etc…).

Les résultats obtenus révèlent chez les autistes une absence d'activation de l'aire spécifique de la perception de la voix ("aire de la voix"). Chez ces sujets, les aires cérébrales activées sont exactement les mêmes, qu'il s'agisse de voix humaines ou de sons non vocaux. Aucune activation cérébrale spécifique d'une reconnaissance de la voix humaine n'a pu être mise en évidence. Par ailleurs, à la question « qu'avez-vous entendu pendant l'examen ? », les autistes ne rapportent que 8,5% de sons vocaux contre 51,2% pour les témoins, confirmant leur faible capacité à reconnaître des voix humaines.

De précédentes études dans le domaine visuel en IRM fonctionnelle avaient déjà révélé chez les autistes une absence d'activation de l'aire spécialisée dans le traitement des visages. Cette étude sur la voix, stimulus auditif riche en informations sur l'identité et l'état émotionnel de l'interlocuteur, met cette fois en évidence un trouble de la perception sociale dans le domaine auditif.

Ces anomalies du traitement de la voix et des visages suggèrent que les difficultés des autistes à comprendre l'état émotionnel d'autrui et à interagir avec lui pourraient être liées à un déficit de la perception des stimuli sociaux. Ces résultats en imagerie fonctionnelle apportent de nouvelles perspectives pour comprendre les perturbations des interactions sociales dans l'autisme. Enfin, la mise en évidence de ces déficits perceptifs pourrait permettre l'élaboration de stratégies de rééducation visant à induire un traitement spécifique des informations vocales et faciales, traitement qui semble ne pas s'être développé spontanément chez l'autiste.

Ce travail a été financé par la Fondation de France et Fondation France-Télecom (mécénat autisme)

Source : Nature Neuroscience, vol 7, n°8, p 801-802, août 2004

"Abnormal Cortical Voice Processing in Autism"

Hélène Gervais1, Pascal Belin2,3, Nathalie Boddaert 1,4, Marion Leboyer5, Arnaud Coez1, Ignacio Sfaello1, Catherine Barthélémy6, Francis Brunelle 1,4, Yves Samson 1,7 and Monica Zilbovicius1

1. ERM 0205, Inserm-CEA, DRM, DSV, Service Hospitalier Frédéric Joliot, Orsay

2. Centre de Recherche en Neuropsychologie et Cognition (CERNEC), Université de Montréal

3. Centre de Recherche de l'Institut Universitaire de Gériatrie de Montréal

4. Service de Radiologie Pédiatrique, Hôpital Necker Enfants Malades, Paris

5. Service de Psychiatrie, Hôpital Henri-Mondor, Créteil

6. Inserm - Unité 619, CHU Bretonneau, Tours

7. Service des Urgences Cérébro-Vasculaires, Groupe Hospitalier Pitié-Salpêtrière, Paris

Vidéo