61 research outputs found

    Grundlagen der normalen und gestörten Gleichgewichtsfunktion

    No full text

    Analysis of dysarthria by means of articulatory modelling: a preliminary study

    No full text
    Background: Dysarthria is a motor speech disorder affecting the motor control system of the vocal tract, leading to impaired movements of the vocal tract. Most articulatory studies on dysarthria focus on the analysis of the kinematics. In speech production research, articulatory modelling is however used to quantify and characterise the articulatory degrees of freedom of the vocal tract, providing complementary insights. This study intends to take advantage of this technique to provide for the first time an individualised analysis of the articulatory degrees of freedom of dysarthric patients.Material and methods: The TORGO database, comprising 8 dysarthric patients and 7 control subjects, was considered. The articulatory data consist of vocal tract points coordinates recorded through electromagnetic articulography. For each participant, an articulatory model of the tongue was derived from the midsagittal coordinates of the tongue coils, leading to four components: Jaw Height (JH), related to the height of the jaw, Tongue Body (TB), related to the frontward-backward movement of the tongue, Tongue Dorsum (TD), related to its flattening-arching movement, and Tongue Tip (TT), related to the movement of its tip. The articulatory models between patients and subjects were qualitatively and quantitatively compared.Results: Preliminary analyses were carried out on one patient and one subject, both females. The subject present similar components as those already reported in the literature, with JH and TB explaining each between 30% and 40% of the overall data variance, TD around 20% and TT 4%. On the contrary, the patient present more limited articulatory degrees of freedom, with JH explaining only 6% of the overall data variance and TB 65%. TD and TT show similar variance explanation than the subject.Discussion: The analyses show that the patient has a more limited range of articulatory movements. The variability of the tongue due to the opening-closing of the mouth is very limited and a large part of the variability is exclusively related to the frontward-backward movement of the tongue.Conclusion: This study shows that original insights on the articulatory degrees of freedom of dysarthric patients could be obtained. It provides an individual assessment of the articulatory strategy of the patient. Further qualitative and quantitative analyses are currently being carried out on the 15 speakers of the TORGO database, especially to characterise the articulatory movements related to the model's components

    Analyse von Phonetogrammen mittels selbstorganisierender Merkmalskarten

    No full text

    Perzeptionsstudie zur Geschlechtsabhängigkeit von Bewertungen stimmlich umgesetzter Emotionen unterschiedlicher Intensitätsgrade

    No full text
    Hintergrund: Während zur Frage der Emotionserkennung von Gesichtern zahlreiche mimische Studien vorliegen, wurde die Realisierung und Beurteilung von Emotionen in der Stimme bisher wenig untersucht. In dieser Studie soll daher untersucht werden, wie männliche und weibliche Rater realisierte Emotionen unterschiedlicher Intensitätsgrade männlicher und weiblicher Stimmen kategorisieren und ob sich eine Geschlechtsabhängigkeit dieser Zuordnungen zeigt.Material und Methoden: In einer fragebogenbasierten Perzeptionsstudie wurde ein durch Laienschauspieler (3 Männer, 3 Frauen) erstelltes Audioset bewertet. Hierzu wurden verschiedene Sätze der Kategorien Wut, Angst, Trauer, Verachtung, Freude, Scham/Schuld und Überraschung in je 3 Stufen emotionaler Intensität und mit neutraler Stimmlage eingesprochen. 138 ausgewählte Satzbeispiele wurden von 20 weiblichen (MW: 24 J.) und von 20 männlichen Ratern (MW: 25 J.) bewertet, hinsichtlich der wahrgenommenen emotionalen Kategorie und deren zugehörigen Ausprägungsgrades.Ergebnisse: Die emotionalen Kategorien der Hörbeispiele werden überzufällig häufig richtig erkannt, ohne nachweisbare Unterschiede hinsichtlich der jeweils erkannten Kategorien. In der geschlechtsdifferenzierten Betrachtung erkennen Frauen Wut, Angst, Trauer, Verachtung, Scham/Schuld und Überraschung signifikant häufiger als Männer. Mit steigender eingesprochener emotionaler Intensität werden die gesprochenen Kategorien besser erkannt. Unabhängig von der Art der Emotion wird die realisierte Intensität der Sprecherinnen signifikant höherer bewertet als die der Sprecher. Raterinnen bewerten die Hörbeispiele aller Kategorien mit höherer emotionaler Intensität als männliche Rater. Dieser Unterschied ist für die Kategorien Trauer, Freude und Überraschung signifikant.Diskussion: Dass die emotionalen Kategorien in den Hörbeispielen beider Geschlechter in ähnlichem Ausmaß erkannt wurden erscheint überraschend, während die Beobachtung, dass die emotionale Kategorie perzeptiv besser von Frauen erkannt wird bereits vermutet werden konnte.Fazit: Als bislang noch kaum untersuchter Einflussfaktor stellt der Ausprägungsgrad der emotionalen Intensität einen zentralen Punkt der Studie dar, der weiter untersucht werden sollte. Limitierender Faktor der Untersuchung ist die von den Laienschauspielern erbrachte, variierende Qualität der Hörbeispiele

    Computergestützte 3D-Phonetographie

    No full text

    Vergleichende Untersuchungen zur Geschlechtserkennung von Sprechern auf Einzellaut-, Silben-, Wort- und Satzebene

    No full text
    Einleitung: Ziel der vorliegenden Studie war es, festzustellen, welche Segmentlänge erforderlich ist, um männliche und weibliche Sprecher sicher zu unterscheiden. Methoden: Hierzu wurden phonetisch ausgewogene Sätze von 6 Sprechern beider Geschlechter mit tiefer, mittlerer und hoher Sprechstimmlage aufgezeichnet, aus denen 174 Sprachsegmente (isolierte Vokale, CV-Segmente aus Plosivlaut und Vokal, 1-silbige Wörter, 3-silbige Wörter und Sätze) herausgeschnitten wurden, die nachfolgend 63 Ratern beiderlei Geschlechts präsentiert wurden. Diese wurden aufgefordert, das Sprechergeschlecht dichotom zu beurteilen und ihre subjektive Sicherheit während der Geschlechtsidentifikation in einer Rating-Scale anzugeben.Ergebnisse: Die CV-Segmente wurden in 2,9% der Fälle dem Gegengeschlecht zugeordnet und damit statistisch signifikant (p<0.05) häufiger korrekt und sicherer identifiziert, als isolierte Vokale und 1-silbige Wörter (jeweils 5,6% Fehlerrate). Bei der Zuordnung der Laute mit hoher männlicher Sprechstimmlage wurden die meisten Fehler begangen (18,7%). Für das weibliche Geschlecht war der Einfluss der Sprechstimmlage dagegen nicht statistisch signifikant. Die weiblichen Rater beurteilten die Sprachsegmente mit größerer subjektiver Sicherheit und begingen weniger Fehler (p<0.05). Die Artikulationsstelle des Plosivlauts und dessen Stimmhaftigkeit hatten keinen statistisch fassbaren Einfluss auf das Ratingverhalten. Schlussfolgerung: Bereits einzelne Silben ermöglichen eine korrekte und subjektiv sichere Geschlechtserkennung. Zusätzliche akustische Information durch eine größere Anzahl an Phonemen erleichtert die Aufgabe. Wir vermuten, dass im Rahmen von einsilbigen Sprachsegmenten semantische Information von der Aufgabe der Geschlechtererkennung ablenkt
    corecore