Akustische Stimmananalyse: Vergleich der Klassifikation durch künstliche neuronale Netze (KNN) und nichtlineare Diskriminanzanalyse (DA)

Abstract

Hintergrund: Akustische Stimmanalyseverfahren sollen die subjektive Bewertung, z.B. nach RBH, nicht ersetzen, sondern ergänzen. Sie haben auch das Potential einer Automatisierung, z.B. zur Nutzung für "Nicht-Stimmexperten". Material und Methode: Es wurden Stimmparameter von 150 Stimmen mit verschiedenen statistischen Verfahren klassifiziert: Insgesamt wurden 32 Stimmparameter zur Klassifikation verwendet, darunter 26 elektroakustische (Mikrophon- und EGG-Signale gehaltener Vokale /a/ und /e/), 4 Grundfrequenz-beschreibende Parameter aus fortlaufender Sprache und 2 aerodynamische Parameter. Ergebnisse: Trotz moderater und guter Reliabilität einzelner Beurteiler war die Beurteilerübereinstimmung unbefriedigend (Fleiss' kappa < 0.5). Bei der Klassifikation mit KNN lagen die besten durchschnittlichen Erkennungsraten unabhängig von untersuchter Kategorie bei 60%. Es wurde keine Verbesserung in den Kategorien R und B im Vergleich zu den Ergebnissen aus früherer Arbeit festgestellt. Ein direkter Vergleich in der Kategorie H war nicht möglich, da die Erkennungsrate von 80% mit nur 2 Bewertungsstufen erzielt wurde. Bei der Klassifikation der Kategorie H mit DA wurde eine durchschnittliche Erkennungsrate von 80% erreicht. In den Kategorien R und B wurden über 70% der Stimmen richtig klassifiziert. Diskussion: Die meisten Variablen korrelierten zwar miteinander, aber sie erwiesen sich in der Stimmanalyse als nicht redundant. Die Erkennungsraten konnten gegenüber den Voruntersuchungen weiter gesteigert werden

    Similar works

    Full text

    thumbnail-image

    Available Versions