Emotionaalinen ääni laulutaiteessa : lyhytkoulutuksen vaikutukset äänelliseen tunneilmaisuun

Abstract

Tutkimuksen tarkoituksena oli kartoittaa akustisen tunneilmaisun parametrejä lauluäänessä ja pohtia tunneilmaisun lauluteknistä koulutettavuutta. Tutkimuskysymyksiä lähestyttiin kvantitatiivisesti mittaamalla lauluäänestä erilaisia akustisia parametrejä, jotka saattaisivat kontributoida tunneilmaisuun. Tutkimuksessa suoritettiin kuuntelukoe, jossa kuulijat arvioivat laulunäytteistä tunnetta ja tunteen intensiteettiä. Akustisista parametreista saatuja tuloksia verrattiin kuuntelukokeen tuloksiin pyrkimyksenä löytää yhteisiä tekijöitä akustisten vihjeiden ja tunteen dekoodaamisen välillä. Lauluäänen tunneilmaisun koulutettavuutta pyrittiin testaamaan aktivoimalla koelaulajien muistiedustuksia suggestion avulla. Tutkimuksessa selvitettiin lisäksi, erottaako kuulija eroja äänellisessä tunneilmaisussa koulutettujen ja kouluttamattomien laulajien välillä. Tutkimuksessa käytetty laulunäyteotos valittiin koulutettujen ja kouluttamattomien laulajien perusjoukosta. Koehenkilöiden tehtävänä oli tuottaa tunnepitoista ääntä kolmiportaisella asteikolla. Tunnetiloiksi valittiin viha, suru ja ilo + neutraali. Suggestiotuokio toteutettiin haastatteluna. Kuuntelukoetta ja akustista analyysiä varten näytteistä leikattiin lyhyt pätkä (500 600 ms) [a:]-äännettä. Kuuntelukokeessa pyrittiin selvittämään, tunnistaako kuulija tunteen ja/tai tunteen intensiteetin laulunäytteestä. Kaikki tässä tutkimuksessa käytetyt akustiset mittaukset laskettiin 231 näytteen aineistosta Praat-analyysiohjelmalla. Tutkimuksessa havaittiin akustisten mittausten perusteella (F0-F5, Alfa-ratio, dB, jitter, shimmer, HNR), että tunteiden ilmaisussa käytetään äänen voimakkuuden vaihtelua, formanttituunausta ja ääniraon adduktioasteen vaihtelua. Akustisten parametriensä perusteella muista tunteista selvästi erottui voimakkaasti ilmaistu viha, jonka formanttirakenne ja voimakkuus poikkesivat muista tunteen akustisista ilmauksista ja neutraalista. Suggestion jälkeen akustisissa parametreissä tapahtui pientä hienosäätöä mm. äänenvoimakkuuden käytössä ja formanttirakenteissa. Tässä aineistossa koulutettujen ja kouluttamattomien laulajien akustisesti mitattavissa oleva ero näkyi äänenkäytön monipuolisuutena koulutetuilla laulajilla. Tunteen tunnistaminen lyhyistä laulunäytteistä näytti tämän tutkimuksen perusteella olevan melko vaikeaa. Tunnekohtaisesti katsottaessa viha oli selkeästi parhaiten tunnistettu, eikä laulajan koulutus tuonut tilastollista merkitsevyyttä tunteen tunnistamiseen. Vihan ja surun tunnistamisessa oli havaittavissa käänteinen korrelaatio. Ilon ja surun tunteet olivat huomattavasti paremmin tunnistettuja koulutettujen laulajien ääninäytteistä. Lisäksi intensiteetti tunnistettiin selvästi paremmin koulutettujen laulajien ääninäytteistä. Tutkimustulosten valossa näyttää siltä, että tunteen koodaaminen akustiseen informaatioon tapahtuu yhtä paljon skaalaamalla kuin biomekaanisesti. Laulaja näyttää normittavan eri tunnetilojen akustiset piirteet suhteessa omaan neutraaliääntöönsä. Eri tunteilla näyttää olevan toisistaan poikkeavat akustiset profiilit, mutta puheäänestä poikkeava sävelkorkeus saattaa vaikeuttaa tunteen tunnistamista. Tutkimuksen tuloksiin nojaten voidaan ajatella, että lauluäänen tekninen kouluttaminen tunneilmaisun habituaalisia akustisia parametrejä myötäillen voi edesauttaa tunteen tunnistettavuutta.Tutkimustulosten valossa näyttää myös siltä, että akustista tunneilmaisua kannattaa tehdä laulaessa mieluummin liioitellusti kuin varoen. ABSTRACT The aim of this study was to map the acoustic parameters of the singing voice in emotional expression and contemplate on their educability in the context of vocal technique. The study questions were approached quantitatively by measuring acoustic parameters that might contribute to emotional expression from the singing voice. A listening test was conducted to determine whether it was possible to hear the induced emotion and its' intensity from the singing samples. The acoustic parameters of the samples were then compared with the results of the listening test to find commonality between acoustic cues and decoding of emotional information from the singing voice. The educability of emotional expression in singing voice was tested by activating the memory traces of the subjects by means of suggestion. It was also tested whether or not there were differences in emotional expression between singers with formal singing education and singers who didn't held a degree in singing. Four singers were included in the study; two educated and two uneducated. Singers were recorded during a singing task, expressing three different emotions (happiness, sadness, anger) with three different intensities (mild, moderate, maximal) and one without emotion (neutral state). Samples were recorded before and after influencing subjects by suggestion. The suggestion was made by following the guidelines of perceptual-motor learning in a form of an interview. Samples were cut to a 500-600 ms stretch of vowel [a:] from which the acoustical analysis and the listening test were performed. In the listening test auditors (N4) were asked to identify the emotion and its' intensity being portrayed in a sample. All of the acoustic measurements in this study were calculated with Praat computer software that is designed for the analysis of speech. According to the acoustical measurements (F0-F5, Alfa-ratio, dB, jitter, shimmer, HNR) of this study it can be said that acoustical expression of emotion in singing voice is done in part by varying the intensity of voice, by formant tuning and by varying the adduction of the glottis. Strongly expressed anger stood out from other emotions and neutral with a different formant structure and loudness level. After the suggestion there were slight tuning of the acoustic parameters especially in formant structures and loudness. In this data it was clearly shown that the educated singers used their voices more diversely to portray emotions than the uneducated singers. Recognizing emotion from a short excerpt proved to be difficult. Anger was the most recognizable emotion and it was statistically well identified regardless of the singers' educational background. Anger and sorrow correlated negatively with each other. Happiness and sorrow were considerably better recognized from the samples given by educated singers. Also intensity was significantly better identified from them. In the light of this data it looks like that the acoustic coding of emotional information to the signal is as much of a scaling process as it is a biomechanical feat. The singer seems to be standardizing the characteristics of a given emotion to his/her own neutral phonation. Different emotions seem to have distinctive acoustic profiles, but the singing voice might make it more difficult to recognize emotions because of the broader pitch variation. This research data indicated that vocal technique that comply the habitual acousic parameters of discrete emotions might aid the listener to better distinguish between emotions. In the light of this sudy it looks that the emotional interpretation in singing is best done overstated rather than understated

    Similar works