23 research outputs found
Spatialized teleconferencing: recording and \u27Squeezed\u27 rendering of multiple distributed sites
Teleconferencing systems are becoming increasing realistic and pleasant for users to interact with geographically distant meeting participants. Video screens display a complete view of the remote participants, using technology such as wraparound or multiple video screens. However, the corresponding audio does not offer the same sophistication: often only a mono or stereo track is presented. This paper proposes a teleconferencing audio recording and playback paradigm that captures the spatial location of the geographically distributed participants for rendering of the remote soundfields at the users\u27 end. Utilizing standard 5.1 surround sound playback, this paper proposes a surround rendering approach that `squeezes\u27 the multiple recorded soundfields from remote teleconferencing sites to assist the user to disambiguate multiple speakers from different participating sites
Reviews on Technology and Standard of Spatial Audio Coding
Market demands on a more impressive entertainment media have motivated for delivery of three dimensional (3D) audio content to home consumers through Ultra High Definition TV (UHDTV), the next generation of TV broadcasting, where spatial audio coding plays fundamental role. This paper reviews fundamental concept on spatial audio coding which includes technology, standard, and application. Basic principle of object-based audio reproduction system will also be elaborated, compared to the traditional channel-based system, to provide good understanding on this popular interactive audio reproduction system which gives end users flexibility to render their own preferred audio composition.Keywords : spatial audio, audio coding, multi-channel audio signals, MPEG standard, object-based audi
Recommended from our members
Space Time Exploration of Musical Instruments
Musical instruments are tools used to generate sounds for musical expression. Virtual Reality (VR) and Augmented Reality (AR) musical instruments create sounds that may be spatially disjointed from the instrument controls. Spatial audio processing can be used to position the Extended Reality (XR) musical instruments and their corresponding sounds in the same space. This dissertation investigates novel ways of combining spatial reverb models to improve the naturalness of XR musical instruments. Seven spatial reverb systems, combinations of a shoebox spatial reverb model, a raytracing spatial reverb model, and measured directional room impulse response convolution reverb, were compared in a pilot study. A novel hybrid system of synthetic early reflections and directional room impulse responses was preferred for naturalness when tested over headphones with three instruments created by the author: AR electric guitar, AR drumset, and VR Singing Kite. This research culminated in a concert, Spherical Sound Search, which showcased the preferred hybrid system, the three XR musical instruments, and four re-contextualized spatial audio effects (spatial looping, spatial delay, spatial feedback, and spatial compression). The three pieces in the concert explored different aspects of XR modalities and presented the novel system with spatial audio effects to a larger audience by rendering to an octophonic loudspeaker layout
Ambisonics
This open access book provides a concise explanation of the fundamentals and background of the surround sound recording and playback technology Ambisonics. It equips readers with the psychoacoustical, signal processing, acoustical, and mathematical knowledge needed to understand the inner workings of modern processing utilities, special equipment for recording, manipulation, and reproduction in the higher-order Ambisonic format. The book comes with various practical examples based on free software tools and open scientific data for reproducible research. The book’s introductory section offers a perspective on Ambisonics spanning from the origins of coincident recordings in the 1930s to the Ambisonic concepts of the 1970s, as well as classical ways of applying Ambisonics in first-order coincident sound scene recording and reproduction that have been practiced since the 1980s. As, from time to time, the underlying mathematics become quite involved, but should be comprehensive without sacrificing readability, the book includes an extensive mathematical appendix. The book offers readers a deeper understanding of Ambisonic technologies, and will especially benefit scientists, audio-system and audio-recording engineers. In the advanced sections of the book, fundamentals and modern techniques as higher-order Ambisonic decoding, 3D audio effects, and higher-order recording are explained. Those techniques are shown to be suitable to supply audience areas ranging from studio-sized to hundreds of listeners, or headphone-based playback, regardless whether it is live, interactive, or studio-produced 3D audio material
Sound production for 360 videos : in a live music performance case study
The purpose of this thesis is to overview and analyze the production process of creating 360 videos.
This thesis suggests why sound should be recorded in a precise way to give viewers a deeper experience in the VR universe. It will briefly go through the basics of sound recording, explaining related theoretical information about psychoacoustics and ambisonics that would also be needed in practical applications.
Music and sound post production is a fundamental part of audio media content. These days Virtual Reality is getting more and more popular, calling on audiences to enjoy a new experience; however, in most cases production teams pay more attention to the video component, even though sound has an equivalent role in making viewers believe in what they see.
On the practical side, this thesis will explain the work process of sound production for VR and 360 videos by going through the thesis project, which is live recordings of a rock band made for Tampere University of Applied Sciences, as an example of the workflow and work process
The role that sound spatialization plays in improving performance in an interactive installation : study of the correlation between gesture and localization of sound sources in space
The main objective of this research work is to study the correlation between gesture and localization of sound
sources in space within the framework of interactive installations, based on theories of hearing and gesture.
We have therefore chosen the experimental method by developing an interactive installation with which
we carry out three different experiments, in which a subject’s hand is tracked by a Microsoft Kinect depth
camera (motion capture) and a deictic gesture is used to trigger recorded music sounds and identify their
localization in the horizontal plane. Thus, we manipulate the direction of sound and we measure the percentage
of correct perceptual sound source localizations resulting from the participant’s responses in an Inquiry Mode
Questionnaire in comparison with the actual directions of the gesture and perceptual sound sources provided
by software.
Descriptive and inferential statistics is applied to the collected data. The main results show that it is easier
to define the origin of sound and that auditory perception is more accurate when its incidence is frontal in the
horizontal plane, just as sound source localization theory predicts. Whereas 86.1% of all volunteers consider
that their gesture coincides with the origin of sound in experiment 1, in which the use of their gesture in a certain
direction produces a sound from that direction, only 58.1% admit the same in experiment 3, in which the same
gesture is used to identify the system-predetermined localization of a perceptual sound source in an angle of
260o around a subject. At least 55.9% of all participants do not perceive that their gesture cannot coincide
with the origin of sound in experiment 2, since sound is produced from the opposite surround direction, which
seems to demonstrate that, when sounds are produced frontally or from the back and a person has the task of
controlling their motion with a deictic gesture at the same time, his or her ability to identify the origin of sound
generally diminishes, in addition to the already well-known reduced ability to identify it when it is in the median
plane, if the head is not rotated.
We therefore conclude that there is a relatively high correlation between gesture and localization of sound
sources in space, but this is not as perfect as it could be owing to the limitations of the human auditory system
and to the natural dependence of head movement on gesture.O objectivo principal deste trabalho de pesquisa é o de estudar a correlação entre gesto e localização de fontes
sonoras no espaço, no âmbito das instalações interactivas, com base nas teorias da audição e do gesto. Na
ocasisão em que começamos a nossa investigação verificámos que havia vários estudos que abordavam os
assuntos “gesto” e “localização de fontes sonoras” de diversas maneiras: 1) de forma independente um do
outro e/ou noutros contextos distintos dos das instalações interactivas, como por exemplo em Blauert (1997),
Pulkki (1999) Pulkki & Karjalainen (2001), Pulkki (2001a), Bates et al. (2007), Hammershøi (2009), McNeill
(1992), Coutaz & Crowley (1995), Choi (2000), Cadoz & Wanderley (2000), Nehaniv (2005), Campbell (2005),
ou Godøy & Leman (2010); 2) de um ponto de vista mais técnico, como por exemplo em Harada et al. (1992),
Jensenius et al. (2006), Marshall et al. (2006), Schacher (2007), Neukom & Schacher (2008), Zelli (2009),
Marshall et al. (2009), Bhuiyan & Picking (2009), ou Schumacher & Bresson (2010); ou 3) de um ponto de
vista mais artístico, como em Bencina et al. (2008) ou Grigoriou & Floros (2010). Havia, no entanto, muito
poucos estudos a envolver ou a abordar ambos os assuntos e a analisar de maneira conjugada as suas
relações de um ponto de vista mais perceptual, como por exemplo em Gröhn (2002), de Götzen (2004) ou
Marentakis et al. (2008). Foi esta última perspectiva que decidimos seguir e que aqui exploramos.
Desta forma, optámos pelo método experimental, aplicando um desenho de medidas repetidas e desenvolvendo
uma instalação interactiva com a qual realizamos três experiências diferentes, em que a mão de um
sujeito é rastreada por uma câmara de profundidade Microsoft Kinect (captação de movimento) e um gesto
díctico é usado para activar sons de música gravada e para identificar as suas localizações no plano de escuta
horizontal. Assim, manipulamos a direcção do som e medimos a percentagem de localizações de fontes
sonoras perceptuais correctas, resultante das respostas dos participantes num Inquérito Por Questionário
em comparação com as direcções reais do gesto díctico e das fontes sonoras perceptuais fornecidas pelo
software que utilizamos no nosso trabalho. Para população-alvo pensámos em pessoas com conhecimentos
musicais e pessoas com poucos ou nenhuns conhecimentos musicais, o que nos levou a solicitar a um grande
número de pessoas a sua participação voluntária, anónima e sem constrangimentos no nosso estudo. Isso foi
levado a cabo sobretudo através do envio de correio electrónico para amigos, para estudantes de diferentes
áreas a frequentar e para colegas a trabalhar na Escola de Artes da Universidade Católica Portuguesa (EA-
-UCP), na Escola Superior de Música e Artes do Espetáculo do Instituto Politécnico do Porto e na Academia
de Música de Espinho. Para além disso, foi também crucial falar-se com amigos e familiares e informar tantas
pessoas quanto possíıvel sobre a nossa investigação, através da colocação de cartazes informativos nas
paredes dos corredores da Universidade Católica, alguns dias antes de as experiências terem sido realizadas
no Laboratório de Captação de Movimento da EA-UCP.
Por fim, é efectuada uma análise estatística descritiva e inferencial dos dados recolhidos. Os principais
resultados apontam no sentido de ser mais fácil definir a origem do som quando a sua incidência é frontal
no plano de escuta horizontal, para além de a percepção auditiva ser mais precisa nessa direcção, tal como
a teoria da localização de fontes sonoras prevê. Enquanto 86.1% de todos os participantes consideram
que o seu gesto díctico coincide com a origem do som na experiência 1, em que o uso desse gesto numa
determinada direcção faz despoletar um som proveniente dessa direcção, apenas 58.1% admitem o mesmo na experiência 3, em que o mesmo gesto é usado para identificar a localização de uma fonte sonora perceptual
predeterminada pelo sistema num ângulo de 260º em torno de um sujeito. Esta última percentagem parece
dever-se ao facto de a maior parte dos sons ser produzida a partir de direcções laterais na experiência 3, tendo
a posição da cabeça voltada para a câmara como referência. Pelo menos 55.9% de todos os voluntários não
percebem que o seu gesto não poderia ter coincidido com a origem do som na experiência 2, já que o som
é produzido a partir da direcção envolvente oposta. Este facto parece demonstrar que, quando os sons são
produzidos frontalmente ou de trás e uma pessoa tem a tarefa de controlar os seus movimentos com um
gesto díctico ao mesmo tempo, a sua capacidade para identificar a origem do som é, em geral, ainda mais
baixa, para além da já conhecida capacidade reduzida para identificá-la quando o som se encontra no plano
mediano, se a cabeça não for rodada.
A maior parte dos participantes sente um controlo imediato sobre o som nas experiências 1 e 2, mas os
tempos estimados pelos próprios são bastante superiores aos aproximadamente 650 milissegundos necessários
para o ser humano ouvir e reagir a um som na nossa instalação interactiva.
Descobrimos também que o tempo médio necessário para localizar sons com o uso de um gesto díctico na
nossa experiência 3 é de cerca de 10 segundos, o que corresponde a um tempo bastante mais longo do que
os 3 segundos que supusemos. Para além disso, os voluntários fazem em média 2 tentativas para localizar
sons com os seus gestos dícticos, tendo a necessidade de ouvir apenas uma vez em média cada som na
íntegra para o localizar.
Os desvios à esquerda e à direita efectuados pela maior parte dos participantes relativamente às direcções
verdadeiras do som, quando estes tentam identificar as localizações predeterminadas pelo sistema das fontes
sonoras perceptuais com os seus gestos dícticos na zona periférica do corpo, são em média de 7.97º e -7.19º,
respectivamente. Desta forma, o desvio médio absoluto é de 7.76º. Comparando esses desvios com aqueles
levados a cabo pelos participantes usando a mão esquerda (desvios de 6.86o para a esquerda e -6.35º para
a direita das direcções verdadeiras do som) e com aqueles usando a mão direita (desvios de 8.46º para
a esquerda e -7.38º para a direita das direcções verdadeiras do som), concluímos que os resultados são bastante parecidos entre si.
Descobrimos que a maior parte dos voluntários estima um tempo muito mais longo do que os 2 segundos
que supusemos experimentalmente para entender cada uma das três experiências. Para além disso,
esse tempo estimado pelos participantes diminui da primeira para a última experiência, aparentemente devido
à familiarização, conscientemente provocada por nós através da mesma sequência de realização das
experiências imposta a cada participante, com o nosso sistema interactivo, embora considerem ter entendido
cada uma das três experiências rapidamente.
Acresce que a maioria dos voluntários interage facilmente com a nossa instalação e concorda que o gesto
sugerido por nós foi adequadamente seleccionado para qualquer uma das três experiências.
Também constatamos que os participantes consideram a resposta do sistema ao gesto como sendo imediata
nas nossas três experiências, ou seja, estimam cerca de 1 segundo, o que é consistente com o resultado
da medição da latência do sistema de cerca de 470 milissegundos.
Além disso, verificamos que a maioria dos voluntários se sente envolvida pelo som na nossa instalação
interactiva usando Ambisonics Equivalent Panning. Portanto, concluímos que, usando uma instalação interactiva como a nossa com um público-alvo semelhante
aquele que tivemos, há uma correlação relativamente elevada entre o gesto e a localização de fontes
sonoras no espaço, mas que esta não é tão perfeita como poderia ser devido às limitações do nosso sistema
auditivo e aparentemente à dependência natural do movimento da cabeça do gesto. Assim, parece que a
espacialização sonora pode melhorar o desempenho numa instalação interactiva, mas de forma moderada.
Mesmo assim, defendemos que um sistema como o nosso pode vir a ser aplicado com vantagem em domínios
diversos como os que apresentamos como exemplos
Video Game Acoustics: Perception-Based Sound Design for Interactive Virtual Spaces Submitted
Video game acoustics are the various aspects of sound physics that can be represented in a video game, as well as the perception and interpretation of those sound physics by a player. At its core, the research here aims to identify the many functions and considerations of acoustics in interactive virtual spaces, while also building a theoretical foundation for video game acoustics by gathering relevant research from a wide variety of disciplines into a single video game context. The writing here also functions as an informative resource for video game sound designers and is primarily written for that audience. Through a review of the literature it is found that there is research available across many different disciplines that is relevant to video game acoustics, but none that bring it all together and fully explore acoustics in a video game context. Small discussions related to the topic occur sporadically throughout various fields, however there are few of any detailed focus and even fewer with video game sound designers as their intended audience. This scattering and dilution of relevant information validates the need for its distillation into a dedicated discussion. The writing here addresses this gap in the literature and in doing so uncovers aspects of video game acoustics that have not previously been given adequate attention. This thesis accomplishes its aims by combining an interdisciplinary background with an emphasis on simplification to suit the creative field of game sound design. A theoretical foundation is built from several different disciplines, including Acoustics, auditory perception, acoustic simulation, sound theory, spatial presence, film sound, and of course game sound. A twofold physics/perception approach is used to analyse video game acoustics. The human perception of sound has various strengths and weaknesses, which help to identify the aspects of sound physics that are important to provide a player as well as aspects that may be ignored for efficiency reasons. The thesis begins by revealing the many considerations and implications of incorporating acoustics into a video game, followed by an exploration of the perceptual functions of acoustics in virtual spaces. Several conceptual frameworks are then offered to address some of the problems discovered in the previous sections. By the end of the thesis it will be shown that the main purpose of video game acoustics is to provide a player with a natural experience of sound. People working in the video game industry may use the research presented here to cultivate an understanding of how humans can interact with video games through sound physics, and why it is important to improve the quality of this interaction.Thesis (Ph.D.) -- University of Adelaide, Elder Conservatorium of Music, 202