1,063 research outputs found
Optimization and improvements in spatial sound reproduction systems through perceptual considerations
[ES] La reproducción de las propiedades espaciales del sonido es una cuestión cada vez más importante en muchas aplicaciones inmersivas emergentes. Ya sea en la reproducción de contenido audiovisual en entornos domésticos o en cines, en sistemas de videoconferencia inmersiva o en sistemas de realidad virtual o aumentada, el sonido espacial es crucial para una sensación de inmersión realista. La audición, más allá de la física del sonido, es un fenómeno perceptual influenciado por procesos cognitivos. El objetivo de esta tesis es contribuir con nuevos métodos y conocimiento a la optimización y simplificación de los sistemas de sonido espacial, desde un enfoque perceptual de la experiencia auditiva. Este trabajo trata en una primera parte algunos aspectos particulares relacionados con la reproducción espacial binaural del sonido, como son la escucha con auriculares y la personalización de la Función de Transferencia Relacionada con la Cabeza (Head Related Transfer Function - HRTF). Se ha realizado un estudio sobre la influencia de los auriculares en la percepción de la impresión espacial y la calidad, con especial atención a los efectos de la ecualización y la consiguiente distorsión no lineal. Con respecto a la individualización de la HRTF se presenta una implementación completa de un sistema de medida de HRTF y se introduce un nuevo método para la medida de HRTF en salas no anecoicas. Además, se han realizado dos experimentos diferentes y complementarios que han dado como resultado dos herramientas que pueden ser utilizadas en procesos de individualización de la HRTF, un modelo paramétrico del módulo de la HRTF y un ajuste por escalado de la Diferencia de Tiempo Interaural (Interaural Time Difference - ITD). En una segunda parte sobre reproducción con altavoces, se han evaluado distintas técnicas como la Síntesis de Campo de Ondas (Wave-Field Synthesis - WFS) o la panoramización por amplitud. Con experimentos perceptuales se han estudiado la capacidad de estos sistemas para producir sensación de distancia y la agudeza espacial con la que podemos percibir las fuentes sonoras si se dividen espectralmente y se reproducen en diferentes posiciones. Las aportaciones de esta investigación pretenden hacer más accesibles estas tecnologías al público en general, dada la demanda de experiencias y dispositivos audiovisuales que proporcionen mayor inmersión.[CA] La reproducció de les propietats espacials del so és una qüestió cada vegada més important en moltes aplicacions immersives emergents. Ja siga en la reproducció de contingut audiovisual en entorns domèstics o en cines, en sistemes de videoconferència immersius o en sistemes de realitat virtual o augmentada, el so espacial és crucial per a una sensació d'immersió realista. L'audició, més enllà de la física del so, és un fenomen perceptual influenciat per processos cognitius. L'objectiu d'aquesta tesi és contribuir a l'optimització i simplificació dels sistemes de so espacial amb nous mètodes i coneixement, des d'un criteri perceptual de l'experiència auditiva. Aquest treball tracta, en una primera part, alguns aspectes particulars relacionats amb la reproducció espacial binaural del so, com són l'audició amb auriculars i la personalització de la Funció de Transferència Relacionada amb el Cap (Head Related Transfer Function - HRTF). S'ha realitzat un estudi relacionat amb la influència dels auriculars en la percepció de la impressió espacial i la qualitat, dedicant especial atenció als efectes de l'equalització i la consegüent distorsió no lineal. Respecte a la individualització de la HRTF, es presenta una implementació completa d'un sistema de mesura de HRTF i s'inclou un nou mètode per a la mesura de HRTF en sales no anecoiques. A mès, s'han realitzat dos experiments diferents i complementaris que han donat com a resultat dues eines que poden ser utilitzades en processos d'individualització de la HRTF, un model paramètric del mòdul de la HRTF i un ajustament per escala de la Diferencià del Temps Interaural (Interaural Time Difference - ITD). En una segona part relacionada amb la reproducció amb altaveus, s'han avaluat distintes tècniques com la Síntesi de Camp d'Ones (Wave-Field Synthesis - WFS) o la panoramització per amplitud. Amb experiments perceptuals, s'ha estudiat la capacitat d'aquests sistemes per a produir una sensació de distància i l'agudesa espacial amb que podem percebre les fonts sonores, si es divideixen espectralment i es reprodueixen en diferents posicions. Les aportacions d'aquesta investigació volen fer més accessibles aquestes tecnologies al públic en general, degut a la demanda d'experiències i dispositius audiovisuals que proporcionen major immersió.[EN] The reproduction of the spatial properties of sound is an increasingly important concern in many emerging immersive applications. Whether it is the reproduction of audiovisual content in home environments or in cinemas,
immersive video conferencing systems or virtual or augmented reality systems, spatial sound is crucial for a realistic sense of immersion. Hearing, beyond the physics of sound, is a perceptual phenomenon influenced by
cognitive processes. The objective of this thesis is to contribute with new methods and knowledge to the optimization and simplification of spatial sound systems, from a perceptual approach to the hearing experience. This
dissertation deals in a first part with some particular aspects related to the binaural spatial reproduction of sound, such as listening with headphones and the customization of the Head Related Transfer Function (HRTF). A study has been carried out on the influence of headphones on the perception of spatial impression and quality, with particular attention to the effects of equalization and subsequent non-linear distortion. With regard to the
individualization of the HRTF a complete implementation of a HRTF measurement system is presented, and a new method for the measurement of HRTF in non-anechoic conditions is introduced. In addition, two different and complementary experiments have been carried out resulting in two tools that can be used in HRTF individualization processes, a parametric model of the HRTF magnitude and an Interaural Time Difference (ITD) scaling adjustment. In a second part concerning loudspeaker reproduction, different techniques such as Wave-Field Synthesis (WFS) or amplitude panning have been evaluated. With perceptual experiments it has been studied the capacity of these systems to produce a sensation of distance, and the spatial acuity with which we can perceive the sound sources if they are spectrally split and reproduced in different positions. The contributions of this research are intended to make these technologies more accessible to the general public, given the demand for audiovisual experiences and devices with increasing immersion.Gutiérrez Parera, P. (2020). Optimization and improvements in spatial sound reproduction systems through perceptual considerations [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/142696TESI
Ambisonics
This open access book provides a concise explanation of the fundamentals and background of the surround sound recording and playback technology Ambisonics. It equips readers with the psychoacoustical, signal processing, acoustical, and mathematical knowledge needed to understand the inner workings of modern processing utilities, special equipment for recording, manipulation, and reproduction in the higher-order Ambisonic format. The book comes with various practical examples based on free software tools and open scientific data for reproducible research. The book’s introductory section offers a perspective on Ambisonics spanning from the origins of coincident recordings in the 1930s to the Ambisonic concepts of the 1970s, as well as classical ways of applying Ambisonics in first-order coincident sound scene recording and reproduction that have been practiced since the 1980s. As, from time to time, the underlying mathematics become quite involved, but should be comprehensive without sacrificing readability, the book includes an extensive mathematical appendix. The book offers readers a deeper understanding of Ambisonic technologies, and will especially benefit scientists, audio-system and audio-recording engineers. In the advanced sections of the book, fundamentals and modern techniques as higher-order Ambisonic decoding, 3D audio effects, and higher-order recording are explained. Those techniques are shown to be suitable to supply audience areas ranging from studio-sized to hundreds of listeners, or headphone-based playback, regardless whether it is live, interactive, or studio-produced 3D audio material
Proceedings of the EAA Spatial Audio Signal Processing symposium: SASP 2019
International audienc
Object-based reverberation for spatial audio
Object-based audio is gaining momentum as a means for future audio content to be more immersive, interactive, and accessible. Recent standardization developments make recommendations for object formats; however, the capture, production, and reproduction of reverberation is an open issue. In this paper parametric approaches for capturing, representing, editing, and rendering reverberation over a 3D spatial audio system are reviewed. A framework is proposed for a Reverberant Spatial Audio Object (RSAO), which synthesizes reverberation inside an audio object renderer. An implementation example of an object scheme utilizing the RSAO framework is provided, and supported with listening test results, showing that: the approach correctly retains the sense of room size compared to a convolved reference; editing RSAO parameters can alter the perceived room size and source distance; and, format-agnostic rendering can be exploited to alter listener envelopment
Movements in Binaural Space: Issues in HRTF Interpolation and Reverberation, with applications to Computer Music
This thesis deals broadly with the topic of Binaural Audio. After reviewing the
literature, a reappraisal of the minimum-phase plus linear delay model for HRTF
representation and interpolation is offered. A rigorous analysis of threshold based
phase unwrapping is also performed. The results and conclusions drawn from these
analyses motivate the development of two novel methods for HRTF representation
and interpolation. Empirical data is used directly in a Phase Truncation method. A
Functional Model for phase is used in the second method based on the
psychoacoustical nature of Interaural Time Differences. Both methods are validated;
most significantly, both perform better than a minimum-phase method in subjective
testing.
The accurate, artefact-free dynamic source processing afforded by the above
methods is harnessed in a binaural reverberation model, based on an early reflection
image model and Feedback Delay Network diffuse field, with accurate interaural
coherence. In turn, these flexible environmental processing algorithms are used in
the development of a multi-channel binaural application, which allows the audition
of multi-channel setups in headphones. Both source and listener are dynamic in this
paradigm. A GUI is offered for intuitive use of the application.
HRTF processing is thus re-evaluated and updated after a review of accepted
practice. Novel solutions are presented and validated. Binaural reverberation is
recognised as a crucial tool for convincing artificial spatialisation, and is developed
on similar principles. Emphasis is placed on transparency of development practices,
with the aim of wider dissemination and uptake of binaural technology
The role that sound spatialization plays in improving performance in an interactive installation : study of the correlation between gesture and localization of sound sources in space
The main objective of this research work is to study the correlation between gesture and localization of sound
sources in space within the framework of interactive installations, based on theories of hearing and gesture.
We have therefore chosen the experimental method by developing an interactive installation with which
we carry out three different experiments, in which a subject’s hand is tracked by a Microsoft Kinect depth
camera (motion capture) and a deictic gesture is used to trigger recorded music sounds and identify their
localization in the horizontal plane. Thus, we manipulate the direction of sound and we measure the percentage
of correct perceptual sound source localizations resulting from the participant’s responses in an Inquiry Mode
Questionnaire in comparison with the actual directions of the gesture and perceptual sound sources provided
by software.
Descriptive and inferential statistics is applied to the collected data. The main results show that it is easier
to define the origin of sound and that auditory perception is more accurate when its incidence is frontal in the
horizontal plane, just as sound source localization theory predicts. Whereas 86.1% of all volunteers consider
that their gesture coincides with the origin of sound in experiment 1, in which the use of their gesture in a certain
direction produces a sound from that direction, only 58.1% admit the same in experiment 3, in which the same
gesture is used to identify the system-predetermined localization of a perceptual sound source in an angle of
260o around a subject. At least 55.9% of all participants do not perceive that their gesture cannot coincide
with the origin of sound in experiment 2, since sound is produced from the opposite surround direction, which
seems to demonstrate that, when sounds are produced frontally or from the back and a person has the task of
controlling their motion with a deictic gesture at the same time, his or her ability to identify the origin of sound
generally diminishes, in addition to the already well-known reduced ability to identify it when it is in the median
plane, if the head is not rotated.
We therefore conclude that there is a relatively high correlation between gesture and localization of sound
sources in space, but this is not as perfect as it could be owing to the limitations of the human auditory system
and to the natural dependence of head movement on gesture.O objectivo principal deste trabalho de pesquisa é o de estudar a correlação entre gesto e localização de fontes
sonoras no espaço, no âmbito das instalações interactivas, com base nas teorias da audição e do gesto. Na
ocasisão em que começamos a nossa investigação verificámos que havia vários estudos que abordavam os
assuntos “gesto” e “localização de fontes sonoras” de diversas maneiras: 1) de forma independente um do
outro e/ou noutros contextos distintos dos das instalações interactivas, como por exemplo em Blauert (1997),
Pulkki (1999) Pulkki & Karjalainen (2001), Pulkki (2001a), Bates et al. (2007), Hammershøi (2009), McNeill
(1992), Coutaz & Crowley (1995), Choi (2000), Cadoz & Wanderley (2000), Nehaniv (2005), Campbell (2005),
ou Godøy & Leman (2010); 2) de um ponto de vista mais técnico, como por exemplo em Harada et al. (1992),
Jensenius et al. (2006), Marshall et al. (2006), Schacher (2007), Neukom & Schacher (2008), Zelli (2009),
Marshall et al. (2009), Bhuiyan & Picking (2009), ou Schumacher & Bresson (2010); ou 3) de um ponto de
vista mais artístico, como em Bencina et al. (2008) ou Grigoriou & Floros (2010). Havia, no entanto, muito
poucos estudos a envolver ou a abordar ambos os assuntos e a analisar de maneira conjugada as suas
relações de um ponto de vista mais perceptual, como por exemplo em Gröhn (2002), de Götzen (2004) ou
Marentakis et al. (2008). Foi esta última perspectiva que decidimos seguir e que aqui exploramos.
Desta forma, optámos pelo método experimental, aplicando um desenho de medidas repetidas e desenvolvendo
uma instalação interactiva com a qual realizamos três experiências diferentes, em que a mão de um
sujeito é rastreada por uma câmara de profundidade Microsoft Kinect (captação de movimento) e um gesto
díctico é usado para activar sons de música gravada e para identificar as suas localizações no plano de escuta
horizontal. Assim, manipulamos a direcção do som e medimos a percentagem de localizações de fontes
sonoras perceptuais correctas, resultante das respostas dos participantes num Inquérito Por Questionário
em comparação com as direcções reais do gesto díctico e das fontes sonoras perceptuais fornecidas pelo
software que utilizamos no nosso trabalho. Para população-alvo pensámos em pessoas com conhecimentos
musicais e pessoas com poucos ou nenhuns conhecimentos musicais, o que nos levou a solicitar a um grande
número de pessoas a sua participação voluntária, anónima e sem constrangimentos no nosso estudo. Isso foi
levado a cabo sobretudo através do envio de correio electrónico para amigos, para estudantes de diferentes
áreas a frequentar e para colegas a trabalhar na Escola de Artes da Universidade Católica Portuguesa (EA-
-UCP), na Escola Superior de Música e Artes do Espetáculo do Instituto Politécnico do Porto e na Academia
de Música de Espinho. Para além disso, foi também crucial falar-se com amigos e familiares e informar tantas
pessoas quanto possíıvel sobre a nossa investigação, através da colocação de cartazes informativos nas
paredes dos corredores da Universidade Católica, alguns dias antes de as experiências terem sido realizadas
no Laboratório de Captação de Movimento da EA-UCP.
Por fim, é efectuada uma análise estatística descritiva e inferencial dos dados recolhidos. Os principais
resultados apontam no sentido de ser mais fácil definir a origem do som quando a sua incidência é frontal
no plano de escuta horizontal, para além de a percepção auditiva ser mais precisa nessa direcção, tal como
a teoria da localização de fontes sonoras prevê. Enquanto 86.1% de todos os participantes consideram
que o seu gesto díctico coincide com a origem do som na experiência 1, em que o uso desse gesto numa
determinada direcção faz despoletar um som proveniente dessa direcção, apenas 58.1% admitem o mesmo na experiência 3, em que o mesmo gesto é usado para identificar a localização de uma fonte sonora perceptual
predeterminada pelo sistema num ângulo de 260º em torno de um sujeito. Esta última percentagem parece
dever-se ao facto de a maior parte dos sons ser produzida a partir de direcções laterais na experiência 3, tendo
a posição da cabeça voltada para a câmara como referência. Pelo menos 55.9% de todos os voluntários não
percebem que o seu gesto não poderia ter coincidido com a origem do som na experiência 2, já que o som
é produzido a partir da direcção envolvente oposta. Este facto parece demonstrar que, quando os sons são
produzidos frontalmente ou de trás e uma pessoa tem a tarefa de controlar os seus movimentos com um
gesto díctico ao mesmo tempo, a sua capacidade para identificar a origem do som é, em geral, ainda mais
baixa, para além da já conhecida capacidade reduzida para identificá-la quando o som se encontra no plano
mediano, se a cabeça não for rodada.
A maior parte dos participantes sente um controlo imediato sobre o som nas experiências 1 e 2, mas os
tempos estimados pelos próprios são bastante superiores aos aproximadamente 650 milissegundos necessários
para o ser humano ouvir e reagir a um som na nossa instalação interactiva.
Descobrimos também que o tempo médio necessário para localizar sons com o uso de um gesto díctico na
nossa experiência 3 é de cerca de 10 segundos, o que corresponde a um tempo bastante mais longo do que
os 3 segundos que supusemos. Para além disso, os voluntários fazem em média 2 tentativas para localizar
sons com os seus gestos dícticos, tendo a necessidade de ouvir apenas uma vez em média cada som na
íntegra para o localizar.
Os desvios à esquerda e à direita efectuados pela maior parte dos participantes relativamente às direcções
verdadeiras do som, quando estes tentam identificar as localizações predeterminadas pelo sistema das fontes
sonoras perceptuais com os seus gestos dícticos na zona periférica do corpo, são em média de 7.97º e -7.19º,
respectivamente. Desta forma, o desvio médio absoluto é de 7.76º. Comparando esses desvios com aqueles
levados a cabo pelos participantes usando a mão esquerda (desvios de 6.86o para a esquerda e -6.35º para
a direita das direcções verdadeiras do som) e com aqueles usando a mão direita (desvios de 8.46º para
a esquerda e -7.38º para a direita das direcções verdadeiras do som), concluímos que os resultados são bastante parecidos entre si.
Descobrimos que a maior parte dos voluntários estima um tempo muito mais longo do que os 2 segundos
que supusemos experimentalmente para entender cada uma das três experiências. Para além disso,
esse tempo estimado pelos participantes diminui da primeira para a última experiência, aparentemente devido
à familiarização, conscientemente provocada por nós através da mesma sequência de realização das
experiências imposta a cada participante, com o nosso sistema interactivo, embora considerem ter entendido
cada uma das três experiências rapidamente.
Acresce que a maioria dos voluntários interage facilmente com a nossa instalação e concorda que o gesto
sugerido por nós foi adequadamente seleccionado para qualquer uma das três experiências.
Também constatamos que os participantes consideram a resposta do sistema ao gesto como sendo imediata
nas nossas três experiências, ou seja, estimam cerca de 1 segundo, o que é consistente com o resultado
da medição da latência do sistema de cerca de 470 milissegundos.
Além disso, verificamos que a maioria dos voluntários se sente envolvida pelo som na nossa instalação
interactiva usando Ambisonics Equivalent Panning. Portanto, concluímos que, usando uma instalação interactiva como a nossa com um público-alvo semelhante
aquele que tivemos, há uma correlação relativamente elevada entre o gesto e a localização de fontes
sonoras no espaço, mas que esta não é tão perfeita como poderia ser devido às limitações do nosso sistema
auditivo e aparentemente à dependência natural do movimento da cabeça do gesto. Assim, parece que a
espacialização sonora pode melhorar o desempenho numa instalação interactiva, mas de forma moderada.
Mesmo assim, defendemos que um sistema como o nosso pode vir a ser aplicado com vantagem em domínios
diversos como os que apresentamos como exemplos
An interactive auralization method using real-time sound sources
During recent years, auralization methods have evolved towards using more interactive measures. The use of interactive elements, like navigation in static sound fields, has proven to be very significant in order to better integrate the listener with the simulated soundscape. In this study the possibility of engaging the user by actively contributing to the sound field is explored. Enabling the subject to act as a sound source and allowing communication within the environment, utilizing real-time synthesis of an acoustic environment's response. Auralization allows for a psychoacoustic evaluation of the acoustical space and therefore plays an important part in a wider understanding of different environmental characteristics. With an auralization framework adapting this kind of interaction, experience of the acoustical response is enabled and can thus be used as a tool in the process of subjectively assessing the acoustical space. Real-time convolution software implementing this mode of procedure has been designed. A subjective evaluation has been performed using a listening room equipped with an ambisonics multi-channel reproduction system, and a directional microphone with feedback control. Evaluation results indicate a positive response from the subjects to the added control over the simulated space
Audio-visual Virtual Reality System for Room Acoustics
We present an audio-visual Virtual Reality display system for simulated sound fields. In addition to the room acoustic simulation by means of phonon tracing and finite element method this system includes the stereoscopic visualization of simulation results using a 3D back projection system as well as auralization by use of a professional sound equipment. For auralization purposes we develop a sound field synthesis approach for accurate control of the loudspeaker system
- …