5 research outputs found

    El Sonido como Elemento Clave en Pr\'acticas de Realidad Virtual

    Full text link
    This article discusses the importance of sound for virtual reality systems. For this, the emotional effects generated by sound are analyzed, and its contribution to the effect of immersion.Comment: in Spanish languag

    ENSA dataset: a dataset of songs by non-superstar artists tested with an emotional analysis based on time-series

    Get PDF
    This paper presents a novel dataset of songs by non-superstar artists in which a set of musical data is collected, identifying for each song its musical structure, and the emotional perception of the artist through a categorical emotional labeling process. The generation of this preliminary dataset is motivated by the existence of biases that have been detected in the analysis of the most used datasets in the field of emotion-based music recommendation. This new dataset contains 234 min of audio and 60 complete and labeled songs. In addition, an emotional analysis is carried out based on the representation of dynamic emotional perception through a time-series approach, in which the similarity values generated by the dynamic time warping (DTW) algorithm are analyzed and then used to implement a clustering process with the K-means algorithm. In the same way, clustering is also implemented with a Uniform Manifold Approximation and Projection (UMAP) technique, which is a manifold learning and dimension reduction algorithm. The algorithm HDBSCAN is applied for determining the optimal number of clusters. The results obtained from the different clustering strategies are compared and, in a preliminary analysis, a significant consistency is found between them. With the findings and experimental results obtained, a discussion is presented highlighting the importance of working with complete songs, preferably with a well-defined musical structure, considering the emotional variation that characterizes a song during the listening experience, in which the intensity of the emotion usually changes between verse, bridge, and chorus

    Desarrollo de un modelo de elicitaci贸n de emociones a partir de las caracter铆sticas de la m煤sica : Generaci贸n de un sistema recomendado

    No full text
    La computaci贸n afectiva, como 谩rea de investigaci贸n, ha logrado un importante desarrollo en los 煤ltimos a帽os. Las actuales investigaciones han demostrado su utilidad, permitiendo medir la intensidad de las emociones a trav茅s de la tecnolog铆a, y con estos resultados implementar acciones que permitan crear beneficios para la humanidad en diferentes contextos. Uno de estos casos particulares, apuntan al estudio de la m煤sica y su relaci贸n con las emociones. Esta Tesis tiene como objetivo general el dise帽o de un sistema recomendador musical basado en emociones. Para abordar este objetivo se analizan las diferentes disciplinas cient铆ficas involucradas en el reconocimiento de emociones en la m煤sica. Primero, se lleva a cabo un estudio de conceptos relevantes tanto vinculados al 谩rea de identificaci贸n de emociones, con t茅cnicas propias de computaci贸n afectiva, como en relaci贸n a las t茅cnicas para el dise帽o de sistemas de predicci贸n y de clasificaci贸n basados en machine learning. Al mismo tiempo, se identifican caracter铆sticas intr铆nsecas y extr铆nsecas de piezas musicales. Se lleva adelante un proceso de revisi贸n de la literatura sobre librer铆as de alto nivel, dataset musicales y trabajos en relaci贸n con sistemas de predicci贸n, clasificaci贸n, y de recomendaci贸n de m煤sica. Asimismo, se revisan antecedentes en relaci贸n a sesgos que pueden intervenir en el proceso de recomendaci贸n de piezas musicales. As铆, se identifica la importancia de dise帽ar un nuevo dataset musical, con algunas caracter铆sticas novedosas, como lo son la inclusi贸n de obras completas y originales de artistas noveles, y el etiquetado emocional sobre la variaci贸n temporal de la canci贸n en relaci贸n con la estructura musical, para ello se utilizan series temporales. El desarrollo y dise帽o de este dataset, denominado ENSA (Emotional Non-Superstar Artist-Dataset), constituye uno de los aportes fundamentales de la Tesis. Posteriormente, se dise帽a un sistema recomendador h铆brido, basado en el filtrado emocional, filtrado basado en contenido, y filtrado basado en similaridad. La propuesta hace uso de un modelo de machine learning para el reconocimiento de emociones a trav茅s de un sistema de etiquetado dimensional de valence y arousal. El nuevo dataset y las estrategias de agrupamiento por similaridad implementadas por el sistema recomendador, como otras medidas adicionales que se detallan en el desarrollo de esta Tesis, tambi茅n permite dar un tratamiento al efecto de la popularidad, que generalmente aparece a trav茅s de un sesgo preexistente, que no solo afecta a oyentes, sino que tambi茅n tiene un alto impacto en los artistas y sus posibilidades de desarrollo en la industria de la m煤sica. Estos 煤ltimos aportes se alinean con los objetivos propuestos en la Tesis y que se han alcanzado en su totalidad. En cuanto al trabajo futuro, se resalta la importancia de continuar profundizando en las siguientes tres l铆neas: el dataset ENSA, el sistema recomendador, y el estudio de sesgos. Con respecto al dataset, es importante seguir avanzando en la inclusi贸n de nuevas canciones, como tambi茅n en la definici贸n e inclusi贸n de nuevas etiquetas que permitan llevar a cabo experimentos novedosos. En cuanto al sistema recomendador, se propone extender su funcionalidad incluyendo otras partes de la estructura musical (coro, puentes, solos) en las estrategias de recomendaci贸n. Y, finalmente, en relaci贸n a los sesgos, se propone identificar y analizar la aparici贸n de nuevos sesgos (aquellos que clasifican como emergentes), y tanto desde el dataset ENSA, como desde las estrategias de recomendaci贸n, proponer nuevos tratamientos que permitan mitigar sus efectos.Asesora: Cecilia SanzDoctor en Ciencias Inform谩ticasUniversidad Nacional de La PlataFacultad de Inform谩tic

    Tercerizaci贸n estrat茅gica de procesos de TI

    No full text
    RESUMEN: El trabajo elaborado en este documento presenta lineamientos que le permiten a las organizaciones Colombianas tomar decisiones m谩s acertadas sobre implementar o tercerizar procesos relativos a las Tecnolog铆as de Informaci贸n (TI). Las organizaciones tercerizan procesos que no se consideran parte del n煤cleo del negocio, pero hoy en d铆a los servicios brindados por las TI son fundamentales en cualquier negocio moderno. En consecuencia, las decisiones de tercerizaci贸n afectan directamente a la organizaci贸n y pueden generar grandes p茅rdidas si los riesgos asociados a la tercerizaci贸n no son gestionados adecuadamente. Todo el material presentado en este trabajo tiene como principal objetivo abordar la tem谩tica de IT Outsourcing desde la perspectiva de la decisi贸n. Es decir, desde el momento en que el directivo o l铆der de un proyecto de TI eval煤a la viabilidad de tercerizaci贸n teniendo en cuenta las condiciones del contexto organizacional. Inicialmente se presenta un levantamiento de informaci贸n, en donde se tuvo en cuenta fuentes internacionales y nacionales relacionadas con la problem谩tica. Finalmente la herramienta es aplicada sobre dos casos reales con el fin de comprobar su funcionamiento, observar y analizar los resultados; adem谩s de ilustrar como es su uso. Sobre esta aplicaci贸n se elaboran conclusiones de cada caso y se plantean algunas recomendaciones que pueden considerarse como buenas pr谩cticas de uso para esta herramienta

    The Influence of Blind Source Separation on Mixed Audio Speech and Music Emotion Recognition

    No full text
    While both speech emotion recognition and music emotion recognition have been studied extensively in different communities, little research went into the recognition of emotion from mixed audio sources, i.e. when both speech and music are present. However, many application scenarios require models that are able to extract emotions from mixed audio sources, such as television content. This paper studies how mixed audio affects both speech and music emotion recognition using a random forest and deep neural network model, and investigates if blind source separation of the mixed signal beforehand is beneficial. We created a mixed audio dataset, with 25% speech-music overlap without contextual relationship between the two. We show that specialized models for speech-only or music-only audio were able to achieve merely 'chance-level' performance on mixed audio. For speech, above chance-level performance was achieved when trained on raw mixed audio, but optimal performance was achieved with audio blind source separated beforehand. Music emotion recognition models on mixed audio achieve performance approaching or even surpassing performance on music-only audio, with and without blind source separation. Our results are important for estimating emotion from real-world data, where individual speech and music tracks are often not available
    corecore