1 research outputs found

    Brain Music : Sistema generativo para la creaci贸n de m煤sica simb贸lica a partir de respuestas neuronales afectivas

    Get PDF
    gr谩ficas, tablasEsta tesis de maestr铆a presenta una metodolog铆a de aprendizaje profundo multimodal innovadora que fusiona un modelo de clasificaci贸n de emociones con un generador musical, con el prop贸sito de crear m煤sica a partir de se帽ales de electroencefalograf铆a, profundizando as铆 en la interconexi贸n entre emociones y m煤sica. Los resultados alcanzan tres objetivos espec铆ficos: Primero, ya que el rendimiento de los sistemas interfaz cerebro-computadora var铆a considerablemente entre diferentes sujetos, se introduce un enfoque basado en la transferencia de conocimiento entre sujetos para mejorar el rendimiento de individuos con dificultades en sistemas de interfaz cerebro-computadora basados en el paradigma de imaginaci贸n motora. Este enfoque combina datos de EEG etiquetados con datos estructurados, como cuestionarios psicol贸gicos, mediante un m茅todo de "Kernel Matching CKA". Utilizamos una red neuronal profunda (Deep&Wide) para la clasificaci贸n de la imaginaci贸n motora. Los resultados destacan su potencial para mejorar las habilidades motoras en interfaces cerebro-computadora. Segundo, proponemos una t茅cnica innovadora llamada "Labeled Correlation Alignment"(LCA) para sonificar respuestas neurales a est铆mulos representados en datos no estructurados, como m煤sica afectiva. Esto genera caracter铆sticas musicales basadas en la actividad cerebral inducida por las emociones. LCA aborda la variabilidad entre sujetos y dentro de sujetos mediante el an谩lisis de correlaci贸n, lo que permite la creaci贸n de envolventes ac煤sticos y la distinci贸n entre diferente informaci贸n sonora. Esto convierte a LCA en una herramienta prometedora para interpretar la actividad neuronal y su reacci贸n a est铆mulos auditivos. Finalmente, en otro cap铆tulo, desarrollamos una metodolog铆a de aprendizaje profundo de extremo a extremo para generar contenido musical MIDI (datos simb贸licos) a partir de se帽ales de actividad cerebral inducidas por m煤sica con etiquetas afectivas. Esta metodolog铆a abarca el preprocesamiento de datos, el entrenamiento de modelos de extracci贸n de caracter铆sticas y un proceso de emparejamiento de caracter铆sticas mediante Deep Centered Kernel Alignment, lo que permite la generaci贸n de m煤sica a partir de se帽ales EEG. En conjunto, estos logros representan avances significativos en la comprensi贸n de la relaci贸n entre emociones y m煤sica, as铆 como en la aplicaci贸n de la inteligencia artificial en la generaci贸n musical a partir de se帽ales cerebrales. Ofrecen nuevas perspectivas y herramientas para la creaci贸n musical y la investigaci贸n en neurociencia emocional. Para llevar a cabo nuestros experimentos, utilizamos bases de datos p煤blicas como GigaScience, Affective Music Listening y Deap Dataset (Texto tomado de la fuente)This master鈥檚 thesis presents an innovative multimodal deep learning methodology that combines an emotion classification model with a music generator, aimed at creating music from electroencephalography (EEG) signals, thus delving into the interplay between emotions and music. The results achieve three specific objectives: First, since the performance of brain-computer interface systems varies significantly among different subjects, an approach based on knowledge transfer among subjects is introduced to enhance the performance of individuals facing challenges in motor imagery-based brain-computer interface systems. This approach combines labeled EEG data with structured information, such as psychological questionnaires, through a "Kernel Matching CKA"method. We employ a deep neural network (Deep&Wide) for motor imagery classification. The results underscore its potential to enhance motor skills in brain-computer interfaces. Second, we propose an innovative technique called "Labeled Correlation Alignment"(LCA) to sonify neural responses to stimuli represented in unstructured data, such as affective music. This generates musical features based on emotion-induced brain activity. LCA addresses variability among subjects and within subjects through correlation analysis, enabling the creation of acoustic envelopes and the distinction of different sound information. This makes LCA a promising tool for interpreting neural activity and its response to auditory stimuli. Finally, in another chapter, we develop an end-to-end deep learning methodology for generating MIDI music content (symbolic data) from EEG signals induced by affectively labeled music. This methodology encompasses data preprocessing, feature extraction model training, and a feature matching process using Deep Centered Kernel Alignment, enabling music generation from EEG signals. Together, these achievements represent significant advances in understanding the relationship between emotions and music, as well as in the application of artificial intelligence in musical generation from brain signals. They offer new perspectives and tools for musical creation and research in emotional neuroscience. To conduct our experiments, we utilized public databases such as GigaScience, Affective Music Listening and Deap DatasetMaestr铆aMag铆ster en Ingenier铆a - Automatizaci贸n IndustrialInvestigaci贸n en Aprendizaje Profundo y se帽ales Biol贸gicasEl茅ctrica, Electr贸nica, Automatizaci贸n Y Telecomunicaciones.Sede Manizale
    corecore