4 research outputs found

    Visual scene context in emotion perception

    Get PDF
    Els estudis psicol貌gics demostren que el context de l'escena, a m茅s de l'expressi贸 facial i la postura corporal, aporta informaci贸 important a la nostra percepci贸 de les emocions de les persones. Tot i aix貌, el processament del context per al reconeixement autom脿tic de les emocions no s'ha explorat a fons, en part per la manca de dades adequades. En aquesta tesi presentem EMOTIC, un conjunt de dades d'imatges de persones en situacions naturals i diferents anotades amb la seva aparent emoci贸. La base de dades EMOTIC combina dos tipus de representaci贸 d'emocions diferents: (1) un conjunt de 26 categories d'emoci贸 i (2) les dimensions cont铆nues val猫ncia, excitaci贸 i domin脿ncia. Tamb茅 presentem una an脿lisi estad铆stica i algor铆tmica detallada del conjunt de dades juntament amb l'an脿lisi d'acords d'anotadors. Els models CNN estan formats per EMOTIC, combinant caracter铆stiques de la persona amb funcions d'escena (context). Els nostres resultats mostren com el context d'escena aporta informaci贸 important per recon猫ixer autom脿ticament els estats emocionals i motiven m茅s recerca en aquesta direcci贸.Los estudios psicol贸gicos muestran que el contexto de la escena, adem谩s de la expresi贸n facial y la pose corporal, aporta informaci贸n importante a nuestra percepci贸n de las emociones de las personas. Sin embargo, el procesamiento del contexto para el reconocimiento autom谩tico de emociones no se ha explorado en profundidad, en parte debido a la falta de datos adecuados. En esta tesis presentamos EMOTIC, un conjunto de datos de im谩genes de personas en situaciones naturales y diferentes anotadas con su aparente emoci贸n. La base de datos EMOTIC combina dos tipos diferentes de representaci贸n de emociones: (1) un conjunto de 26 categor铆as de emociones y (2) las dimensiones continuas de valencia, excitaci贸n y dominaci贸n. Tambi茅n presentamos un an谩lisis estad铆stico y algor铆tmico detallado del conjunto de datos junto con el an谩lisis de concordancia de los anotadores. Los modelos CNN est谩n entrenados en EMOTIC, combinando caracter铆sticas de la persona con caracter铆sticas de escena (contexto). Nuestros resultados muestran c贸mo el contexto de la escena aporta informaci贸n importante para reconocer autom谩ticamente los estados emocionales, lo cual motiva m谩s investigaciones en esta direcci贸n.Psychological studies show that the context of a setting, in addition to facial expression and body language, lends important information that conditions our perception of people's emotions. However, context's processing in the case of automatic emotion recognition has not been explored in depth, partly due to the lack of sufficient data. In this thesis we present EMOTIC, a dataset of images of people in various natural scenarios annotated with their apparent emotion. The EMOTIC database combines two different types of emotion representation: (1) a set of 26 emotion categories, and (2) the continuous dimensions of valence, arousal and dominance. We also present a detailed statistical and algorithmic analysis of the dataset along with the annotators' agreement analysis. CNN models are trained using EMOTIC, combining a person's features with those of the setting (context). Our results not only show how the context of a setting contributes important information for automatically recognizing emotional states but also promote further research in this direction

    Visual scene context in emotion perception

    Get PDF
    Els estudis psicol貌gics demostren que el context de l'escena, a m茅s de l'expressi贸 facial i la postura corporal, aporta informaci贸 important a la nostra percepci贸 de les emocions de les persones. Tot i aix貌, el processament del context per al reconeixement autom脿tic de les emocions no s'ha explorat a fons, en part per la manca de dades adequades. En aquesta tesi presentem EMOTIC, un conjunt de dades d'imatges de persones en situacions naturals i diferents anotades amb la seva aparent emoci贸. La base de dades EMOTIC combina dos tipus de representaci贸 d'emocions diferents: (1) un conjunt de 26 categories d'emoci贸 i (2) les dimensions cont铆nues val猫ncia, excitaci贸 i domin脿ncia. Tamb茅 presentem una an脿lisi estad铆stica i algor铆tmica detallada del conjunt de dades juntament amb l'an脿lisi d'acords d'anotadors. Els models CNN estan formats per EMOTIC, combinant caracter铆stiques de la persona amb funcions d'escena (context). Els nostres resultats mostren com el context d'escena aporta informaci贸 important per recon猫ixer autom脿ticament els estats emocionals i motiven m茅s recerca en aquesta direcci贸.Los estudios psicol贸gicos muestran que el contexto de la escena, adem谩s de la expresi贸n facial y la pose corporal, aporta informaci贸n importante a nuestra percepci贸n de las emociones de las personas. Sin embargo, el procesamiento del contexto para el reconocimiento autom谩tico de emociones no se ha explorado en profundidad, en parte debido a la falta de datos adecuados. En esta tesis presentamos EMOTIC, un conjunto de datos de im谩genes de personas en situaciones naturales y diferentes anotadas con su aparente emoci贸n. La base de datos EMOTIC combina dos tipos diferentes de representaci贸n de emociones: (1) un conjunto de 26 categor铆as de emociones y (2) las dimensiones continuas de valencia, excitaci贸n y dominaci贸n. Tambi茅n presentamos un an谩lisis estad铆stico y algor铆tmico detallado del conjunto de datos junto con el an谩lisis de concordancia de los anotadores. Los modelos CNN est谩n entrenados en EMOTIC, combinando caracter铆sticas de la persona con caracter铆sticas de escena (contexto). Nuestros resultados muestran c贸mo el contexto de la escena aporta informaci贸n importante para reconocer autom谩ticamente los estados emocionales, lo cual motiva m谩s investigaciones en esta direcci贸n.Psychological studies show that the context of a setting, in addition to facial expression and body language, lends important information that conditions our perception of people's emotions. However, context's processing in the case of automatic emotion recognition has not been explored in depth, partly due to the lack of sufficient data. In this thesis we present EMOTIC, a dataset of images of people in various natural scenarios annotated with their apparent emotion. The EMOTIC database combines two different types of emotion representation: (1) a set of 26 emotion categories, and (2) the continuous dimensions of valence, arousal and dominance. We also present a detailed statistical and algorithmic analysis of the dataset along with the annotators' agreement analysis. CNN models are trained using EMOTIC, combining a person's features with those of the setting (context). Our results not only show how the context of a setting contributes important information for automatically recognizing emotional states but also promote further research in this direction
    corecore