206 research outputs found

    i Map: a novel method for statistical fixation mapping of eye movement data

    Get PDF
    Eye movement data analyses are commonly based on the probability of occurrence of saccades and fixations (and their characteristics) in given regions of interest (ROIs). In this article, we introduce an alternative method for computing statistical fixation maps of eye movements—iMap—based on an approach inspired by methods used in functional magnetic resonance imaging. Importantly, iMap does not require the apriori segmentation of the experimental images into ROIs. With iMap, fixation data are first smoothed by convolving Gaussian kernels to generate three-dimensional fixation maps. This procedure embodies eyetracker accuracy, but the Gaussian kernel can also be flexibly set to represent acuity or attentional constraints. In addition, the smoothed fixation data generated by iMap conform to the assumptions of the robust statistical random field theory (RFT) approach, which is applied thereafter to assess significant fixation spots and differences across the three-dimensional fixation maps. The RFT corrects for the multiple statistical comparisons generated by the numerous pixels constituting the digital images. To illustrate the processing steps of iMap, we provide sample analyses of real eye movement data from face, visual scene, and memory processing. The iMap MATLAB toolbox is editable and freely available for download online (www.unifr.ch/psycho/ibmlab/

    Mapping the development of visual information use for facial expression recognition

    Get PDF
    Dans cette thèse, je souhaitais cartographier le développement de la reconnaissance des expressions faciales de la petite enfance à l'âge adulte en identifiant, et ceci pour la première fois dans la littérature développementale, la quantité et la qualité d’informations visuelles nécessaires pour reconnaître les six émotions « de base ». En utilisant des mesures comportementales et oculaires, les contributions originales de cette thèse incluent: 1. Une cartographie fine et impartiale du développement continu de la reconnaissance des six expressions faciales de base avec l'introduction d'une mesure psychophysique de pointe; 2. L'identification de deux phases principales dans le développement de la reconnaissance des expressions faciales, allant de 5 à 12 ans et de 13 à l'âge adulte; 3. Une évaluation fine de la quantité d'informations (signal) et d'intensité nécessaires pour reconnaître les six émotions fondamentales du développement ; 4. Le traitement des informations relatives au signal et à l'intensité devient plus discriminant au cours du développement, car avec l'âge, moins d'informations sont nécessaires pour reconnaître la colère, le dégoût, la surprise et la tristesse. 5. Une nouvelle analyse des profils de réponse (la séquence de réponses entre les essais) a révélé des changements subtils mais importants dans la séquence de réponses sur un continuum d'âge: les profils deviennent plus similaires avec l'âge en raison de catégorisations erronées moins aléatoires; 6. La comparaison de deux mesures de reconnaissance au sein de la même cohorte, révélant que deux types de stimuli couramment utilisés dans les études sur les expressions émotionnelles (expressions à intensité maximale vs expressions d'intensités variables) ne peuvent pas être directement comparés au cours du développement; 7. De nouvelles analyses des mouvements oculaires ont révélé l'âge auquel les stratégies perceptuelles pour la reconnaissance d'expressions faciales émotionnelles deviennent matures. Une première revue de la littérature a révélé plusieurs domaines moins étudiés du développement de la reconnaissance de l'expression faciale, sur lesquels j'ai choisi de me concentrer pour ma thèse. Tout d'abord, au début de cette thèse, aucune étude n'a été menée sur le développement continu de la reconnaissance des expressions faciales depuis la petite enfance jusqu'à l'âge adulte. De même, aucune étude n’a examiné les six expressions dites «de base» et une expression neutre dans le même paradigme. Par conséquent, l’objectif de la première étude était de fournir une cartographie fine du développement continu des six expressions de base et neutre de l’âge de 5 ans à l’âge adulte en introduisant une nouvelle méthode psychophysique dans la littérature sur le développement. La procédure psychophysique adaptatived a fourni une mesure précise de la performance de reconnaissance à travers le développement. En utilisant une régression linéaire, nous avons ensuite tracé les trajectoires de développement pour la reconnaissance de chacune des 6 émotions de base et neutres. Cette cartographie de la reconnaissance à travers le développement a révélé des expressions qui montraient une nette amélioration avec l'âge - dégoût, neutre et colère; des expressions qui montrent une amélioration graduelle avec l’âge - tristesse, surprise; et celles qui sont restés stables depuis leur plus tendre enfance - la joie et la peur; indiquant que le codage de ces expressions est déjà mature à 5 ans. Deux phases principales ont été identifiées dans le développement de la reconnaissance des expressions faciales, car les seuils de reconnaissance étaient les plus similaires entre les âges de 5 à 12 ans et de 13 ans jusqu'à l'âge adulte. Dans la deuxième étude, nous voulions approfondir cette cartographie fine du développement de la reconnaissance des expressions faciales en quantifiant la quantité d'informations visuelles nécessaires pour reconnaître une expression au cours du développement en comparant deux mesures d'informations visuelles, le signal et l'intensité. Encore une fois, en utilisant une approche psychophysique, cette fois avec un plan de mesures répétées, la quantité de signal et l'intensité nécessaires pour reconnaître les expressions de tristesse, colère, dégoût et surprise ont diminué avec l'âge. Par conséquent, le traitement des deux types d’informations visuelles devient plus discriminant au cours du développement car moins d’informations sont nécessaires avec l’âge pour reconnaître ces expressions. L'analyse mutuelle des informations a révélé que l'intensité et le traitement du signal ne sont similaires qu'à l'âge adulte et que, par conséquent, les expressions à intensité maximale (dans la condition du signal) et les expressions d'intensité variable (dans la condition d'intensité) ne peuvent être comparées directement pendant le développement. Alors que les deux premières études de cette thèse traitaient de la quantité d'informations visuelles nécessaires pour reconnaître une expression tout au long du développement, le but de la troisième étude était de déterminer quelle information est utilisée dans le développement pour reconnaître une expression utilisant l'eye-tracking. Nous avons enregistré les mouvements oculaires d’enfants âgés de 5 ans à l'âge adulte lors de la reconnaissance des six émotions de base en utilisant des conditions de vision naturelles et des conditions contingentes du regard. L'analyse statistique multivariée des données sur les mouvements oculaires au cours du développement a révélé l'âge auquel les stratégies perceptuelles pour la reconnaissance des expressions faciales des émotions deviennent matures. Les stratégies de mouvement oculaire du groupe d'adolescents les plus âgés, 17 à 18 ans, étaient les plus similaires aux adultes, quelle que soit leur expression. Une dépression dans le développement de la similarité stratégique avec les adultes a été trouvé pour chaque expression émotionnelle entre 11 et 14 ans et légèrement avant, entre 7 et 8 ans, pour la joie. Enfin, la précision de la reconnaissance des expressions de joie, colère et tristesse ne diffère pas d’un groupe d’âge à l’autre, mais les stratégies des mouvements oculaires divergent, ce qui indique que diverses approches sont possibles pour atteindre une performance optimale. En résumé, les études cartographient les trajectoires complexes et non uniformes du développement de la reconnaissance des expressions faciales en comparant l'utilisation des informations visuelles depuis la petite enfance jusqu'à l'âge adulte. Les études montrent non seulement dans quelle mesure la reconnaissance des expressions faciales se développe avec l’âge, mais aussi comment cette expression est obtenue tout au long du développement en déterminant si les stratégies perceptuelles sont similaires à travers les âges et à quel stade elles peuvent être considérées comme matures. Les études visaient à fournir la base d’une compréhension du développement continu de la reconnaissance des expressions faciales, qui faisait auparavant défaut dans la littérature. Les travaux futurs visent à approfondir cette compréhension en examinant comment la reconnaissance des expressions se développe en relation avec d'autres aspects du traitement cognitif et émotionnel ce qui pourrait permettre d'éclaircir si des aspects neuro-développementaux seraient à l’origine de la dépression présente entre 7-8 et 11-14 ans lorsque l’on compare les stratégies de fixations des enfants à celles des adultes.In this thesis, I aimed to map the development of facial expression recognition from early childhood up to adulthood by identifying for the first time in the literature the quantity and quality of visual information needed to recognise the six 'basic' emotions. Using behavioural and eye tracking measures, the original contributions of this thesis include: 1. An unbiased fine-grained mapping of the continued development of facial expression recognition for the six basic emotions with the introduction of a psychophysical measure to the literature; 2. The identification of two main phases in the development of facial expression recognition, ranging from 5 to 12 years old and 13 years old to adulthood; 3. The quantity of signal and intensity information needed to recognise the six basic emotions across development; 4. The processing of signal and intensity information becomes more discriminative during development as less information is needed with age to recognise anger, disgust, surprise and sadness; 5. Novel analysis of response profiles (the sequence of responses across trials) revealed subtle but important changes in the sequence of responses along a continuum of age - profiles become more similar with age due to less random erroneous categorizations; 6. The comparison of two recognition measures across the same cohort revealing that two types of stimuli commonly used in facial emotion processing studies (expressions at full intensity vs. expressions of varying intensities) cannot be straightforwardly compared during development; 7. Novel eye movement analyses revealed the age at which perceptual strategies for the recognition of facial expressions of emotion become mature. An initial review of the literature revealed several less studied areas of the development of facial expression recognition, which I chose to focus on for my thesis. Firstly, at the outset of this thesis there were no studies of the continued development of facial expression recognition from early childhood up to adulthood. Similarly, there were no studies which examined all six of, what are termed, the 'basic emotions' and a neutral expression within the same paradigm. Therefore, the objective of the first study was to provide a fine-grained mapping of the continued development for all six basic expressions and neutral from the age of 5 up to adulthood by introducing a novel psychophysical method to the developmental literature. The psychophysical adaptive staircase procedure provided a precise measure of recognition performance across development. Using linear regression, we then charted the developmental trajectories for recognition of each of the 6 basic emotions and neutral. This mapping of recognition across development revealed expressions that showed a steep improvement with age – disgust, neutral, and anger; expressions that showed a more gradual improvement with age – sadness, surprise; and those that remained stable from early childhood – happiness and fear; indicating that the coding for these expressions is already mature by 5 years of age. Two main phases were identified in the development of facial expression recognition as recognition thresholds were most similar between the ages of 5 to 12 and 13 to adulthood. In the second study we aimed to take this fine-grained mapping of the development of facial expression recognition further by quantifying how much visual information is needed to recognise an expression across development by comparing two measures of visual information, signal and intensity. Again, using a psychophysical approach, this time with a repeated measures design, the quantity of signal and intensity needed to recognise sad, angry, disgust, and surprise expressions decreased with age. Therefore, the processing of both types of visual information becomes more discriminative during development as less information is needed with age to recognize these expressions. Mutual information analysis revealed that intensity and signal processing are similar only during adulthood and, therefore, expressions at full intensity (as in the signal condition) and expressions of varying intensities (as in the intensity condition) cannot be straightforwardly compared during development. While the first two studies of this thesis addressed how much visual information is needed to recognise an expression across development, the aim of the third study was to investigate which information is used across development to recognise an expression using eye-tracking. We recorded the eye movements of children from the age of 5 up to adulthood during recognition of the six basic emotions using natural viewing and gaze-contingent conditions. Multivariate statistical analysis of the eye movement data across development revealed the age at which perceptual strategies for the recognition of facial expressions of emotion become mature. The eye movement strategies of the oldest adolescent group, 17- to 18-year-olds, were most similar to adults for all expressions. A developmental dip in strategy similarity to adults was found for each emotional expression between 11- to 14-years, and slightly earlier, 7- to 8-years, for happiness. Finally, recognition accuracy for happy, angry, and sad expressions did not differ across age groups but eye movement strategies diverged, indicating that diverse approaches are possible for reaching optimal performance. In sum, the studies map the intricate and non-uniform trajectories of the development of facial expression recognition by comparing visual information use from early childhood up to adulthood. The studies chart not only how well recognition of facial expressions develops with age, but also how facial expression recognition is achieved throughout development by establishing whether perceptual strategies are similar across age and at what stage they can be considered mature. The studies aimed to provide the basis of an understanding of the continued development of facial expression recognition which was previously lacking from the literature. Future work aims to further this understanding by investigating how facial expression recognition develops in relation to other aspects of cognitive and emotional processing and to investigate the potential neurodevelopmental basis of the developmental dip found in fixation strategy similarity

    A language-familiarity effect for speaker discrimination without comprehension

    Get PDF
    The influence of language familiarity upon speaker identification is well established, to such an extent that it has been argued that “Human voice recognition depends on language ability” [Perrachione TK, Del Tufo SN, Gabrieli JDE (2011) Science 333(6042):595]. However, 7-mo-old infants discriminate speakers of their mother tongue better than they do foreign speakers [Johnson EK, Westrek E, Nazzi T, Cutler A (2011) Dev Sci 14(5):1002–1011] despite their limited speech comprehension abilities, suggesting that speaker discrimination may rely on familiarity with the sound structure of one’s native language rather than the ability to comprehend speech. To test this hypothesis, we asked Chinese and English adult participants to rate speaker dissimilarity in pairs of sentences in English or Mandarin that were first time-reversed to render them unintelligible. Even in these conditions a language-familiarity effect was observed: Both Chinese and English listeners rated pairs of native-language speakers as more dissimilar than foreign-language speakers, despite their inability to understand the material. Our data indicate that the language familiarity effect is not based on comprehension but rather on familiarity with the phonology of one’s native language. This effect may stem from a mechanism analogous to the “other-race” effect in face recognition

    A new synonym and new records of Tychiini (Coleoptera, Curculionidae) from Madeira Archipelago and Selvagens Islands

    Get PDF
    Tychius bicolor Brisout, 1862 and Sibinia arenariae Stephens, 1831 are reported from the Archipelago of Madeira, respectively Madeira and Porto Santo, for the first time. Two additional specimens of T. filirostris Wollaston, 1854, known previously from only two specimens from Porto Santo, were examined. Following the study of these specimens and others from the Canary Islands (Tenerife, La Palma) and Selvagen Pequena, T. colonnellii Caldara, 1991 from Tener ife is proposed as a junior synonym of T. filirostris. The archipelagos of Macaronesia (Madeira, Azores, Selvagens, Canary Islands and Cape Verde Islands) represent one of the richest areas for endemic species in Europe. Although some genera, especially of beetles, have there under gone considerable radiation, the tribe Tychiini, which in the Palaearctic region comprises about 250 species, is poorly represented in Macaronesia. Its archipelagos harbour only 13 species belonging to the only two genera known in the Palaearctic region, Tychius Germar, 1817 and Sibinia Germar, 1817. Among these species only three are endemic, the others being mainly of European, Mediterranean and North African distribution. Up to now, in the Macaronesian archi pelagos Tychiini are unknown from the Cape Verde Islands and Selvagens, whereas the group has its largest number of species in the Canaries (10), followed by the Azores (2) and Madeira (1). The only species of Tychiini reported so far from Madeira is T. filirostris Wollaston, 1854, which was only known from two females collected on the island of Porto Santo and is seemingly endemic to this archipelago. This study reports new material of T. filirostris and two new species records from the Madeira archipelago: Tychius bicolor Brisout, 1862 from Madeira and Sibinia arenariae Stephens, 1831 from Porto Santo. In addition, examination of Wollaston’s holotype and two new specimens of T. filirostris and their comparison with the holotype, paratypes and other specimens of T. colonnellii Caldara, 1991 from the Canary Islands (Tenerife, La Palma) and Selvagen Pequena (new record) have led to the establishment of a new synonymy. Thus, T. colonnellii, considered endemic to the Canary Islands archipelago, is sunk into synonymy with T. filirostris. A checklist of all the species of Tychiini present in the archipela gos of Macaronesia is presented.info:eu-repo/semantics/publishedVersio

    Beyond smiles: The impact of culture and race in embodying and decoding facial expressions

    Get PDF
    Understanding the very nature of the smile with an integrative approach and a novel model is a fertile ground for a new theoretical vision and insights. However, from this perspective, I challenge the authors to integrate culture and race in their model, because both factors would impact upon the embodying and decoding of facial expression

    Descripción de Rhinusa chaenorhini sp. nov. (Curculionidae, Curculioninae) de España

    Get PDF
    Rhinusa chaenorhini sp. nov. is described from Spain from various localities distributed from north to south of the eastern half of the territory. The new species is clearly separable from all the other species of the genus mainly by the unusual shape of the rostrum, which is abruptly contricted from the antennal insertion to the apex, and the shape of the aedeagus. urn:lsid:zoobank.org:pub:3E8E15FA-02D3-4965-9144-C85E42B3D800Se describe Rhinusa chaenorhini sp. nov. de varias localidades de España distribuidas de norte a sur de la mitad oriental del territorio. La nueva especie es claramente diferenciable de todas las especies del gĂ©nero principalmente por la inusual forma del rostro, el cual esta abruptamente constreñido desde la inserciĂłn antenal hasta el ápice, y por la forma del edeago

    Case 3752 – Curculio antirrhini Paykull, 1800 (currently Rhinusa antirrhini; Insecta, Coleoptera, Curculionoidea, Curculionidae): proposed precedence over Curculio noctis Herbst, 1795

    Get PDF
    The purpose of this application, under Articles 23.9.3, 81.2.1 and 81.2.3 of the Code, is to conserve the name Curculio antirrhini Paykull, 1800, a common Palaearctic weevil species currently belonging to the genus Rhinusa Stephens, 1829 (Curculionoidea, Curculionidae) by giving it precedence over the little-used older name Curculio noctis Herbst, 1795 whenever these names are considered synonyms

    Mapping female bodily features of attractiveness

    Get PDF
    Beauty is bought by judgment of the eye (Shakespeare, Loves Labours Lost), but the bodily features governing this critical biological choice are still debated. Eye movement studies have demonstrated that males sample coarse body regions expanding from the face, the breasts and the midriff, while making female attractiveness judgements with natural vision. However, the visual system ubiquitously extracts diagnostic extra-foveal information in natural conditions, thus the visual information actually used by men is still unknown. We thus used a parametric gaze-contingent design while males rated attractiveness of female front- and back-view bodies. Males used extra-foveal information when available. Critically, when bodily features were only visible through restricted apertures, fixations strongly shifted to the hips, to potentially extract hip-width and curvature, then the breast and face. Our hierarchical mapping suggests that the visual system primary uses hip information to compute the waist-to-hip ratio and the body mass index, the crucial factors in determining sexual attractiveness and mate selection

    Moving towards the understanding of dynamic human face processing

    Get PDF
    Les visages animés que nous voyons quotidiennement fournissent des informations cruciales sur les expressions émotionnelles d’autrui, la direction de l’attention ou du regard, toutes déterminantes pour des interactions sociales adaptées. Au cours des dernières décennies, la plupart des études investiguant la reconnaissance des visages ont utilisé des photographies statiques. Or dans notre environnement naturel, les visages et leurs expressions émotionnelles sont des phénomènes dynamiques qu’il est difficile de communiquer écologiquement avec des images statiques. Les visages dynamiques auxquels nous sommes constamment exposés sont plus riches et plus réalistes et ils permettent de transmettre plus finement et naturellement les sentiments, émotions et intentions d’autrui. Cette exposition quotidienne et répétée à des visages en mouvement pourrait-elle avoir un effet sur notre système visuel, favorisant le traitement de stimuli dynamiques au détriment des statiques ? Afin d’éclairer cette problématique, les recherches présentées dans cette thèse avaient pour but d’utiliser des stimuli dynamiques pour étudier différents aspects du traitement des visages à travers plusieurs groupes d’âge et populations. Dans notre première recherche, nous avons utilisé des visages animés pour voir si la capacité de nourrissons âgés de 6-, 9- et 12 mois à associer des attributs audibles et visibles à un genre est influencée par l'utilisation d’un discours de type adulte (ADS) par opposition à un langage de type enfantin (IDS). Nos résultats ont montré qu’à partir de 6 mois, lorsqu'ils étaient soumis à un discours de type adulte, les nourrissons associaient les voix et visages de femmes, mais pas d’hommes. Par contre, lorsqu'ils étaient confrontés à un langage de type enfantin, cette capacité apparaissait seulement à l'âge de 9 mois. Ces premiers résultats soutiennent l'idée selon laquelle le développement de la perception multisensorielle chez les nourrissons est influencé par la nature même des interactions sociales. Dans notre deuxième recherche, nous avons utilisé une nouvelle technique 4D pour reconstruire les représentations mentales des six émotions de base d’une patiente présentant un cas unique et pure de prosopagnosie acquise (i.e., une incapacité à reconnaître les visages), afin de réexaminer une question bien débattue, à savoir si les modules cérébraux sous-jacents à la reconnaissance de l’identité et des expressions faciales sont séparés ou communs. Les résultats ont montré que notre patiente a utilisé toutes les caractéristiques faciales pour identifier les émotions de base, ce qui contraste fortement avec son utilisation déficitaire de l'information faciale pour la reconnaissance de l’identité. Ces résultats confortent l’idée selon laquelle différents systèmes de représentations sous-tendent le traitement de l'identité et de l'expression. Par la suite, nous avons pu démontrer que notre patiente était capable de reconnaître adéquatement les expressions émotionnelles dynamiques, mais pas les émotions statiques provenant de ses propres représentations internes. Ces résultats qui pourraient être expliqués par un ensemble spécifique de lésions dans son gyrus occipital inférieur droit, soutiennent l’idée selon laquelle le traitement des stimuli statiques et dynamiques se produit dans des régions cérébrales différentes. Finalement, notre étude souligne l’importance de l’utilisation de stimuli dynamiques dans la recherche, notamment chez des patients cérébro-lésés, et questionne les résultats obtenus par d’autres travaux étudiant la reconnaissance des expressions uniquement avec des stimuli statiques. Dans notre troisième recherche, nous avons investigué si d'autres populations ayant un système visuel neurologiquement fragile ou en développement bénéficient également de la présentation d’expressions dynamiques. Nous avons demandé à plus de 400 sujets âgés de 5 à 96 ans de catégoriser les six expressions de base en versions statique, dynamique ou bruitée. En utilisant un modèle Bayésien, nos résultats nous ont permis de quantifier la pente d'amélioration et de déclin pour chaque expression dans chaque condition, ainsi que d'estimer l'âge auquel l’efficacité est maximale. En résumé, nos résultats montrent la supériorité des stimuli dynamiques dans la reconnaissance des expressions faciales, de manière plus marquée pour certaines expressions que d'autres et de façon plus importante à certains moments spécifiques du développement. Dans l'ensemble, les résultats de cette thèse soulignent l'importance d’investiguer la reconnaissance des visages avec des stimuli dynamiques, non seulement en neuropsychologie, mais aussi dans d'autres domaines des neurosciences développementales et cliniques.The human visual system is steadily stimulated by dynamic cues. Faces provide crucial information about identity, gender, ethnicity, speech, attention, eye-gaze direction, or emotions, all important for adapted social interactions. From an evolutionary perspective, humans have been more extensively exposed to dynamic faces, as static face images have only appeared recently with the advent of photography and the expansion of digital tools and social networks. Yet, most studies investigating face perception have relied on static faces and only a little is known about the mechanisms involved in dynamic face processing. To clarify this issue, this thesis aimed to use dynamic faces to investigate different aspects of face processing in different populations and age groups. In Study 1, we used dynamic faces to investigate whether the ability of infants aged 6, 9, and 12 months in matching audible and visible attributes of gender is influenced by the use of adult-directed (ADS) vs. infant-directed (IDS) speech. Our results revealed that from 6 months of age, infants matched female but not male faces and voices when presented with adult-directed speech. This ability emerged at 9 months of age when presented with infant-directed speech. Altogether, these findings support the idea that the perception of multisensory gender coherence is influenced by the very nature of social interactions. In Study 2, we used a novel 4D technique to reconstruct the dynamic internal representations of the six basic expressions in a pure case of acquired prosopagnosia (i.e., a brain-damaged patient severely impaired in recognizing familiar faces). This was done in order to re-examine the debated issue of whether identity and expression are processed independently. Our results revealed that patient PS used all facial features to represent basic expressions, contrasting sharply with her suboptimal use of facial information for identity recognition. These findings support the idea that different sets of representations underlie the processing of identity and expression. We then examined patient PS’s ability to recognize static and dynamic expressions using her internal representations as stimuli. Our results revealed that she was selectively impaired in recognizing many of the static expressions; an impairment that could be explained by her specific set of lesions in the right inferior occipital gyrus. In contrast, she displayed maximum accuracy in recognizing all the dynamic emotions with the exception of fear. The latter findings support recent evidence suggesting that separate cortical pathways, originating in early visual areas and not in the inferior occipital gyrus, are responsible for the processing of static and dynamic face information. Altogether, our findings suggest that the temporal properties of human facial expressions influence their processing, particularly in fragile face processing systems, questioning the evidence obtained by neuropsychological studies investigating expression recognition with static images only. Moving on from our second study, in Study 3, we investigated whether dynamic cues offer processing benefits for the recognition of facial expressions in other populations with fragile face processing systems; for instance, young children whose systems are yet to fully mature or elderly people whose systems are declining. To this aim, we conducted a large sample cross-sectional study with more than 400 participants aged between 5 to 96 years, investigating their ability to recognize the six basic expressions presented under different temporal conditions. Consistent with previous studies, our findings revealed the highest recognition performance for happiness, regardless of age and experimental condition, as well as marked confusions among expressions with perceptually similar facial signals (e.g., fear and surprise). By using Bayesian modelling, our results further enabled us to quantify, for each expression and condition individually, the steepness of increase and decrease in recognition performance, as well as the peak efficiency, the point at which observers’ performance reaches its maximum before declining. Finally, our results offered new evidence for a dynamic advantage for facial expression recognition, stronger for some expressions than others and more important at specific points in development. Overall, the results highlighted in this thesis underlie the critical importance of research featuring dynamic stimuli in face perception and expression recognition studies; not only in the field of prosopagnosia, but also in other domains of developmental and clinical neuroscience
    • …
    corecore