17 research outputs found

    Os domínios da focalização: um estudo experimental

    No full text
    International audienceEste artigo visa desenvolver um estudo experimental sobre a percepção de domínios focais no Português do Brasil (PB). Utilizando as noções de Foco Amplo e Foco Estreito, propomos um contínuo de extensões abarcadas pela focalização, baseado nos domínios hierárquicos propostos pela teoria da Fonologia Prosódica. São considerados, sobretudo, a palavra fonológica (ω) e o sintagma fonológico (φ), descritos como domínios da entoação no PB. Após a aplicação de um experimento perceptivo multimodal, a análise estatística dos resultados revelou que a palavra fonológica é o domínio preferível de aplicação da focalização no PB, além de apresentar uma interessante sistematicidade nas confusões ocorridas no domínio complexo do sintagma fonológico e de atestar que a adição da modalidade visual não aumenta (nem diminui) significativamente a identificação já eficiente do domínio focal. Além disso, uma análise qualitativa de padrões melódicos selecionados nos permitiu tecer importantes considerações sobre a implementação da focalização na estrutura prosódica do PB

    Mesure de la variation prosodique diatopique en portugais européen

    No full text
    International audienceno abstrac

    Medidas da variação prosódica diatópica no espaço românico

    No full text
    International audienceno abstrac

    3D Audiovisual Rendering and Real-Time Interactive Control of Expressivity in a Talking Head

    No full text
    Abstract. The integration of virtual agents in real-time interactive virtual applications raises several challenges. The rendering of the movements of the virtual character in the virtual scene (locomotion of the character or rotation of its head) and the binaural rendering in 3D of the synthetic speech during these movements need to be spatially coordinated. Furthermore, the system must enable real-time adaptation of the agent’s expressive audiovisual signals to user’s on-going actions. In this paper, we describe a platform that we have designed to address these challenges as follows: (1) the modules enabling real time synthesis and spatial rendering of the synthetic speech, (2) the modules enabling 3D real time rendering of facial expressions using a GPU-based 3D graphic engine, and (3) the integration of these modules within an experimental platform using gesture as an input modality. A new model of phonemedependent human speech directivity patterns is included in the speech synthesis system, so that the agent can move in the virtual scene with realistic 3D visual and audio rendering. Future applications of this platform include perceptual studies about multimodal perception and interaction, expressive real time question and answer system and interactive arts
    corecore