11 research outputs found

    Modélisation des paramètres de contrôle pour la synthèse de voix chantée

    Get PDF
    National audienceL'état de l'art de la synthèse vocale, et en particulier la synthèse concaténative , nous permet a ce jour d'obtenir une qualité d'élocution proche de la voix réelle, aussi bien pour la parole que pour le chant. Mais une synthèse a la fois naturelle et expressive ne peut être conçue sans un contrôle approprié, recouvrant de nombreux aspects a la fois timbraux et prosodiques, ainsi que leurs interdépendances. Pour le chant, la fréquence fondamentale (F0), portant la mélodie ainsi que certains aspects stylistiques, est a considérer en premier lieu. Une méthode de modélisation de la courbe de F0 a partir de la partition, basée sur l'utilisation de B-splines, a été mise en place. Celle-ci permet une représentation paramétrique des variations expressives de la F0 telles que le vibrato, les attaques, ou les transitions entre notes, avec un contrôle intuitif. Une première étude a permis d'établir qu'une telle représentation permet de reproduire de façon satisfaisante les variations propres a différents styles de chant. Mais le réglage manuel de l'ensemble des paramètres reste une tâche fastidieuse. Une gestion automatique de ces paramètres, basée sur un apprentissage et certaines règles, s'avère donc nécessaire, afin de réduire la quantité de réglages manuels a fournir. Les différents paramètres considérés varient d'un style de chant a l'autre. L'extraction de ces paramètres a partir d'enregistrements, ainsi que des contextes liés a la partition, doit donc permettre de capturer les caractéristiques propres au style interprétatif du chanteur, tout en conservant une certaine variabilité et la cohérence nécessaires a la production d'un chant naturel

    Developmental Expression of Calcium-Binding Proteins in the AVCN and MNTB of Normal Hearing and Congenitally Deaf Mice

    Get PDF
    This experiment analyzes synaptic differences in the central auditory pathway between normal hearing and congenitally deaf (dn/dn) mice, and provides valuable insight into central changes that correspond with human congenital deafness. Specifically, this experiment analyzes developmental expression of the Calcium (Ca2+)-binding proteins Calretinin (CR), Calbindin D-28k (CB) and Parvalbumin (PV) in large excitatory synapses in the anteroventral cochlear nucleus (AVCN) and the medial nucleus of the trapezoid body (MNTB) of normal and dn/dn mice. Immunofluorescence imaging with primary antibodies detecting CR, CB or PV was used to analyze the expression of each at 9 days, 13 days, 20 days, 30 days and 49 days postnatal in normal and dn/dn mice. Results indicated that Ca2+-binding expression was similar at each location in normal and dn/dn mice at 9 days postnatal, prior to opening of the ear canal and the onset of hearing (which occurs around 11 days postnatal) . In normal mice, patterns of Ca2+-binding protein expression changed progressively after the onset of hearing. In dn/dn mice (which completely lack auditory nerve activity), however, patterns of expression did not change after the onset of hearing, suggesting that patterns of Ca2+-binding protein expression change during development in normal mice in response to evoked auditory nerve activity, and that patterns of Ca2+-binding protein expression do not change during development in dn/dn mice due to lack of evoked auditory nerve activity. As a result, Ca2+ buffering is impaired in synapses located in the AVCN and MNTB of dn/dn mice

    Modélisation des paramètres de contrôle pour la synthèse de voix chantée

    No full text
    National audienceL'état de l'art de la synthèse vocale, et en particulier la synthèse concaténative , nous permet a ce jour d'obtenir une qualité d'élocution proche de la voix réelle, aussi bien pour la parole que pour le chant. Mais une synthèse a la fois naturelle et expressive ne peut être conçue sans un contrôle approprié, recouvrant de nombreux aspects a la fois timbraux et prosodiques, ainsi que leurs interdépendances. Pour le chant, la fréquence fondamentale (F0), portant la mélodie ainsi que certains aspects stylistiques, est a considérer en premier lieu. Une méthode de modélisation de la courbe de F0 a partir de la partition, basée sur l'utilisation de B-splines, a été mise en place. Celle-ci permet une représentation paramétrique des variations expressives de la F0 telles que le vibrato, les attaques, ou les transitions entre notes, avec un contrôle intuitif. Une première étude a permis d'établir qu'une telle représentation permet de reproduire de façon satisfaisante les variations propres a différents styles de chant. Mais le réglage manuel de l'ensemble des paramètres reste une tâche fastidieuse. Une gestion automatique de ces paramètres, basée sur un apprentissage et certaines règles, s'avère donc nécessaire, afin de réduire la quantité de réglages manuels a fournir. Les différents paramètres considérés varient d'un style de chant a l'autre. L'extraction de ces paramètres a partir d'enregistrements, ainsi que des contextes liés a la partition, doit donc permettre de capturer les caractéristiques propres au style interprétatif du chanteur, tout en conservant une certaine variabilité et la cohérence nécessaires a la production d'un chant naturel

    2D/3D AudioVisual content analysis & description

    Get PDF
    In this paper, we propose a way of using the Audio-Visual Description Profile (AVDP) of the MPEG-7 standard for 2D or stereo video and multichannel audio content description. Our aim is to provide means of using AVDP in such a way, that 3D video and audio content can be correctly and consistently described. Since AVDP semantics do not include ways for dealing with 3D audiovisual content, a new semantic framework within AVDP is proposed and examples of using AVDP to describe the results of analysis algorithms on stereo video and multichannel audio content are presented
    corecore