26 research outputs found

    Dynamic versus static specification for the perceptual identity of a coarticulated vowel

    No full text
    International audienceThis paper presents a perceptual experiment on stimuli synthesized by means of a vocal tract area function model. The purpose was to compare the contribution of dynamic against static information to the identity of a coarticulated vowel. Three sources of information were perceptually analyzed: (i) the vowel nucleus; (ii) the acoustical contrast between the vowel nucleus and the ``stationary'' parts of its immediate context; (iii) and the transitions linking the stable parts of the speech signal. The results show that the vocoïds were better identified by dynamic information. This backs up the perceptual overshoot model proposed Lindblom. However, this conclusion must be confirmed by further experiments

    Chaos dans la modélisation des tissus mous

    No full text
    International audienceMasses connected by springs are often used in biomechanical models of soft tissue, but chaotic noise is expected with this technique. A method is presented here to analyze this type of noise. The method is illustrated by an analysis of a biomechanical model of the face but the method can be used for almost any type of nonlinear model of soft tissue. The results indicated that (i) the noise properties of the face model were similar in stationary and dynamic state; (ii) noise amplitude (10 % of synthetic movement amplitude) was independent of computing accuracy; (iii) the face model was sensitive to initial conditions. These properties indicated chaotic noise that could not be decreased by means of improving computing accuracy. The noise was visible in the animations and was perceived as skin vibration. This undesirable property may be found in other biomechanical models of soft tissues used in speech production research (tongue, lip or face models). The method presented here can be used to check it.En modélisation biomécanique des tissus mous, des masses connectées par des ressorts sont souvent utilisées. Malheureusement, du bruit chaotique entâche généralement les simulations. Cet article présente une méthode pour analyser ce type de bruit. La méthode est illustrée par l'analyse d'un modèle biomécanique de visage, mais elle peut être utilisée pour n'importe quel type de modèle de tissu mou. Les résultats montrent que (i) le bruit était similaire en modes stationnaire et dynamique ; (ii) l'amplitude du bruit (10 % de l'amplitude d'un mouvement synthétique) était indépendante de la précision des calculs ; (iii) le modèle de visage était sensible aux conditions initiales. Le bruit chaotique ne pouvait donc pas être atténué par l'augmentation de la précision des calculs. Le bruit était visible dans les animations et était perçu comme une vibration de la peau. D'autres modèles de tissus mous utilisés en production de la parole (langue, lèvres, visage) peuvent aussi souffrir de ces propriétés indésirables. La méthode très simple présentée ici permet de le vérifier

    Effect of speaking rate and contrastive stress on formant dynamics and vowel perception

    No full text
    International audienceVowel formants play an important role in speech theories and applications; however, the same formant values measured for the steady-state part of a vowel can correspond to different vowel categories. Experimental evidence indicates that dynamic information can also contribute to vowel characterization. Hence, dynamically modeling formant transitions may lead to quantitatively testable predictions in vowel categorization. Because the articulatory strategy used to manage different speaking rates and contrastive stress may depend on speaker and situation, the parameter values of a dynamic formant model may vary with speaking rate and stress. In most experiments speaking rate is rarely controlled, only two or three rates are tested, and most corpora contain just a few repetitions of each item. As a consequence, the dependence of dynamic models on those factors is difficult to gauge. This article presents a study of 2300 [iai] or [iEi] stimuli produced by two speakers at nine or ten speaking rates in a carrier sentence for two contrastive stress patterns. The corpus was perceptually evaluated by naive listeners. Formant frequencies were measured during the steady-state parts of the stimuli, and the formant transitions were dynamically and kinematically modeled. The results indicate that (1) the corpus was characterized by a contextual assimilation instead of a centralization effect; (2) dynamic or kinematic modeling was equivalent as far as the analysis of the model parameters was concerned; (3) the dependence of the model parameter estimates on speaking rate and stress suggests that the formant transitions were sharper for high speaking rate, but no consistent trend was found for contrastive stress; (4) the formant frequencies measured in the steady-state parts of the vowels were sufficient to explain the perceptual results while the dynamic parameters of the models were not

    Nature de l'information exploitée pour identifier perceptivement une voyelle en parole continue

    No full text
    International audienceThis paper presents a perceptual experiment on stimuli synthesized by means of a vocal tract model. The purpose was to find out the nature of the main piece of information used to identify a vowel in continuous speech. The information contained in three parts of the speech signal was compared: (i) the vowel nucleus; (ii) the acoustical contrast between the vowel nucleus and its context; (iii) the transitions between the "stationary'' parts of the speech signal. Results show that the vocoïds were better identified by means of dynamic than static or acoustical contrast information. However, to be generalized, this conclusion must be confirmed by other experiments.Une expérience de perception de voyelles synthétisées à l'aide d'un modéle de conduit vocal est présentée. L'objectif était de déterminer la nature de l'information principalement utilisée pour identifier perceptivement les voyelles en parole continue. Trois types de segments de parole ont été analysés : (i) le noyau vocalique ; (ii) le contraste acoustique entre le noyau vocalique et son contexte ; (iii) et les transitions comprises entre les parties quasi-stationnaires du signal de parole. Les résultats montrent que les vocoïdes étaient mieux identifiés grâce à l'information dynamique contenue dans les transitions que grâce au contraste acoustique ou à l'information contenue dans le noyau vocalique. Néanmoins, pour être généralisée, cette conclusion doit être confirmée par d'autres expériences

    Dynamic versus static specification for the perceptual identity of a coarticulated vowel

    No full text
    International audienceThis paper presents a perceptual experiment on stimuli synthesized by means of a vocal tract area function model. The purpose was to compare the contribution of dynamic against static information to the identity of a coarticulated vowel. Three sources of information were perceptually analyzed: (i) the vowel nucleus; (ii) the acoustical contrast between the vowel nucleus and the ``stationary'' parts of its immediate context; (iii) and the transitions linking the stable parts of the speech signal. The results show that the vocoïds were better identified by dynamic information. This backs up the perceptual overshoot model proposed Lindblom. However, this conclusion must be confirmed by further experiments

    Relations entre le bruit entachant les paramètres de contrôle de modèles non linéaires et le bruit mesuré à sa sortie

    No full text
    International audienceTo carry out simulations by means of a nonlinear model, real data measured in our physical world are often used as values for the control parameters of the model. In this case, the output noise of the model should contain at least two components: (i) chaotic noise intrinsic to the model; (ii) noise stemming from the measurements extrinsic to the model. A method to quantify the amplitude of chaotic noise was proposed in Pitermann (2004). The present paper shows how the second noise component could be estimated for a biomechanical model of the face. The results show that despite its simplicity, the method correctly estimated the amplitude of the output noise of the model as a function of the noise present in the control parameters of the model.Pour réaliser des simulations sur ordinateurs à l'aide de modèles non linéaires, des mesures réelles sont souvent utilisées comme valeurs des paramètres de contrôle. Dans ce cas, le bruit mesurable à la sortie du modèle contiendra au moins deux composantes : (i) un bruit chaotique intrinsèque au modèle ; (ii) un bruit provenant du bruit de mesure des grandeurs réelles extrinsèque au modèle. Une méthode pour quantifier l'amplitude du bruit chaotique a été proposée dans Pitermann (2004). Ce nouvel article montre comment la seconde composante de bruit peut être estimée pour un modèle biomécanique de visage. Les résultats montrent que malgré sa simplicité, la méthode permet d'estimer correctement l'amplitude du bruit de sortie du modèle en fonction du bruit présent dans les paramètres de contrôle du modèle

    Measuring chaotic noise in nonlinear models

    Get PDF
    International audienceIn many applications such as fluid or solid modeling, chaotic noise may be cumbersome. Instead of estimating the Lyapunov exponent of the system, one may be interested in measuring the amplitude of the system's chaotic noise in a unit better suited to the application, e.g., the amplitude (in mm) of the vibration of a solid's surface. The goal of this study is to propose a method to achieve this goal. The techniques are tested on a nonlinear biomechanical model of the face driven by muscle activity and a jaw hinge. The proposed method is effective and shows that (i) the amplitude of chaotic noise perceivable as skin vibration is approximately equal to 10 % of the amplitude of a full-scale movement; (ii) the noise properties are similar in the stationary and dynamic states; (iii) the noise comes only from the skin model, not from the nonlinear muscle models. The method is simple and inexpensive to implement. It can therefore be useful in applications such as video animation or motor control research, where estimating the component of chaotic noise is more important than fully characterizing the nonlinear properties of a model.Dans de nombreuses applications telles la modélisation des fluides ou des solides, le bruit chaotique peut être gênant. Au lieu d'estimer l'exposant de Lyapunov d'un système, il peut être utile d'estimer l'amplitude du bruit chaotique dans une unité de mesure convenant mieux à l'application, comme le mm pour la vibration de la surface d'un solide. C'est l'objectif de la méthode présentée dans cet article. La technique a été testée à l'aide d'un modèle biomécanique non linéaire de visage contrôlé par des modèles de muscle et de la mâchoire. La méthode s'est avérée efficace et elle a permis de montrer que (i) l'amplitude du bruit valait 10 % de l'amplitude maximale d'un mouvement synthétique ; (ii) le bruit était similaire que le modèle soit dans un état stationnaire ou dans un état dynamique ; (iii) le bruit ne provenait que du modèle de peau, pas du modèle non linéaire des muscles. La méthode est simple et économique à implémenter. Elle peut donc être utile pour des applications telles l'animation ou la recherche en contrôle moteur pour lesquelles estimer l'amplitude du bruit chaotique peut être plus utile que caractériser finement les propriétés non linéaires d'un modèle

    Modélisation biomécanique du visage pour l'étude de la perception audiovisuelle de la parole

    Get PDF
    Le chapitre présente un lien entre l'observation des gestes de la face, la modélisation biomécanique du visage, la synthèse d'animations faciales, et des hypothèses sur la perception audiovisuelle. Une revue de travaux sur la perception audiovisuelle de la parole ainsi que sur la perception visuelle du mouvement est d'abord exposée. Ensuite, un modèle de simulation des gestes faciaux est décrit. Ce modèle doit permettre de contrôler de manière beaucoup plus fine un paradigme expérimental d'expériences de perception combinant les deux modalités auditive et visuelle

    Evaluation expérimentale de la théorie des cibles formantiques dans le cadre de la production des voyelles

    No full text
    Doctorat en Sciencesinfo:eu-repo/semantics/nonPublishe
    corecore