93 research outputs found

    Учебный русско-французский математический словарь

    Get PDF
    Настоящий словарь содержит терминологические единицы по разделам курса математики, которые включены в программу довузовской подготовки для иностранных граждан. Основные математические термины проиллюстрированы примерами употребления и рисунками. Учебный словарь предназначен как для студентов-иностранцев, изучающих математику на русском (французском) языках по программе довузовской подготовки, так и для тех, кто проходит обучение математическим дисциплинам на основных факультетах вузов. Словарь также может быть полезен математикам-методистам, исследователям и переводчикам

    Nouvelles techniques de quantification vectorielle algébrique basées sur le codage de Voronoi : application au codage AMR-WB+

    Get PDF
    L'objet de cette thèse est l'étude de la quantification (vectorielle) par réseau de points et de son application au modèle de codage audio ACELP/TCX multi-mode. Le modèle ACELP/TCX constitue une solution possible au problème du codage audio universel---par codage universel, on entend la représentation unifiée de bonne qualité des signaux de parole et de musique à différents débits et fréquences d'échantillonnage. On considère ici comme applications la quantification des coefficients de prédiction linéaire et surtout le codage par transformée au sein du modèle TCX; l'application au codage TCX a un fort intérêt pratique, car le modèle TCX conditionne en grande partie le caractère universel du codage ACELP/TCX. La quantification par réseau de points est une technique de quantification par contrainte, exploitant la structure linéaire des réseaux réguliers. Elle a toujours été considérée, par rapport à la quantification vectorielle non structurée, comme une technique prometteuse du fait de sa complexité réduite (en stockage et quantité de calculs). On montre ici qu'elle possède d'autres avantages importants: elle rend possible la construction de codes efficaces en dimension relativement élevée et à débit arbitrairement élevé, adaptés au codage multi-débit (par transformée ou autre); en outre, elle permet de ramener la distorsion à la seule erreur granulaire au prix d'un codage à débit variable. Plusieurs techniques de quantification par réseau de points sont présentées dans cette thèse. Elles sont toutes élaborées à partir du codage de Voronoï. Le codage de Voronoï quasi-ellipsoïdal est adapté au codage d'une source gaussienne vectorielle dans le contexte du codage paramétrique de coefficients de prédiction linéaire à l'aide d'un modèle de mélange gaussien. La quantification vectorielle multi-débit par extension de Voronoï ou par codage de Voronoï à troncature adaptative est adaptée au codage audio par transformée multi-débit. L'application de la quantification vectorielle multi-débit au codage TCX est plus particulièrement étudiée. Une nouvelle technique de codage algébrique de la cible TCX est ainsi conçue à partir du principe d'allocation des bits par remplissage inverse des eaux

    Using entropy in image reconstruction and restoration

    Get PDF
    In a great number of image reconstruction and restoration problems we have to solve an integral equation of the first kind which is an ill posed inverse problem . Therefore one cannot obtain a unique and stable solution without introducing an a priori information on the solution, The Bayesian approach is a coherent one for solving inverse problems because it lets us to take into account and to process in the same way the a priori information on the solution and the data . This approach can be resumed as the following : (i) Assign an a priori probability distribution to the parameters to translate our knowledge on these parameters . (ii) Assign a probability distribution to the measured data to translate the errors and the noise on the data . (iii) Use the Bayes' rule to transmit the information contained in the data to the parameters, i . e. calculate the a posteriori probability distribution of these parameters . (iv) Define a decision rule to determine the parameters values . One must note that : (i) This approach can be used only in problems which can be described by a finite number of parameters (for example when the integral equation is discretized) . (ii) The notion of probability in this approach is not always connected to the frequency of the realization of a random variable . (iii) While it is easy to assign a probability distribution to the measured data to translate the existence of noise on these data, it is more difficult to assign an a priori probability distribution on the unknown parameters of the problem . The maximum entropy principle permits us to choose a probability distribution which is coherent with our a priori knowledge on these parameters and which is less compromising in the sense that it does not introduce any supplementary information . In this paper we use this approach to establish a method for solving the integral equations of the f rst kind in which the entropy of the solution is used as a regularization functional . This method is then used for solving many inverse problems : image restoration by deconvolution in the situation of missing data, image reconstruction in X ray tomography and diffraction tomography, and the multivariable Fourier syrtthesis problem . A great number of simulation results are showed and a comparison is made between these results and those obtained by other usual linear methods .Dans un très grand nombre de problèmes de restauration et de reconstruction d'images on est amené à résoudre une équation intégrale de première espèce, ce qui est un problème inverse mal posé . Dans ces problèmes, l'obtention d'une solution unique et stable vis-à-vis des erreurs sur les données passe par l'introduction d'une information a priori sur la solution . L'approche bayésienne est une approche cohérente pour la résolution d'un problème inverse car elle permet de prendre en compte et de traiter de la même manière l'information a priori sur la solution et celle sur les données . Cette approche peut se résumer aux étapes suivantes (i) Attribuer une distribution de probabilité a priori aux paramètres à estimer pour traduire notre connaissance initiale sur ces paramètres . (ii) Attribuer une distribution de probabilité aux grandeurs mesurées pour traduire l'imprécision sur ces données (bruit de mesure) . (iii) Utiliser la règle de Bayes pour transmettre l'information contenue dans les données aux paramètres . Autrement dit, calculer la distribution de probabilité a posteriori des paramètres . (iv) Définir une règle de décision pour déterminer les valeurs des paramètres à estimer . Il faut noter cependant que (i) Cette approche ne peut être utilisée que dans un problème qui est décrit par un nombre fini de paramètres (par exemple une fois que le problème a été discrétisé) . (ii) La notion de probabilité dans cette approche n'est pas forcément liée à la fréquence de réalisation d'une variable aléatoire . (iii) Autant il est facile d'attribuer une distribution de probabilité aux grandeurs mesurées pour traduire l'existence du bruit sur ces grandeurs, autant il est plus difficile d'attribuer une distribution de probabilité a priori aux paramètres inconnus du problème . Le principe du maximum d'entropie permet de choisir une distribution de probabilité qui soit cohérente avec notre connaissance a priori sur les paramètres à estimer, et qui soit la moins compromettante, dans le sens où elle n'introduit pas d'information supplémentaire. Dans cette communication nous allons utiliser cette approche pour établir une méthode de résolution d'équations intégrales de première espèce dans laquelle l'entropie de la solution joue le rôle d'une fonctionnelle de régularisation . La méthode est ensuite utilisée pour la résolution de plusieurs problèmes inverses : la restauration d'images positives par déconvolution dans des situations de données manquantes, la reconstruction d'images en tomographie à rayons X et à ondes diffractées et la synthèse de Fourier multivariable . De nombreux résultats de simulation sont présentés et une comparaison est faite entre ces résultats et ceux que l'on obtient par des méthodes linéaires usuelles

    Animation basée sur la physique : extrapolation de mouvements humains plausibles et réalistes par optimisation incrémentale

    Get PDF
    L'objectif de nos travaux est de faire la synthèse de mouvements plausibles et réalistes de marche humaine dans divers environnements de synthèse. Bien que la solution proposée puisse également s'appliquer aux autres mouvements de locomotion humains ou animaux, nos travaux traitent uniquement du problème de la marche humaine. Afin de résoudre ce problème, nous avons développé une approche permettant de générer une multitude de variations d'une animation issue de capture de mouvement. Ces variations sont obtenues en adaptant le mouvement original à un environnement de synthèse dont les paramètres, tels que l'inclinaison du sol ou la courbure de la trajectoire, sont variés. Nous sommes donc en mesure de produire un mouvement de marche courbe ou de marche sur un plan incliné à partir d'un mouvement de marche en ligne droite sur un sol horizontal, ce que nous qualifions d'extrapolation de mouvement. Une animation initiale, obtenue par capture de mouvement, est essentielle à la solution proposée. Adapter ce mouvement à un nouvel environnement de synthèse consiste essentiellement à ajuster les caractéristiques globales du mouvement, telles que l'orientation du personnage et sa vitesse de déplacement. Ce faisant, nous sommes en mesure de conserver les détails plus fins du mouvement qui lui confèrent son aspect humain, tels que le mouvement des bras ou la vitesse avec laquelle un pied entre en contact avec le sol. En conservant les détails fins du mouvement d'origine, la solution proposée assure un certain réalisme dans les mouvements synthétisés. Dans la solution proposée, l'adaptation du mouvement initial est basée sur le paradigme des contraintes spatio-temporelles, où la synthèse du mouvement est posée comme un problème d'optimisation numérique. En plus d'être une formulation élégante du problème, ce paradigme est tout indiqué pour faire la synthèse de mouvements physiquement plausibles. En combinant ce paradigme avec l'utilisation d'une animation initiale issue de capture de mouvement, nous sommes en mesure de produire des animations de mouvements humains plausibles et réalistes. En pratique, le problème d'optimisation sous-tendu par l'adaptation d'un mouvement par contraintes spatio-temporelles est fortement non linéaire et opère dans un espace à très grande dimensionnalité. Cette complexité peut fortement ralentir le processus d'optimisation et aller jusqu'à en empêcher la convergence. La solution proposée fait donc appel à plusieurs mécanismes afin de réduire cette complexité. Notons qu'aucun de ces mécanismes ne vient compromettre la polyvalence de l'approche, en limitant la complexité du modèle biomécanique du personnage par exemple. Parmi ces mécanismes, deux sont des contributions originales : une technique d'estimation rapide des forces de réaction du sol et une approche d'optimisation incrémentale. Ces deux mécanismes visent à simplifier le processus d'optimisation en fournissant une solution initiale très proche de la solution optimale. La technique d'estimation des forces de réaction du sol sert à donner à ces paramètres une valeur initiale qui est relativement proche de leur valeur optimale, ce qui simplifie significativement la tâche d'optimisation subséquente. Cette technique consiste à trouver, pour les phases de support double, les forces de réaction du sol minimisant l'effort interne du personnage. Ce problème peut être exprimé comme une séquence de sous-problèmes de programmation quadratiques. Cette formulation est un aspect central de notre contribution et elle permet d'atteindre la solution très efficacement. L'approche d'optimisation incrémentale proposée s'inspire des méthodes de continuation. Le mouvement original est considéré comme une solution, un mouvement optimal, pour l'environnement de capture. L'environnement de synthèse est ensuite modifié graduellement, en augmentant l'inclinaison du sol par petits incréments par exemple. À chaque incrément, un nouveau mouvement optimal est trouvé en utilisant la solution de l'incrément précédent comme point de départ. On procède de la sorte jusqu'à l'obtention du mouvement désiré pour l'environnement de synthèse considéré. Si les incréments sont suffisamment petits, la différence entre deux problèmes d'optimisation consécutifs sera petite et il en sera de même pour leur optimum respectif

    Estimateur d'état basé sur les courants pour les réseaux de distribution

    Get PDF
    RÉSUMÉ Ce mémoire présente le développement d’un estimateur d’état général pour les réseaux de distribution basé sur les courants comme variables d’état, et modélisé comme étant un problème des moindres carrés pondérés avec un ensemble de contraintes qui forme un système surdéterminé et non linéaire. Dans la littérature d’aujourd’hui les recherches se limitent à des réseaux triphasés balancés et à des mesures triphasées. L’apport significatif du présent travail est d’intégrer dans l’estimateur d’état toutes les mesures de tension, y compris les mesures de tension monophasées et biphasées, les différentes contraintes liées aux lois de l'électricité ainsi que les transformateurs et les régulateurs de tension quelques soit leur emplacement dans le réseau, sur la branche principale ou dans les boucles. Le modèle mathématique associé à l’estimateur d’état en question est un problème d’optimisation non linéaire avec contraintes d'inégalités et d'égalités. Avec l’intégration des positions des prises, le modèle devient un problème d’optimisation en nombres entiers. Un tel problème est difficile à résoudre surtout pour des systèmes de grande taille. Au début, pour simplifier le problème, les positions des prises sont considérées continues et par la suite la solution peut être raffinée en discrétisant les positions des prises moyennant des algorithmes simples. Le problème est résolu par la méthode Hachtel augmentée. Celle-ci repose sur un processus itératif et à chaque itération, un système d’équation linéaire est résolu. Comme toute méthode itérative, la performance dépend très fortement de la solution de départ.---------- ABSTRACT This paper presents the development of a general state estimator for distribution networks based on current as state variables , and modeled as a weighted least squares problem with a set of constraints that form a nonlinear overdetermined system. In today's literature search is limited to balanced three-phase systems and three-phase measurements. The significant contribution of this work is to integrate into the state estimator all voltage measurements, including single-phase and two-phase voltage measurements, the various constraints of the laws of electricity. Also transformers and voltage regulators must be treated regardless to their location in the network, in the main branch or in loops. The mathematical model of the branch current state estimator is a constrained nonlinear optimization problem (equality and inequality constraints). With the integration of tap positions, the model becomes a discrete optimization problem. Such problem is extremely hard to solve; especially for large systems. To simplify the problem, the tap positions are initially considered continuous and then the solution can be refined in order to get discrete tap positions by applying simple algorithms. The problem is solved by the augmented Hachtel method increased. This is based on an iterative process and at each iteration, a system of linear equation is solved. As with any iterative method, the performance is highly dependent on the starting solution

    Apprentissage par renforcement Bayésien de processus décisionnels de Markov partiellement observables : une approche basée sur les processus Gaussiens

    Get PDF
    L'apprentissage par renforcement est une approche d'apprentissage automatique permettant de développer des systèmes s'améliorant à partir d'interactions avec un environnement. Les processus décisionnels de Markov partiellement observables (PDMPO) font partie des modèles mathématiques fréquemment utiliser pour résoudre ce type de problème d'apprentissage. Cependant, la majorité des méthodes de résolution utilisées dans les processus décisionnels de Markov partiellement observables nécessitent la connaissance du modèle. De plus, les recherches actuelles sur le PDMPO se restreignent principalement aux espaces d'états discrets, ce qui complique son application à certains problèmes naturellement modélisés par un espace d'état continu. Ce mémoire présente une vision des PDMPO basée sur les processus Gaussiens, une méthode d'apprentissage supervisée ayant comme propriété particulière d'être une distribution de probabilité dans l'espace des fonctions. Cette propriété est notamment très intéressante du fait qu'elle ouvre la porte à un traitement Bayésien de l'incertitude sur les fonctions inconnues d'un PDMPO continu. Les résultats obtenus avec l'approche d'apprentissage par processus Gaussien montrent qu'il est possible d'opérer dans un environnement tout en identifiant le modèle de ce celui-ci. À partir des conclusions tirées à la suite de nos travaux sur le PDMPO, nous avons observé un certain manque pour ce qui est de l'identification du modèle sous l'incertain. Ainsi, ce mémoire expose aussi un premier pas vers une extension de l'apprentissage de PDMPO continu utilisant des séquences d'états de croyances lors de l'identification du modèle. Plus précisément, nous proposons une méthode de régression par processus Gaussiens utilisant des ensembles d'entraînement incertain pour réaliser l'inférence dans l'espace des fonctions. La méthode proposée est particulièrement intéressante, du fait qu'elle s'applique exactement comme pour le cas des processus Gaussiens classiques et qu'elle n'augmente p±as la complexité de l'apprentissage

    Simulateur de billard réaliste

    Get PDF
    Aujourd'hui, il n'existe aucun simulateur de jeu de billard qui puisse bénéficier d'une validation scientifique. Les approximations physiques et les limitations dans la liberté des joueurs sont les principales responsables des problèmes de réalisme qu'il est possible d'observer dans les simulateurs existants. L'objectif de cette maîtrise est donc de créer un simulateur qui soit le plus réaliste possible, justification à l'appui. Pour cela, des formules analytiques de physique mécanique combinées à une simulation par événements seront utilisées pour mettre à jour les positions et vélocités des billes. La vitesse de calcul et de résolution de coup ne devant pas devenir trop encombrante, des techniques pour accélérer le traitement seront utilisées. Parmi celles-ci, notons un résolveur d'équation quartique s'appuyant sur une méthode non-itérative. Des outils d'optimisation de problèmes de complémentarité linéaire seront également utilisés pour pallier à certains cas problématiques introduits par la liberté d'action dans l'axe z. Le simulateur répond finalement à la majorité des coups réels, sauf certains utilisant des aspects physiques non-traités tels que la déformation des bandes qui devront être traités dans des travaux futurs. Une analyse qualitative de certains coups filmés viendra confirmer la validité des modèles utilisés pour la simulation. Il est aussi montré que la sensibilité d'un joueur est grandement affectée par la liberté et la fidélité physique proposée grâce à une comparaison avec un simulateur reconnu se limitant à un modèle physique comprenant de nombreuses approximations

    Simulation ARMA de processus stochastiques à partir de leur densité spectrale de puissance

    No full text
    Les méthodes constructives de résolution des problèmes aléatoires font largement appel à la simulation des trajectoires de processus stochastiques. Ce rapport présente plusieurs méthodes pour l'identification des paramètres d'un modèle ARMA discret qui représente au mieux un processus monodimensionnel physique donné, défini par sa seule densité spectrale de puissance. Si le processus cible modélise, par exemple, un "profil type" de route, le modèle ARMA obtenu permettra de simuler à volonté les sollicitations verticales appliquées à un véhicule en mouvement. L'identification du modèle ARMA cherché est liée à la minimisation de critères quadratiques non linéaires et non convexes. On construit en conséquence le modèle par des chemins détournés, en procédant à la factorisation spectrale du processus initial. On considère notamment à cet effet une technique originale basée sur la décomposition en série de Laurent de la densité spectrale, où le recours à la FFT (Fast Fourier Transform) permet une résolution particulièrement rapide et précise. Plusieurs méthodes sont ensuite présentées pour l'obtention du modèle ARMA ; l'utilisation systématique de la FFT permet là-encore un traitement informatique simple et efficace des équations. On présentera les résultats obtenus pour différents spectres de départ et pour finir on s'intéressera aux conditions pratiques d'utilisation du modèle en évoquant en particulier les difficultés qui surgissent lorsque l'on souhaite simuler des trajectoires avec un pas de temps très inférieur aux temps caractéristiques des fluctuations du processus

    Approche exploratoire sur la classification appliquée aux images

    Get PDF

    Processus aléatoires et applications en finance

    Get PDF
    corecore