18,059 research outputs found
Apport des dictionnaires temps-fréquence, de la parcimonie et des structures pour l'imagerie cérébrale fonctionnelle M/EEG
National audienceOn s'intéresse au problème inverse mal posé rencontré dans la localisation de sources M/EEG (Magneto/Electro Encéphalo Graphique). Bien qu'on ait à disposition un modèle physique réaliste de la diffusion (ou du "mélange") des sources, le caractère très sous-déterminé le rend très difficile à inverser. La nécessité de trouver des a priori forts et pertinent physiquement sur les sources est une des parties difficiles de ce problème. Bien que les ondelettes et les gaborettes soient largement utilisées en traitement du signal pour l'analyse temps-fréquence et le débruitage, elles n'ont été que relativement peu employées afin d'améliorer le problèmes inverse mal-posé de localisation de sources en M/EEG. On présente comment les décompositions temps-fréquence et les a priori de parcimonie structurée peuvent être utilisés afin d'obtenir un a priori convexe et physiologiquement motivé. L'a priori introduit ici favorise des estimations avec peu de sources neuronales activées, tout en ayant un décour temporel lisse. La méthode présentée est alors capable de reconstruire des signaux corticaux non-stationaires. Les résultats obtenus sont comparés avec ceux obtenus par l'etat de l'art sur des signaux MEG simulés, mais aussi sur des données réelles
Penalized maximum likelihood estimation for univariate normal mixture distributions
À cause des singularités de la fonction de vraisemblance, l'approche par maximum de vraisemblance pour l'estimation des paramètres d'un mélange gaussien est connu pour être un problème d'optimisation mal posé. Nous proposons dans cette communication, une pénalisation de la fonction de vraisemblance par une distribution a priori de type gamma inverse qui élimine les singularités et rend ainsi ce problème bien posé. Une conséquence algorithmique intéressante d'un tel choix est de fournir une version pénalisée de l'algorithme EM qui conserve une structure de remise à jour explicite et qui garantit que les estimées ne sont pas singulières. Un exemple numérique met en évidence cette dernière propriété
Estimation de la volatilité locale d'actifs financiers par une méthode d'inversion numérique
Nous nous intéressons à un problème de calibration rencontré en finance qui consiste à identifier la volatilité locale à partir de prix d'options observés sur le marché. Nous formulons le problème sous la forme d'un problème inverse. Le problème direct (pricing), qui consiste à calculer les prix d'options en résolvant l'équation aux dérivées partielles de Dupire, est résolu par différences finies. Le problème inverse (calibration) revient ensuite à résoudre un problème d'optimisation dans lequel il s'agit de déterminer la volatilité optimale telle que les prix calculés avec cette volatilité soit le plus proche possible des prix observés sur le marché. Ce problème inverse mal posé est régularisé en paramétrant la volatilité par des splines bicubiques et en adoptant une approche multiéchelle. De plus, nous utilisons l'algorithme de Quasi-Newton (avec ou sans bornes) pour résoudre le problème d'optimisation. Notre algorithme de calibration est testé sur des donnés synthétiques (simulées par notre modèle) et sur des données réelles du marché
STABILISATION ET APPROXIMATION NUMERIQUE D’UNE CLASSE DE PROBLEMES INVERSES EN EDP
Dans ce travail, nous étudions un problème inverse du type identification de sources pour un problème parabolique modélisant la diffusion dans un rectangle. En utilisant la décomposition spectrale de l’opérateur différentiel A, on peut expliciter la solution formelle du problème sous la forme d’une série de Fourier avec des coefficients non-bornés (hautes fréquences). Nous proposons dans notre étude une méthode de régularisation basée sur la troncature spectrale, qui nous permet de construire une solution approchée et stable. Ensuite, la solution stabilisée sera projetée sur un sous espace de Krylov engendré par l’opérateur A en dimension finie. Cet algorithme nous fournit une méthode pratique et simple pour calculer numériquement la solution stabilisée. Plus précisément, nous faisons une analyse théorique de l’approximation de (A)g = (
Identifiability for a severely ill-posed oxygen balance model
AbstractWe are interested in recovering boundary data in a dispersive oxygen-balance model. The missing boundary condition is the flux of the biochemical oxygen demand (the amount of oxygen necessary for the oxidation of organic matter) at one extreme point. The observations are collected on the dissolved oxygen at the other extremity. This problem turns out to be severely ill-posed. We perform the mathematical analysis of it. We prove a uniqueness result owing to Pazy's theorem for parabolic boundary value problems and we prove that the compatible data set is dense
Modèles probabilistes formels pour problèmes cognitifs usuels
International audienceHow can an incomplete and uncertain model of the environment be used to perceive, infer, decide and act efficiently? This is the challenge that both living and artificial cognitive systems have to face. Symbolic logic is, by its nature, unable to deal with this question. The subjectivist approach to probability is an extension to logic that is designed specifically to face this challenge. In this paper, we review a number of frequently encountered cognitive issues and cast them into a common Bayesian formalism. The concepts we review are ambiguities, fusion, multimodality, conflicts, modularity, hierarchies and loops. First, each of these concepts is introduced briefly using some examples from the neuroscience, psychophysics or robotics literature. Then, the concept is formalized using a template Bayesian model. The assumptions and common features of these models, as well as their major differences, are outlined and discussed.Comment un modèle incomplet et incertain de l'environnement peut-il être utilisé pour décider, agir, apprendre, raisonner et percevoir efficacement ? Voici le défi central que les systèmes cognitifs tant naturels qu'artificiels doivent résoudre. La logique, de par sa nature même, faite de certitudes et ne laissant aucune place au doute, est incapable de répondre à cette question. L'approche subjectiviste des probabilités est une extension de la logique conçue pour pallier ce manque. Dans cet article, nous passons en revue un ensemble de problèmes cognitifs usuels et nous montrons comment les formuler et les résoudre avec un formalisme probabiliste unique. Les concepts abordés sont : l'ambigüité, la fusion, la multi-modalité, les conflits, la modularité, les hiérarchies et les boucles. Chacune de ces questions est tout d'abord brièvement présentée à partir d'exemples venant des neurosciences, de la psychophysique ou de la robotique. Ensuite, le concept est formalisé en utilisant un modèle générique bayésien. Enfin, les hypothèses, les points communs et les différences de chacun de ces modèles sont analysés et discutés
Résolution du problème de la stéréophotométrie non calibrée par estimation de l'intensité des éclairages
Nous présentons une nouvelle méthode de résolution du problème de la stéréophotométrie non calibrée dans le cadre lambertien, fondée sur l'hypothèse que tous les éclairages ont la même intensité, couplée à l'estimation de cette intensité. Nous montrons comment cette hypothèse permet de lever les ambiguïtés inhérentes à la linéarité du modèle lambertien, et notamment de résoudre l'ambiguïté de bas- relief. Le problème devenant alors bien posé, nous proposons une méthode complète pour résoudre le problème de la stéréophotométrie non calibrée et ainsi estimer conjoin- tement les conditions d'éclairage et le champ de normales. Nous validons notre méthode par la reconstruction 3D de visages à partir d'images réelles, et nous comparons son efficacité et sa précision aux techniques les plus récentes de la littérature
Reconstruction de champ par identification des conditions aux limites : Principes et Applications
National audienceSee http://hal.archives-ouvertes.fr/docs/00/59/28/23/ANNEX/r_68GLWI89.pd
Nonparametric Instrumental Regression
The focus of the paper is the nonparametric estimation of an instrumental regression function P defined by conditional moment restrictions stemming from a structural econometric model : E[Y-P(Z)|W]=0 and involving endogenous variables Y and Z and instruments W. The function P is the solution of an ill-posed inverse problem and we propose an estimation procedure based on Tikhonov regularization. The paper analyses identification and overidentification of this model and presents asymptotic properties of the estimated nonparametric instrumental regression function.Nous nous intéressons à l'estimation non paramétrique d'une fonction de régression instrumentale P . Cette fonction est définie à l'aide de conditions de moment provenant d'un modèle économétrique structurel de la forme E[Y-P(Z)|W]=0 où les Y et Z sont des variables endogènes et les W des instruments. La fonction P est alors la solution d'un problème inverse mal posé, et nous proposons une procédure d'estimation utilisant la régularisation de Tikhonov. Le papier analyse l'identification et la suridentification du modèle et donne les propriétés asymptotiques de l'estimateur de la régression instrumentale non paramétrique
Régularité et parcimonie pour les problèmes inverses en imagerie : algorithmes et comparaisons
National audienceThis article is a survey on regularization techniques for inverse problems based on l1 criteria. We split these criteria in two categories : those which promote regularity of the signal (e.g. total variation) and those which express the fact that a signal is sparse in some dictionnary. In the first part of the paper, we give guidelines to choose a prior and propose a comparative study of these two priors on standard transforms such as total variation, redundant wavelets, and curvelets. In the second part of the paper, we give a sketch of different first order algorithms adpated to the minimization of these l1-terms.Dans cet article, nous nous intéressons à la régularisation de problèmes inverses reposant sur des critères l1 . Nous séparons ces critères en deux catégories : ceux qui favorisent la régularisation des signaux (à variation totale bornée par exemple) et ceux qui expriment le fait qu'un signal admet une représentation parcimonieuse dans un dictionnaire. Dans une première partie, nous donnons quelques éléments de comparaisons théoriques et pratiques sur les deux a priori, pour aider le lecteur à choisir l'un ou l'autre en fonction de son problème. Pour cette étude, nous utilisons les transformées communément utilisées telles que la variation totale, les ondelettes redondantes ou les curvelets. Dans une deuxième partie, nous proposons un état des lieux des algorithmes de premier ordre adaptés à la minimisation de ces critères
- …