24 research outputs found

    Sur la complexité et la rapidité d'algorithmes pour la minimisation de la variation totale sous contraintes

    Get PDF
    Dans ce travail nous proposons des solutions pour minimiser la variation totale sous des contraintes convexes. Les algorithmes proposés sont inspirés d'un résultat récent de Yurii Nesterov [4]. Suivant la régularité de la contrainte, nous proposons d'utiliser des techniques reposant soit sur la dualité, soit sur une régularisation différentiable de la variation totale. Les méthodes proposées sont rapides et leur complexité est analysée. Nous montrons la supériorité de ces algorithmes par rapport à d'autres approches classiques. Des résultats sur la restauration d'images compressées sont présentés

    Restauration automatique d'images satellitaires par une méthode MCMC

    Get PDF
    Le problème que nous abordons ici est la déconvolution d'images satellitaires floues et bruitées. Les dégradations sont supposées connues. Nous utilisons un modèle de régularisation introduisant une fonction φ, qui interdit l'amplification du bruit tout en préservant les discontinuités de l'image cherchée. Ce modèle variationnel admet deux hyperparamètres, qui sont estimés de manière automatique. Nous utilisons pour cela l'estimateur du maximum de vraisemblance appliqué à l'image observée. Nous avons développé un algorithme d'estimation MCMC qui fait appel à une méthode d'échantillonnage inspirée des travaux de [6], pour lequel nous utilisons une transformée en cosinus. Nous présentons ici un nouvel algorithme de déconvolution, rapide, dérivé de cette méthode d'échantillonnage, permettant simultanément de restaurer l'image dégradée et d'estimer les hyperparamètres

    Détection et Complétion de Filaments : une approche variationelle et vectorielle

    Get PDF
    Notre but dans cet article est de proposer une nouvelle méthode de détection et de complétion de filaments fins dans des images 2D ou 3D bruitées. La méthode de détection est basée sur la construction d'un champ de vecteur 3D dont les points de singularité (points de vorticité) correspondent aux filaments. La complétion est alors obtenue par la résolution d'un système de Ginzburg-Landau qui est bien adapté pour l'étude de ce type de singularité. Des résultats numériques sont donnés pour des images 2D et 3D

    Two variational models for multispectral image classification

    Get PDF
    Image classification is considered as a variational problem. In recent works, two different models have been proposed for monospectral image classification. The goal of this paper is to extend both models to multispectral data. The first model proposed in this paper is based on the minimization of a criterion family whose set of solutions converges to a partition of the data set composed of homogeneous regions with regular boundaries. The second model is based on a set of active regions and contours. We use a level set formulation to define the criterion we want to minimize. As in the first model, the solution is composed of homogeneous regions with regular interfaces.In order to take into account the information coming from different spectral bands of a satellite or aerial sensor, we extend these models to multispectral data. Combining information of multiple bands is a different task in each model. We present results on real data from SPOT satellite in XS mode, for which a ground truth is available. These results are compared with those obtained with a hierarchical stochastic model, recently developed at IRISA in the VISTA research group.Le problème de la classification est abordé dans une approche variationnelle. Dans des travaux précédents, deux méthodes ont été développées pour la classification d'images monospectrales. Le but de cet article est de présenter l'extension de ces deux modèles au cas de données multispectrales. Le premier modèle repose sur la minimisation d'une famille de critères dont la suite de solutions converge vers une partition des données composée de classes homogènes séparées par des contours réguliers. Parallèlement à cette approche, nous avons développé un second modèle de classification mettant en jeu un ensemble de régions et contours actifs. Nous utilisons une approche par ensembles de niveaux pour définir le critère à minimiser. Comme pour le premier modèle, le critère proposé contient des termes reliés à l'information sur les régions ainsi qu'à l'information sur les contours. L'imagerie multispectrale permet de prendre en compte l'information des différentes bandes spectrales d'un capteur satellitale ou aérien. L'extension au cas multispectral intervient à des niveaux différents pour les deux modèles. Nous traitons une application réelle sur une scène SPOT en mode XS pour laquelle nous disposons d'une vérité terrain. Nous comparons les deux modèles variationnels que nous proposons à d'autres approches dont un modèle stochastique hiérarchique, récemment développé à l'IRISA au sein du projet VISTA

    DĂ©composition d'images : Application aux images RSO

    Get PDF
    Nous construisons un algorithme pour séparer une image f en une somme u + v d'une composante à variation bornée et d'une composante contenant les textures et le bruit. Ce type de décomposition a été récemment proposée par Y. Meyer [1]. On obtient cette décomposition en minimisant une fonctionnelle convexe qui dépend de deux variables u et v, alternativement dans chaque direction. Chaque minimisation est basée sur un algorithme de projection pour minimiser la variation totale. Nous effectuons l'étude mathématique de notre méthode, et nous présentons des résultats numériques. En particulier, nous montrons comment la composante u peut être utilisée en restauration d'image RSO

    Contours déformables et reconstruction tomographique en imagerie médicale

    Get PDF
    Cet article traite de la segmentation automatique des images reconstruites en tomographie par émission, afin d'améliorer l'interprétation des images pour le diagnostic des médecins. Les approches classiques des contours actifs déformables pour la segmentation ne permettent pas de bien segmenter les données reconstruites qui sont bruitées. Aussi, nous proposons de traiter simultanément la reconstruction et la segmentation en résolvant un système de deux EDP, l'une permettant la reconstruction avec régularisation prenant en compte les discontinuités, et l'autre la segmentation par l'évolution de courbes planes

    Modelisation d'image : application a la compression numerique et a la restauration d'image floue

    No full text
    SIGLECNRS T Bordereau / INIST-CNRS - Institut de l'Information Scientifique et TechniqueFRFranc

    Estimation of hyperparameters for the resolution of inverse problems using wavelets

    No full text
    Nous nous intéressons à l'estimation des paramètres de régularisation pour la restauration d'image floue et bruitée. Dans l'approche variationnelle, la restauration consiste à minimiser un critère convexe composé d'un terme de rappel aux données (quadratique) et d'un terme de régularisation (norme I1) opérant dans le domaine ondelettes. Nous proposons une méthode d'estimation des paramètres de régularisation (hyperparamètres, un par sous-bande) par maximum de vraisemblance, à partir de la seule image observée. La difficulté de l'estimation en données incomplètes est de pouvoir échantillonner des lois sur des champs de variables aléatoires dont les interactions entre voisins sont étendues, du fait de l'opérateur linéaire de flou. Nous proposons une méthode qui permet de calculer ces échantillons par MCMC (échantillonnage de Gibbs et Metropolis-Hastings). Pour l'estimation, nous utilisons une méthode de gradient. Les résultats de simulation obtenus montrent la faisabilité de la méthode et ses bonnes performances en terme d'estimation

    DĂ©convolution aveugle en imagerie de microscopie confocale Ă  balayage laser

    No full text
    La microscopie confocale à balayage laser est une technique puissante pour étudier les spécimens biologiques en trois dimensions (3D) par sectionnement optique. Bien qu ubiquitaire, il persiste des incertitudes dans le procédé d observations. Comme la réponse du système à l impulsion, ou fonction de flou (PSF), est dépendante à la fois du spécimen et des conditions d acquisition, elle devrait être estimée à partir des images observées avec l objet. Ce problème est mal posé, sous déterminé, et comme le processus de mesure est quasi-aléatoire dans la nature, nous le traitons en utilisant l interférence bayésienne. L état de l art des algorithmes concernant la déconvolution et déconvolution aveugle est exposé dans le cadre d un travail bayésien. Dans la première partie, nous constatons que la diffraction limitée de l objectif et le bruit intrinsèque, sont les distorsions primordiales qui affectent les images d un spécimen fin. Une approche de minimalisation alternative (AM), restaure les fréquences manquantes au-delà de la limite de diffraction, en utilisant une régularisation de la variation totale sur l objet, et une contrainte spatiale sur la PSF. En outre, des méthodes sont proposées pour assurer la positivité des intensités estimées, conserver le flux de l objet, et bien manier le paramètre de la régularisation. Quand il s agit d imager des spécimens épais, la phase de la fonction de la pupille, due à l aberration sphérique (SA) ne peut être ignorée. Dans la seconde partie, il est montré qu elle dépend de la discordance de l index de réfraction entre l objet et le milieu d immersion de l objectif et de la profondeur sur la lamelle. Les paramètres d imagerie et la distribution de l intensité originelle de l objet sont récupérés en modifiant les algorithmes AM. Due à l incohérence de la microscopie à fluorescence, la phase de récupération des intensités observées est possible en contraignant la phase par l utilisation d optiques géométriques. Cette méthode pourrait être étendue pour restituer des spécimens affectés par la SA. Comme la PSF varie dans l espace, un modèle de quasi-convolution est proposé, et la PSF est rendue approximative. Ainsi, en plus de l objet, il suffit d estimer un seul libre paramètre.NICE-BU Sciences (060882101) / SudocSudocFranceF

    Optimisation de la chaîne compression/restauration pour les images satellite

    No full text
    Le sujet de cette thèse concerne le codage et la restauration d'image dans le contexte de l'imagerie satellite. En dépit des récents développements en restauration et compression embarquée d'images, de nombreux artéfacts apparaissent dans la reconstruction de l'image. L'objectif de cette thèse est d'améliorer la qualité de l'image finale en étudiant la structure optimale de décodage et de restauration en fonction des caractéristiques des processus d'acquisition et de compression. Plus globalement, le but de cette thèse est de proposer une méthode efficace permettant de résoudre le problème de décodage-déconvolution-débruitage optimal dans un objectif d'optimisation globale de la chaîne compression/restauration. Le manuscrit est organisé en trois parties. La première partie est une introduction générale à la problématique traitée dans ce travail. Nous présentons un état de l'art des techniques de restauration et de compression pour l'imagerie satellite et nous décrivons la chaîne de traitement actuellement utilisée par le Centre National d'Etudes Spatiales (CNES) qui servira de référence tout au long de ce manuscrit. La deuxième partie concerne l'optimisation globale de la chaîne e d'imagerie satellite. Nous proposons une approche pour estimer la distorsion théorique de la chaîne complète et développons, dans trois configurations différentes de codage/restauration, un algorithme pour réaliser la minimisation. Notre deuxième contribution met également l'accent sur l'étude la chaîne globale mais est plus ciblée sur l'optimisation de la qualité visuelle de l'image finale. Nous présentons des méthodes numériques permettant d'améliorer la qualité de l'image reconstruite et nous proposons une nouvelle chaîne image basée sur les résultats d'évaluation de qualité de ces techniques. La dernière partie de la thèse introduit une chaîne d'imagerie satellite basée sur une nouvelle théorie de l'échantillonnage. Cette technique d'échantillonnage est intéressante dans le domaine du satellitaire car elle permet de transférer toutes les difficultés au décodeur qui se situe au sol. Nous rappelons les principaux résultats théoriques de cette technique d'échantillonnage et nous présentons une chaîne image construite à partir de cette méthode. Nous proposons un algorithme permettant de résoudre le problème de reconstruction et nous concluons cette partie en comparant les résultats obtenus avec cette chaîne et celle utilisée actuellement par le CNES.The subject of this work is image coding and restoration in the context of satellite imaging. Regardless of recent developments in image restoration techniques and embedded compression algorithms, the reconstructed image still suffers from coding artifacts making its quality evaluation difficult. The objective of the thesis is to improve the quality of the final image with the study of the optimal structure of decoding and restoration regarding to the properties of the acquisition and compression processes. More essentially, the aim of this work is to propose a reliable technique to address the optimal decoding-deconvolution-denoising problem in the objective of global optimization of the compression/restoration chain. The thesis is organized in three parts. The first part is a general introduction to the problematic addressed in this work. We then review a state-of-the-art of restoration and compression techniques for satellite imaging and we describe the current imaging chain used by the French Space Agency as this is the focus of the thesis. The second part is concerned with the global optimization of the satellite imaging chain. We propose an approach to estimate the theoretical distortion of the complete chain and we present, for three different configurations of coding/restoration, an algorithm to perform its minimization. Our second contribution is also focused on the study of the global chain but is more aimed to optimize the visual quality of the final image. We present numerical methods to improve the quality of the reconstructed image and we propose a novel imaging chain based on the image quality assessment results of these techniques. The last part of the thesis introduces a satellite imaging chain based on a new sampling approach. This approach is interesting in the context of satellite imaging as it allows transferring all the difficulties to the on-ground decoder. We recall the main theoretical results of this sampling technique and we present a satellite imaging chain based on this framework. We propose an algorithm to solve the reconstruction problem and we conclude by comparing the proposed chain to the one currently used by the CNES.NICE-Bibliotheque electronique (060889901) / SudocSudocFranceF
    corecore