774 research outputs found

    Joint filtering of SAR amplitude and interferometric phase with graph-cuts

    Get PDF
    Like other coherent imaging modalities, synthetic aperture radar (SAR) images suffer from speckle noise. The presence of this noise makes the automatic interpretation of images a challenging task and noise reduction is often a prerequisite for successful use of classical image processing algorithms. values respectively less (sub-figure 1, under-regularized), equal (sub-figure 2) or greater (sub figure 3, over-regularized) than βopt. Section IV-B presents some results of the joint regularization of high-resolution interferometric SAR images on two datasets: a 1200 × 1200 pixels region of interest from Toulouse city, France (figure 5), and a 1024 × 682 pixels region of interest from Saint-Paul sur Mer, France (figure 7). From the regularized images shown, it can be noticed that the noise has been efficiently reduced both in amplitude and phase images. The sharp transitions in the phase image that correspond to man-made structures are well preserved. Joint regularization gives more precise contours than independent regularization as they are co-located from the phase and amplitude images. Small objects also tend to be better preserved by joint-regularization as illustrated in figure 6 which shows an excerpt of a portion of streets with several aligned streetlights visible as brighter dots (higher reflectivity as well as higher altitude). values respectively less (sub-figure 1, under-regularized), equal (sub-figure 2) or greater (sub figure 3, over-regularized) than βopt. Section IV-B presents some results of the joint regularization of high-resolution interferometric SAR images on two datasets: a 1200 × 1200 pixels region of interest from Toulouse city, France (figure 5), and a 1024 × 682 pixels region of interest from Saint-Paul sur Mer, France (figure 7). From the regularized images shown, it can be noticed that the noise has been efficiently reduced both in amplitude and phase images. The sharp transitions in the phase image that correspond to man-made structures are well preserved. Joint regularization gives more precise contours than independent regularization as they are co-located from the phase and amplitude images. Small objects also tend to be better preserved by joint-regularization as illustrated in figure 6 which shows an excerpt of a portion of streets with several aligned streetlights visible as brighter dots (higher reflectivity as well as higher altitude).L’imagerie radar à ouverture synthétique (SAR), comme d’autres modalités d’imagerie cohérente, souffre de la présence du chatoiement (speckle). Cette perturbation rend difficile l’interprétation automatique des images et le filtrage est souvent une étape nécessaire à l’utilisation d’algorithmes de traitement d’images classiques. De nombreuses approches ont été proposées pour filtrer les images corrompues par un bruit de chatoiement. La modélisation par champs de Markov (CdM) fournit un cadre adapté pour exprimer à la fois les contraintes sur l’attache aux données et les propriétés désirées sur l’image filtrée. Dans ce contexte la minimisation de la variation totale a été abondamment utilisée afin de limiter les oscillations dans l’image régularisée tout en préservant les bords. Le bruit de chatoiement suit une distribution de probabilité à queue lourde et la formulation par CdM conduit à un problème de minimisation mettant en jeu des attaches aux données non-convexes. Une telle minimisation peut être obtenue par une approche d’optimisation combinatoire en calculant des coupures minimales de graphes. Bien que cette optimisation puisse être menée en théorie, ce type d’approche ne peut être appliqué en pratique sur les images de grande taille rencontrées dans les applications de télédétection à cause de leur grande consommation de mémoire. Le temps de calcul des algorithmes de minimisation approchée (en particulier α-extension) est généralement trop élevé quand la régularisation jointe de plusieurs images est considérée. Nous montrons qu’une solution satisfaisante peut être obtenue, en quelques itérations, en menant une exploration de l’espace de recherche avec de grands pas. Cette dernière est réalisée en utilisant des techniques de coupures minimales. Cet algorithme est appliqué pour régulariser de manière jointe à la fois l’amplitude et la phase interférométrique d’images SAR en milieu urbain

    Reconstruction statistique 3D à partir d’un faible nombre de projections : application : coronarographie RX rotationnelle

    Get PDF
    The problematic of this thesis concerns the statistical iterative 3D reconstruction of coronary tree from a very few number of coronary angiograms (5 images). During RX rotational angiographic exam, only projections corresponding to the same cardiac phase are selected in order to check the condition of space and time non-variability of the object to reconstruct (static reconstruction). The limited number of projections complicates the reconstruction, considered then as an illness inverse problem. The answer to a similar problem needs a regularization process. To do so, we choose baysian formalism considering the reconstruction as a random field maximizing the posterior probability (MAP), composed by quadratic likelihood terms (attached to data) and Gibbs prior (prior markovian based on a partial interpretation of the object to reconstruct). The MAP maximizing allowed us using a numerical optimization algorithm, to introduce a smoothing constraint and preserve the edges on the reconstruction while choosing wisely the potential functions associated to prior energy. In this paper, we have discussed in details the three components of efficient statistical reconstruction MAP, which are : 1- the construction of precise physical model of acquisition process; 2- the selection of an appropriate prior model; and 3- the definition of an efficient iterative optimization algorithm. This discussion lead us to propose two iterative algorithms MAP, MAP-MNR and MAP-ARTUR-GC, which we have tested and evaluated on realistic simulated data (Patient data from 64-slice CT).La problématique de cette thèse concerne la reconstruction statistique itérative 3D de l'arbre coronaire, à partir d'un nombre très réduit d'angiogrammes coronariens (5 images). Pendant un examen rotationnel d'angiographie RX, seules les projections correspondant à la même phase cardiaque sont sélectionnées afin de vérifier la condition de non variabilité spatio-temporelle de l'objet à reconstruire (reconstruction statique). Le nombre restreint de projections complique cette reconstruction, considérée alors comme un problème inverse mal posé. La résolution d'un tel problème nécessite une procédure de régularisation. Pour ce faire, nous avons opté pour le formalisme bayésien en considérant la reconstruction comme le champ aléatoire maximisant la probabilité a posteriori (MAP), composée d'un terme quadratique de vraisemblance (attache aux données) et un a priori de Gibbs (à priori markovien basé sur une interprétation partielle de l'objet à reconstruire). La maximisation MAP adoptant un algorithme d'optimisation numérique nous a permis d'introduire une contrainte de lissage avec préservation de contours des reconstructions en choisissant adéquatement les fonctions de potentiel associées à l'énergie à priori. Dans ce manuscrit, nous avons discuté en détail des trois principales composantes d'une reconstruction statistique MAP performante, à savoir (1) l'élaboration d'un modèle physique précis du processus d'acquisition, (2) l'adoption d'un modèle à priori approprié et (3) la définition d'un algorithme d'optimisation itératif efficace. Cette discussion nous a conduit à proposer deux algorithmes itératifs MAP, MAP-MNR et MAP-ARTUR-GC, que nous avons testés et évalués sur des données simulées réalistes (données patient issues d'une acquisition CT- 64 multi-barrettes)

    Modèles de fusion et diffusion par équations aux dérivées partielles (application à la sismique azimutale)

    Get PDF
    Ce mémoire porte sur le développement de nouvelles méthodes de fusion d images à partir d un formalisme à base d Equations aux Dérivées Partielles (EDP). Les deux premiers chapitres bibliographiques portent sur les 2 domaines au centre de notre problématique : la fusion et les EDP. Le Chapitre 3 est consacré à la présentation progressive de notre modèle EDP de fusion constitué par un terme de fusion (diffusion inverse isotrope) et un terme de régularisation. De plus, un des attraits de l approche EDP est de pouvoir traiter avec le formalisme des données bruitées. L association d un terme de diffusion dépendant du type de données à traiter est donc abordée. Le chapitre 4 est consacré à l application des modèles de fusion-diffusion aux données sismiques. Pour répondre aux besoins de filtrage de ces données sismiques, nous proposons deux méthodes originales de diffusion 3D. Nous présenterons dans ce mémoire l approche de fusion 3D intégrant une de ces méthodes nommée SFPD (Seismic Fault Preserving Diffusion).This thesis focuses on developing new methods for image fusion based on Partial Differential Equations (PDE). The starting point of the proposed fusion approach is the enhancement process contained in most classical diffusion models. The aim of enhancing contours is similar to one of the purpose of the fusion: the relevant information (equivalent to the contours) must be found in the output image. In general, the contour enhancement uses an inverse diffusion equation. In our model of fusion, the evolution of each input image is led by such equation. This single equation must necessarily be accompanied by a global information detector useful to select the signal to be injected. In addition, an inverse diffusion equation, like any Gaussian deconvolution, raises problems of stability and regularization of the solution. To resolve these problems, a regularization term is integrated into the model. The general model of fusion is finally similar to an evolving cooperative system, where the information contained in each image starts moving towards relevant information, leading to a convergent process. The essential interest of PDE approach is to deal with noisy data by combining in a natural way two processes: fusion and diffusion. The fusion-diffusion proposed model is easy to adapt to different types of data by tuning the PDE. In order to adapt the fusion-diffusion model to a specific application, I propose 2 diffusion models: Seismic fault preserving diffusion and 3D directional diffusion . The aim is to denoise 3D seismic data. These models are integrated into the fusion-diffusion approach. One of them is successfully transferred to the industrial partner: french oil company Total. The efficiency of our models (fusion and fusion-diffusion) is proven through an experimental plan in both noisy and noisy-free data.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    Reconstruction 3d Des Artères Coronaires En Imagerie Rotationnelle Rx

    No full text
    National audienceNous présentons une méthode de reconstruction 3D des artères coronaires à partir de 4 projections acquises en imagerie rotationnelle R-X. L'approche retenue considère un problème d'optimisation d'une fonction "objectif", en se basant sur un estimateur Bayésien (MAP : Maximum à postériori) et un modèle de distribution des données de projection de type Poisson. Le problème étant sous déterminé, nous introduisons un a priori afin d'améliorer la convergence de l'algorithme. Trois fonctions de régularisation sont ainsi considérées de type normes L0, L1 et L2 respectivement. Les algorithmes ont été testés sur des séquences de projections simulées à partir de séquences dynamiques d'arbres coronaires 3D extraits à partir d'examens acquis sur un scanner hélicoïdal multibarettes

    Classification markovienne pyramidale adaptation de l'algorithme ICM aux images de télédétection

    Get PDF
    In this thesis, a method of pyramidal markovian classification was adapted to satellite image data based on Markov random fields and the Gibbs distribution. The Markov random field model and the Gibbs distribution exploit the dependence between neighboring pixels in images. The incorporation of new energy functions into the Gibbs distribution improves the precision of satellite image classification. These energy functions permit both better homogeneity in the class field and the preservation of principal discontinuities.In addition to new energy functions, certain methods of statistical analysis were also examined in order to take into consideration the spectral information provided by the image channels as a whole. The general modifications brought to the classical ICM algorithm (Iterated Conditional Modes) of markovian classification improves classification accuracy both qualitatively and quantitatively. However, the complexity of energy functions leads to an increase in processing time. This drawback was eliminated by applying the concept of pyramidal analysis to the classification of satellite images. The performance of the proposed energy function models is examined through the application of the modified ICM algorithm to Landsat and SPOT multispectral images acquired respectively over agricultural and forest areas. The algorithm is compared to a series of conventional classification algorithms such as the maximum likelihood, Isodata, SEM (Stochastic Estimation Maximisation) and classical ICM (before modification). The analysis of results shows that a robust function, among the energy functions adapted to the ICM algorithm, provides an improvement in classification accuracy. This function permits the preservation of principal discontinuities and the introduction of perfect homogeneity in the class field. We can conclude that the discontinuity preservation model is quite useful in the classification of multispectral satellite images. This conclusion is based on the basic theoretical notions of the new energy function models introduced by the Gibbs distribution and the Markov random field, and on the encouraging experimental results of this study

    Contours déformables et reconstruction tomographique en imagerie médicale

    Get PDF
    Cet article traite de la segmentation automatique des images reconstruites en tomographie par émission, afin d'améliorer l'interprétation des images pour le diagnostic des médecins. Les approches classiques des contours actifs déformables pour la segmentation ne permettent pas de bien segmenter les données reconstruites qui sont bruitées. Aussi, nous proposons de traiter simultanément la reconstruction et la segmentation en résolvant un système de deux EDP, l'une permettant la reconstruction avec régularisation prenant en compte les discontinuités, et l'autre la segmentation par l'évolution de courbes planes

    Quantification de la perfusion hépatique dans les images échographiques de contraste

    Get PDF
    Cet article présente une nouvelle technique de quantification automatique de la perfusion hépatique dans les images échographiques de contraste. Elle exploite les caractéristiques des séquences pour construire une nouvelle méthode de diffusion anisotrope robuste permettant de s'affranchir des problèmes de seuillage et d'obtenir un traitement qui s'adapte en tout point à l'information contenue dans l'image. Cette approche est ensuite couplée avec une classification floue non exclusive pour segmenter les lésions

    Estimation d'hyperparamètres pour la restauration d'images satellitaires par une méthode MCMCML

    Get PDF
    Le problème que nous abordons ici est la déconvolution d'images satellitaires, qui sont dégradées par l'optique et l'électronique utilisées pour leur acquisition. Les dégradations sont connues : les images sont convoluées par un opérateur H, et la variance du bruit N additif, blanc et gaussien, est connue. Nous utilisons un modèle de régularisation introduisant une fonction de potentiel phi, qui interdit l'amplification du bruit lors de la restauration tout en préservant les discontinuités. Ce modèle admet deux hyperparamètres lambda et delta. Nous nous intéressons ici à l'estimation des hyperparamètres optimaux afin d'effectuer la déconvolution de manière automatique. Nous proposons pour cela d'utiliser l'estimateur du maximum de vraisemblance appliqué à l'image observée. Cet estimateur constitue le critère que nous allons optimiser. Pour évaluer ses dérivées, nous devons estimer des espérances calculées sur des échantillon- s, tenant compte des données observées et de l'a priori imposé. Cette probabilité faisant intervenir l'opérateur de convolution, il est très difficile d'utiliser un échantillonneur classique. Nous avons développé un algorithme de type Geman-Yang modifié, utilisant une variable auxiliaire, ainsi qu'une transformée en cosinus. Nous présentons à cette occasion un nouvel algorithme de déconvolution, rapide, qui est dérivé de cette méthode d'échantillonnage. Nous proposons un algorithme "MCMCML" permettant d'effectuer simultanément l'estimation des hyperparamètres lambda et delta et la restauration de l'image dégradée. Une étude des échantillonneurs (y compris ceux de Gibbs et Metropolis), portant sur la vitesse de convergence et les difficultés de calcul liées à l'attache aux données, a également été réalisée

    La réserve extractiviste de Ciriaco : babaçu durable pour les petits producteurs?

    Get PDF
    L'expérience de développement durable étudiée, la réserve extractiviste de Ciriaco a été implantéedans le municipe de Cidelândia, localisé dans la région dite du Bico do Papagaio, à l'extrême sudouestde l'État du Maranhão. La zone s'insère dans la région écologique de la "Pré-Amazonie"(SEPLAN), qui correspond à une bordure forestière de transition du massif amazonien

    Vision nocturne numérique : restauration automatique et recalage multimodal des images à bas niveau de lumière

    Get PDF
    Night vision for helicopter pilots is artificially enhanced by a night vision system. It consists in a light intensifier (LI) coupled with a numerical camera, and an infrared camera. The goal of this thesis is to improve this device by analyzing the defaults in order to correct them.The first part consists in reducing the noise level on the LI images. This requires to evaluate the nature of the noise corrupting these images, so an automatic noise estimation method has been developed. The estimation is based on a non parametric detection of homogeneous areas.Then the noise statistics are estimated using these homogeneous regions by performing a robust l`1 estimation of the noise level function.The LI images can then be denoised using the noise estimation. We have developed in the second part a denoising algorithm that combines the non local means with variational methods by applying an adaptive regularization weighted by a non local data fidelity term. Then this algorithm is adapted to video denoising using the redundancy provided by the sequences, hence guaranteeing temporel stability and preservation of the fine structures.Finally, in the third part data from the optical and infrared sensors are registered. We propose an edge based multimodal registration metric. Combined with a gradient ascent resolution and a temporel scheme, the proposed method allows robust registration of the two modalities for later fusion.La vision de nuit des pilotes d’hélicoptère est artificiellement assistée par un dispositif de vision bas niveau de lumière constitué d’un intensificateur de lumière (IL) couplé à une caméra numérique d’une part, et d’une caméra infrarouge (IR) d’autre part. L’objectif de cette thèse est d’améliorer ce dispositif en ciblant les défauts afin de les corriger.Une première partie consiste à réduire le bruit dont souffrent les images IL. Cela nécessite d’évaluer la nature du bruit qui corrompt ces images. Pour cela, une méthode d’estimation automatique du bruit est mise en place. L’estimation repose sur la détection non paramétrique de zones homogènes de l’image. Les statistiques du bruit peuvent être alors être estimées à partir de ces régions homogènes à l’aide d’une méthode d’estimation robuste de la fonction de niveau de bruit par minimisation l1.Grâce à l’estimation du bruit, les images IL peuvent alors débruitées. Nous avons pour cela développé dans la seconde partie un algorithme de débruitage d’images qui associe les moyennes non locales aux méthodes variationnelles en effectuant une régularisation adaptative pondérée parune attache aux données non locale. Une adaptation au débruitage de séquences d’images permet ensuite de tenir compte de la redondance d’information apportée par le flux vidéo, en garantissant stabilité temporelle et préservation des structures fines.Enfin, dans la troisième partie les informations issues des capteurs optique et infrarouge sont recalées dans un même référentiel. Nous proposons pour cela un critère de recalage multimodal basé sur l’alignement des contours des images. Combiné à une résolution par montée de gradient et à un schéma temporel, l’approche proposée permet de recaler de façon robuste les deuxmodalités, en vue d’une ultérieure fusion
    • …
    corecore