74 research outputs found

    Medial Axis Approximation with Constrained Centroidal Voronoi Diagrams On Discrete Data

    Get PDF
    International audienceIn this paper, we present a novel method for me-dial axis approximation based on Constrained Centroidal Voronoi Diagram of discrete data (image, volume). The proposed approach is based on the shape boundary subsampling by a clustering approach which generates a Voronoi Diagram well suited for Medial Axis extraction. The resulting Voronoi Diagram is further filtered so as to capture the correct topology of the medial axis. The resulting medial axis appears largely invariant with respect to typical noise conditions in the discrete data. The method is tested on various synthetic as well as real images. We also show an application of the approximate medial axis to the sizing field for triangular and tetrahedral meshing

    Évaluation de la correction du mouvement respiratoire sur la détection des lésions en oncologie TEP

    Get PDF
    La tomographie par émission de positons (TEP) est une méthode d imagerie clinique en forte expansion dans le domaine de l oncologie. De nombreuses études cliniques montrent que la TEP permet, d une part de diagnostiquer et caractériser les lésions cancéreuses à des stades plus précoces que l imagerie anatomique conventionnelle, et d autre part d évaluer plus rapidement la réponse au traitement. Le raccourcissement du cycle comprenant le diagnostic, la thérapie, le suivi et la réorientation thérapeutiques contribue à augmenter le pronostic vital du patient et maîtriser les coûts de santé. La durée d un examen TEP ne permet pas de réaliser une acquisition sous apnée. La qualité des images TEP est par conséquent affectée par les mouvements respiratoires du patient qui induisent un flou dans les images. Les effets du mouvement respiratoire sont particulièrement marqués au niveau du thorax et de l abdomen. Plusieurs types de méthode ont été proposés pour corriger les données de ce phénomène, mais elles demeurent lourdes à mettre en place en routine clinique. Des travaux récemment publiés proposent une évaluation de ces méthodes basée sur des critères de qualité tels que le rapport signal sur bruit ou le biais. Aucune étude à ce jour n a évalué l impact de ces corrections sur la qualité du diagnostic clinique. Nous nous sommes focalisés sur la problématique de la détection des lésions du thorax et de l'abdomen de petit diamètre et faible contraste, qui sont les plus susceptibles de bénéficier de la correction du mouvement respiratoire en routine clinique. Nos travaux ont consisté dans un premier temps à construire une base d images TEP qui modélisent un mouvement respiratoire non-uniforme, une variabilité inter-individuelle et contiennent un échantillonnage de lésions de taille et de contraste variable. Ce cahier des charges nous a orientés vers les méthodes de simulation Monte Carlo qui permettent de contrôler l ensemble des paramètres influençant la formation et la qualité de l image. Une base de 15 modèles de patient a été créée en adaptant le modèle anthropomorphique XCAT sur des images tomodensitométriques (TDM) de patients. Nous avons en parallèle développé une stratégie originale d évaluation des performances de détection. Cette méthode comprend un système de détection des lésions automatisé basé sur l'utilisation de machines à vecteurs de support. Les performances sont mesurées par l analyse des courbes free-receiver operating characteristics (FROC) que nous avons adaptée aux spécificités de l imagerie TEP. L évaluation des performances est réalisée sur deux techniques de correction du mouvement respiratoire, en les comparant avec les performances obtenues sur des images non corrigées ainsi que sur des images sans mouvement respiratoire. Les résultats obtenus sont prometteurs et montrent une réelle amélioration de la détection des lésions après correction, qui approche les performances obtenues sur les images statiques.Positron emission tomography (PET) is nuclear medicine imaging technique that produces a three-dimensional image of functional processes in the body. The system detects pairs of gamma rays emitted by a tracer, which is introduced into the body. Three-dimensional images of tracer concentration within the body are then constructed by computer analysis. Respiratory motion in emission tomography leads to image blurring especially in the lower thorax and the upper abdomen, influencing this way the quantitative accuracy of PET measurements as well a leading to a loss of sensitivity in lesion detection. Although PET exams are getting shorter thanks to the improvement of scanner sensitivity, the current 2-3 minutes acquisitions per bed position are not yet compatible with patient breath-holding. Performing accurate respiratory motion correction without impairing the standard clinical protocol, ie without increasing the acquisition time, thus remains challenging. Different types of respiratory motion correction approaches have been proposed, mostly based on the use of non-rigid deformation fields either applied to the gated PET images or integrated during an iterative reconstruction algorithm. Evaluation of theses methods has been mainly focusing on the quantification and localization accuracy of small lesions, but their impact on the clinician detection performance during the diagnostic task has not been fully investigated yet. The purpose of this study is to address this question based on a computer assisted detection study. We evaluate the influence of two motion correction methods on the detection of small lesions in human oncology FDG PET images. This study is based on a series of realistic simulated whole-body FDG images based on the XCAT model. Detection performance is evaluated with a computer-aided detection system that we are developing for whole-body PET/CT images. Detection performances achieved with these two correction methods are compared with those achieved without correction, ie. with respiration average PET images as well as with reference images that do not model respiration effects. The use of simulated data makes possible the creation of theses perfectly corrected images and the definition of known lesions locations that serve as a reference.VILLEURBANNE-DOC'INSA-Bib. elec. (692669901) / SudocSudocFranceF

    DĂ©composition en sous bandes pour la compression d'images sans perte par extension de la transformation par arrondi

    Get PDF
    Dans cet article, nous proposons une nouvelle approche utilisant la transformation par arrondi (rounding transform : RT) pour la compression sans perte par décomposition en sous-bandes. Dans ce but, nous définissons une extension de la RT, nommée ORT (overlapping RT). Celle-ci est définie dans le domaine de la transformée en Z, et est utilisée pour développer un système de codage en sous-bandes sans perte. L'idée principale de cette approche est de décomposer la matrice polyphasé du banc de filtres d'analyse en plusieurs matrices de l'ORT. La méthode proposée est plus générale que les propositions antérieures car elle offre de multiples possibilités de mise en oeuvre. Cinq bancs de filtres sont considérés à titre d'exemples et leurs performances sont comparées en terme d'entropie totale dans la compression d'images variées

    Segmentation vidéo et suivi d'objets par maillage déformable : gestion des discontinuités de mouvement

    Get PDF
    Nous proposons un nouvel algorithme de maillage actif qui place les arêtes du maillage sur les discontinuités de mouvement. Le mouvement intérieur à chaque cellule est estimé par mise en compétition des estimations avant et arrière. Cette approche permet le déplacement des noeuds du maillage sans avoir à remailler les zones occultées ou découvertes

    Décomposition en ondelettes de maillages triangulaires 3D irrégulièrement subdivisés. Application à la compression

    Get PDF
    - Nous proposons un nouvel algorithme de subdivision qui permet la simplification des maillages triangulaires quelconques à l'aide de la transformée en ondelettes. Cet algorithme est appliqué à la compression sans pertes des maillages. Des résultats expérimentaux montrent l'efficacité de cette approche dans des représentations multirésolutions

    Détection des rayons gamma et reconstruction d images pour la caméra Compton : Application à l hadron thérapie

    Full text link
    Une nouvelle technique de radiothérapie, l hadronthérapie, irradie les tumeurs à l aide d un faisceau de protons ou d ions carbone. L hadronthérapie est très efficace pour le traitement du cancer car elle permet le dépôt d une dose létale très localisée, en un point dit pic de Bragg , à la fin du trajet des particules. La connaissance de la position du pic de Bragg, avec une précision millimétrique, est essentielle car l hadronthérapie a prouvé son efficacité dans le traitement des tumeurs profondes, près des organes vitaux, ou radio-résistantes. Un enjeu majeur de l hadronthérapie est le contrôle de la délivrance de la dose pendant l irradiation. Actuellement, les centres de traitement par hadronthérapie effectuent un contrôle post-thérapeutique par tomographie par émission de positron (TEP). Les rayons gamma utilisés proviennent de l annihilation de positons émis lors la désintégration bêta des isotopes radioactifs créés par le faisceau de particules. Ils ne sont pas en coïncidence directe avec le pic de Bragg. Une alternative est l imagerie des rayons gamma nucléaires émis suites aux interactions inélastiques des hadrons avec les noyaux des tissus. Cette émission est isotrope, présentant un spectre à haute énergie allant de 100 keV à 20 MeV. La mesure de ces rayons gamma énergétiques dépasse la capacité des systèmes d imagerie médicale existants. Une technique avancée de détection des rayons gamma est proposée. Elle est basée sur la diffusion Compton avec possibilité de poursuite des électrons diffusés. Cette technique de détection Compton a été initialement appliquée pour observer les rayons gamma en astrophysique (télescope Compton). Un dispositif, inspiré de cette technique, a été modélisé avec une géométrie adaptée à l Imagerie en HadronThérapie (IHT). Il se compose d un diffuseur, où les électrons Compton sont mesurés et suivis ( tracker ), et d un calorimètre, où les rayons gamma sont absorbés par effet photoélectrique. Un scénario d hadronthérapie a été simulé par la méthode de Monte-Carlo, en suivant la chaîne complète de détection, de la reconstruction d événements individuels jusqu à la reconstruction d images de la source de rayons gamma. L algorithme Expectation Maximisation (EM) à été adopté dans le calcul de l estimateur du maximum de vraisemblance (MLEM) en mode liste pour effectuer la reconstruction d images. Il prend en compte la réponse du système d imagerie qui décrit le comportement complexe du détecteur. La modélisation de cette réponse nécessite des calculs complexes, en fonction de l angle d incidence de tous les photons détectés, de l angle Compton dans le diffuseur et de la direction des électrons diffusés. Dans sa forme la plus simple, la réponse du système à un événement est décrite par une conique, intersection du cône Compton et du plan dans lequel l image est reconstruite. Une forte corrélation a été observée entre l image de la source gamma reconstruite et la position du pic de Bragg. Les performances du système IHT dépendent du détecteur, en termes d efficacité de détection, de résolution spatiale et énergétique, du temps d acquisition et de l algorithme utilisé pour reconstituer l activité de la source de rayons gamma. L algorithme de reconstruction de l image a une importance fondamentale. En raison du faible nombre de photons mesurés (statistique de Poisson), des incertitudes induites par la résolution finie en énergie, de l effet Doppler, des dimensions limitées et des artefacts générés par l algorithme itératif MLEM, les images IHT reconstruites sont affectées d artefacts que l on regroupe sous le terme bruit . Ce bruit est variable dans l espace et dépend du signal, ce qui représente un obstacle majeur pour l extraction d information. Ainsi des techniques de dé-bruitage ont été utilisées. Une stratégie de régularisation de l algorithme MLEM (WREM) en mode liste a été développée et appliquée pour reconstituer des images Compton. Cette proposition est multi-résolution sur une base d ondelettes orthogonales. A chaque itération, une étape de seuillage des coefficients d ondelettes a été intégrée. La variance du bruit a été estimée à chaque itération par la valeur médiane des coefficients de la sous-bande de haute fréquence. Cette approche stabilise le comportement de l algorithme itératif, réduit l erreur quadratique moyenne et améliore le contraste de l image.A novel technique for radiotherapy - hadron therapy - irradiates tumors using a beam of protons or carbon ions. Hadron therapy is an effective technique for cancer treatment, since it enables accurate dose deposition due to the existence of a Bragg peak at the end of particles range. Precise knowledge of the fall-off position of the dose with millimeters accuracy is critical since hadron therapy proved its efficiency in case of tumors which are deep-seated, close to vital organs, or radio-resistant. A major challenge for hadron therapy is the quality assurance of dose delivery during irradiation. Current systems applying positron emission tomography (PET) technologies exploit gamma rays from the annihilation of positrons emitted during the beta decay of radioactive isotopes. However, the generated PET images allow only post-therapy information about the deposed dose. In addition, they are not in direct coincidence with the Bragg peak. A solution is to image the complete spectrum of the emitted gamma rays, including nuclear gamma rays emitted by inelastic interactions of hadrons to generated nuclei. This emission is isotropic, and has a spectrum ranging from 100 keV up to 20 MeV. However, the measurement of these energetic gamma rays from nuclear reactions exceeds the capability of all existing medical imaging systems. An advanced Compton scattering detection method with electron tracking capability is proposed, and modeled to reconstruct the high-energy gamma-ray events. This Compton detection technique was initially developed to observe gamma rays for astrophysical purposes. A device illustrating the method was designed and adapted to Hadron Therapy Imaging (HTI). It consists of two main sub-systems: a tracker where Compton recoiled electrons are measured, and a calorimeter where the scattered gamma rays are absorbed via the photoelectric effect. Considering a hadron therapy scenario, the analysis of generated data was performed, passing trough the complete detection chain from Monte Carlo simulations to reconstruction of individual events, and finally to image reconstruction. A list-mode Maximum-Likelihood Expectation-Maximization (MLEM) algorithm was adopted to perform image reconstruction in conjunction with the imaging response, which has to depict the complex behavior of the detector. Modeling the imaging response requires complex calculations, considering the incident angle, all measured energies, the Compton scatter angle in the first interaction, the direction of scattered electron (when measured). In the simplest form, each event response is described by Compton cone profiles. The shapes of the profiles are approximated by 1D Gaussian distributions. A strong correlation was observed between pattern of the reconstructed high-energy gamma events, and location of the Bragg peak. The performance of the imaging technique illustrated by the HTI is a function of the detector performance in terms of detection efficiency, spatial and energy resolution, acquisition time, and the algorithms used to reconstruct the gamma-ray activity. Thus beside optimizations of the imaging system, the applied imaging algorithm has a high influence on the final reconstructed images. The HTI reconstructed images are corrupted by noise due to the low photon counts recorded, the uncertainties induced by finite energy resolution, Doppler broadening, the limited model used to estimate the imaging response, and the artifacts generated when iterating the MLEM algorithm. This noise is spatially varying and signal-dependent, representing a major obstacle for information extraction. Thus image de-noising techniques were investigated. AWavelet based multi-resolution strategy of list-mode MLEMRegularization (WREM) was developed to reconstruct Compton images. At each iteration, a threshold-based processing step was integrated. The noise variance was estimated at each scale of the wavelet decomposition as the median value of the coefficients from the high-frequency sub-bands. This approach allowed to obtain a stable behavior of the iterative algorithm, presenting lower mean-squared error, and improved contrast recovery ratio.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    Wavelet Based Multiresolution Analysis of Irregular Surface Meshes

    Full text link
    International audienceThis paper extends Lounsbery s multiresolution analysis wavelet-based theory for triangular 3D meshes, which can only be applied to regularly subdivided meshes and thus involves a remeshing of the existing 3D data. Based on a new irregular subdivision scheme, the proposed algorithm can be applied directly to irregular meshes, which can be very interesting when one wants to keep the connectivity and geometry of the processed mesh completely unchanged. This is very convenient in CAD (Computer-Assisted Design), when the mesh has attributes such as texture and color information, or when the 3D mesh is used for simulations, and where a different connectivity could lead to simulation errors. The algorithm faces an inverse problem for which a solution is proposed. For each level of resolution, the simplification is processed in order to keep the mesh as regular as possible. In addition, a geometric criterion is used to keep the geometry of the approximations as close as possible to the original mesh. Several examples on various reference meshes are shown to prove the efficiency of our proposal

    Compactly supported radial basis functions (multidimensional reconstruction and applications)

    Full text link
    Cette thèse traite l application des fonctions de base radiale, à support compact (CSRBF), pour la reconstruction multidimensionnelle de signaux et de surfaces à partir d échantillons, ainsi que pour la segmentation des images. En particulier, cette approche permet de considérer l échantillonnage irrégulier. Dans chacune de ces applications nous proposons de nouvelles méthodes. Pour la reconstruction multidimensionnelle de signaux nous proposons une approximation multirésolution basée sur une classification hiérarchique des échantillons, puis une approximation adaptative avec calcul local du support de chaque CSRBF. Pour la reconstruction de surfaces implicites, nous proposons une méthode composite qui associe la partition de l unité et les CSRBF, puis une approximation adaptative où le support de chaque CSRBF est déterminé à partir d une approximation de l axe médian. Enfin, nous proposons un formalisme de collocation pour la résolution de l équation de propagation des ensembles de niveaux en segmentation, par représentation de la fonction implicite sur une base de fonctions. En particulier, nous illustrons cette méthode avec les CSRBF en segmentation d images médicales.This thesis deals with the application of Compactly Supported Radial Basis Functions (CSRBFs) for reconstruction and image segmentation. Reconstruction consists in finding a (continuous) function which fits good to some given samples. Image segmentation consists in finding limits of relevant areas in images. These general problems are essential for the study, analysis, further processing of data, such as multidimensional signals, images, or surfaces. In each listed application, we propose new methods. For multidimensional signal reconstruction from non-uniform samples, we propose a new multiresolution scheme based on a hierarchical data clustering and an adaptive approximation method, where the support of each CSRBF is calculated locally. For implicit surface based reconstruction, we propose a composite approach which solves locally the reconstruction problem and blends all solutions together by partition of unity, and an adaptive approximation method, where the support of each CSRBF is locally computed from an approximation of the Medial axis. Finally, we propose a new collocation formalism for solving the level set propagation equations in image segmentation, by expanding the evolving implicit function on a basis functions. In particular, we illustrate this method with CSRBFs in medical image segmentation.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF

    A Wavelet-Based Progressive Compression Scheme For Triangle Meshes : Wavemesh

    Full text link
    International audienceThis paper proposes a new lossy to lossless progressive compression scheme for triangular meshes, based on a wavelet multiresolution theory for irregular 3D meshes. Although remeshing techniques obtain better compression ratios for geometric compression, this approach can be very effective when one wants to keep the connectivity and geometry of the processed mesh completely unchanged. The simplification is based on the solving of an inverse problem. Optimization of both the connectivity and geometry of the processed mesh improves the approximation quality and the compression ratio of the scheme at each resolution level. We show why this algorithm provides an efficient means of compression for both connectivity and geometry of 3D meshes and it is illustrated by experimental results on various sets of reference meshes, where our algorithm performs better than previously published approaches for both lossless and progressive compression

    Enrichissement de la régularité de la triangulation de l'iso-surface des images volumiques (application à l'imagerie médicale et à la compression sur une base d'ondelettes)

    Full text link
    Ce travail porte sur la construction de maillages d iso-surfaces d images volumiques. L objectif est l obtention de maillages à connectivité régulière, c'est-à-dire dont un grand nombre de sommets intérieurs ont une valence six, ou semi-régulier à connectivité de subdivision. Les maillages réguliers facilitent le traitement du signal géométrique 3D , en particulier dans les approches multirésolutions, de plus ils améliorent le taux de compression de la connectivité. Nous nous sommes fixé une contrainte : ne pas modifier la géométrie du maillage (les coordonnées des sommets), la surface sousjacente pouvant être légèrement modifiée.- La première approche proposée revisite l algorithme des marching cubes et construit un maillage constitué de triangles et de quadrangles. Dans une deuxième étape, les quadrangles sont triangulés de façon à maximiser le nombre de sommets de valence six par optimisation d un critère de qualité par régions. Cette approche ne modifie pas la géométrie, ni la surface, car les triangulations des quadrangles sont équivalentes, suivant le principe des marching cubes . Une troisième étape, améliore la connectivité de l ensemble des sommets par des bascules d arêtes au prix d une petite modification de la surface sousjacente.- La deuxième approche proposée est un remaillage de subdivision explicite du maillage construit par les marching cubes (ou d un maillage quelconque), par groupes de huit triangles, avec propagation de plusieurs ondes de remaillage. L évaluation de la qualité du résultat est directe : par le calcul de l histograme des valences des sommets, leur variance, leur entropie, le nombre de subdivisions un vers quatre. Mais aussi indirecte : par mesure du coût de codage de la connectivité ou l étude de la courbe débit distorsion de la compression multirésolution par ondelettes géométriques.This work concerns the construction of meshes from volume images. The objective is obtaining meshes with regular connectivity i.e. many interior vertices have valence six or semi-regular i. e. with the subdivision connectivity. The regular mesh facilitates the treatment of the 3D geometrical signal particularly in multiresolution approaches and improves the connectivity compression ratio. We establish a constraint: not to modify the geometry of the mesh (coordinates of vertices) but subjacent surface is able to be slightly modified. - The first proposed approach revisites the Marching Cubes algorithm and constructs a mesh made up of triangles and quadrangles. In a second stage the quadrangles are triangulated in order to maximize the number of vertices of valence six by optimizing a quality criterion by regions. This approach does not modify the geometry because the triangulations of the quadrangles are equivalent under the principle of the Marching Cubes algorithm. A third stage improves the connectivity of the whole vertices using edge-flips at the cost of a small modification of subjacent surface. - The second proposed approach is an explicit subdivision remeshing of the mesh built by the Marching Cubes algorithm (or any other mesh type), by groups of eight triangles using a region growing algorithm. The evaluation of the result quality is direct: by calculating vertices valence histogram, their variance, their entropy, the number of one-to-four subdivisions. But also indirect: by measuring the connectivity coding cost or studding the rate-distortion curve in wavelet based multiresolution compression.VILLEURBANNE-DOC'INSA LYON (692662301) / SudocSudocFranceF
    • …
    corecore