130 research outputs found

    Fusion individuelle de données cérébrales multimodales : informations issues d'images numériques et connaissances expertes

    Get PDF
    National audienceL'étude de l'activité fonctionnelle cérébrale à partir d'images TEP est difficile à cause de la résolution spatiale limitée et du faible rapport signal sur bruit de celles-ci. Cette étude nécessite l'utilisation conjointe et la fusion d'informations provenant de différentes modalités d'images numériques et de connaissances expertes modélisées dans des atlas. Ces derniers se rapportant à une anatomie standard, il est fondamental de les adapter auparavant à la morphologie spécifique du patient concerné. Pour résoudre au mieux les problèmes rencontrés depuis l'acquisition de l'image à l'identification des différentes zones, nous proposons dans cet article une méthodologie pour obtenir des données individualisées et pour les fusionner. La première étape fait intervenir un processus automatique de recalage de l'image TEP avec une image RM, via une radiographie par Rayons X, par l'introduction d'informations a priori extraites d'un atlas. La seconde étape vise à individualiser les atlas anatomiques pour que la superposition avec les images TEP soit plus précise. Dans cette optique, une méthode d'identification des sillons du cortex d'un patient sur une image RM 3D est présentée. L'accent est mis sur la généralité de la démarche, sur l'explicitation des connaissances et des mécanismes de fusion, et sur l'évaluation des résultats en fonction des images traitées

    Les graphes comme outil de mise en oeuvre de méthodes de segmentation hiérarchique d'images

    Get PDF
    La segmentation d'images consiste souvent à extraire des objets afin de les caractériser et d'interpréter les images. Parmi les différentes stratégies utilisées pour arriver à un tel résultat, une des plus prometteuses est la segmentation hiérarchique qui analyse les images selon un degré croissant de résolution. Celle-ci fait alors intervenir des entités reliées entre elles par différentes relations. Par définition, les graphes sont susceptibles de représenter toutes ces relations, plus ou moins explicitées lors des traitements. Afin d'utiliser aisément les graphes lorsque cela est opportun, nous avons développé une bibliothèque d'opérateurs de traitement d'images, incluant une structure générale de graphe permettant de représenter des images 2D et 3D. Cette bibliothèque comporte également des opérateurs de traitement de ces graphes en tant qu'outils de segmentation. Nous présentons ici cette bibliothèque d'opérateurs ainsi qu'une application faisant intervenir les graphes dans la résolution d'un problème de quantification d'images biomédicales

    Recherche d'information dans les images de documents

    Get PDF
    L'image de document est un objet intelligible qui véhicule de l'information et qui est défini en fonction de son contenu. Cette thèse présente trois modèles de repérage d'information et de recherche d'images pertinentes à la requête d'un utilisateur. Le premier modèle de repérage des zones informationnelles est basé sur l'analyse multi échelle traduisant le contraste visuel des régions sombres par rapport au fond de l'image. Chaque région extraite est définie à partir de son contenu et ses caractéristiques statistiques et géométriques. L'algorithme de classification automatique est amélioré par l'application de règles de production déduites des formes des objets extraits. Une première évaluation de l'extraction du texte, des logos et des photographies sur les images de l'équipe Média Team de l'Université de Washington (UW-1) montre des résultats encourageants. Le deuxième modèle est basé sur le texte obtenu par Reconnaissance Optique de Caractères (OCR). Des erreurs-grammes et des règles de production modélisant les erreurs de reconnaissance de l'OCR sont utilisées pour l'extension des mots de la requête. Le modèle vectoriel est alors appliqué pour modéliser le texte OCR des images de documents et la requête pour la recherche d'information (RI). Un apprentissage sur les images Média Team (UW-2) et des tests sur un millier d'images Web ont validé cette approche. Les résultats obtenus indiquent une nette amélioration comparés aux méthodes standards comme le modèle vectoriel sans l'expansion de la requête et la méthode de recouvrement 3-grams. Pour les zones non textuelles, un troisième modèle vectoriel, basé sur les variations des paramètres de l'opérateur multi-échelle SKCS(Separable Kernel with Compact Support) et une combinaison de classifieurs et d'analyse de sous-espace en composantes principales MKL (Multi-espace Karhunen-Loeve) est appliqué sur une base d'apprentissage d'images de documents de Washington University et de pages Web. Les expériences ont montré une supériorité de l'interprétation et la puissance des vecteurs d'indexations déduits de la classification et représentant les zones non textuelles de l'image. Finalement, un système hybride d'indexation combinant les modèles textuels et non-textuels a été introduit pour répondre à des requêtes plus complexes portant sur des parties de l'image de documents telles un texte, une illustration, un logo ou un graphe. Les expériences ont montré la puissance d'interrogation par des mots ou des images requêtes et ont permis d'aboutir à des résultats encourageants dans la recherche d'images pertinentes qui surpassent ceux obtenus par les méthodes traditionnelles comme révèle une évaluation des rappels vs. précision conduite sur des requêtes portant sur des images de documents

    Segmentation non-supervisée d'images couleur par sur-segmentation Markovienne en régions et procédure de regroupement de régions par graphes pondérés

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Segmentation d'images de façades de bâtiments acquises d'un point de vue terrestre

    Get PDF
    L'analyse de façades (détection, compréhension et reconstruction) à partir d'images acquises depuis la rue est aujourd'hui un thème de recherche très actif en photogrammétrie et en vision par ordinateur de part ses nombreuses applications industrielles. Cette thèse montre des avancées réalisées dans le domaine de la segmentation générique de grands volumes de ce type d'images, contenant une ou plusieurs zones de façades (entières ou tronquées).Ce type de données se caractérise par une complexité architecturale très riche ainsi que par des problèmes liés à l'éclairage et au point de vue d'acquisition. La généricité des traitements est un enjeu important. La contrainte principale est de n'introduire que le minimum d'a priori possible. Nous basons nos approches sur les propriétés d'alignements et de répétitivité des structures principales de la façade. Nous proposons un partitionnement hiérarchique des contours de l'image ainsi qu'une détection de grilles de structures répétitives par processus ponctuels marqués. Sur les résultats, la façade est séparée de ses voisines et de son environnement (rue, ciel). D'autre part, certains éléments comme les fenêtres, les balcons ou le fond de mur, sans être reconnus, sont extraits de manière cohérente. Le paramétrage s'effectue en une seule passe et s'applique à tous les styles d'architecture rencontrés. La problématique se situe en amont de nombreuses thématiques comme la séparation de façades, l'accroissement du niveau de détail de modèles urbains 3D générés à partir de photos aériennes ou satellitaires, la compression ou encore l'indexation à partir de primitives géométriques (regroupement de structures et espacements entre ellesFacade analysis (detection, understanding and field of reconstruction) in street level imagery is currently a very active field of research in photogrammetric computer vision due to its many applications. This thesis shows some progress made in the field of generic segmentation of a broad range of images that contain one or more facade areas (as a whole or in part).This kind of data is carecterized by a very rich and varied architectural complexity and by problems in lighting conditions and in the choice of a camera's point of view. Workflow genericity is an important issue. One significant constraint is to be as little biased as possible. The approches presented extract the main facade structures based on geometric properties such as alignment and repetitivity. We propose a hierarchic partition of the image contour edges and a detection of repetitive grid patterns based on marked point processes. The facade is set appart from its neighbooring façades and from its environment (the ground, the sky). Some elements such as windows, balconies or wall backgrounds, are extracted in a relevant way, without being recognized. The parameters regulation is done in one step and refers to all architectural styles encountered. The problem originates from most themes such as facade separation, the increase of level of details in 3D city models generated from aerial or satellite imagery, compression or indexation based on geometric primitives (structure grouping and space between them)PARIS-EST-Université (770839901) / SudocSudocFranceF

    An image processing applications development method

    Get PDF
    A new image processing application development method is presented, which is a complete and rigorous guide for the management of the whole life cycle of an application. This method points out aids, reusing, reproducibility and unifying capabilities for knowledge acquisition and for communication between the different intervening party, by providing in one hand structured models in order to collect and to organize involved knowledge and in the other hand rational cycles in order to make use of the knowledge. This article focuses on the description of the models that are the heart and the originality of the method. We show that our vision of application modeling relies on the idee-force that an image processing application is studied through out four points of view whose semantic is captured by four related models: system model, domain model, tasks model and program model.Nous proposons une méthode de développement d'applications de traitement d'images qui se présente comme un guide complet et rigoureux pour la gestion du cycle de vie entier d'une application. Cette méthode met en avant des capacités d'aide, de réutilisabilité d'expériences, de reproduction des résultats, d'uniformisation des représentations et de communication entre les différents partenaires du développement, par la définition d'une part de modèles destinés à collecter et organiser la connaissance mise en jeu et d'autre part de cycles destinés à conduire la mise en oeuvre. Cet article se focalise sur la description des modèles qui font le coeur et l'originalité de cette méthode. Nous montrons que notre vision de la modélisation d'une application se fonde sur l'idée force qu'une application de traitement d'images s'observe selon quatre points de vue complémentaires dont la sémantique est capturée par quatre modèles spécifiques : le modèle du système, le modèle du domaine, le modèle des tâches et le modèle du programme

    A localized correlation function for stereoscopic image matching

    Get PDF
    We propose and study a localized correlation function for stereoscopic matching . The latter is based on the wavelet decomposition of the input images . Contrarily to « coarse-to-fine » algorithms, this one simultaneously processes information at the different scales . The localized correlation function is defined by locally integrating with respect to the scale variable . We show that it is equivalent to the definition of a correlation kernel, which is extremely precise in terms of position and disparity . The definition can then be modified in order to account for the local frequency content of the images . Then, we suggest pre-processings of the images : we argue in favour of the use of multiresolution contrast techniques, associated to a quadratic normalization .Nous proposons et étudions une fonction de corrélation localisée permettant la mise en correspondance d'images stéréoscopiques. Celle-ci est fondée sur la décomposition en échelles des images d'entrée. A l'inverse des algorithmes de type « coarse-to-fine », celui-ci traite simultanément les informations des différentes bandes de fréquence. Pour cela, nous définissons en chaque point des deux images une fonction de corrélation localisée par intégration sur le paramètre d'échelle, dont nous montrons qu'elle est équivalente à la définition d'un noyau de corrélation extrêmement fin dans les paramètres de position et de disparité. La définition peut ensuite être modifiée pour prendre en compte la composition fréquentielle locale des images d'entrées. Enfin, nous nous intéressons au problème de la normalisation préalable des images à apparier et justifions le choix du contraste multirésolution associé à une normalisation quadratique

    Individual merging of multimodal cerebral data : Information extracted from digital images and expert knowledge

    Get PDF
    The analysis of the cerebral activity on PET images is difficult because of thei r limited spatial resolution and their low signal to noise ratio . This study requires the merge of both information extracted from other digital images and expert knowledge collected in atlases. These ones are related to standard anatomy and they must be previously adapted to the specific morphology of the patient . To solv e the problems encountered from acquisition to interpretation of images, a methodology is proposed to obtain and merge individual data . The first stage consists in an automatic fitting between PET and MRZ images, via an X–ray radiography . The second stage tends to individualize anatomic atlases to enhance the PET image s superimposition. For that purpose, a method to identify the brain sulci of a patien t is presented. The general nature of the approach, the explicitation of knowledg e and offusion mechanisms, and the accuracy of results are pointed up .L'étude de l'activité fonctionnelle cérébrale à partir d'images TEP est difficile à cause de la résolution spatiale limitée et du faible rapport signal sur bruit de celles-ci. Cette étude nécessite l'utilisation conjointe et la fusion d'informations provenant de différentes modalités d'images numériques et de connaissances expertes modélisées dans des atlas. Ces derniers se rapportant à une anatomie standard, il est fondamental de les adapter auparavant à la morphologie spécifique du patient concerné. Pour résoudre au mieux les problèmes rencontrés depuis l'acquisition de l'image à l'identification des différentes zones, nous proposons dans cet article une méthodologie pour obtenir des données individualisées et pour les fusionner. La première étape fait intervenir un processus automatique de recalage de l'image TEP avec une image RM, via une radiographie par Rayons X, par l'introduction d'informations a priori extraites d'un atlas. La seconde étape vise à individualiser les atlas anatomiques pour que la superposition avec les images TEP soit plus précise. Dans cette optique, une méthode d'identification des sillons du cortex d'un patient sur une image RM 3D est présentée. L'accent est mis sur la généralité de la démarche, sur l'explicitation des connaissances et des mécanismes de fusion, et sur l'évaluation des résultats en fonction des images traitées

    Analyse d'images : Filtrage et segmentation

    Get PDF
    Ouvrage publié avec l'aide du Ministère des affaires étrangères, direction de la coopération scientifique et technique. AVERTISSEMENT Le livre publié en 1995 chez MASSON (EAN13 : 9782225849237) est épuisé. Cette version pdf est une version élaborée à partie de la version préliminaire transmise à l'éditeur. La mise en page est légèrement différente de celle du livre. Malheureusement quelques figures de l'annexe C ont été perdues.International audienceL'analyse d'image touche à l'heure actuelle de nombreux domaines, avec des objectifs aussi variés que l'aide au diagnostic pour les images médicales, la vision artificielle en robotique ou l'analyse des ressources terrestres à partir des images prises par satellite. Le but du traitement de ces images est à la fois simple dans son concept et difficile dans sa réalisation. Simple en effet, puisqu'il s'agit de reconnaître des objets que notre système visuel perçoit rapidement, du moins pour la majorité d'entre eux. Difficile cependant, car dans la grande quantité d'informations contenues dans l'image, il faut extraire des éléments pertinents pour l'application visée et ceci indépendamment de la qualité de l'image. L'analyse d'image s'est donc dotée d'outils et de méthodes puissants issus de domaines aussi variés que les mathématiques, le traitement du signal, ou l'informatique. Cet ouvrage présente un des aspects les plus importants du traitement des images : la " segmentation ". Il récapitule d'abord les grandeurs observables et calculables sur une image et les algorithmes de manipulation des structures de données associées. Il détaille ensuite les traitements préliminaires, tels le filtrage du bruit et les deux types d'approche de la segmentation, l'extraction des contours et celle des régions. Chacune fait l'objet d'une étude théorique et de nombreux résultats illustrent les performances. Une des originalités de l'ouvrage est l'étude comparative des différentes techniques appliquées sur un même corpus d'images réelles
    • …
    corecore