304 research outputs found

    Competitive segmentation of the hippocampus and the amygdala from MRI scans

    Get PDF
    The hippocampus and the amygdala are two brain structures which play a central role in several fundamental cognitive processes. Their segmentation from Magnetic Resonance Imaging (MRI) scans is a unique way to measure their atrophy in some neurological diseases, but it is made difficult by their complex geometry. Their simultaneous segmentation is considered here through a competitive homotopic region growing method. It is driven by relational anatomical knowledge, which enables to consider the segmentation of atrophic structures in a straightforward way. For both structures, this fast algorithm gives results which are comparable to manual segmentation with a better reproducibility. Its performances regarding segmentation quality, automation and computation time, are amongst the best published data.L’hippocampe et l’amygdale sont deux structures cérébrales intervenant dans plusieurs fonctions cognitives fondamentales. Leur segmentation, à partir de volumes d’imagerie par résonance magnétique (IRM), est un outil essentiel pour mesurer leur atteinte dans certaines pathologies neurologiques, mais elle est rendue difficile par leur géométrie complexe. Nous considérons leur segmentation simultanée par une méthode de déformation homotopique compétitive de régions. Celle-ci est guidée par des connaissances anatomiques relationnelles ; ceci permet de considérer directement des structures atrophiées. Rapide, l’algorithme donne, pour les deux structures, des résultats comparables à la segmentation manuelle avec une meilleure reproductibilité. Ses performances, concernant la qualité de la segmentation, le degré d’automatisation et le temps de calcul, sont parmi les meilleures de la littérature

    Analyse de scènes péri-urbaines à partir d'images radar haute résolution. Application à l'extraction semi-automatique du réseau routier

    Get PDF
    L'accroissement en résolution des futurs systèmes d'imagerie spatiale radar comme Cosmo-Skymed ou TerraSAR X permet d'envisager de nouvelles applications à la télédétection spatiale, liées entre autres aux techniques de reconnaissance de formes. Ainsi la détection et la reconnaissance de structures manufacturées de plus en plus petites (de la route au véhicule) sont envisageables avec la prochaine mise en orbite de ces futurs capteurs radar. L'objectif de cette thèse est l'interprétation de scènes urbaines à partir d'une unique image complexe (SLC) d'un radar à synthèse d'ouverture haute résolution (inférieure au mètre). Alors que de nombreux travaux tendent vers l'utilisation de données multiples(fusion optique radar, polarimétrie, etc.), nous avons considéré le cas le plus défavorable, mais encore le plus répandu aujourd'hui et pour les prochaines années, où une seule image est à la disposition de l'utilisateur. Alors que les techniques d'analyse de données moyenne résolution du type ERS sont assez bien maîtrisées, le contexte de la haute résolution radar est encore un point délicat : l'amélioration des résolutions s'accompagne d'une évolution de la nature de l'information des données radar et d'un accroissement de leur complexité. Dans ce manuscrit, après une analyse de cette information, une chaîne hiérarchique d'interprétation de scènes, extrayant à plusieurs niveaux des détails de plus en plus fins de la scène, est proposée et mis en application dans le contexte particulier de l'extraction du réseau routier. Nos travaux se sont ensuite articulés autour de trois problématiques principales. Dans un premier temps nous proposons un algorithme bayésien contextuel de classification de scènes radar, l'objectif de ce premier niveau étant d'obtenir une idée rapide de l'occupation des sols de la scène. Un second chapitre concerne le problème d'extraction quasi-automatique du réseau routier ; une méthode d'extraction, à base de transformée de Hough et d'algorithme de suivi, y est proposée. L'originalité de cette partie réside dans l'utilisation du résultat de la classification qui pilote et contraint le processus d'extraction. Dans un dernier chapitre, nous proposons une approche contextuelle pour l'extraction de routes des régions à forte densité en objets manufacturés brillants. Dans ce contexte, un nouvel opérateur rapport de détection de structures brillantes, moins sensibles aux conditions initiales que certains opérateurs existants, a été développé

    Structuration de données par apprentissage non-supervisé : applications aux données textuelles

    Get PDF
    En fouille de données, le succès d'une méthode tient au fait qu'elle permet de répondre par un algorithme intuitif à un besoin pratique bien théorisé. C'est avec cet éclairage que nous présentons un ensemble de contributions, élaborées durant ces dix dernières années, et répondant au besoin pratique de structurer automatiquement un ensemble de données. Dans un premier temps nous proposons de nouveaux modèles théoriques de structuration complexe en classes d’individus ; il s’agit alors d'extraire automatiquement d'un ensemble de données, des structures de classification plus proches de leur organisation réelle telle qu’observée (classification recouvrante, formes symétriques), de rendre ces structures à la fois robustes (tolérance au bruit) et manipulables par l’homme (visualisation, paramétrage) et enfin d’être en mesure de les expliquer (sémantique des classes). Dans un second temps nous nous intéressons aux données textuelles via la mise en oeuvre de modèles rendant compte de la structure thématique d’une collection de textes courts dans un contexte de recherche d’information ; enfin, nous présentons un méta-modèle permettant d’apprendre automatiquement un modèle de structuration sémantique d’un ensemble de termes

    Contribution à la conception d'architecture de calcul auto-adaptative intégrant des nanocomposants neuromorphiques et applications potentielles

    Get PDF
    Dans cette thèse, nous étudions les applications potentielles des nano-dispositifs mémoires émergents dans les architectures de calcul. Nous montrons que des architectures neuro-inspirées pourraient apporter l'efficacité et l'adaptabilité nécessaires à des applications de traitement et de classification complexes pour la perception visuelle et sonore. Cela, à un cout moindre en termes de consommation énergétique et de surface silicium que les architectures de type Von Neumann, grâce à une utilisation synaptique de ces nano-dispositifs. Ces travaux se focalisent sur les dispositifs dit memristifs , récemment (ré)-introduits avec la découverte du memristor en 2008 et leur utilisation comme synapse dans des réseaux de neurones impulsionnels. Cela concerne la plupart des technologies mémoire émergentes : mémoire à changement de phase Phase-Change Memory (PCM), Conductive-Bridging RAM (CBRAM), mémoire résistive Resistive RAM (RRAM)... Ces dispositifs sont bien adaptés pour l'implémentation d'algorithmes d'apprentissage non supervisés issus des neurosciences, comme Spike-Timing-Dependent Plasticity (STDP), ne nécessitant que peu de circuit de contrôle. L'intégration de dispositifs memristifs dans des matrices, ou crossbar , pourrait en outre permettre d'atteindre l'énorme densité d'intégration nécessaire pour ce type d'implémentation (plusieurs milliers de synapses par neurone), qui reste hors de portée d'une technologie purement en Complementary Metal Oxide Semiconductor (CMOS). C'est l'une des raisons majeures pour lesquelles les réseaux de neurones basés sur la technologie CMOS n'ont pas eu le succès escompté dans les années 1990. A cela s'ajoute la relative complexité et inefficacité de l'algorithme d'apprentissage de rétro-propagation du gradient, et ce malgré tous les aspects prometteurs des architectures neuro-inspirées, tels que l'adaptabilité et la tolérance aux fautes. Dans ces travaux, nous proposons des modèles synaptiques de dispositifs memristifs et des méthodologies de simulation pour des architectures les exploitant. Des architectures neuro-inspirées de nouvelle génération sont introduites et simulées pour le traitement de données naturelles. Celles-ci tirent profit des caractéristiques synaptiques des nano-dispositifs memristifs, combinées avec les dernières avancées dans les neurosciences. Nous proposons enfin des implémentations matérielles adaptées pour plusieurs types de dispositifs. Nous évaluons leur potentiel en termes d'intégration, d'efficacité énergétique et également leur tolérance à la variabilité et aux défauts inhérents à l'échelle nano-métrique de ces dispositifs. Ce dernier point est d'une importance capitale, puisqu'il constitue aujourd'hui encore la principale difficulté pour l'intégration de ces technologies émergentes dans des mémoires numériques.In this thesis, we study the potential applications of emerging memory nano-devices in computing architecture. More precisely, we show that neuro-inspired architectural paradigms could provide the efficiency and adaptability required in some complex image/audio processing and classification applications. This, at a much lower cost in terms of power consumption and silicon area than current Von Neumann-derived architectures, thanks to a synaptic-like usage of these memory nano-devices. This work is focusing on memristive nano-devices, recently (re-)introduced by the discovery of the memristor in 2008 and their use as synapses in spiking neural network. In fact, this includes most of the emerging memory technologies: Phase-Change Memory (PCM), Conductive-Bridging RAM (CBRAM), Resistive RAM (RRAM)... These devices are particularly suitable for the implementation of natural unsupervised learning algorithms like Spike-Timing-Dependent Plasticity (STDP), requiring very little control circuitry.The integration of memristive devices in crossbar array could provide the huge density required by this type of architecture (several thousand synapses per neuron), which is impossible to match with a CMOS-only implementation. This can be seen as one of the main factors that hindered the rise of CMOS-based neural network computing architectures in the nineties, among the relative complexity and inefficiency of the back-propagation learning algorithm, despite all the promising aspects of such neuro-inspired architectures, like adaptability and fault-tolerance. In this work, we propose synaptic models for memristive devices and simulation methodologies for architectural design exploiting them. Novel neuro-inspired architectures are introduced and simulated for natural data processing. They exploit the synaptic characteristics of memristives nano-devices, along with the latest progresses in neurosciences. Finally, we propose hardware implementations for several device types. We assess their scalability and power efficiency potential, and their robustness to variability and faults, which are unavoidable at the nanometric scale of these devices. This last point is of prime importance, as it constitutes today the main difficulty for the integration of these emerging technologies in digital memories.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    On the choice of statistical image segmentation method

    Get PDF
    In this paper we deal with the statistical grey-level segmentation, without any reference to texture . These methods can be divided in two families : local methods and global ones . Local methods classify each pixel, using tools of Bayesian classification, from th e information contained in its neighbourhood of a small size . Global methods are based on hidden Markov models and allow on e to apply Bayesian techniques taking into account the entire information available . Adding a previous model parameter estimatio n step, which is a mixture estimation, all these methods can be rendered automated, or unsupervised . On the one hand, results obtained with unsupervised methods differ little from results obtained with true parameter based methods . On the other hand, for a given segmentation method, the choice of the parameter estimation method has little influence on the final result . However, the general behaviour of local and global methods are different . Although global methods can give excellent results when data are well suited to the underlying model, in other situations local methods can ensure clearly better performance . The aim of the present work is to propose a method for choosing between local and global methods . The choice we propose is automated, i .e . , independent from any human intervention and only depending on the image to be segmented . We deduce the choice from two factors : class image homogeneity and spatial correlation of the noise . The good behaviour of our algorithm is validated wit h simulations and real-world image segmentation results .Nous traitons dans cet article du problème de la segmentation d'images à partir de niveaux de gris et sans prise en compte de la notion de texture. Les méthodes statistiques de telle segmentation peuvent être divisées en deux familles : méthodes locales, où l'on classe chaque pixel à partir de l'information contenue dans son voisinage de petite taille, et méthodes globales, qui font appel aux modélisations markoviennes et permettent d'effectuer des classifications bayésiennes en tenant compte de toute l'information disponible. Toutes les méthodes peuvent être rendues automatiques, ou non supervisées, en leur adjoignant une méthode d'estimation de mélanges. Des études antérieures ont montré que le choix de la méthode d'estimation a, dans le cas gaussien, peu d'influence sur le résultat final. Cependant, les comportements généraux des méthodes locales et globales sont très différents et aucune famille n'est supérieure à l'autre dans toutes les situations. Nous proposons dans cet article un algorithme de choix automatique, à savoir fonctionnant sans intervention humaine et à partir de la seule image à segmenter, entre les méthodes locales et les méthodes globales. Le choix de l'algorithme est fait à partir de l'homogénéité de l'image des classes et de la corrélation spatiale du bruit. La pertinence des choix est montrée via simulations segmentations des images réelles

    Méthodes d'analyse de texture pour la cartographie d'occupations du sol par télédetection très haute résolution : application à la fôret, la vigne et les parcs ostréicoles

    Get PDF
    The prime objective of this thesis is to evaluate the potential of multivariate probabilistic models applied on wavelet subbands for the classification of very high resolution remote sensing optical data. Three main applications are investigated in this study: the differentiation of age classes of maritime pine forest stands, the detection of vineyards and the detection of oyster fields. One main contribution includes the proposal of an original supervised and object-oriented classification scheme based on similarity measurements adapted to the context of probabilistic modeling. This scheme involves the creation of a database of texture patches for the learning step and a pre-segmentation of the image to classify. The tested multivariate models were first evaluated in an image retrieval framework. The best models identified in this procedure were then applied in the proposed image processing scheme. In the three proposed thematic applications, multivariate models revealed remarkable abilities to represent the texture and reached higher classification accuracies than the method based on co-occurrence matrices. These results confirm the interest of the multi-scale and multi-orientation representation of textures through the wavelet transform, as well as the relevance of the multivariate modeling of wavelet coefficientsLe travail présenté dans cette thèse a pour objectif d’évaluer le potentiel de modèles probabilistes multivariés appliqués sur les sous-bandes d’une décomposition en ondelettes pour la classification d’images de télédétection optiques à très haute résolution spatiale. Trois thématiques principales ont été investiguées dans ce travail : la différenciation de classes d’âge de peuplements de pins maritimes, la détection de parcelles viticoles et la détection de parcs ostréicoles. Une contribution originale concerne la proposition d’une chaîne traitement pour une classification supervisée orientée objet se basant sur des mesures de similarité adaptées au contexte de modélisation probabiliste. Celle-ci implique la création d’une base de données de patchs de texture pour l’apprentissage et l’utilisation d’une pré-segmentation de l’image à classifier. Les modèles probabilistes multivariés testés ont tout d’abord été évalués dans une procédure d’indexation d’images. Les modèles les plus performants identifiés par cette procédure ont été ensuite appliqués dans la chaîne de traitement proposée. Dans les trois thématiques explorées, les modèles multivariés ont révélé des capacités remarquables de représentation de la texture et ont permis d’obtenir une qualité de classification supérieure à celle obtenue par la méthode des matrices de co-occurrence. Ces résultats démontrent l’intérêt de la représentation multi-échelles et multi-orientations de la texture dans l’espace transformé en ondelettes et la pertinence de la modélisation multivariée des coefficients d’ondelettes issus de cette décomposition
    • …
    corecore