41 research outputs found

    Développement de méthodes et d’outils chémoinformatiques pour l’analyse et la comparaison de chimiothèques

    Get PDF
    Some news areas in biology ,chemistry and computing interface, have emerged in order to respond the numerous problematics linked to the drug research. This is what this thesis is all about, as an interface gathered under the banner of chimocomputing. Though, new on a human scale, these domains are nevertheless, already an integral part of the drugs and medicines research. As the Biocomputing, his fundamental pillar remains storage, representation, management and the exploitation through computing of chemistry data. Chimocomputing is now mostly used in the upstream phases of drug research. Combining methods from various fields ( chime, computing, maths, apprenticeship, statistics, etc…) allows the implantation of computing tools adapted to the specific problematics and data of chime such as chemical database storage, understructure research, data visualisation or physoco-chimecals and biologics properties prediction.In that multidisciplinary frame, the work done in this thesis pointed out two important aspects, both related to chimocomputing : (1) The new methods development allowing to ease the visualization, analysis and interpretation of data related to set of the molecules, currently known as chimocomputing and (2) the computing tools development enabling the implantation of these methods.De nouveaux domaines ont vu le jour, à l’interface entre biologie, chimie et informatique, afin de répondre aux multiples problématiques liées à la recherche de médicaments. Cette thèse se situe à l’interface de plusieurs de ces domaines, regroupés sous la bannière de la chémo-informatique. Récent à l’échelle humaine, ce domaine fait néanmoins déjà partie intégrante de la recherche pharmaceutique. De manière analogue à la bioinformatique, son pilier fondateur reste le stockage, la représentation, la gestion et l’exploitation par ordinateur de données provenant de la chimie. La chémoinformatique est aujourd’hui utilisée principalement dans les phases amont de la recherche de médicaments. En combinant des méthodes issues de différents domaines (chimie, informatique, mathématique, apprentissage, statistiques, etc.), elle permet la mise en oeuvre d’outils informatiques adaptés aux problématiques et données spécifiques de la chimie, tels que le stockage de l’information chimique en base de données, la recherche par sous-structure, la visualisation de données, ou encore la prédiction de propriétés physico-chimiques et biologiques.Dans ce cadre pluri-disciplinaire, le travail présenté dans cette thèse porte sur deux aspects importants liés à la chémoinformatique : (1) le développement de nouvelles méthodes permettant de faciliter la visualisation, l’analyse et l’interprétation des données liées aux ensembles de molécules, plus communément appelés chimiothèques, et (2) le développement d’outils informatiques permettant de mettre en oeuvre ces méthodes

    Compréhension de scènes urbaines par combinaison d'information 2D/3D

    Get PDF
    Cette thèse traite du problème de segmentation sémantique d'une séquence d'images calibrées acquises dans un environnement urbain. Ce problème consiste, plus précisément, à partitionner chaque image en régions représentant les objets de la scène (façades, routes, etc.). Ainsi, à chaque région est associée une étiquette sémantique. Dans notre approche, l'étiquetage s'opère via des primitives visuelles de niveau intermédiaire appelés super-pixels, lesquels regroupent des pixels similaires au sens de différents critères proposés dans la littérature, qu'ils soient photométriques (s'appuyant sur les couleurs) ou géométriques (limitant la taille des super-pixels formés). Contrairement à l'état de l'art, où les travaux récents traitant le même problème s'appuient en entrée sur une sur-segmentation initiale sans la remettre en cause, notre idée est de proposer, dans un contexte multi-vues, une nouvelle approche de constructeur de superpixels s'appuyant sur une analyse tridimensionnelle de la scène et, en particulier, de ses structures planes. Pour construire de «meilleurs» superpixels, une mesure de planéité locale, qui quantifie à quel point la zone traitée de l'image correspond à une surface plane de la scène, est introduite. Cette mesure est évaluée à partir d'une rectification homographique entre deux images proches, induites par un plan candidat au support des points 3D associés à la zone traitée. Nous analysons l'apport de la mesure UQI (Universal Quality Image) et montrons qu'elle se compare favorablement aux autres métriques qui ont le potentiel de détecter des structures planes. On introduit ensuite un nouvel algorithme de construction de super-pixels, fondé sur l'algorithme SLIC (Simple Linear Iterative Clustering) dont le principe est de regrouper les plus proches voisins au sens d'une distance fusionnant similarités en couleur et en distance, et qui intègre cette mesure de planéité. Ainsi la sur-segmentation obtenue, couplée à la cohérence interimages provenant de la validation de la contrainte de planéité locale de la scène, permet d'attribuer une étiquette à chaque entité et d'obtenir ainsi une segmentation sémantique qui partitionne l'image en objets plans

    Méthodes spatio-temporelles de fouilles des données de cartes à puce en transport urbain

    Get PDF
    RÉSUMÉ: Les données des cartes à puce du système de transport en commun sont utiles pour comprendre le comportement des usagers du réseau du transport en commun. De nombreuses recherches pertinentes ont déjà été menées concernant : (1) l'utilisation de données de cartes à puce, (2) les techniques de fouille de données et (3) l'utilisation de la fouille de données avec des données de cartes à puce. Dans ces recherches, la classification des comportements des usagers est basée sur des déplacements pour lesquels les classifications temporelles et spatiales sont considérées comme des processus séparés. Nos partenaires de recherche ont exprimé le souhait de pouvoir examiner les comportements des usagers en considérant simultanément les dimensions spatiales et temporelles. Dans cette thèse, nous développons des méthodes, basées sur les comportements quotidiens des usagers, prenant en compte à la fois les comportements spatiaux et temporels. La méthodologie développée pour classifier les comportements des utilisateurs de cartes à puce s’appuie sur la méthode de distance corrélation croisée (cross correlation distance, ou CCD), sur la déformation temporelle dynamique (dynamic time warping ou DTW), sur la classification hiérarchique et sur l'échantillonnage. De plus, une méthode basée sur la densité est aussi abordée. Cette thèse est contribuée de quatre articles plus d’autre résultats présentés dans un chapitre distinct: (1) Afin de commencer la classification temporelle, une comparaison entre CCD et DTW est faite en vue de choisir la meilleure métrique et développer une méthode de classification des séries temporelles en utilisant la classification hiérarchique, et CCD a été prouvé meilleur dans ce cas-ci. Avec cette méthode proposée, un morceau des comportements temporels peut être classifié. (2) Afin de réaliser la classification temporelle pour les données massives, une méthode d’échantillonnage permettant de traiter les grands volumes de données provenant des systèmes de cartes à puce de transport en commun ainsi qu’un indicateur de calibration de cette méthode sont proposés. Cette méthode d’échantillonnage nous permet de classifier tous les comportements temporels d’usagers dans un réseau de transports en commun, et cet indicateur nous permet de choisir les meilleurs paramètres dans l’algorithme. (3) Afin de regrouper les comportements spatiaux et spatio-temporels d’usagers en transport en commun, des méthodes de classification spatiale et spatio-temporelle de comportements des usagers en ajustant l’algorithme de DTW sont développées, et des méthodes de visualisation des résultats en appliquant un graphique spatio-temporel en 3 dimensions sont aussi développées, en vue de montrer l'efficacité de l'algorithme. La visualisation des résultats nous montre l’effectivité de ces deux méthodes. (4) Afin de tester si la méthode de classification développée dans une ville s’applique dans une autre ville, nous développons une méthode de reconnaissance et de comparaison des comportements de deux villes entre le Canada et le Chile. Les résultats montent qu’environ 66% de comportements temporelles peuvent être reconnu donné un profile de transaction d’un jour, et l’exactitude de reconnaissance est environ 70%. (5) Afin d’analyser les résultats de les classifications spatiale et spatio-temporelle plus profonde, des analyses sont faits incluant la proportion de métro, le moyen et la déviation de trajectoire espace-temps etc, et ces analyse nous permet d’identifier les différences de demande entre les groupes obtenus. (6) En outre, des méthodes de classification de zones géographiques basées sur la densité pour la mesure du changement de comportements des usagers sont développés. Afin de tester ces méthodes, des données massives provenant des systèmes de perception automatique de la Société de Transport l’Outaouais (STO) de Gatineau et de TranSantiago de Santiago (Chili) sont utilisées. Concernant l’implémentation, les méthodes proposées sont programmées en Python. Les résultats des méthodes, non seulement permettent de regrouper les profils des usagers du transport en commun en quelques groupes et de mieux connaître les caractéristiques de chacun, mais aussi de développer une série de méthodes de visualisation, avec lesquelles les données peuvent être traitées automatiquement pour que des graphiques soient générés. Grâce à ces graphiques, les autorités de transport en commun peuvent traduire les données recueillies automatiquement pour illustrer la demande de transport. Par conséquent, des chercheurs espèrent ces contributions aideront les autorités pour planifier les transports en commun afin de mieux répondre aux demandes des citoyens.----------ABSTRACT: Transit smart card data is useful for understanding the behavior of transit users. Numerous relevant research has been conducted on: (1) the use of smart card data, (2) data mining techniques and (3) the use of data mining with smart card data. In this research, the classification of user behavior is based on travel in which temporal and spatial classifications are considered as separate processes. We develop methods, based on the daily behaviors of users, taking into account both spatial and temporal behaviors. The methodology developed to classify the behavior of smart card users is based on the cross correlation distance (CCD) method, dynamic time warping (DTW), hierarchical classification and sampling method. In addition, the density-based method is also affected. This thesis is presented with four articles plus other results in a separate chapter: (1) In order to start the temporal classification, a comparison between CCD and DTW is made in order to choose the best metric and develop a method of classification of time series using hierarchical classification. CCD has been proved better in this case. A piece of temporal behaviors can be classified with this proposed method. (2) In order to achieve temporal classification for Big Data, a sampling method for processing large volumes of data from transit smart card systems and a calibration indicator for this method are proposed. This sampling method allows us to classify all the users’ temporal behaviors in a public transport network, and this indicator allows us to choose the best parameters in the algorithm. (3) In order to classify the spatial and spatio-temporal behavior of users in public transport, methods of spatial and spatio-temporal classification of user behaviors by adjusting the DTW algorithm is developed, and a method of visualization of the results by applying a 3-dimensional spatio-temporal graph is also developed, to show the efficiency of the algorithm. The visualization of the results shows us the effectiveness of these two methods. (4) In order to test whether the classification method developed in one city applies in another city, we develop a method to recognize and compare the behavior of two cities between Canada and Chile. The results show that about 66% of temporal behaviors can be recognized given one-day transaction profiles of two cities, and the recognition accuracy is about 70%. (5) For a deeper view of the spatio-temporal classifications results, analyzes are made including the proportion of metro utilisation, the mean and the deviation of space-time trajectory etc, and these analyses allow us to identify the differences of demands between the clusters obtained. (6) In addition, density-based geographic classification methods for measuring the change of user behavior are developed. To test these methods, massive data from the Automated Collection System of the la Société de Transport l’Outaouais (STO) and the TranSantiago of Santiago de Chile are used. Regarding the implementation, the proposed methods are programmed in python. The result of these methods not only allows the profiles of transit users to be grouped in a few groups and better understand the characteristics of each, but also creates a series of visualization approaches with which data can be directly transferred to the graphs. With these graphs, transit authorities can translate automatically collected data into traveler demand. As a result, researchers hope that these contributions help the authorities to plan public transit by better meeting the demands of citizens

    Electroencéphalographie et interfaces cerveau-machine : nouvelles méthodes pour étudier les états mentaux

    Get PDF
    Avec les avancées technologiques dans le domaine de l'imagerie cérébrale fonctionnelle et les progrès théoriques dans la connaissance des différents éléments neurophysiologiques liés à la cognition, les deux dernières décennies ont vu l'apparition d'interfaces cerveau-machine (ICM) permettant à une personne d'observer en temps réel, ou avec un décalage qui se limite à quelques secondes, sa propre activité cérébrale. Le domaine clinique en général, et plus particulièrement celui de la neuropsychologie et des pathologies conduisant à un handicap moteur lourd, pour lesquels les applications potentielles sont nombreuses qu'elles soient thérapeutiques ou en vue d'une réhabilitation fonctionnelle, a constitué un moteur important de la recherche sur ce nouveau domaine des neurosciences temps réel. Parmi ces applications, le neurofeedback, ou neurothérapie, qui vise l'acquisition par le sujet du contrôle volontaire de certains aspects de son activité cérébrale en vue de les amplifier ou au contraire les diminuer dans un but thérapeutique, voire d'optimisation cognitive, représente une technique prometteuse, alternative aux thérapies et traitements médicamenteux. Cependant, la validation de ce type d'intervention et la compréhension des mécanismes mis en jeux en sont encore à leurs balbutiements. L'entraînement par neurofeedback est souvent long, pouvant s'étaler sur plusieurs semaines. Il est donc très probable que ce type de rééducation cérébrale sollicite des phénomènes de plasticité qui s'inscrivent dans une dynamique lente, et de ce fait, requiert une durée relativement longue d'entraînement pour atteindre les effets à long terme recherchés. Cependant, à cela peuvent s'ajouter de nombreux éléments perturbateurs qui pourraient être à l'origine de la difficulté de l'apprentissage et des longs entraînements nécessaires pour obtenir les résultats attendus. Parmi eux, les perturbations qui viennent déformer le signal enregistré, ou les éléments artefactuels qui ne font pas partie du signal d'intérêt, sont une première cause potentielle. Le manque de spécificité fonctionnelle du signal retourné au sujet pourrait en constituer une deuxième. Nous avons d'une part développé des outils méthodologiques de traitement du signal en vue d'améliorer la robustesse des analyses des signaux EEG, principalement utilisés jusqu'à maintenant dans le domaine du neurofeedback et des ICM, face aux artefacts et au bruit électromagnétique. D'autre part, si l'on s'intéresse au problème de la spécificité fonctionnelle du signal présenté au sujet, des études utilisant l'IRM fonctionnelle ou des techniques de reconstruction de sources à partir du signal EEG, qui fournissent des signaux ayant une meilleure spécificité spatiale, laissent entrevoir de possibles améliorations de la vitesse d'apprentissage. Afin d'augmenter la spécificité spatiale et la contingence fonctionnelle du feedback présenté au sujet, nous avons étudié la stabilité de la décomposition de l'EEG en différentes sources d'activité électrique cérébrale par Analyse en Composantes Indépendantes à travers différentes séances d'enregistrement effectuées sur un même sujet. Nous montrons que ces décompositions sont stables et pourraient permettre d'augmenter la spécificité fonctionnelle de l'entraînement au contrôle de l'activité cérébrale pour l'utilisation d'une ICM. Nous avons également travaillé à l'implémentation d'un outil logiciel permettant l'optimisation des protocoles expérimentaux basés sur le neurofeedback afin d'utiliser ces composantes indépendantes pour rejeter les artefacts en temps réel ou extraire l'activité cérébrale à entraîner. Ces outils sont utiles dans le cadre de l'analyse et de la caractérisation des signaux EEG enregistrés, ainsi que dans l'exploitation de leurs résultats dans le cadre d'un entraînement de neurofeedback. La deuxième partie de ce travail s'intéresse à la mise en place de protocoles de neurofeedback et à l'impact de l'apprentissage. Nous décrivons tout d'abord des résultats obtenus sur une étude pilote qui cherche à évaluer chez des sujets sains l'impact d'un protocole de neurofeedback basé sur le contrôle du rythme Mu. Les changements comportementaux ont été étudiés à l'aide d'un paradigme de signal stop qui permet d'indexer les capacités attentionnelles et d'inhibition de réponse motrice sur lesquelles on s'attend à ce que l'entraînement ICM ait une influence. Pour clore cette partie, nous présentons un nouvel outil interactif immersif pour l'entraînement cérébral, l'enseignement, l'art et le divertissement pouvant servir à évaluer l'impact de l'immersion sur l'apprentissage au cours d'un protocole de neurofeedback. Enfin, les perspectives de l'apport des méthodes et résultats présentés sont discutées dans le contexte du développement des ICMs de nouvelle génération qui prennent en compte la complexité de l'activité cérébrale. Nous présentons les dernières avancées dans l'étude de certains aspects des corrélats neuronaux liés à deux états mentaux ou classes d'états mentaux que l'on pourrait qualifier d'antagonistes par rapport au contrôle de l'attention : la méditation et la dérive attentionnelle, en vue de leur intégration à plus long terme dans un entraînement ICM par neurofeedback.With new technological advances in functional brain imaging and theoretical progress in the knowledge of the different neurophysiologic processes linked to cognition, the last two decades have seen the emergence of Brain-Machine Interfaces (BCIs) allowing a person to observe in real-time, or with a few seconds delay, his own cerebral activity. Clinical domain in general, and more particularly neuropsychology and pathologies leading to heavy motor handicaps, for which potential applications are numerous, whether therapeutic or for functional rehabilitation, has been a major driver of research on this new field of real-time neurosciences. Among these applications, neurofeedback, or neurotherapy, which aims the subject to voluntary control some aspects of his own cerebral activity in order to amplify or reduce them in a therapeutic goal, or for cognitive optimization, represents a promising technique, and an alternative to drug treatments. However, validation of this type of intervention and understanding of involved mechanisms are still in their infancy. Neurofeedback training is often long, up to several weeks. It is therefore very likely that this type of rehabilitation is seeking brain plasticity phenomena that are part of slow dynamics, and thus require a relatively long drive to achieve the desired long-term effects. However, other disturbing elements that could add up to the cause of the difficulty of learning and long training sessions required to achieve the expected results. Among them, the disturbances that come from recorded signal distortions, or artifactual elements that are not part of the signal of interest, are a first potential cause. The lack of functional specificity of the signal returned to the subject could be a second one. We have developed signal processing methodological tools to improve the robustness to artifacts and electromagnetic noise of EEG signals analysis, the main brain imaging technique used so far in the field of neurofeedback and BCIs. On the other hand, if one looks at the issue of functional specificity of the signal presented to the subject, studies using functional MRI or source reconstruction methods from the EEG signal, which both provide signals having a better spatial specificity, suggest improvements to the speed of learning. Seeing Independent Component Analysis as a potential tool to increase the spatial specificity and functional contingency of the feedback signal presented to the subject, we studied the stability of Independent Component Analysis decomposition of the EEG across different recording sessions conducted on the same subjects. We show that these decompositions are stable and could help to increase the functional specificity of BCI training. We also worked on the implementation of a software tool that allows the optimization of experimental protocols based on neurofeedback to use these independent components to reject artifacts or to extract brain activity in real-time. These tools are useful in the analysis and characterization of EEG signals recorded, and in the exploitation of their results as part of a neurofeedback training. The second part focuses on the development of neurofeedback protocols and the impact of learning. We first describe the results of a pilot study which seeks to evaluate the impact of a neurofeedback protocol based on the Mu rhythm control on healthy subjects. The behavioral changes were studied using a stop signal paradigm that indexes the attentional abilities and inhibition of motor responses on which the BCI training can possibly have influence. To conclude this section, we present a new tool for immersive interactive brain training, education, art and entertainment that can be used to assess the impact of immersion on learning during a neurofeedback protocol. Finally, prospects for methods and results presented are discussed in the context of next-generation BCI development which could take brain activity complexity into account. We present the latest advances in the study of certain aspects of the neural correlates associated with two mental states or classes of mental states that could be described as antagonistic with respect to the control of attention: meditation and mind wandering, for their integration in the longer term in an BCI training using neurofeedback

    Contributions au traitement des images multivariées

    Get PDF
    Ce mémoire résume mon activité pédagogique et scientifique en vue de l’obtention de l’habilitation à diriger des recherches

    Le nuage de point intelligent

    Full text link
    Discrete spatial datasets known as point clouds often lay the groundwork for decision-making applications. E.g., we can use such data as a reference for autonomous cars and robot’s navigation, as a layer for floor-plan’s creation and building’s construction, as a digital asset for environment modelling and incident prediction... Applications are numerous, and potentially increasing if we consider point clouds as digital reality assets. Yet, this expansion faces technical limitations mainly from the lack of semantic information within point ensembles. Connecting knowledge sources is still a very manual and time-consuming process suffering from error-prone human interpretation. This highlights a strong need for domain-related data analysis to create a coherent and structured information. The thesis clearly tries to solve automation problematics in point cloud processing to create intelligent environments, i.e. virtual copies that can be used/integrated in fully autonomous reasoning services. We tackle point cloud questions associated with knowledge extraction – particularly segmentation and classification – structuration, visualisation and interaction with cognitive decision systems. We propose to connect both point cloud properties and formalized knowledge to rapidly extract pertinent information using domain-centered graphs. The dissertation delivers the concept of a Smart Point Cloud (SPC) Infrastructure which serves as an interoperable and modular architecture for a unified processing. It permits an easy integration to existing workflows and a multi-domain specialization through device knowledge, analytic knowledge or domain knowledge. Concepts, algorithms, code and materials are given to replicate findings and extend current applications.Les ensembles discrets de données spatiales, appelés nuages de points, forment souvent le support principal pour des scénarios d’aide à la décision. Par exemple, nous pouvons utiliser ces données comme référence pour les voitures autonomes et la navigation des robots, comme couche pour la création de plans et la construction de bâtiments, comme actif numérique pour la modélisation de l'environnement et la prédiction d’incidents... Les applications sont nombreuses et potentiellement croissantes si l'on considère les nuages de points comme des actifs de réalité numérique. Cependant, cette expansion se heurte à des limites techniques dues principalement au manque d'information sémantique au sein des ensembles de points. La création de liens avec des sources de connaissances est encore un processus très manuel, chronophage et lié à une interprétation humaine sujette à l'erreur. Cela met en évidence la nécessité d'une analyse automatisée des données relatives au domaine étudié afin de créer une information cohérente et structurée. La thèse tente clairement de résoudre les problèmes d'automatisation dans le traitement des nuages de points pour créer des environnements intelligents, c'est-àdire des copies virtuelles qui peuvent être utilisées/intégrées dans des services de raisonnement totalement autonomes. Nous abordons plusieurs problématiques liées aux nuages de points et associées à l'extraction des connaissances - en particulier la segmentation et la classification - la structuration, la visualisation et l'interaction avec les systèmes cognitifs de décision. Nous proposons de relier à la fois les propriétés des nuages de points et les connaissances formalisées pour extraire rapidement les informations pertinentes à l'aide de graphes centrés sur le domaine. La dissertation propose le concept d'une infrastructure SPC (Smart Point Cloud) qui sert d'architecture interopérable et modulaire pour un traitement unifié. Elle permet une intégration facile aux flux de travail existants et une spécialisation multidomaine grâce aux connaissances liée aux capteurs, aux connaissances analytiques ou aux connaissances de domaine. Plusieurs concepts, algorithmes, codes et supports sont fournis pour reproduire les résultats et étendre les applications actuelles.Diskrete räumliche Datensätze, so genannte Punktwolken, bilden oft die Grundlage für Entscheidungsanwendungen. Beispielsweise können wir solche Daten als Referenz für autonome Autos und Roboternavigation, als Ebene für die Erstellung von Grundrissen und Gebäudekonstruktionen, als digitales Gut für die Umgebungsmodellierung und Ereignisprognose verwenden... Die Anwendungen sind zahlreich und nehmen potenziell zu, wenn wir Punktwolken als Digital Reality Assets betrachten. Allerdings stößt diese Erweiterung vor allem durch den Mangel an semantischen Informationen innerhalb von Punkt-Ensembles auf technische Grenzen. Die Verbindung von Wissensquellen ist immer noch ein sehr manueller und zeitaufwendiger Prozess, der unter fehleranfälliger menschlicher Interpretation leidet. Dies verdeutlicht den starken Bedarf an domänenbezogenen Datenanalysen, um eine kohärente und strukturierte Information zu schaffen. Die Arbeit versucht eindeutig, Automatisierungsprobleme in der Punktwolkenverarbeitung zu lösen, um intelligente Umgebungen zu schaffen, d.h. virtuelle Kopien, die in vollständig autonome Argumentationsdienste verwendet/integriert werden können. Wir befassen uns mit Punktwolkenfragen im Zusammenhang mit der Wissensextraktion - insbesondere Segmentierung und Klassifizierung - Strukturierung, Visualisierung und Interaktion mit kognitiven Entscheidungssystemen. Wir schlagen vor, sowohl Punktwolkeneigenschaften als auch formalisiertes Wissen zu verbinden, um schnell relevante Informationen mithilfe von domänenzentrierten Grafiken zu extrahieren. Die Dissertation liefert das Konzept einer Smart Point Cloud (SPC) Infrastruktur, die als interoperable und modulare Architektur für eine einheitliche Verarbeitung dient. Es ermöglicht eine einfache Integration in bestehende Workflows und eine multidimensionale Spezialisierung durch Gerätewissen, analytisches Wissen oder Domänenwissen. Konzepte, Algorithmen, Code und Materialien werden zur Verfügung gestellt, um Erkenntnisse zu replizieren und aktuelle Anwendungen zu erweitern

    Méthodes de séparation aveugle de sources pour l'imagerie hyperspectrale : application à la télédétection urbaine et à l'astrophysique

    Get PDF
    Au cours de cette thèse nous avons développé des méthodes de Séparation Aveugle de Sources (SAS) pour des images hyperspectrales, dans le cadre de deux champs d'application : la télédétection urbaine et l'astrophysique. Dans la première partie de la thèse nous nous sommes intéressés au démélange hyperspectral pour des images urbaines, le but étant de retrouver d'une manière non supervisée les matériaux présents sur la scène en extrayant leurs spectres et leurs proportions. La plupart des méthodes de la littérature sont basées sur un modèle linéaire, qui n'est pas valide en milieu urbain à cause des structures 3D. Une première étape a donc été d'établir un modèle de mélange adapté aux milieux urbains, en partant d'équations physiques basées sur la théorie du transfert radiatif. Le modèle final de forme linéaire quadratique invariant spectralement, ainsi que les possibles hypothèses sur les coefficients de mélange, sont justifiés par les résultats obtenus sur des images simulées réalistes. Nous avons ensuite proposé, pour le démélange, des méthodes de SAS fondées sur la FMN (Factorisation en Matrices Non-négatives). Ces méthodes sont basées sur un calcul de gradient qui tient compte des termes quadratiques. La première méthode utilise un algorithme de gradient à pas fixe, à partir de laquelle une version de Newton a aussi été proposée. La dernière méthode est un algorithme FMN multiplicatif. Les méthodes proposées donnent de meilleures performances qu'une méthode linéaire de la littérature. En astrophysique nous avons développé des méthodes de SAS pour des images de champs denses d'étoiles du spectro-imageur MUSE. A cause de la PSF (Point Spread Function), les informations contenues dans les pixels peuvent résulter des contributions de plusieurs étoiles. C'est là que réside l'intérêt de la SAS : extraire, à partir de ces signaux qui sont des mélanges, les spectres des étoiles qui sont donc nos "sources". Le modèle de mélange est linéaire non invariant spectralement. Nous avons proposé une méthode de SAS basée sur la positivité des données. Cette approche exploite le modèle paramétrique de la FSF (Field Spread Function) de MUSE. La méthode mise en place est itérative et alterne l'estimation des spectres par moindres carrés (avec contraintes de positivité) et estimation des paramètres de la FSF par un algorithme de gradient projeté. La méthode proposée donne de bonnes performances sur des images simulées de MUSE.In this work, we developed Blind Source Separation methods (BSS) for hyperspectral images, concerning two applications : urban remote sensing and astrophysics. The first part of this work concerned spectral unmixing for urban images, with the aim of finding, by an unsupervised method, the materials present in the scene, by extracting their spectra and their proportions. Most existing methods rely on a linear model, which is not valid in urban environments because of 3D structures. Therefore, the first step was to derive a mixing model adapted to urban environments, starting from physical equations based on radiative transfer theory. The derived linear-quadratic model, and possible hypotheses on the mixing coefficients, are justified by results obtained with simulated realistic images. We then proposed, for the unmixing, BSS methods based on NMF (Non-negative Matrix Factorization). These methods are based on gradient computation taking into account the quadratic terms.The first method uses a gradient descent algorithm with a constant step, from which we then derived a Newton version. The last proposed method is a multiplicative NMF algorithm. These methods give better performance than a linear method from the literature. Concerning astrophysics, we developed BSS methods for dense field images of the MUSE instrument. Due to the PSF (Point Spread Function) effect, information contained in the pixels can result from contributions of many stars. Hence, there is a need for BSS, to extract from these signals that are mixtures, the star spectra which are our "sources". The mixing model is linear but spectrally non-invariant. We proposed a BSS method based on positivity. This approach uses the parametric model of MUSE FSF (Field Spread Function). The implemented method is iterative and alternates spectra estimation using least squares (with positivity constraint) and FSF parameter estimation by a projected gradient descent algorithm. The proposed method yields good performance with simulated MUSE images
    corecore