163 research outputs found

    Développement des algorithmes pour l’automatisation de la classification des données utilisant les réseaux de neurones probabilistes (PNN). Application à l’analyse, la catégorisation et la cartographie des images de télédétection.

    Get PDF
    The main topic of this thesis is modeling and classification for analyzing and processing digital data. Our objective is the realization of a set of algorithms to automate data classification using probabilistic neural networks (PNN). The considered data are remote sensing images.We propose a novel procedure for automatic classification based on PNN. We used unsupervised methods to search for classes in the learning phase; we built a function to validate classes inspired from fuzzy clustering techniques and we adapted our procedure to be applied on multidimensional data such as satellite images. Before applying this approach toremote sensing images, we conducted a series of tests on various types of synthetic and real data. These tests have produced very convincing results in comparison to usual unsupervised methods.We applied our algorithm in order to build land cover maps from satellite images. So, we have to analyze high spatial resolution images representing the study area for identifying all existing vegetation patterns. The classification is applied on sequence of NDVI time series data derived from satellite images. The aim is to test all of the developed algorithms on realcases to highlight their performance. These tests have demonstrated once again that the proposed approaches are entirely capable to produce successful classification. In semi-arid regions such as the region of Marrakech Tensift El Haouz, mapping land cover contributes extremely in evapotranspiration flow estimation used for water management.Le thème principal de cette thèse est la modélisation et la classification pour l’analyse et le traitement de l’information contenue dans les données numériques. Notre contribution est la réalisation d’un ensemble d’algorithmes pour l’automatisation de la classification des données en utilisant les réseaux de neurones probabilistes (PNN). Les données considérées sont les images de télédétection. Cette thèse s’adresse non seulement aux numériciens et spécialistes du traitement des images, mais aussi aux chercheurs et praticiens dans plusieurs domaines tels que la télédétection qui utilisent la classification des données en général et l’analyse de l’information pour la modélisation en particulier. Nous proposons une nouvelle procédure de classification automatique fondée sur les PNN. Nous avons utilisé des méthodes non supervisées pour la recherche des classes à la phase de l’apprentissage. Nous avons construit une fonction pour la validité des classes en s’inspirant des techniques de classification automatique floue. Nous avons aussi adapté notre procédure pour l’application sur des données multidimensionnelles telles que les images satellitaires. Avant d’appliquer cette approche sur des images de télédétection, nous avons mené une série de tests sur plusieurs types de données synthétiques et réelles. Ces tests ont abouti à des résultats très convaincants en comparaison avec les méthodes non superviséesusuelles, ce qui a conduit à valider la performance de nos algorithmes. Dans la partie application à la télédétection, l’objectif est d’élaborer des cartes d’occupation du sol à partir des images satellitaires. Nous avons analysé les images à haute résolution spatiale représentant la région étudiée pour identifier tous les profils de végétation existants. La classification est menée en se basant sur les images de l’indice de végétation NDVI extraites des images satellitaires SPOT. L’objet à classifier est une série temporelle de sept scènes NDVI. Le but est de tester l’ensemble des algorithmes développés sur des cas réels pour mettre en évidence leur performance. Ces tests ont démontré encore une fois de plus que les approches proposées sont tout à fait aptes à produire une classificationperformante.Nous avons classifié et analysé les images satellitaires d’une région semi-aride de Marrakech Tensift El Haouz. Le résultat obtenu est une cartographie précise de l’occupation du sol. Ce résultat contribuera d’une façon importante dans le dressage des cartes du flux d’évapotranspiration pour établir un bilan hydrique de la région

    Visualisation interactive de données volumiques texturées pour la détection supervisée de failles en imagerie sismique

    Get PDF
    L'interprétation des images sismiques tridimensionnelles est une étape clé de léxploration pétrolière. Les enjeux de cette activité sont de produire un modèle des différentes structures, telles que les failles, incluses au sein des données sismiques. Les objectifs multiples de cette thèse, menée en partenariat avec le groupe TOTAL, sont de concevoir, d'implémenter et de valider des techniques innovantes de visualisation et d'interaction aidant à la détection et à la modélisation des failles, supervisée par un interprétateur. Bien que spécifiquement développés à destination d'un contexte opérationnel particulier, les outils proposés s'appliquent plus généralement à lénsemble des données volumiques texturées ainsi qu'à la segmentation manuelle de structures tridimensionnelles. Ils s'inscrivent dans un cadre théorique et méthodologique nécessairement pluridisciplinaire qui concerne des domaines aussi divers que la psychologie expérimentale, l'ingénierie cognitive, la réalité virtuelle ou encore l'interaction homme-machine.The interpretation of seismic 3D imagery is a step key leading to hydrocarbon exploitation. The challenge of this activity is to produce a model of several geological structures, like faults, embedded in seismic dataset. The aim of this thesis, carried out with TOTAL company, is to elaborate, design and evaluate new techniques of visualization and interaction for fault detection and modelization supervised by a human expert. Even if specially designed for an operational context, our tools are also dedicated to other volumetric data and manual segmentation of 3D structures. The theorical foundation of our works are based on a pluridisciplinary approach and concerns several scientific fields like experimental psychology, cognitive engineering, virtual reality or human computer interaction

    Méthode d’évaluation des compétences dans la conception des commandes de procédés industriels avec des automates programmables industriels

    Get PDF
    De nos jours, il est courant d’utiliser des systèmes d’évaluation et de notation automatisés sur les plateformes d’apprentissage en ligne pour évaluer la fonctionnalité et la qualité d’un code écrit dans des langages de programmation tels que Java ou MATLAB. De ce fait, l’introduction d’un système d’évaluation et de notation automatisés pour évaluer la qualité de la programmation de commandes de procédés industriels pourrait s’avérer utile non seulement dans le domaine de l’apprentissage en ligne, mais également dans le recrutement et la maintenance des systèmes de commande industrielle. Le but de ce projet de maîtrise est de développer un nouveau système pour évaluer la performance de la programmation des commandes de procédés industriels et de générer un score qui reflète la qualité de cette performance. Les techniques habituellement utilisées par les systèmes d’évaluation et de notation automatisés sont difficilement applicables dans le domaine de l’automatisation industrielle où une solution de conception n’est pas unique et nécessite une classification des ensembles de solutions possibles et une évaluation de sa complexité. Cependant, une commande, qu’elle soit séquentielle telle que le GRAFCET, le FBD, le LADDER ou autre, ou qu’elle soit continue telle que le PID, l’avance-retard de phase, la commande robuste, génère un chronogramme et une courbe temporelle qui peuvent être analysés. Dans cette optique, nous nous proposons d’étudier les courbes temporelles et les chronogrammes générés par les commandes pour mesurer la similarité entre des solutions admissibles et les conceptions à évaluer. Les distances de déformation sont déterminées à l’aide de la technique de la déformation temporelle dynamique (DTW), puis classées en utilisant la méthode d’apprentissage automatique supervisé des k-plus proches voisins (k-NN). Les classes sont des notes reflétant la qualité de la programmation sur une échelle (A, B, C, D, E) avec (A) étant la note la plus élevée et (E) la note la plus basse. Le système d’évaluation et de notation automatisés permet d’obtenir une note reflétant la qualité de la programmation des commandes de procédés industriels dans 88.5% des cas traités. Évidemment, une notation, même chez un expert, est une tâche difficile dont il existe un certain niveau de subjectivité et d’interprétabilité. Cette tâche n’est pas seulement que quantitatif, mais aussi qualitatif. En ce sens, la qualité de l’évaluation ne représente pas seulement qu’un taux de classification, mais admet également une variabilité dans le taux de classification

    Analyse du capitalisme social sur Twitter

    Get PDF
    Bourdieu, a sociologist, defines social capital as : "The set of current or po-tential ressources linked to the possession of a lasting relationships network". On Twitter,the friends, followers, users mentionned and retweeted are considered as the relationshipsnetwork of each user, which ressources are the chance to get relevant information, to beread, to satisfy a narcissist need, to spread information or advertisements. We observethat some Twitter users that we call social capitalists aim to maximize their followernumbers to maximize their social capital. We introduce their methods, based on mutualsubscriptions and dedicated hashtags. In order to study them, we first describe a large-scale detection method based on their set of followers and followees. Then, we show withan automated Twitter account that their methods allow to gain followers and to be ret-weeted efficiently. Afterwards, we bring to light that social capitalists methods allowsthese users to occupy specific positions in the network allowing them a high visibility.Furthermore, these methods make these users influent according to the major tools. Wethus set up a classification method to detect accurately these user and produce a newinfluence score.Le sociologue Bourdieu définit le capital social comme : "L’ensemble des ressources actuelles ou potentielles qui sont liées à la possession d’un réseau durable de relations". Sur Twitter, les abonnements, mentions et retweets créent un réseau de relations pour chaque utilisateur dont les ressources sont l’obtention d’informations pertinentes, la possibilité d’être lu, d’assouvir un besoin narcissique, de diffuser efficacement des messages. Certains utilisateurs Twitter -appelés capitalistes sociaux- cherchent à maximiser leur nombre d’abonnements pour maximiser leur capital social. Nous introduisons leurs techniques, basées sur l’échange d’abonnements et l’utilisation de hashtags dédiés. Afin de mieux les étudier, nous détaillons tout d’abord une méthode pour détecter à l’échelle du réseau ces utilisateurs en se basant sur leurs abonnements et abonnés. Puis, nous montrons avec un compte Twitter automatisé que ces techniques permettent de gagner efficacement des abonnés et de se faire beaucoup retweeter. Nous établissons ensuite que ces dernières permettent également aux capitalistes sociaux d’occuper des positions qui leur accordent une bonne visibilité dans le réseau. De plus, ces méthodes rendent ces utilisateurs influents aux yeux des principaux outils de mesure. Nous présentons donc pour terminer une méthode de classification supervisée pour détecter avec précision ces utilisateurs et ainsi produire un nouveau score d’influence

    Techniques d'analyse de contenu appliquées à l'imagerie spatiale

    Get PDF
    Depuis les années 1970, la télédétection a permis d’améliorer l’analyse de la surface de la Terre grâce aux images satellites produites sous format numérique. En comparaison avec les images aéroportées, les images satellites apportent plus d’information car elles ont une couverture spatiale plus importante et une période de revisite courte. L’essor de la télédétection a été accompagné de l’émergence des technologies de traitement qui ont permis aux utilisateurs de la communauté d’analyser les images satellites avec l’aide de chaînes de traitement de plus en plus automatiques. Depuis les années 1970, les différentes missions d’observation de la Terre ont permis d’accumuler une quantité d’information importante dans le temps. Ceci est dû notamment à l’amélioration du temps de revisite des satellites pour une même région, au raffinement de la résolution spatiale et à l’augmentation de la fauchée (couverture spatiale d’une acquisition). La télédétection, autrefois cantonnée à l’étude d’une seule image, s’est progressivement tournée et se tourne de plus en plus vers l’analyse de longues séries d’images multispectrales acquises à différentes dates. Le flux annuel d’images satellite est supposé atteindre plusieurs Péta octets prochainement. La disponibilité d’une si grande quantité de données représente un atout pour développer de chaines de traitement avancées. Les techniques d’apprentissage automatique beaucoup utilisées en télédétection se sont beaucoup améliorées. Les performances de robustesse des approches classiques d’apprentissage automatique étaient souvent limitées par la quantité de données disponibles. Des nouvelles techniques ont été développées pour utiliser efficacement ce nouveau flux important de données. Cependant, la quantité de données et la complexité des algorithmes mis en place nécessitent une grande puissance de calcul pour ces nouvelles chaînes de traitement. En parallèle, la puissance de calcul accessible pour le traitement d’images s’est aussi accrue. Les GPUs («Graphic Processing Unit ») sont de plus en plus utilisés et l’utilisation de cloud public ou privé est de plus en plus répandue. Désormais, pour le traitement d’images, toute la puissance nécessaire pour les chaînes de traitements automatiques est disponible à coût raisonnable. La conception des nouvelles chaînes de traitement doit prendre en compte ce nouveau facteur. En télédétection, l’augmentation du volume de données à exploiter est devenue une problématique due à la contrainte de la puissance de calcul nécessaire pour l’analyse. Les algorithmes de télédétection traditionnels ont été conçus pour des données pouvant être stockées en mémoire interne tout au long des traitements. Cette condition est de moins en moins respectée avec la quantité d’images et leur résolution. Les algorithmes de télédétection traditionnels nécessitent d’être revus et adaptés pour le traitement de données à grande échelle. Ce besoin n’est pas propre à la télédétection et se retrouve dans d’autres secteurs comme le web, la médecine, la reconnaissance vocale,… qui ont déjà résolu une partie de ces problèmes. Une partie des techniques et technologies développées par les autres domaines doivent encore être adaptées pour être appliquée aux images satellites. Cette thèse se focalise sur les algorithmes de télédétection pour le traitement de volumes de données massifs. En particulier, un premier algorithme existant d’apprentissage automatique est étudié et adapté pour une implantation distribuée. L’objectif de l’implantation est le passage à l’échelle c’est-à-dire que l’algorithme puisse traiter une grande quantité de données moyennant une puissance de calcul adapté. Enfin, la deuxième méthodologie proposée est basée sur des algorithmes récents d’apprentissage automatique les réseaux de neurones convolutionnels et propose une méthodologie pour les appliquer à nos cas d’utilisation sur des images satellites

    Apport des techniques d'imagerie pour la caractérisation physique des corridors fluviaux.: Synthèse des connaissances et extraction d'indicateurs.

    Get PDF
    49 p.Dans le cadre de la mise en place de la Directive Cadre européenne sur l'Eau, un état des lieux des conditions hydromorphologiques s'avère nécessaire afin de renseigner les indicateurs de qualité physique des milieux aquatiques. Cela passe par la mise en place d'outils de caractérisation physique des cours d'eau. Dans ce contexte, l'opportunité d'utilisation des images est envisagée. Un inventaire des différentes techniques d'imagerie, ainsi qu'une sélection des couples capteurs / plateformes les mieux adaptés pour une utilisation opérationnelle de l'imagerie sont réalisées. Un cadre opératoire est proposé pour l'élaboration d'indicateurs pouvant être extraits à partir d'images
    • …
    corecore