3 research outputs found

    Techniques d'analyse de contenu appliquées à l'imagerie spatiale

    Get PDF
    Depuis les annĂ©es 1970, la tĂ©lĂ©dĂ©tection a permis d’amĂ©liorer l’analyse de la surface de la Terre grĂące aux images satellites produites sous format numĂ©rique. En comparaison avec les images aĂ©roportĂ©es, les images satellites apportent plus d’information car elles ont une couverture spatiale plus importante et une pĂ©riode de revisite courte. L’essor de la tĂ©lĂ©dĂ©tection a Ă©tĂ© accompagnĂ© de l’émergence des technologies de traitement qui ont permis aux utilisateurs de la communautĂ© d’analyser les images satellites avec l’aide de chaĂźnes de traitement de plus en plus automatiques. Depuis les annĂ©es 1970, les diffĂ©rentes missions d’observation de la Terre ont permis d’accumuler une quantitĂ© d’information importante dans le temps. Ceci est dĂ» notamment Ă  l’amĂ©lioration du temps de revisite des satellites pour une mĂȘme rĂ©gion, au raffinement de la rĂ©solution spatiale et Ă  l’augmentation de la fauchĂ©e (couverture spatiale d’une acquisition). La tĂ©lĂ©dĂ©tection, autrefois cantonnĂ©e Ă  l’étude d’une seule image, s’est progressivement tournĂ©e et se tourne de plus en plus vers l’analyse de longues sĂ©ries d’images multispectrales acquises Ă  diffĂ©rentes dates. Le flux annuel d’images satellite est supposĂ© atteindre plusieurs PĂ©ta octets prochainement. La disponibilitĂ© d’une si grande quantitĂ© de donnĂ©es reprĂ©sente un atout pour dĂ©velopper de chaines de traitement avancĂ©es. Les techniques d’apprentissage automatique beaucoup utilisĂ©es en tĂ©lĂ©dĂ©tection se sont beaucoup amĂ©liorĂ©es. Les performances de robustesse des approches classiques d’apprentissage automatique Ă©taient souvent limitĂ©es par la quantitĂ© de donnĂ©es disponibles. Des nouvelles techniques ont Ă©tĂ© dĂ©veloppĂ©es pour utiliser efficacement ce nouveau flux important de donnĂ©es. Cependant, la quantitĂ© de donnĂ©es et la complexitĂ© des algorithmes mis en place nĂ©cessitent une grande puissance de calcul pour ces nouvelles chaĂźnes de traitement. En parallĂšle, la puissance de calcul accessible pour le traitement d’images s’est aussi accrue. Les GPUs («Graphic Processing Unit ») sont de plus en plus utilisĂ©s et l’utilisation de cloud public ou privĂ© est de plus en plus rĂ©pandue. DĂ©sormais, pour le traitement d’images, toute la puissance nĂ©cessaire pour les chaĂźnes de traitements automatiques est disponible Ă  coĂ»t raisonnable. La conception des nouvelles chaĂźnes de traitement doit prendre en compte ce nouveau facteur. En tĂ©lĂ©dĂ©tection, l’augmentation du volume de donnĂ©es Ă  exploiter est devenue une problĂ©matique due Ă  la contrainte de la puissance de calcul nĂ©cessaire pour l’analyse. Les algorithmes de tĂ©lĂ©dĂ©tection traditionnels ont Ă©tĂ© conçus pour des donnĂ©es pouvant ĂȘtre stockĂ©es en mĂ©moire interne tout au long des traitements. Cette condition est de moins en moins respectĂ©e avec la quantitĂ© d’images et leur rĂ©solution. Les algorithmes de tĂ©lĂ©dĂ©tection traditionnels nĂ©cessitent d’ĂȘtre revus et adaptĂ©s pour le traitement de donnĂ©es Ă  grande Ă©chelle. Ce besoin n’est pas propre Ă  la tĂ©lĂ©dĂ©tection et se retrouve dans d’autres secteurs comme le web, la mĂ©decine, la reconnaissance vocale,
 qui ont dĂ©jĂ  rĂ©solu une partie de ces problĂšmes. Une partie des techniques et technologies dĂ©veloppĂ©es par les autres domaines doivent encore ĂȘtre adaptĂ©es pour ĂȘtre appliquĂ©e aux images satellites. Cette thĂšse se focalise sur les algorithmes de tĂ©lĂ©dĂ©tection pour le traitement de volumes de donnĂ©es massifs. En particulier, un premier algorithme existant d’apprentissage automatique est Ă©tudiĂ© et adaptĂ© pour une implantation distribuĂ©e. L’objectif de l’implantation est le passage Ă  l’échelle c’est-Ă -dire que l’algorithme puisse traiter une grande quantitĂ© de donnĂ©es moyennant une puissance de calcul adaptĂ©. Enfin, la deuxiĂšme mĂ©thodologie proposĂ©e est basĂ©e sur des algorithmes rĂ©cents d’apprentissage automatique les rĂ©seaux de neurones convolutionnels et propose une mĂ©thodologie pour les appliquer Ă  nos cas d’utilisation sur des images satellites

    Modélisation formelle de systÚmes dynamiques autonomes : graphe, réécriture et grammaire

    Get PDF
    Modern, large-scale systems are deployed in changing environments. They must dynamically adapt to context changes. In this scope, autonomic computing aims at reducing (or even suppress) slow and costly human interventions, by making systems achieve self-management. Self-adaptability of a system is primarily based on a suitable description of its components, their interactions and the various states it can adopt. Various mod! eling approaches have been elaborated, notably based on architecture description languages (ADLs) or generic models (e.g., UML, graphs). These representations usually focus on some aspects or properties of dynamic systems and do not tackle each of self-management's requirements. This manuscript deals with graph-based representations of dynamic systems and their suitability for the implementation of autonomic computing's four fundamental properties : self-optimization, self-protection, self-healing and self-configuring. This thesis offers four principal theoretical and applied contributions The first one is a methodology for the construction and generative characterization of transformations correct by construction whose application necessarily preserves a system's correctness. An application can therefore efficiently remains in an acceptable state while evolving. The second one consists in an extension of graph rewriting systems allowing to easily and efficiently represent, update, evaluate and configure a system's characteristics. These claims are supported by concrete example relying on DIET, a distributed and hierarchical load balancer. An experimental study reveals a significant efficiency gain with regard to classical methods, in particular those integrated to AGG and GMTE. The third contribution is articulated around the design of an end-to-end manager for complex events processing requests. It demonstrates the interest of graphs as an abstract, high-level, representation in an applicative context comprising numerous fragmented technical solutions. The fourth and last one relies on the design of an autonomic manager for any Machine-to-Machine system complying to the ETSI M2M2 standard. It illustrates the methodology for correct transformations, but also the integration of the proposed representation within a multi-model approach including internal consistency concerns. The approach's feasibility is experimentally demonstrated using a smart metering application.Les systĂšmes distribuĂ©s modernes Ă  large-Ă©chelle Ă©voluent dans des contextes variables soumis Ă  de nombreux alĂ©as auxquels ils doivent s'adapter dynamiquement. Dans ce cadre, l'informatique autonome se propose de rĂ©duire (voire supprimer) les interventions humaines lentes et coĂ»teuse, en leur prĂ©fĂ©rant l'auto-gestion. L'adaptabilitĂ© autonome d'un systĂšme repose avant tout sur une description adĂ©quate de ses composants, de leurs interactions et des diffĂ©rents aspects ou topologies qu’il peut adopter. Diverses approches de modĂ©lisation ont Ă©tĂ©s proposĂ©es dans la littĂ©rature, basĂ©es notamment sur des langages de descriptions spĂ©cifiques (e.g., les ADLs) ou des modĂšles gĂ©nĂ©riques plus ou moins formels (e.g., profils UML, graphes). Ces reprĂ©sentations se concentrent en gĂ©nĂ©ral sur certains aspects ou propriĂ©tĂ©s du systĂšme dynamique et ne permettent ainsi pas de rĂ©pondre Ă  chacune des problĂ©matiques inhĂ©rentes Ă  l'auto-gestion. Cette thĂšse traite de la modĂ©lisation basĂ©e graphes des systĂšmes dynamiques et de son adĂ©quation pour la mise en Ɠuvre des quatre propriĂ©tĂ©s fondamentales de l'informatique autonome : l'auto-optimisation, l'auto-protection, l'auto-guĂ©rison et l'auto-configuration. Cette thĂšse propose quatre principales contributions thĂ©oriques et appliquĂ©es. La premiĂšre est une mĂ©thodologie pour la construction et la caractĂ©risation gĂ©nĂ©rative de transformations correctes par construction dont l'application prĂ©serve nĂ©cessairement la correction du systĂšme. Le maintien d'une application dans un Ă©tat acceptable peut ainsi ĂȘtre efficacement garanti lors de son adaptation. La seconde contribution consiste en une extension des systĂšmes de rĂ©Ă©criture de graphe permettant de reprĂ©senter, mettre Ă  jour, Ă©valuer et paramĂ©trer les caractĂ©ristiques d'un systĂšme aisĂ©ment et efficacement. Ces affirmations sont soutenues par des exemples illustratifs concrets reposant sur DIET, un rĂ©partiteur de charge distribuĂ©. Une Ă©tude expĂ©rimentale extensive rĂ©vĂšle un net gain d'efficacitĂ© vis Ă  vis de mĂ©thodes classiques, en particulier celles intĂ©grĂ©es nativement aux outils AGG et GMTE. La troisiĂšme contribution s'articule autour de l'Ă©laboration d'un module de gestion de bout en bout pour des requĂȘtes de traitement d'Ă©vĂ©nements complexes. Elle dĂ©montre l'intĂ©rĂȘt des graphes en tant que reprĂ©sentation abstraite et haut niveau dans un contexte applicatif comprenant de multiples solutions fragmentĂ©es. La quatriĂšme et derniĂšre contribution rĂ©side dans le design d'un gestionnaire autonome apte Ă  rĂ©genter tout systĂšme Machine-Ă -Machine se conformant au standard ETSI M2M. Elle illustre la mĂ©thodologie relative Ă  la correction par construction, mais Ă©galement l'intĂ©gration de la reprĂ©sentation proposĂ©e Ă  des approches multi-modĂšles incluant des problĂ©matiques de cohĂ©rence interne. La faisabilitĂ© de l'approche est dĂ©montrĂ©e expĂ©rimentalement en s'appuyant sur une application de compteur intelligent pour la domotique

    Apprentissage automatique pour simplifier l’utilisation de banques d’images cardiaques

    Get PDF
    The recent growth of data in cardiac databases has been phenomenal. Cleveruse of these databases could help find supporting evidence for better diagnosis and treatment planning. In addition to the challenges inherent to the large quantity of data, the databases are difficult to use in their current state. Data coming from multiple sources are often unstructured, the image content is variable and the metadata are not standardised. The objective of this thesis is therefore to simplify the use of large databases for cardiology specialists withautomated image processing, analysis and interpretation tools. The proposed tools are largely based on supervised machine learning techniques, i.e. algorithms which can learn from large quantities of cardiac images with groundtruth annotations and which automatically find the best representations. First, the inconsistent metadata are cleaned, interpretation and visualisation of images is improved by automatically recognising commonly used cardiac magnetic resonance imaging views from image content. The method is based on decision forests and convolutional neural networks trained on a large image dataset. Second, the thesis explores ways to use machine learning for extraction of relevant clinical measures (e.g. volumes and masses) from3D and 3D+t cardiac images. New spatio-temporal image features are designed andclassification forests are trained to learn how to automatically segment the main cardiac structures (left ventricle and left atrium) from voxel-wise label maps. Third, a web interface is designed to collect pairwise image comparisons and to learn how to describe the hearts with semantic attributes (e.g. dilation, kineticity). In the last part of the thesis, a forest-based machinelearning technique is used to map cardiac images to establish distances and neighborhoods between images. One application is retrieval of the most similar images.L'explosion rĂ©cente de donnĂ©es d'imagerie cardiaque a Ă©tĂ© phĂ©nomĂ©nale. L'utilisation intelligente des grandes bases de donnĂ©es annotĂ©es pourrait constituer une aide prĂ©cieuse au diagnostic et Ă  la planification de thĂ©rapie. En plus des dĂ©fis inhĂ©rents Ă  la grande taille de ces banques de donnĂ©es, elles sont difficilement utilisables en l'Ă©tat. Les donnĂ©es ne sont pas structurĂ©es, le contenu des images est variable et mal indexĂ©, et les mĂ©tadonnĂ©es ne sont pas standardisĂ©es. L'objectif de cette thĂšse est donc le traitement, l'analyse et l'interprĂ©tation automatique de ces bases de donnĂ©es afin de faciliter leur utilisation par les spĂ©cialistes de cardiologie. Dans ce but, la thĂšse explore les outils d'apprentissage automatique supervisĂ©, ce qui aide Ă  exploiter ces grandes quantitĂ©s d'images cardiaques et trouver de meilleures reprĂ©sentations. Tout d'abord, la visualisation et l'interprĂ©tation d'images est amĂ©liorĂ©e en dĂ©veloppant une mĂ©thode de reconnaissance automatique des plans d'acquisition couramment utilisĂ©s en imagerie cardiaque. La mĂ©thode se base sur l'apprentissage par forĂȘts alĂ©atoires et par rĂ©seaux de neurones Ă  convolution, en utilisant des larges banques d'images, oĂč des types de vues cardiaques sont prĂ©alablement Ă©tablies. La thĂšse s'attache dans un deuxiĂšme temps au traitement automatique des images cardiaques, avec en perspective l'extraction d'indices cliniques pertinents. La segmentation des structures cardiaques est une Ă©tape clĂ© de ce processus. A cet effet une mĂ©thode basĂ©e sur les forĂȘts alĂ©atoires qui exploite des attributs spatio-temporels originaux pour la segmentation automatique dans des images 3Det 3D+t est proposĂ©e. En troisiĂšme partie, l'apprentissage supervisĂ© de sĂ©mantique cardiaque est enrichi grĂące Ă  une mĂ©thode de collecte en ligne d'annotations d'usagers. Enfin, la derniĂšre partie utilise l'apprentissage automatique basĂ© sur les forĂȘts alĂ©atoires pour cartographier des banques d'images cardiaques, tout en Ă©tablissant les notions de distance et de voisinage d'images. Une application est proposĂ©e afin de retrouver dans une banque de donnĂ©es, les images les plus similaires Ă  celle d'un nouveau patient
    corecore