11 research outputs found

    Extraction de détecteurs d'objets urbains à partir d'une ontologie

    Get PDF
    National audienceAfin de parvenir à une méthode d'interprétation automatique d'im-ages de télédétection à très haute résolution spatiale, il est nécessaire d'exploiter autant que possible les connaissances du domaine. Pour détecter différents types d'objet comme la route ou le bâti, des méthodes très spécifiques ont été dévelop-pées pour obtenir de très bons résultats. Ces méthodes utilisent des connais-sances du domaine sans les formaliser. Dans cet article, nous proposons tout d'abord de modéliser la connaissance du domaine de manière explicite au sein d'une ontologie. Ensuite, nous introduisons un algorithme pour construire des détecteurs spécifiques utilisant les connaissances de cette ontologie. La sépara-tion nette entre modélisation des connaissances et construction des détecteurs rend plus lisible le processus d'interprétation. Ce découplage permet également d'utiliser l'algorithme de construction de détecteurs dans un autre domaine d'ap-plication, ou de modifier l'algorithme de construction de détecteurs sans modi-fier l'ontologie

    Segmentation par ligne de partage des eaux basée sur des connaissances texturales

    Get PDF
    La segmentation d'une image a pour but de créer des régions homogènes selon un critère défini en fonction de l'application considérée. Le critère peut être, par exemple, les valeurs des pixels de l'image ou des indices de texture. Une fois la segmentation obtenue, une classification des régions peut être effectuée afin d'associer une sémantique aux objets présents dans l'image. L'hypothèse d'homogénéité entre des pixels d'un même objet doit permettre la construction de régions correspondant aux objets de l'image. Dans le cas d'images complexes comme les images satellites à très haute résolution spatiale, l'homogénéité classique des pixels d'un même objet n'est pas valide, réduisant la qualité des segmentations obtenues. Dans cet article, nous proposons d'intégrer au processus de segmentation par ligne de partage des eaux des connaissances sous forme d'exemples étiquetés par l'utilisateur. Nous introduisons ainsi un critère d'homogénéité de plus haut niveau basé sur des connaissances texturales

    Real-time Risk Metrics for Programmatic Stablecoin Crypto Asset-Liability Management (CALM)

    Full text link
    Stablecoins have turned out to be the "killer" use case of the growing digital asset space. However, risk management frameworks, including regulatory ones, have been largely absent. In this paper, we address the critical question of measuring and managing risk in stablecoin protocols, which operate on public blockchain infrastructure. The on-chain environment makes it possible to monitor risk and automate its management via transparent smart-contracts in real-time. We propose two risk metrics covering capitalization and liquidity of stablecoin protocols. We then explore in a case-study type analysis how our risk management framework can be applied to DAI, the biggest decentralized stablecoin by market capitalisation to-date, governed by MakerDAO. Based on our findings, we recommend that the protocol explores implementing automatic capital buffer adjustments and dynamic maturity gap matching. Our analysis demonstrates the practical benefits for scalable (prudential) risk management stemming from real-time availability of high-quality, granular, tamper-resistant on-chain data in the digital asset space. We name this approach Crypto Asset-Liability Management (CALM).Comment: The authors would like to thank Professor Moorad Choudhry for review comments on an earlier draft. Submitted for the SNB-CIF Conference on Cryptoassets and Financial Innovation, 24 May 202

    Construction and classification from remotely sensed images by an iterative approach guided by domain knowledge

    No full text
    L'objet de cette thèse est d'élaborer un modèle de découverte de connaissances associant itérativement la construction automatique des zones d'intérêt (objets urbains, relations entre eux, ...), à partir des images de télédétection et la classification dePas de résum

    Construction and classification from remotely sensed images by an iterative approach guided by domain knowledge

    No full text
    L'objet de cette thèse est d'élaborer un modèle de découverte de connaissances associant itérativement la construction automatique des zones d'intérêt (objets urbains, relations entre eux, ...), à partir des images de télédétection et la classification de ces objets. La construction des objet s'appuiera entre autre sur des opérateurs de fouille de données (notamment en utilisant les algorithmes de clustering développés par Cédric Wemmert au sein de l'équipe FDBT) et/ou des outils de morphologie mathématique (via l'utilisation de la plateforme piaf développé par l'équipe Sébastien Lefèvre de l'équipe MIV). La classification sera basée sur un système d'agents collaboratif utilisant plusieurs méthodes pour résoudre la problématique. Cette approche a déjà montré son intérêt dans le processus de clustering. L'utilisation de connaissances sera utilisée tant au niveau de la construction que de la classification. Une ontologie du domaine est en cours de développement dans l'équipe ERIC de Lyon. Elle sera utilisée pour la construction d'objet en indiquant les constructions d'objets potentiellement intéressantes. Au niveau de la classification, les connaissances permettront d'améliorer la capacité de détection en induisant une sémantique aux objets. Cette ontologie pourra aussi être enrichie dans le cas où le système découvre de nouvelles règles pertinentes...La morphologie mathématique donne des résultats sur des images en niveaux de gris [1], mais l'utilisation des données hyperspectrales est un champ encore peu étudié et qui pourrait améliorer sensiblement les résultats. Un système de clustering a été développé par l'équipe FDBT et pourra servir de base aux travaux. Les ontologies basées sur les logiques de descriptions permettent de gérer des connaissances de façon adéquates, un travail au niveau de l'opérationnalisation sera peut-être à effectuer. ...Le programme initial se base sur une approche du bas vers le haut du problème. Il convient de s'intéresser tout d'abord à la construction des régions, en cherchant via un état de l'art et certains prototypages à choisir les algorithmes les plus à même de pouvoir décrire l'image satellite dans à un niveau de description supérieur. Une fois cette première étape remplie, la classification de ces objets de niveau de description supérieur sera étudié. Encore une fois, après un état de l'art et des prototypages si besoin, certains algorithmes (système expert extrait de l'ontologie, arbres de décision, ...) seront sélectionnés pour être intégré dans un environnement collaboratif. Enfin il faudra modifier ces algorithmes pour leur donner la capacité de tenir compte des résultats des autres algorithmes.Pas de résum

    On machine learning in watershed segmentation

    No full text
    International audienceAutomatic image interpretation could be achieved by first performing a segmentation of the image, i.e. aggregating similar pixels to form regions, then use a supervised region- based classification. In such a process, the quality of the segmentation step is of great importance. Nevertheless, whereas the classification step takes advantage from some prior knowledge such as learning sample pixels, the segmentation step rarely does. In this paper, we propose to involve machine learning to improve the segmentation process using the watershed transform. More precisely, we apply a fuzzy supervised classification and a genetic algorithm in order to respectively generate the elevation map used in the watershed transform and tune segmentation parameters. The results from our evolutionary supervised watershed algorithm confirm the relevance of machine learning to introduce knowledge in the watershed segmentation process

    Supervised image segmentation using watershed transform, fuzzy classification and evolutionary computation

    No full text
    International audienceAutomatic image interpretation is often achieved by first performing a segmentation of the image (i.e., gathering neighbouring pixels into homogeneous regions) and then applying a supervised region-based classification. In such a process, the quality of the segmentation step is of great importance in the final classified result. Nevertheless, whereas the classification step takes advantage from some prior knowledge such as learning sample pixels, the segmentation step rarely does. In this paper, we propose to involve such samples through machine learning procedures to improve the segmentation process. More precisely, we consider the watershed transform segmentation algorithm, and rely on both a fuzzy supervised classification procedure and a genetic algorithm in order to respectively build the elevation map used in the watershed paradigm and tune segmentation parameters. We also propose new criteria for segmentation evaluation based on learning samples. We have evaluated our method on remotely sensed images. The results assert the relevance of machine learning as a way to introduce knowledge within the watershed segmentation process

    Watershed Segmentation of Remotely Sensed Images Based on a Supervised Fuzzy Pixel Classification

    No full text
    International audienceRemotely sensed images are more and more precise (spatial resolution under 1 meter). For these images, objects of interest contains several pixels. Generally a segmentation method is used to cluster pixels that belong to the same objects before classification. The quality of such a segmentation method is crucial to achieve good clasification results. In this paper, a new segmentation method is proposed which aims to improve the classical watershed segmentation method based on multispectral gradient. The proposed method uses some labeled samples with classes of interest to induce a new dissimilarity between pixels which defines a new representation space to be used
    corecore