65 research outputs found

    Algorithme d'apprentissage séquentiel pour la méthode KFD Relations avec la méthode KPCA

    Get PDF
    Durant la décennie précédente, de multiples méthodes pour l'analyse et la classification de données fondées sur la théorie des espaces de Hilbert à noyau reproduisant ont été développées. Elles reposent sur le principe fondamental du kernel trick, initialement mis en oeuvre par Vapnik dans le cadre des Support Vector Machines. Celui-ci permet d'étendre au cas non-linéaire des traitements initialement linéaires en utilisant la notion de noyau. La méthode Kernel Fisher Discriminant, nommée KFD, constitue ainsi une généralisation non-linéaire de l'analyse discriminante de Fisher. Bien que son efficacité soit indiscutable, on déplore le fait que sa mise en oeuvre nécessite le stockage et la manipulation de matrices de dimension égale au nombre de données traitées, point critique lorsque l'ensemble d'apprentissage est de grande taille. Cet article présente un algorithme séquentiel palliant cette difficulté puisqu'il ne nécessite, ni la manipulation, ni même le stockage de telles matrices. Dans un second temps, un parallèle est proposé entre KFD et KPCA, acronyme de Kernel Principal Component Analysis, cette dernière méthode constituant une extension au cas non-linéaire de l'analyse en composantes principales. Les points communs exhibés permettent de proposer un algorithme itératif pour celle-ci également. Il présente de fait des similitudes marquées avec celui dédié à KFD

    Filtrage ensembliste multi-hypothèse sur des données intervalles : Application à la localisation

    Get PDF
    Le filtrage particulaire est une méthode utilisée pour l'estimation d'état des systèmes dynamiques. L'un des inconvénients majeurs de ce type de filtrage est la nécessité d'utiliser un grand nombre de particules pour explorer les régions de forte vraisemblance et éviter ainsi une divergence éventuelle du filtre. Dans cet article, nous proposons un algorithme hybride basé simultanément sur le filtrage particulaire et l'analyse par intervalles. La méthode proposée permet de réduire significativement le nombre de particules par rapport au filtrage particulaire classique et de répondre ainsi aux applications temps réel. Des résultats sur un problème de localisation d'un mobile montrent l'utilité et l'efficacité de la méthode proposée

    Prédiction de la fibrillation atriale à l'aide des signaux physiologiques

    Get PDF
    International audienceLa fibrillation atriale est une maladie du cœur qui se caractérise par une irrégularité des battements cardiaques pouvant causer d'autres complications comme un arrêt cardiaque ou la démence. Le but de cette étude est de prédire la survenue de la fibrillation atriale en se basant sur des signaux physiologiques mesurables à l'aide de capteurs non-invasifs. L'approche utilisée consiste à commencer par extraire des caractéristiques des signaux puis de construire une règle de décision en se basant sur la théorie des fonctions de croyances. Les données physiologiques ont été fournies par la base médicale MIMIC III. Le classifieur obtenue a prédit l'occurrence de la maladie avec une précision de 70,49%, une sensibilité de 77.07% et une spécificité de 63.9%

    Localisation of an Unknown Number of Land Mines Using a Network of Vapour Detectors

    Get PDF
    We consider the problem of localising an unknown number of land mines using concentration information provided by a wireless sensor network. A number of vapour sensors/detectors, deployed in the region of interest, are able to detect the concentration of the explosive vapours, emanating from buried land mines. The collected data is communicated to a fusion centre. Using a model for the transport of the explosive chemicals in the air, we determine the unknown number of sources using a Principal Component Analysis (PCA)-based technique. We also formulate the inverse problem of determining the positions and emission rates of the land mines using concentration measurements provided by the wireless sensor network. We present a solution for this problem based on a probabilistic Bayesian technique using a Markov chain Monte Carlo sampling scheme, and we compare it to the least squares optimisation approach. Experiments conducted on simulated data show the effectiveness of the proposed approach

    Reducing the environmental impact of surgery on a global scale: systematic review and co-prioritization with healthcare workers in 132 countries

    Get PDF
    Abstract Background Healthcare cannot achieve net-zero carbon without addressing operating theatres. The aim of this study was to prioritize feasible interventions to reduce the environmental impact of operating theatres. Methods This study adopted a four-phase Delphi consensus co-prioritization methodology. In phase 1, a systematic review of published interventions and global consultation of perioperative healthcare professionals were used to longlist interventions. In phase 2, iterative thematic analysis consolidated comparable interventions into a shortlist. In phase 3, the shortlist was co-prioritized based on patient and clinician views on acceptability, feasibility, and safety. In phase 4, ranked lists of interventions were presented by their relevance to high-income countries and low–middle-income countries. Results In phase 1, 43 interventions were identified, which had low uptake in practice according to 3042 professionals globally. In phase 2, a shortlist of 15 intervention domains was generated. In phase 3, interventions were deemed acceptable for more than 90 per cent of patients except for reducing general anaesthesia (84 per cent) and re-sterilization of ‘single-use’ consumables (86 per cent). In phase 4, the top three shortlisted interventions for high-income countries were: introducing recycling; reducing use of anaesthetic gases; and appropriate clinical waste processing. In phase 4, the top three shortlisted interventions for low–middle-income countries were: introducing reusable surgical devices; reducing use of consumables; and reducing the use of general anaesthesia. Conclusion This is a step toward environmentally sustainable operating environments with actionable interventions applicable to both high– and low–middle–income countries

    Learning methods for multi-label classification

    No full text
    La classification multi-label est une extension de la classification traditionnelle dans laquelle les classes ne sont pas mutuellement exclusives, chaque individu pouvant appartenir à plusieurs classes simultanément. Ce type de classification est requis par un grand nombre d applications actuelles telles que la classification d images et l annotation de vidéos. Le principal objectif de cette thèse est la proposition de nouvelles méthodes pour répondre au problème de classification multi-label. La première partie de cette thèse s intéresse au problème d apprentissage multi-label dans le cadre des fonctions de croyance. Nous développons une méthode capable de tenir compte des corrélations entre les différentes classes et de classer les individus en utilisant le formalisme de représentation de l incertitude pour les variables multi-valuées. La deuxième partie aborde le problème de l édition des bases d apprentissage pour la classification multi-label. Nous proposons un algorithme basé sur l approche des k-plus proches voisins qui permet de détecter les exemples erronés dans l ensemble d apprentissage. Des expérimentations menées sur des jeux de données synthétiques et réelles montrent l intérêt des approches étudiées.Multi-label classification is an extension of traditional single-label classification, where classes are not mutually exclusive, and each example can be assigned by several classes simultaneously . It is encountered in various modern applications such as scene classification and video annotation. the main objective of this thesis is the development of new techniques to adress the problem of multi-label classification that achieves promising classification performance. the first part of this manuscript studies the problem of multi-label classification in the context of the theory of belief functions. We propose a multi-label learning method that is able to take into account relationships between labels ant to classify new instances using the formalism of representation of uncertainty for set-valued variables. The second part deals withe the problem of prototype selection in the framework of multi-label learning. We propose an editing algorithm based on the k-nearest neighbor rule in order to purify training dataset and improve the performances of multi-label classification algorithms. Experimental results on synthetic and real-world datasets show the effectiveness of our approaches.COMPIEGNE-BU (601592101) / SudocSudocFranceF

    Contribution of different uncertainty theories to multi-label classification

    No full text
    COMPIEGNE-BU (601592101) / SudocSudocFranceF

    Optimisation de critères de contraste et des performances en détection

    No full text
    Les approches classiques de la théorie statistique de la décision conduisent au résultat fondamental que le test optimum consiste à comparer le rapport de vraisemblance à un seuil. Dans de nombreuses applications, l'implémentation d'un tel test peut s'avérer impossible, une spécification incomplète des lois de vraisemblance constituant une raison couramment rencontrée. En conséquence, on est parfois amené à reconsidérer la procédure d'élaboration d'un détecteur, en particulier en sélectionnant un critère de performance dont l'optimisation est aisée. Dans ce contexte, les critères de contraste constituent une solution souvent adoptée. L'objectif de cet article est de présenter une condition nécessaire et suffisante permettant d'identifier les critères de contraste garantissant une solution optimale au sens des théories statistiques classiques de la décision. Ce résultat est illustré par l'analyse de la pertinence de critères de contraste classiques tels que le rapport-signal-sur-bruit généralisé

    A sequential approach for multi-class discriminant analysis with kernels

    No full text
    International audienceLinear discriminant analysis (LDA) is a standard statistical tool for data analysis. Recently, a method called generalized discriminant analysis (GDA) has been developed to deal with nonlinear discriminant analysis using kernel functions. Difficulties for the GDA method can arise in the form of both computational complexity and storage requirements. We present a sequential algorithm for GDA avoiding these problems when one deals with large numbers of datapoints

    Object Tracking Using Adaptive Covariance Descriptor and Clustering-Based Model Updating for Visual Surveillance

    No full text
    International audienceWe propose a novel approach for tracking an arbitrary object in video sequences for visual surveillance. The first contribution of this work is an automatic feature extraction method that is able to extract compact discriminative features from a feature pool before computing the region covariance descriptor. As the feature extraction method is adaptive to a specific object of interest, we refer to the region covariance descriptor computed using the extracted features as the adaptive covariance descriptor. The second contribution is to propose a weakly supervised method for updating the object appearance model during tracking. The method performs a mean-shift clustering procedure among the tracking result samples accumulated during a period of time and selects a group of reliable samples for updating the object appearance model. As such, the object appearance model is kept up-to-date and is prevented from contamination even in case of tracking mistakes. We conducted comparing experiments on real-world video sequences, which confirmed the effectiveness of the proposed approaches. The tracking system that integrates the adaptive covariance descriptor and the clustering-based model updating method accomplished stable object tracking on challenging video sequences
    corecore