253 research outputs found

    Aide à la décision multicritère pour la prescription de scénarios d'amélioration énergétique via une approche globale

    Get PDF
    We spend most of our lives in buildings. These were built mostly before the oil shocks of 1974 and 1979 and offer both poor energy performances and improvable comfort conditions (thermal, acoustic, natural lighting). In France, with 32 million units and an annual turnover of less than 1% of the existing building stock, the energy renovation of housing becomes a necessity. This, as much for political ends (energy dependence), economic reasons (revival of construction jobs, real-estate valorisation), social reasons (wellbeing of occupants), as environmental reasons (reduction of greenhouse gas emissions). This thesis aims to provide knowledge and a methodology to contribute to the decision support for prescribing efficient energy renovation scenarios of houses built during the 1945-1974 period. Three issues are highlighted in this research work: 1) the integration of an holistic approach of renovation process (systemic and multi-criteria) to avoid not foreseen collateral effects due to bad choices; 2) help formalize the preferences of decision-takers (homeowners) in a format interpretable by multi-criteria analysis tools; 3) integration of uncertainties related to the characterization of existing buildings in the process of scenarios generation and decision support. Through a systemic description of buildings and a multi-criteria performance assessment of formerly identified renovation actions, we propose an innovative methodology, consisted of 6 modular and interchangeable technical sub-models, which aims to automate the generation, assessment, optimization and performance-based ranking of renovation scenarios. The heart of the methodology is based on the formalization of renovation knowledge from construction specialists in two of our six sub-models. The first one is an influence matrix that we use to translate most common renovation goals (equivalent to the wishes expressed by homeowners) into a profile of relative weights and a profile of targeted-levels of performance on indicators modelled. The second one is a probabilistic inference tool (using the technology of bayesian networks) to both optimize assemblies of renovation actions (programming by successive constraints) and achieve multi-criteria evaluation of these assemblies (by the use of aggregation functions of local performances). A sixth and final sub-model uses the ELECTRE outranking methods to sort and classify, by preference order, renovation scenarios previously generated. At last, our methodology provides the ability to let users test their own energy renovation scenarios in order to analyze their multi-criteria performances and compatibility with the characteristics of the existing capitalized during the technical diagnosis of their building. The methodology proposed is intended to be educational and transposable into a functional computer system prototype. A first version was developed and used to apply our decision process to a real case of individual house to renovate. First results obtained are consistent and allow validating the approach. However, keep in mind that like any model using expert knowledge, robustness and validity limit of its scope of application depend on the quality of knowledge work capitalized.Nous passons la majeure partie de notre vie dans des bâtiments. Ces derniers ont été construits, pour la plupart, avant les chocs pétroliers de 1974 et 1979, et offrent une performance énergétique médiocre ainsi que des conditions de confort (thermique, acoustique, éclairement naturel) largement améliorables. En France, avec 32 millions de logements et un taux de renouvellement annuel du parc existant inférieur à 1 %, la rénovation énergétique des logements devient une nécessité. Cela, autant pour des raisons politiques (indépendances énergétiques), économiques (relance des emplois de la construction, valorisation du patrimoine), sociales (bien-être des occupants, lutte contre la précarité), qu'environnementales (diminutions des émissions des gaz à effet de serre). Ce travail de thèse vise à proposer des connaissances ainsi qu'une méthodologie afin de contribuer à l'aide à la décision pour la prescription de scénarios d'amélioration énergétique efficaces des maisons individuelles construites durant la période 1945-1974. Trois problématiques sont mises en avant dans cette recherche. 1) l'intégration de l'approche globale (systémique et multicritère) de la rénovation afin d'éviter des contre-performances collatérales dues à des mauvais choix ; 2) l'aide à la formalisation des préférences des propriétaires-occupants (notre maîtrise d'ouvrage) dans un format interprétable par des outils d'analyses multicritères ; 3) l'intégration des incertitudes liées à la caractérisation des bâtiments existants dans le processus d'élaboration des scénarios et d'aide à la décision. À travers une description systémique des bâtiments et une évaluation multicritères des performances des actions d'amélioration retenues, nous proposons une méthodologie innovante, constituée de 6 sous-modèles techniques modulables et interchangeables, qui vise à automatiser le processus de construction, d'évaluation et de hiérarchisation performantielle de scénarios de rénovation. Le cœur de notre méthodologie est basé sur la formalisation de l'expertise métier des spécialistes du bâtiment dans deux de nos 6 sous-modèles. Le premier est une matrice d'influence permettant de passer des enjeux de rénovation les plus courants (équivalent aux préférences exprimées par la maîtrise d'ouvrage) en profil de poids relatifs et profil de niveaux-cibles de performance sur les indicateurs modélisés. Le second, est un outil d'inférence probabiliste (utilisant la technologie des réseaux bayésiens) permettant à la fois d'optimiser les assemblages d'actions d'amélioration (programmation par contraintes successives) et de réaliser une évaluation multicritère de ces assemblages (par l'usage de fonctions d'agrégation de performances locales). Un sixième et dernier sous-modèle utilise les méthodes de surclassement ELECTRE pour trier et classer les alternatives de rénovation préalablement générées par ordre de préférence. Notre méthodologie offre enfin la possibilité de laisser l'utilisateur tester ses propres scénarios d'amélioration énergétique afin d'analyser leurs performances multicritères et leur compatibilité avec les caractéristiques de l'existant capitalisées lors du diagnostic technique d'une opération. La méthodologie développée se veut pédagogique et transposable dans un prototype d'outil informatique fonctionnel. Une première version a été développée et utilisée pour appliquer notre processus d'aide à la décision à un cas réel de maison individuelle à rénover. Les premiers résultats obtenus sont cohérents et permettent de valider la démarche. Néanmoins, il faut garder à l'esprit que comme tout modèle utilisant des connaissances expertes, sa robustesse et la limite de validité de son périmètre d'application dépendent de la qualité du savoir métier capitalisé

    Aide à la décision multicritère pour la prescription de scénarios d'amélioration énergétique via une approche globale

    No full text
    We spend most of our lives in buildings. These were built mostly before the oil shocks of 1974 and 1979 and offer both poor energy performances and improvable comfort conditions (thermal, acoustic, natural lighting). In France, with 32 million units and an annual turnover of less than 1% of the existing building stock, the energy renovation of housing becomes a necessity. This, as much for political ends (energy dependence), economic reasons (revival of construction jobs, real-estate valorisation), social reasons (wellbeing of occupants), as environmental reasons (reduction of greenhouse gas emissions). This thesis aims to provide knowledge and a methodology to contribute to the decision support for prescribing efficient energy renovation scenarios of houses built during the 1945-1974 period. Three issues are highlighted in this research work: 1) the integration of an holistic approach of renovation process (systemic and multi-criteria) to avoid not foreseen collateral effects due to bad choices; 2) help formalize the preferences of decision-takers (homeowners) in a format interpretable by multi-criteria analysis tools; 3) integration of uncertainties related to the characterization of existing buildings in the process of scenarios generation and decision support. Through a systemic description of buildings and a multi-criteria performance assessment of formerly identified renovation actions, we propose an innovative methodology, consisted of 6 modular and interchangeable technical sub-models, which aims to automate the generation, assessment, optimization and performance-based ranking of renovation scenarios. The heart of the methodology is based on the formalization of renovation knowledge from construction specialists in two of our six sub-models. The first one is an influence matrix that we use to translate most common renovation goals (equivalent to the wishes expressed by homeowners) into a profile of relative weights and a profile of targeted-levels of performance on indicators modelled. The second one is a probabilistic inference tool (using the technology of bayesian networks) to both optimize assemblies of renovation actions (programming by successive constraints) and achieve multi-criteria evaluation of these assemblies (by the use of aggregation functions of local performances). A sixth and final sub-model uses the ELECTRE outranking methods to sort and classify, by preference order, renovation scenarios previously generated. At last, our methodology provides the ability to let users test their own energy renovation scenarios in order to analyze their multi-criteria performances and compatibility with the characteristics of the existing capitalized during the technical diagnosis of their building. The methodology proposed is intended to be educational and transposable into a functional computer system prototype. A first version was developed and used to apply our decision process to a real case of individual house to renovate. First results obtained are consistent and allow validating the approach. However, keep in mind that like any model using expert knowledge, robustness and validity limit of its scope of application depend on the quality of knowledge work capitalized.Nous passons la majeure partie de notre vie dans des bâtiments. Ces derniers ont été construits, pour la plupart, avant les chocs pétroliers de 1974 et 1979, et offrent une performance énergétique médiocre ainsi que des conditions de confort (thermique, acoustique, éclairement naturel) largement améliorables. En France, avec 32 millions de logements et un taux de renouvellement annuel du parc existant inférieur à 1 %, la rénovation énergétique des logements devient une nécessité. Cela, autant pour des raisons politiques (indépendances énergétiques), économiques (relance des emplois de la construction, valorisation du patrimoine), sociales (bien-être des occupants, lutte contre la précarité), qu'environnementales (diminutions des émissions des gaz à effet de serre). Ce travail de thèse vise à proposer des connaissances ainsi qu'une méthodologie afin de contribuer à l'aide à la décision pour la prescription de scénarios d'amélioration énergétique efficaces des maisons individuelles construites durant la période 1945-1974. Trois problématiques sont mises en avant dans cette recherche. 1) l'intégration de l'approche globale (systémique et multicritère) de la rénovation afin d'éviter des contre-performances collatérales dues à des mauvais choix ; 2) l'aide à la formalisation des préférences des propriétaires-occupants (notre maîtrise d'ouvrage) dans un format interprétable par des outils d'analyses multicritères ; 3) l'intégration des incertitudes liées à la caractérisation des bâtiments existants dans le processus d'élaboration des scénarios et d'aide à la décision. À travers une description systémique des bâtiments et une évaluation multicritères des performances des actions d'amélioration retenues, nous proposons une méthodologie innovante, constituée de 6 sous-modèles techniques modulables et interchangeables, qui vise à automatiser le processus de construction, d'évaluation et de hiérarchisation performantielle de scénarios de rénovation. Le cœur de notre méthodologie est basé sur la formalisation de l'expertise métier des spécialistes du bâtiment dans deux de nos 6 sous-modèles. Le premier est une matrice d'influence permettant de passer des enjeux de rénovation les plus courants (équivalent aux préférences exprimées par la maîtrise d'ouvrage) en profil de poids relatifs et profil de niveaux-cibles de performance sur les indicateurs modélisés. Le second, est un outil d'inférence probabiliste (utilisant la technologie des réseaux bayésiens) permettant à la fois d'optimiser les assemblages d'actions d'amélioration (programmation par contraintes successives) et de réaliser une évaluation multicritère de ces assemblages (par l'usage de fonctions d'agrégation de performances locales). Un sixième et dernier sous-modèle utilise les méthodes de surclassement ELECTRE pour trier et classer les alternatives de rénovation préalablement générées par ordre de préférence. Notre méthodologie offre enfin la possibilité de laisser l'utilisateur tester ses propres scénarios d'amélioration énergétique afin d'analyser leurs performances multicritères et leur compatibilité avec les caractéristiques de l'existant capitalisées lors du diagnostic technique d'une opération. La méthodologie développée se veut pédagogique et transposable dans un prototype d'outil informatique fonctionnel. Une première version a été développée et utilisée pour appliquer notre processus d'aide à la décision à un cas réel de maison individuelle à rénover. Les premiers résultats obtenus sont cohérents et permettent de valider la démarche. Néanmoins, il faut garder à l'esprit que comme tout modèle utilisant des connaissances expertes, sa robustesse et la limite de validité de son périmètre d'application dépendent de la qualité du savoir métier capitalisé

    Apprentissage par renforcement pour la généralisation des approches automatiques dans la conception des systèmes de dialogue oral

    Get PDF
    Les systèmes de dialogue homme machine actuellement utilisés dans l industrie sont fortement limités par une forme de communication très rigide imposant à l utilisateur de suivre la logique du concepteur du système. Cette limitation est en partie due à leur représentation de l état de dialogue sous la forme de formulaires préétablis.Pour répondre à cette difficulté, nous proposons d utiliser une représentation sémantique à structure plus riche et flexible visant à permettre à l utilisateur de formuler librement sa demande.Une deuxième difficulté qui handicape grandement les systèmes de dialogue est le fort taux d erreur du système de reconnaissance vocale. Afin de traiter ces erreurs de manière quantitative, la volonté de réaliser une planification de stratégie de dialogue en milieu incertain a conduit à utiliser des méthodes d apprentissage par renforcement telles que les processus de décision de Markov partiellement observables (POMDP). Mais un inconvénient du paradigme POMDP est sa trop grande complexité algorithmique. Certaines propositions récentes permettent de réduire la complexité du modèle. Mais elles utilisent une représentation en formulaire et ne peuvent être appliqués directement à la représentation sémantique riche que nous proposons d utiliser.Afin d appliquer le modèle POMDP dans un système dont le modèle sémantique est complexe, nous proposons une nouvelle façon de contrôler sa complexité en introduisant un nouveau paradigme : le POMDP résumé à double suivi de la croyance. Dans notre proposition, le POMDP maitre, complexe, est transformé en un POMDP résumé, plus simple. Un premier suivi de croyance (belief update) est réalisé dans l espace maitre (en intégrant des observations probabilistes sous forme de listes nbest). Et un second suivi de croyance est réalisé dans l espace résumé, les stratégies obtenues sont ainsi optimisées sur un véritable POMDP.Nous proposons deux méthodes pour définir la projection du POMDP maitre en un POMDP résumé : par des règles manuelles et par regroupement automatique par k plus proches voisins. Pour cette dernière, nous proposons d utiliser la distance d édition entre graphes, que nous généralisons pour obtenir une distance entre listes nbest.En outre, le couplage entre un système résumé, reposant sur un modèle statistique par POMDP, et un système expert, reposant sur des règles ad hoc, fournit un meilleur contrôle sur la stratégie finale. Ce manque de contrôle est en effet une des faiblesses empêchant l adoption des POMDP pour le dialogue dans l industrie.Dans le domaine du renseignement d informations touristiques et de la réservation de chambres d hôtel, les résultats sur des dialogues simulés montrent l efficacité de l approche par renforcement associée à un système de règles pour s adapter à un environnement bruité. Les tests réels sur des utilisateurs humains montrent qu un système optimisé par renforcement obtient cependant de meilleures performances sur le critère pour lequel il a été optimisé.Dialog managers (DM) in spoken dialogue systems make decisions in highly uncertain conditions, due to errors from the speech recognition and spoken language understanding (SLU) modules. In this work a framework to interface efficient probabilistic modeling for both the SLU and the DM modules is described and investigated. Thorough representation of the user semantics is inferred by the SLU in the form of a graph of frames and, complemented with some contextual information, is mapped to a summary space in which a stochastic POMDP dialogue manager can perform planning of actions taking into account the uncertainty on the current dialogue state. Tractability is ensured by the use of an intermediate summary space. Also to reduce the development cost of SDS an approach based on clustering is proposed to automatically derive the master-summary mapping function. A implementation is presented in the Media corpus domain (touristic information and hotel booking) and tested with a simulated user.AVIGNON-Bib. numérique (840079901) / SudocSudocFranceF

    Outils statistiques de traitement d'indicateurs pour le diagnostic et le pronostic des moteurs d'avions

    Get PDF
    Identifying early signs of failures in an industrial complex system is one of the main goals of preventive maintenance.It allows to avoid failure and reduce the degradation on a component by doing an earlier maintenance operation. Health monitoring for aircraft engines is one of the industrial fields for which this anomaly detection is very important and meaningful. Aircraft engine manufacturers such as Snecma collect large amount of engine related data during each flight.The idea is to be able to automatically detect when the engine is deviating from its normal behavior.Thus Snecma is developing applications allowing people to prevent engine failures by detecting early signs of anomaly.This doctoral thesis is introdulcing how the experts' knowledge is used to process this engine related data.This first step has pointed out the difficulties in handling the data whether relating to their storage or relating to processing algorithms themselves.After that, this thesis offers a method to combine experts' knowledge with machine learning processes which follow Snecma needs such as the combination of various informations, error control or the interpretability of diagnostics results.To do that the method is focusing directly on the data from the algorithms developed by the experts themselves.This is done by homogenizing the data and then by merging these data.This step allows for the use of supervised classification algorithms whom goal are to to group the items (here the engines) of a similar nature in the same class without losing the temporal component of the information.The homogenization of the data also allows the use of monitoring applications developed by experts in order to detect anomalies.Before merging the data, a selection algorithm is used. This thesis describes how the selection process allows the monitoring algorithms to calibrate themselves.Moreover, this selection follows the first constraint imposed by Snecma concerning the interpretability of the results.Eventually, the method introduced in this thesis aims at helping Snecma make the anomalies' labels converge for all its users. It also aims at incitating to gather all the data on a single database containing : the raw and the processed data from the engine and the engine related data that could be useful such as the results from experts analysis, etc.Using this database, this thesis can then offer a labelisation tool that can be used to improve selection and classification algorithms.Détecter les signes d'anomalies dans un système complexe est l'un des principaux objectifs de la maintenance préventive dans l'industrie. Cela permet d’éviter une défaillance ou de limiter les dégradations d'un composant en avançant une opération de maintenance. Le \textit{Health Monitoring} des moteurs d'avions fait partie des domaines industriels pour lesquels cette détection d'anomalies est un enjeu fort.Ainsi, les motoristes, tels que Snecma, collectent de grandes quantités de données relatives au moteur durant chaque vol.Il s'agit de détecter automatiquement, à partir de ces données, les cas où un moteur dévie de son comportement normal. Plus précisément, Snecma développe des applications permettant de prévenir les pannes moteurs en détectant les anomalies.Cette thèse présente comment le savoir des experts de Snecma est exploité pour traiter ces données moteurs.Ce premier travail a permis de mettre en avant les difficultés liées aux traitements des données : qu'il s'agisse des difficultés concernant le stockage des données ou bien des difficultés liées à la définition des algorithmes de traitement eux-mêmes. Ensuite, la thèse propose une méthodologie permettant de combiner le savoir expert à des méthodes d'apprentissage automatique tout en respectant les exigences d'un motoriste tel que Snecma. Parmi celles-ci, on peut citer le besoin de fusionner des informations variées, le contrôle des erreurs et l'interprétabilité des résultats de diagnostic. Pour cela, la méthodologie exploite directement les données issues des algorithmes de traitement développées par les experts eux-mêmes. Cela est rendu possible par une nécessaire homogénéisation des données, autrement dit par une mise en forme commune de celles-ci permettant alors de procéder à leur fusion. L'homogénéisation des données rend possible l'utilisation des algorithmes de classification (supervisée) dont le but est de regrouper automatiquement, en classe, les individus (ici les moteurs) de même nature à partir des informations fournies et sans perdre l'information temporelle.L'homogénéisation des données permet également d'exploiter directement les applications de surveillance mises en place par les experts métier pour détecter les anomalies.De cette façon, la méthodologie mise à disposition par la thèse reste compréhensible par les experts métier.Avant de procéder effectivement à la fusion, un algorithme de sélection de variables est utilisé. La thèse décrit comment le processus de sélection permet une calibration automatique des applications de surveillance développées par les experts métier. De plus, cette sélection permet de répondre en partie à la première exigence de Snecma concernant l'interprétabilité des résultats. En définitive, la méthodologie présentée dans cette thèse a pour but d'aider Snecma à faire converger les labels des anomalies pour l'ensemble de ses utilisateurs. Elle vise également à faciliter et à inciter la mise en place d'une seule et même base de données regroupant : d'une part toutes les mesures et leurs transformations prélevées sur les moteurs et d'autre part les informations relatives aux moteurs pouvant être pertinentes telles que les résultats d'analyse des experts ou les dates de changement de pièces.La base de données ainsi exploitable, cette thèse peut alors proposer un outil de labellisation qui pourra être utilisé pour améliorer, à travers la labellisation des données, les algorithmes de sélection et de classification supervisés

    Competitive segmentation of the hippocampus and the amygdala from MRI scans

    Get PDF
    The hippocampus and the amygdala are two brain structures which play a central role in several fundamental cognitive processes. Their segmentation from Magnetic Resonance Imaging (MRI) scans is a unique way to measure their atrophy in some neurological diseases, but it is made difficult by their complex geometry. Their simultaneous segmentation is considered here through a competitive homotopic region growing method. It is driven by relational anatomical knowledge, which enables to consider the segmentation of atrophic structures in a straightforward way. For both structures, this fast algorithm gives results which are comparable to manual segmentation with a better reproducibility. Its performances regarding segmentation quality, automation and computation time, are amongst the best published data.L’hippocampe et l’amygdale sont deux structures cérébrales intervenant dans plusieurs fonctions cognitives fondamentales. Leur segmentation, à partir de volumes d’imagerie par résonance magnétique (IRM), est un outil essentiel pour mesurer leur atteinte dans certaines pathologies neurologiques, mais elle est rendue difficile par leur géométrie complexe. Nous considérons leur segmentation simultanée par une méthode de déformation homotopique compétitive de régions. Celle-ci est guidée par des connaissances anatomiques relationnelles ; ceci permet de considérer directement des structures atrophiées. Rapide, l’algorithme donne, pour les deux structures, des résultats comparables à la segmentation manuelle avec une meilleure reproductibilité. Ses performances, concernant la qualité de la segmentation, le degré d’automatisation et le temps de calcul, sont parmi les meilleures de la littérature

    Segmentation et regroupement en chanteurs. Application aux enregistrements ethnomusicologiques

    Get PDF
    Cette thèse est réalisée dans le cadre du projet ANR CONTINT DIADEMS sur l'indexation de documents ethnomusicologiques sonores. Les données que nous traitons sont fournies par les partenaires ethnomusicologues du projet et elles sont issues des archives du Musée de l'Homme de Paris. Les travaux effectués lors de cette thèse consistent à développer des méthodes permettant de faire une structuration automatique des documents musicaux et ethnomusicologiques basée sur les personnes. Cette thèse aborde le sujet encore inexploré à notre connaissance de la segmentation et du regroupement en chanteurs dans des enregistrements musicaux. Nous proposons un système complet pour ce sujet en s'inspirant des travaux réalisés en segmentation et regroupement en locuteurs. Ce système est conçu pour fonctionner aussi bien sur des enregistrements musicaux de type studio que sur des enregistrements musicaux réalisés dans des conditions terrain. Il permet, tout d'abord, de découper les zones de chant en des segments acoustiquement homogènes, i.e. en groupe de chanteur(s) afin d'avoir une segmentation en tours de chant. Ensuite, une phase de regroupement est effectuée afin de rassembler tous les segments chantés par un même groupe de chanteur(s) dans une seule classe. Notre première contribution est la définition de la notion de " tour de chant " et la proposition de règles d'annotation manuelle d'un enregistrement en des segments de tours de chant. La deuxième est la proposition d'une méthode de paramétrisation de la voix des chanteurs en implémentant une stratégie de sélection de bandes fréquentielles pertinentes basée sur la variance de celles-ci. La troisième est l'implémentation d'un algorithme de segmentation dynamique adapté à un contexte de chant en utilisant le Critère d'Information Bayésien (BIC). La quatrième est la proposition d'une méthode de Décision par Consolidation A Posteriori, nommée DCAP, pour pallier au problème de variabilité du paramètre de pénalité du BIC. En effet, comme le choix a priori d'une valeur optimale de ce paramètre n'est pas possible, nous effectuons un vote majoritaire sur plusieurs sorties de segmentations obtenues avec différentes valeurs de ce paramètre. Des gains d'environ 8% et 15% sont obtenus sur nos deux corpus avec cette méthode par rapport à une valeur standard du paramètre de pénalité. La cinquième est l'adaptation de la méthode DCAP pour la réalisation de l'étape de regroupement en chanteurs.This work was done in the context of the ANR CONTINT DIADEMS project on indexing ethno-musicological audio recordings. The data that we are studying are provided by the Musée de l'Homme, Paris, within the context of this project. The work performed in this thesis consists of developing automatic structuring methods of musical and ethno-musicological documents based on the persons. This thesis touchs on an unexplored subject in our knowledge of the segmentation and clustering in singers of musical recordings. We propose a complete system in this subject that we called singer diarization by analogy with speaker diarization system on speech context. Indeed, this system is inspired from existing studies performed in speaker diarization and is designed to work on studio music recordings as well as on recordings with a variable sound quality (done outdoors). The first step of this system is the segmentation in singer turns which consists of segmenting musical recordings into segments "acoustically homogeneous" by singer group. The second step is the clustering which consists of labelling all segments produced by the same group of singers with a unique identifier. Our first contribution involved the definition of the term " singer turns " and the proposal of rules for manual annotation in singer turns segments. The second consisted in the proposal of a feature extraction method for the characterization of singer voices by implementing a method to select the frequency coefficients, which are the most relevant, based on the variance of these coefficients. The third is the implementation of a dynamic segmentation algorithm adapted to the singing context by using the Bayesian Information Criterion (BIC). The fourth is the proposal of a method, called DCAP, to take a posteriori decisions in order to avoid the variability problem of the BIC penalty parameter. Indeed, a priori choice of an optimal value for this parameter is not possible. This led us to perform a majority voting on a several segmentations obtained with different values of this parameter. A gain of about 8% and 15% is obtained on our two corpora with this method compared to the results found with a standard value of the penalty parameter. The fifth is the adaptation of our DCAP method in order to perform singer clustering step

    Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile.

    Get PDF
    Les êtres humains définissent naturellement leur espace quotidien en unités discrètes. Par exemple, nous sommes capables d'identifier le lieu où nous sommes (e.g. le bureau 205) et sa catégorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux récents en reconnaissance de lieux sémantiques, visent à doter les robots de capacités similaires. Ces unités, appelées "lieux sémantiques", sont caractérisées par une extension spatiale et une unité fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous présentons nos travaux dans le domaine de la reconnaissance de lieux sémantiques. Ces derniers ont plusieurs originalités par rapport à l'état de l'art. Premièrement, ils combinent la caractérisation globale d'une image, intéressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les méthodes basées sur les mots visuels, qui reposent sur la classification non-supervisée de descripteurs locaux. Deuxièmement, et de manière intimement reliée, ils tirent parti du flux d'images fourni par le robot en utilisant des méthodes bayésiennes d'intégration temporelle. Dans un premier modèle, nous ne tenons pas compte de l'ordre des images. Le mécanisme d'intégration est donc particulièrement simple mais montre des difficultés à repérer les changements de lieux. Nous élaborons donc plusieurs mécanismes de détection des transitions entre lieux qui ne nécessitent pas d'apprentissage supplémentaire. Une deuxième version enrichit le formalisme classique du filtrage bayésien en utilisant l'ordre local d'apparition des images. Nous comparons nos méthodes à l'état de l'art sur des tâches de reconnaissance d'instances et de catégorisation, en utilisant plusieurs bases de données. Nous étudions l'influence des paramètres sur les performances et comparons les différents types de codage employés sur une même base.Ces expériences montrent que nos méthodes sont supérieures à l'état de l'art, en particulier sur les tâches de catégorisation.Human beings naturally organize their space as composed of discrete units. Those units, called "semantic places", are characterized by their spatial extend and their functional unity. Moreover, we are able to quickly recognize a given place (e.g. office 205) and its category (i.e. an office), solely on their visual appearance. Recent works in semantic place recognition seek to endow the robot with similar capabilities. Contrary to classical localization and mapping work, this problem is usually tackled as a supervised learning problem. Our contributions are two fold. First, we combine global image characterization, which captures the global organization of the image, and visual words methods which are usually based unsupervised classification of local signatures. Our second but closely related, contribution is to use several images for recognition by using Bayesian methods for temporal integration. Our first model don't use the natural temporal ordering of images. Temporal integration is very simple but has difficulties when the robot moves from one place to another.We thus develop several mechanisms to detect place transitions. Those mechanisms are simple and don't require additional learning. A second model augment the classical Bayesian filtering approach by using the local order among images. We compare our methods to state-of-the-art algorithms on place recognition and place categorization tasks.We study the influence of system parameters and compare the different global characterization methods on the same dataset. These experiments show that our approach while being simple leads to better results especially on the place categorization task.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    Concept lattices : a tool for primitives selection ?

    Get PDF
    In this paper, we present the problem of noisy images recognition and in particular the stage of primitives selection in a classification process. This selection stage appears after segmentation and statistical describers extraction on documentary images are realized. We describe precisely the use of decision tree in order to harmonize and compare it with another less studied method based on a concept lattice.Dans ce papier, nous présentons la problématique de la reconnaissance d'images détériorées et plus particulièrement l'étape de sélection de primitives au sein d'un traitement de classification supervisée. Cette étape de sélection a lieu après que la segmentation et l'extraction des descripteurs statistiques sur des images documentaires aient été réalisées. Nous exposons en détail l'utilisation d'un arbre de décision, afin de l'harmoniser puis la comparer avec une approche moins étudiée utilisant un treillis de Galois

    Etude de stratégies de gestion en temps réel pour des bâtiments énergétiquement performants

    Get PDF
    To reach the objectives of reducing the energy consumption of buildings and decreasing their impact on the electrical grid, it is necessary to elaborate real time control strategies in view of smart grids and demand response programs. In this context, this thesis aims at developing real time control strategies for electric load shifting in energy efficient buildings. First, these strategies require appropriate models regarding weather forecast, occupants' behaviour and building energy simulation. Then, in order to improve the reliability of building energy simulation and to ensure optimal control of facilities, a calibration process of the model based on on-site measurements is recommended. In this way a new methodology was developed , based on a screening technique and a bayesian inference method (approximate bayesian computation). Finally, two optimisation techniques were studied to develop real time control strategies. The first technique was based on offline optimisation methods. The principle is to approximate optimisation results (and more specifically model based predictive controllers results) and to extract simplified control strategies. The second method consisted in using model predictive control and, more precisely, in solving in real time a state and input constrained optimal control problem by interior penalty methods. An actual experimental passive house being part of the INCAS platform built by the National Solar Energy Institute (INES) was used to study by numerical simulation the different strategies developed.Dans l'objectif de réduire les consommations énergétiques des bâtiments et de diminuer leur impact sur le réseau électrique, il est utile de disposer de stratégies de gestion énergétique en temps réel. Il s'agit en effet d'un verrou clé dans la perspective des réseaux intelligents (« smart grids ») et des programmes de gestion de la demande (« demand response »). Cette thèse propose ainsi le développement de stratégies de gestion en temps réel du chauffage électrique d'un bâtiment énergétiquement performant en période de pointe électrique. Tout d'abord, ces stratégies nécessitent l'utilisation et le développement de plusieurs modèles, à savoir un modèle de prévision météorologique, un modèle d'occupation et un modèle énergétique dynamique du bâtiment. Ensuite, dans l'objectif d'un suivi fiable des performances énergétiques et pour un pilotage optimal des installations, le calibrage du modèle de bâtiment à partir de relevés in situ est préférable. Une nouvelle méthodologie, basée sur un criblage des paramètres incertains et sur l'utilisation d'une méthode d'inférence bayésienne (calcul bayésien approché) a ainsi été développée. Enfin, deux méthodes d'optimisation ont été étudiées pour le développement de stratégies de régulation adaptées au temps réel. La première repose sur une méthode d'optimisation hors-ligne dont l'objectif est d'approximer les résultats d'une stratégie optimale calculée par une méthode d'optimisation exacte et ainsi identifier des lois de commandes simplifiées. La deuxième méthode repose quant à elle sur la commande prédictive et l'adaptation au temps réel de la commande optimale sous contraintes d'état et de commande utilisant la pénalisation intérieure. Une maison de la plateforme INCAS de l'Institut National de l'Énergie Solaire (INES) a été utilisée comme cas d'application pour étudier par simulation les différentes stratégies développées

    Classification de symboles avec un treillis de Galois et une représentation par sac de mots

    Get PDF
    National audienceThis paper presents a new approach for graphical symbols recognition by combining a concept lattice with a bag of words representation. Visual words define the properties of a graphical symbol that will be modeled in the Galois Lattice. Indeed, the algorithm of classification is based on the Galois lattice where the intentions of its concepts are the visual words. The use of words as visual primitives allows to evaluate the classifier with a symbolic approach that no longer need the step of the signature discretization to build the Galois Lattice. Our approach is compared to classical approaches without a bag of words and to classical classifiers which are evaluated on different symbols. We show the relevance and the robustness of our approach for graphics recognition.Cet article présente une nouvelle approche pour la reconnaissance de symboles graphiques en combinant un treillis de concepts avec une représentation par sac de mots. Les mots visuels définissent les propriétés représentatives d'un symbole graphique qui seront modélisées dans le treillis de Galois. En effet, l'algorithme de classification est fondé sur le treillis de Galois où les intentions de ses concepts représentent des mots visuels. L'utilisation des mots visuels comme des primitives permet d'évaluer le classifieur avec une approche symbolique qui n'a plus besoin de l' étape de discrétisation primordiale pour la construction du treillis. Notre méthode est comparée aux approches classiques, sans sac de mots et à plusieurs classifieurs usuels, évalués sur différents symboles. Nous montrons la pertinence et la robustesse de notre proposition pour la classification de symboles graphiques
    • …
    corecore