121 research outputs found

    Classification in pattern recognition. New tools to adapt a system to its environment

    Get PDF
    This paper presents a new theoretic tool based on Information Theory, the main interest of which is to acutely evaluate the classification tools . The particular nature of real-world objects recognition involves us to design systems based on multi-points of view approaches . The fusion stage has to adapt itself to the environment . We show that neural networks allow to learn the fusion function, optimized to the data and the structure of the composite system . The performance of a composite recognition system is closed to the partition of the available information on each classification tools . A Genetic algorithm is designed to adapt the parameters space partition with the set of classification tools among the quality of the composite system, genetic algorithm .Cet article présente un nouvel outil théorique fondé sur la Théorie de l'information afin de réaliser une évaluation d'un outil de classement plus fine que les mesures classiques. Nous travaillons dans le cadre de la Reconnaissance d'objets naturels complexes et compliqués. La nature même du problème incite à travailler à l'aide d'une approche multi-points de vue décisionnels, fusionnés de façon adaptative. Nous montrons que les réseaux connexionnistes permettent l'apprentissage d'une fonction de fusion optimisée selon la nature du problème et la structure du Système de Reconnaissance. Nous montrons aussi que la répartition de l'information sur chaque outil de classement contribue à une meilleure reconnaissance. Une approche de type génétique est alors conçue pour adapter la partition de l'espace des paramètres relativement à l'ensemble des outils disponibles

    Design d'expérimentation interactif : aide à la compréhension de systèmes complexes

    Get PDF
    Ce mémoire propose des outils de design d'expérimentations ayant pour but d'aider un analyste dans son investigation d'un système complexe. Les méthodes présentées se divisent en trois groupes, l'exploration, l'optimisation et l'approximation. Les trois ensembles répondent chacun à un besoin particulier lors de l'analyse de système complexe. L'exploration permet de disperser uniformément une collection d'expériences dans l'espace des paramètres du problème. L'optimisation, pour sa part, donne la possibilité de trouver les combinaisons de paramètres optimales du problème. L'approximation, quant à elle, octroie la possibilité d'estimer le résultat de combinaisons de facteurs dont la réponse est inconnue ou difficile à obtenir. Mises ensemble, ces méthodes forment le design d'expérimentation interactif. Elles permettent à un analyste d'obtenir, par le biais de méthodes éprouvées, une information détaillée sur le système étudié

    Modélisation multi-échelles de réservoir et calage d'historique de production

    Get PDF
    In this manuscript, we propose two multiscale algorithms for the simulation of geological reservoir models.The first algorithm is based on two-points statistics methods. It is based upon the sequential Gaussian simulation with a secondary variable. In our multiscale approach, the scale of the secondary variable is considered as a second scale of coarser resolution. It represents the trend or the average of the primary variable. In the context of history-matching, it can be shown that adjusting the properties of the geological model at the coarse scale is more effective than doing the same at the fine scale provided a suitable parameterization technique is used. Our method holds for both continuous and discrete variables. The second algorithm is rooted in texture synthesis techniques developed in computer graphics and modified to cope with reservoir simulation. This is a multipoint simulation algorithm. As such, it requires the use of a training image. It permits to simulates complex geological objects like channels or networks of fractures. However, as all multipoint algorithms, it requires significant computation times. We show how the introduction of an intermediate scale reduces the computation time and improves the reproduction of large structures. We also test two techniques to further reduce the computation time: the partial scan of the training image and the preliminary organization of the information extracted from this image.Dans cette thèse, nous proposons deux algorithmes multi-échelles pour la simulation de modèles géologiques de réservoir. Le premier algorithme relève des méthodes géostatistiques à deux points. Il s'agit d'une simulation séquentielle Gaussienne avec variable secondaire. Dans notre approche multi-échelle, la variable secondaire est supposée connue à une deuxième échelle, de résolution plus grossière. Elle représente alors la tendance ou moyenne de la variable principale. A partir d'une paramétrisation adéquate, on montre que le calage des propriétés du modèle géologique à l'échelle grossière est plus efficace que le calage de ces mêmes propriétés à l'échelle fine. Notre méthode est applicable aux variables continues et aux variables discrètes.Le deuxième algorithme est une adaptation d'un algorithme de synthèse de texture aux problèmes de réservoir. C'est un algorithme de simulation multipoints qui nécessite l'utilisation d'une image d'entrainement. Il permet de reproduire des objets géologiques de formes complexes comme des chenaux ou des réseaux de fractures. Comme tous les algorithmes multipoints, il requiert des temps de calcul important. Nous montrons alors comment l'introduction d'une échelle intermédiaire permet de diminuer ce temps de calcul et d'améliorer la reproduction des grandes structures. Nous testons deux techniques pour diminuer davantage encore le temps de calcul : le scan partiel de l'image d'entrainement ou l'organisation des informations extraites de cette même image

    Algorithme génétique spécifique à l'analyse de la susceptibilité à l'hypertension de la population du Saguenay-Lac-Saint-Jean

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    Approche de prédiction par télésurveillance à base de Data Mining

    Get PDF
    Following the technological evolution, in particular the mobile approach, scientific research has been oriented towards the exploitation of these advances for remote predictive decision support. A major interest of researchers has had a great impact in the medical field because of its very positive influence for the care of the patient aimed at its assistance and the reduction of cases of death due to follow-up and the problem of time of treatment. emergency action. This is how telemedicine has become an issue of great importance, it is based on the manipulation and analysis of a large volume of medical data. The aim of this thesis is firstly to exploit a new approach to data analysis, namely Symbiotic Organisms Search (SOS) for Data Mining for data classification, and secondly, to propose improvements to this metaheuristic. This improvement relies on the integration of speed in SOS as a new parameter to explore the search space efficiently and avoiding premature convergence. We also develop a conceptual and practical architecture for applied telemedicine for decision support for the knowledge of the type of breast cancer (benign or malignant). This study allowed us to achieve excellent results and findings in terms of data classification

    Conception optimale d'un alternateur de faible puissance pour le simulateur de groupe turbine-alternateur d'Hydro-Québec

    Get PDF
    Dans le présent mémoire, un outil de conception optimale est développé puis utilisé pour la conception d'un alternateur de faible puissance faisant partie d'un simulateur analogique de groupe turbine/alternateur. L'outil de conception inclut une étape de validation, par la méthode des éléments finis, des performances aussi bien en régime permanent que dynamique du concept élaboré. Une revue de littérature complète est d'abord présentée avant de passer à une discussion théorique sur les notions fondamentales relatives au calcul électromagnétique. Une méthodologie de conception, basée sur un modèle analytique est développée pour les besoins de ce travail. Dans ce modèle analytique, les paramètres du circuit équivalent en régime permanent et le rendement de la machine sont calculés à partir des caractéristiques dimensionnelles et structurales de la machine. Le modèle analytique est ensuite intégré dans un processus d'optimisation multi-objets par algorithme génétique dont on a entrepris l'étude complète. L'outil d'analyse par éléments finis est tout d'abord programmé sous ANSYS puis appliqué à l' étude d'une génératrice synchrone de 120V A de la marque Lab-Volt disponible aux laboratoires de l'UQAT. La validité de cet outil est vérifiée par une très bonne concordance entre les résultats expérimentaux et numériques. Par la suite, l'outil de conception optimale est programmé sous Maltab® puis utilisé pour l'optimisation du rendement et de la masse de l'alternateur du simulateur. Un ensemble de solutions d'optimalité équivalente est dégagé et la solution à plus haut rendement est retenue comme concept final. Ce concept est ensuite validé par des analyses par éléments finis en régime permanent et dynamique et certains résultats sont comparés aux données du modèle analytique. La marge d'erreur à ce niveau s'avère tout à fait acceptable

    Développement de méthodes statistiques nécessaires à l'analyse de données génomiques (application à l'influence du polymorphisme génétique sur les caractéristiques cutanées individuelles et l'expression du vieillissement cutané.)

    Get PDF
    Les nouvelles technologies développées ces dernières années dans le domaine de la génétique ont permis de générer des bases de données de très grande dimension, en particulier de Single Nucleotide Polymorphisms (SNPs), ces bases étant souvent caractérisées par un nombre de variables largement supérieur au nombre d'individus. L'objectif de ce travail a été de développer des méthodes statistiques adaptées à ces jeux de données de grande dimension et permettant de sélectionner les variables les plus pertinentes au regard du problème biologique considéré. Dans la première partie de ce travail, un état de l'art présente différentes méthodes de sélection de variables non supervisées et supervisées pour 2 blocs de variables et plus. Dans la deuxième partie, deux nouvelles méthodes de sélection de variables non supervisées de type "sparse" sont proposées : la Group Sparse Principal Component Analysis (GSPCA) et l'Analyse des Correspondances Multiples sparse (ACM sparse). Vues comme des problèmes de régression avec une pénalisation group LASSO elles conduisent à la sélection de blocs de variables quantitatives et qualitatives, respectivement. La troisième partie est consacrée aux interactions entre SNPs et dans ce cadre, une méthode spécifique de détection d'interactions, la régression logique, est présentée. Enfin, la quatrième partie présente une application de ces méthodes sur un jeu de données réelles de SNPs afin d'étudier l'influence possible du polymorphisme génétique sur l'expression du vieillissement cutané au niveau du visage chez des femmes adultes. Les méthodes développées ont donné des résultats prometteurs répondant aux attentes des biologistes, et qui offrent de nouvelles perspectives de recherches intéressantesNew technologies developed recently in the field of genetic have generated high-dimensional databases, especially SNPs databases. These databases are often characterized by a number of variables much larger than the number of individuals. The goal of this dissertation was to develop appropriate statistical methods to analyse high-dimensional data, and to select the most biologically relevant variables. In the first part, I present the state of the art that describes unsupervised and supervised variables selection methods for two or more blocks of variables. In the second part, I present two new unsupervised "sparse" methods: Group Sparse Principal Component Analysis (GSPCA) and Sparse Multiple Correspondence Analysis (Sparse MCA). Considered as regression problems with a group LASSO penalization, these methods lead to select blocks of quantitative and qualitative variables, respectively. The third part is devoted to interactions between SNPs. A method employed to identify these interactions is presented: the logic regression. Finally, the last part presents an application of these methods on a real SNPs dataset to study the possible influence of genetic polymorphism on facial skin aging in adult women. The methods developed gave relevant results that confirmed the biologist's expectations and that offered new research perspectives.PARIS-CNAM (751032301) / SudocSudocFranceF

    Optimisation de la réhabilitation hydraulique et structurale des réseaux d'égout

    Get PDF
    La réhabilitation des réseaux d’égout est un problème à la fois complexe et coûteux. Par le passé, la réhabilitation n’était réalisée que pour un dysfonctionnement majeur et donc sur une base d’urgence. La planification de la réhabilitation des réseaux d'égouts qui sont le siège de refoulements, voire de débordements et inondations intempestives, nécessite le développement d’outils qui intègrent de nombreux facteurs et paramètres influençant l’état des conduites d’égout. C’est dans ce contexte que nous avons réalisé cette thèse qui a pour thème le développement d’outils permettant la planification et l’optimisation de la réhabilitation des réseaux d’égout. Dans un premier travail, un schéma de priorisation des tronçons d'égout pour la réhabilitation a été élaboré. Un système expert flou a été appliqué en utilisant les entrées d'une évaluation combinée des performances hydraulique, structurale ainsi que les conséquences de défaillances potentielles. L’indice de performance structurale globale est calculé à l’aide d’un système basé sur la logique floue en utilisant les conditions internes et externes de la conduite ainsi que la vulnérabilité du site. Le système flou hydraulique calcule un indice de performance hydraulique globale en ayant pour entrées la performance hydraulique, l’impact de la performance hydraulique et la vulnérabilité du site. L’indice de performance hydraulique est calculé en utilisant une modélisation globale à l’amont de chaque tronçon, ce qui permet de tenir compte des eaux perdues par inondation à l’amont du tronçon considéré. Le système flou global utilise tous ces facteurs pour calculer les indices de performance globale des conduites du réseau d’égout. Dans un deuxième travail, les indices de performances structurales établis à l’aide d’un système flou ont été intégrés dans un programme d’optimisation tout en considérant les niveaux de perturbation des techniques de réhabilitation et les coûts associés à la maintenance. Une procédure d'optimisation basée sur la programmation linéaire binaire est ensuite utilisée pour sélectionner la méthode de réhabilitation la plus appropriée pour chaque section, parmi les méthodes possibles pour améliorer l'ensemble des aspects de performance du réseau d'égout. Dans un troisième travail, une nouvelle approche d’évaluation de la performance hydraulique des conduites d’égout est proposée. Un problème d’optimisation multi-objectif qui considère les performances hydraulique et structurale à maximiser a été élaboré. Ainsi, la résolution du problème fournit au gestionnaire une solution optimale qui minimise l’écart global des performances structurale et hydraulique avec un niveau de performance ciblé tout en respectant le budget alloué. Le « Goal Programming » a été utilisé comme méthode de résolution du problème multi-objectif. Enfin, les outils de planification de la réhabilitation proposés ont été validés par des études de cas et leurs résultats se sont avérés concluants
    • …
    corecore