5 research outputs found

    Indexation d'une base de données images : application à la localisation et la cartographie fondées sur des radio-étiquettes et des amers visuels pour la navigation d'un robot en milieu intérieur

    Get PDF
    Ce mémoire concerne les techniques d'indexation dans des bases d'image, ainsi que les méthodes de localisation en robotique mobile. Il fait le lien entre les travaux en Perception du pôle Robotique et Intelligence Artificielle du LAAS-CNRS, et les recherches sur la fouille de données menées à l'Université de Rabat. Depuis une dizaine d'années, la vision est devenue une source de données sensorielles essentielles sur les robots mobiles: elle fournit en particulier des représentations de l'environnement dans lequel doit se déplacer un robot sous la forme de modèles géométriques ou de modèles fondés sur l'apparence. Concernant la vision, seules les représentations fondées sur l'apparence ont été considérées; elles consistent en une base d'images acquises lors de déplacements effectués de manière supervisée durant une phase d'apprentissage. Le robot se localise en recherchant dans la base d'images, celle qui ressemble le plus à l'image courante: les techniques exploitées pour ce faire sont des méthodes d'indexation, similaires à celles exploitées en fouille de données sur Internet par exemple. Nous proposons une approche fondés sur des points d'intérêt extraits d'images en couleur texturées. Par ailleurs, nous présentons une technique de navigation par RFID (Radio Frequency IDentifier) qui utilise la méthode MonteCarlo, appliquée soit de manière intuitive, soit de manière formelle. Enfin, nous donnons des résultats très préliminaires sur la combinaison d'une perception par capteurs RFID et par capteurs visuels afin d'améliorer la précision de la localisation du robot mobile. ABSTRACT : This document is related both to indexing methods in image data bases and to localization methods used in mobile robotics. It exploits the relationships between research works on Perception made in the Robotics department of LAAS-CNRS in Toulouse, and on Data Mining performed by the LIMAIARF lab at the Rabat University. Computer Vision has become a major source of sensory data on mobile robots for about ten years; it allows to build especially representations of the environment in which a robot has to execute motions, either by geometrical maps or by appearance-based models. Concerning computer vision, only appearance-based representations have been studied; they consist on a data base of images acquired while the robot is moved in an interactive way during a learning step. Robot self-localization is provided by searching in this data base, the image which looks like the one acquired from the current position: this function is performed from indexing or data mining methods, similar to the ones used on Internet. It is proposed an indexing method based on interest points extracted from color and textured images. Moreover, geometrical representations are also considered for an RFID-based navigation method, based on particle filtering, used either in a classical formal way or with a more intuitive approach. Finally, very preliminar results are described on a multi-sensory approach using both Vision and RFID tags in order to improve the accuracy on the robot localizatio

    TAARAC : test d'anglais adaptatif par raisonnement Ă  base de cas

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Modélisation probabiliste du style d'apprentissage et application à l'adaptation de contenus pédagogiques indexés par une ontologie

    Get PDF
    Cette thèse s'inscrit dans le cadre général des systèmes d'enseignement adaptatifs. La problématique traitée est l'adaptation de l'activité pédagogique au mode d'apprentissage préféré de l'élève. Les travaux réalisés ont eu pour objectifs de : modéliser les préférences d'apprentissage de l'élève ; modéliser les contenus pédagogiques du domaine à enseigner ; proposer une stratégie d'adaptation qui rapproche les préférences des contenus afin de proposer une méthode pédagogique appropriée. Pour atteindre le premier objectif, la thèse étudie le style d'apprentissage de Felder. Une étude empirique pour établir un modèle de dépendance entre style, pédagogie, et comportement de l'élève a été réalisée. Les résultats ont permis d'établir un modèle de préférences probabiliste. Une méthode en deux étapes pour apprendre ce odèle puis le renforcer est développée. Deux implantations sont proposées : un réseau bayésien et une machine à vecteurs de support. Le contenu quant à lui est modélisé en utilisant une ontologie combinant le domaine, la pédagogie, ainsi que les ressources physiques. Une stratégie d'adaptation structurée sur quatre dimensions est présentée. Celle-ci consiste à rechercher dans le contenu la séquence pédagogique sémantiquement pertinente pour les préférences de l'élève. La recherche s'appuie sur une mesure de similarité sémantique qui est établie. Ce travail a eu un impact sur deux projets européens. En effet, la méthode de production et structuration des contenus, basée sur SCORM, qui est proposée a servi pour le projet UP2UML. L'approche de modélisation de l'élève sert aux recherches sur le profilage dans le projet KPLAB. ABSTRACT : This thesis deals with adaptive teaching systems. The research question is how to adapt pedagogical activities to the prefered learning mode of a student. The scientific objectives are: modelisation of student's learning preferences ; modelisation of adaptive learning contents of a given domain ; establishing an adaptation strategy that maps preferences to contents in order to recommend an appropriate teaching method In order to reach the first objective, the thesis studies the learning style of Felder. An empirical study to derive a dependency model between the style, the pedagogy, and the student behaviour has been conducted. Results led to creating a probabilistic preference model. A two-stage method to learn and reinforce the model is developed. Two implementations are proposed: a bayesian network and an SVM classifier. The content is represented using an ontology that combines the domain, the pedagogy, and the physical resources. An adaptation strategy centered around four dimensions is presented. This consists of searching the content to retrieve the most semantically pertinent pedagogical sequence given the student preferences. The search implements an original semantic similarity measure. This work significantly impacted two European research projects. The production and structuration method designed in this thesis and based on SCORM has been applied in the Leonardo Da Vinci project called UP2UML. The student modeling approche serves currently our research on user profiling in the KPLAB projec

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    De l'identification à la caractérisation des complexes protéiques : développement d'une plateforme bioinformatique d'analyse

    Get PDF
    Un des défis de l’ère post-génomique est de déterminer la fonction des protéines et plus précisément d’établir une cartographie protéomique de la cellule. Ainsi le défi de la génomique fonctionnelle et plus précisément de la protéomique est de comprendre les événements qui ont lieu au cours de la maturation des protéines. Plusieurs approches ont été décrites pour comprendre la fonction des protéines dont les interactions protéiques. Traditionnellement, les études des interactions protéiques étaient basées sur des approches ciblées ou sur des hypothèses d’interactions. Récemment, le développement des analyses à haut débit a généré une quantité impressionnante d’information. Face à l’accumulation des données, une approche uniquement expérimentale n’apparaît plus suffisante. Par conséquent, la création de méthodes bioinformatiques développant des procédures de prospection de données couplées avec des approches expérimentales permettra de prédire les interacteurs in silico. C’est dans cette optique que le laboratoire a développé son projet de recherche sur la famille des poly (ADP-ribose) polymérases (PARPs). La poly(ADP-ribosyl)ation est une modification post-traductionnelle qui consiste en l’ajout d’une chaîne d’ADP-ribose sur des protéines cibles.L’objectif principal de notre étude est de caractériser par des expériences d’immunoprécipitation le rôle dynamique de la poly(ADP-ribosyl)ation. L’identification des interacteurs des PARPs s’effectuera par spectrométrie de masse. Cette technique va générer d’importantes quantités de données et nécessitera une plate-forme d’analyse et de grandes capacités de calcul informatique. Dans ce contexte général, l’objectif de ce travail de thèse était de développer la plateforme bioinformatique d’analyse, d’implémenter les outils d’identifications des protéines, d’établir un contrôle de qualité des méthodes d’identification (spécificité/sensibilité) et enfin d’explorer le contenu des bases de connaissances. A l’aide du système mis en place au sein de la plateforme de protéomique, nous avons identifié de nouvaux interacteurs de la famille des PARPs comme par exemple RFC1, 2, 3, 4, 5.An ambitious goal of proteomics is to elucidate the structure, interactions and functions of all proteins within cells and organisms. In the “post-genome” era, mass spectrometry (MS) has become an important method for the analysis of proteome data. One strategy to determine protein function is to identify protein–protein interactions. The rapid advances made in mass spectrometry in combination with other methods used in proteomics results in an increasing of proteomics projects. The increasing use of high-throughput and large-scale bioinformatics-based studies has generated a massive amount of data stored in a number of different databases. A challenge for bioinformatics is to explore array of information to uncover biologically relevant interactions and pathways. Thus for protein interaction studies, there is clearly a need to develop a systematic and stepwise in silico approach that can predict potential interactors or are most likely to improve our understanding of how complex biological systems work. The focus of our laboratory is the study of the activity of poly(ADP-ribose) polymerases (PARPs) and their role in the cell. Poly(ADP-ribosylation) is a post-synthetic protein modification consisting of long chains of poly(ADP-ribose) (pADPr) synthesized by PARPs at the expense of NAD+. The overall objective of this research is to extensively characterize the dynamic roles of poly(ADP-ribosyl)ation in response to cellular stresses that cause DNA damage. Our approach utilizes immunoprecipitation and affinity purification followed by mass spectrometry identification of associated proteins. One part of this thesis projet is to develop the architecture and major features of a web-based utility tool, which is designed to rationally organize protein and peptide data generated by the tandem mass spectrometry. Next, we have performed benchmarking to optimize protein identification. The system will be expanded as needed in order to make the analysis more efficient. We have also explored the public database information for protein identification data mining. Using the described pipeline, we have successfully identified several interactions of biological significance between PARP and other proteins such as RFC1, 2, 3, 4, 5
    corecore