25 research outputs found

    Intégration holistique et entreposage automatique des données ouvertes

    Get PDF
    Statistical Open Data present useful information to feed up a decision-making system. Their integration and storage within these systems is achieved through ETL processes. It is necessary to automate these processes in order to facilitate their accessibility to non-experts. These processes have also need to face out the problems of lack of schemes and structural and sematic heterogeneity, which characterize the Open Data. To meet these issues, we propose a new ETL approach based on graphs. For the extraction, we propose automatic activities performing detection and annotations based on a model of a table. For the transformation, we propose a linear program fulfilling holistic integration of several graphs. This model supplies an optimal and a unique solution. For the loading, we propose a progressive process for the definition of the multidimensional schema and the augmentation of the integrated graph. Finally, we present a prototype and the experimental evaluations.Les statistiques présentes dans les Open Data ou données ouvertes constituent des informations utiles pour alimenter un système décisionnel. Leur intégration et leur entreposage au sein du système décisionnel se fait à travers des processus ETL. Il faut automatiser ces processus afin de faciliter leur accessibilité à des non-experts. Ces processus doivent pallier aux problèmes de manque de schémas, d'hétérogénéité structurelle et sémantique qui caractérisent les données ouvertes. Afin de répondre à ces problématiques, nous proposons une nouvelle démarche ETL basée sur les graphes. Pour l'extraction du graphe d'un tableau, nous proposons des activités de détection et d'annotation automatiques. Pour la transformation, nous proposons un programme linéaire pour résoudre le problème d'appariement holistique de données structurelles provenant de plusieurs graphes. Ce modèle fournit une solution optimale et unique. Pour le chargement, nous proposons un processus progressif pour la définition du schéma multidimensionnel et l'augmentation du graphe intégré. Enfin, nous présentons un prototype et les résultats d'expérimentations

    Un système data mining en ligne pour la maintenance ontologique d'une mémoire corporative DM

    Get PDF
    L'intégration de la connaissance dans la mémoire corporative (Ribière et Matta, 1998), (Dieng et al., 1998) fait face à l'hétérogénéité des données (Visser, Jones et al., 1997). L'utilisation de l'ontologie est une approche possible pour surmonter ce problème. Cependant, l'ontologie est une structure de donnée comme n'importe quelle structure informatique, elle est donc dynamique et évolue dans le temps à cause des conditions dynamiques résultant des changements du domaine conceptuel, les changements de conceptualisation, les changements de spécification, les changements descendants, etc. (Yildiz, 2006). Ces dernières années, plusieurs approches ont été proposées pour résoudre le problème de la maintenance des ontologies. Cependant, la précision et le rappel ne permettent pas de satisfaire les besoins des utilisateurs. De plus, ces approches ne prennent pas en compte toute l'information disponible pour prendre une décision réaliste. Pour résoudre le problème de l'évolution de la connaissance dans les ontologies, nous proposons une approche hybride qui utilise l'apprentissage machine et un processus d'alignement qui contrôle les relations syntaxiques entre les entrées dans l'ontologie. De plus, des règles structurelles et des heuristiques sont appliquées pour améliorer le degré de similitude entre les entités ontologiques. Ce processus hybride crée des règles de correspondance qui définissent comment transformer les entrées dans l'ontologie en définissant tous les types d'associations possibles entre les entités ontologiques. L'approche d'enrichissement de l'ontologie exploite les techniques de la fouille de données, les techniques du traitement automatique du langage naturel et la recherche d'information pour améliorer la performance d'apprentissage durant la tâche d'enrichissement du domaine conceptuel. L'évaluation des ontologies demeure un problème important et le choix d'une approche appropriée dépend des critères utilisés. Dans notre approche, nous adoptons la vérification de la cohérence décrite dans (Maziar Amirhosseini et al., 2011) et (Abderrazak et al., 2011).\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Data Mining, Traitement automatique du langage naturel, Apprentissage machine, Recherche d'information, Intégration, Ontologie, Mémoire corporative, Web sémantique

    Aide à la conception de Système d'Information Collaboratif , support de l'interopérabilité des entreprises

    Get PDF
    Dans un contexte de collaboration industrielle ou inter-organisationnelle, la qualité de l'intégration des différents partenaires dépend grandement de la capacité de leurs systèmes d'information (SI) à interagir efficacement. C'est pourquoi nous proposons dans ce manuscrit d'aborder cette problématique selon l'angle de l'interopérabilité des systèmes d'information. Dans notre approche, l'interopérabilité des SI des partenaires s'appuie conceptuellement sur deux caractéristiques : (i) la faculté de ces SI à se conformer à une orientation services (SOA pour Service-Oriented Architecture) et (ii) le positionnement au sein du réseau de partenaires d'un système d'information médiateur destiné à assurer l'intégration du "système de systèmes" ainsi créé. Ces travaux de thèse traitent précisément de la conception de ce médiateur selon une démarche MDA (Model Driven Architecture). Notre approche consiste à étudier la traduction d'un modèle des besoins situé au niveau "métier" en un modèle d'architecture spécifique situé au niveau "logique". Pour cela, nous allons considérer que la connaissance contenue dans un modèle de processus collaboratif (formalisé en BPMN, au niveau CIM de l'approche MDA) pourrait permettre d'alimenter une démarche de modélisation de ce SI médiateur (formalisé en UML, au niveau PIM de l'approche MDA). Ce travail comporte et après avoir exposé les fondements théoriques de ces propositions, une présentation des principes de traduction de ces modèles, ainsi que les règles de transformation qui les concrétisent. Enfin, la maquette outil logiciel supportant cette démarche et permettant d'assurer cette modélisation du médiateur a été réalisée. ABSTRACT : In a collaborative context, the integration of industrial partners deeply depends of the ability of their Information Systems (IS) to interact efficiently. In this document we propose to tackle this point according to the point of view of IS interoperability. Interoperability of partners' IS is based on two main aspects: (i) the fact that partners' IS respect SOA (Service-Oriented Approach) concepts and (ii) the support of a Mediation Information System (MIS) able to put IS together in one single merging System of Systems (SoS). We propose to design such a MIS according to MDA (model-Driven Approach) principles. We aim at using business model (the needs) to design a logical model of a solution (logical architecture). The business model is a collaborative business model (in BPMN, at the CIM level), while the logical model is a MIS model (using UML, at the PIM level). This document presents the theoretical aspects of this subject, the mechanisms of transformation and the dedicated translation rules. Finally, we show the prototype of a demonstration tool embedding the transformation rules and running those principle

    Propositions de méthodologies pour la valorisation de la médecine traditionnelle fondées sur une ontologie

    Get PDF
    The work presented in this thesis focuses on the problematic of the valorization of traditional medicine. Traditional medicine is a very rich biological andcultural diversity. His practise is widespread and occurs in various forms. The valorization of this medicine is now a very important issue; it will capitalize this knowledge to popularize, and thus improve its performance in terms of diagnosis, treatment and cost. World Health Organization (WHO)proposes its integration into the national health system. But the practice and exercise of this medicine face many problems which make its implementation difficult. Among these problems, we can list the informal nature of its practice, its content is not formalized, its access mode is not determined, etc. We propose in this thesis, practices more efficient based on the new technology of information and communications; they based specifically on semantic resource such as the ontology which is the formal structure of an acquaintance. The methods proposed in this thesis allow to formalize the contents of this medicine, to facilitate its exercise and ultimately to succeed its revalorization.Le travail présenté dans cette thèse porte sur la problématique de la valorisation de la médecine traditionnelle. La médecine traditionnelle est d’une diversité biologique et culturelle très riche. Sa pratique est très répandue et se fait sous des formes variées . La valorisation de cette médecine constitue aujourd’hui un enjeu très important ; elle permettra de capitaliser ce savoir, de le vulgariser, et donc d’améliorer ses prestations en termes de diagnostic, de traitement et de coût. L’Organisation Mondiale de la Santé (OMS) propose, du reste, de l’intégrer dans le système national de santé. Mais la pratique et l’exercice de cette médecine rencontrent de nombreux problèmes qui rendent son application difficile. Parmi ces problèmes, nous pouvons relever le caractère informel de sa pratique, son contenu non formalisé, son mode d’accès non déterminé, etc. Nous proposons, dans cette thèse, des techniques de pratiques plus efficaces puisque basées sur les nouvelles technologies de l’information et de la communication ; celles-ci reposent plus spécifiquement sur la ressource sémantique telle que l’ontologie qui est la structuration formelle d’une connaissance. Les méthodes proposées dans cette thèse permettent de formaliser le contenu de cette médecine, pour en faciliter l’exercice et en définitive, pour aboutir à sa revalorisation

    Ontologies, web sémantique et elearning : vers la composition automatique des objets d'apprentissage fondée sur les ontologies et les théories pédagogiques

    Get PDF
    Un des grands défis de l'apprentissage en ligne est la difficulté de composition des scénarios de formation à partir des objets d'apprentissages sémantiquement référencés pour répondre aux besoins spécifiques de formation. Un tel travail demande l'acquisition des connaissances du domaine qui repose généralement sur des experts humains du domaine et sur un processus d'explicitation de leurs connaissances. Il en est de même pour les principes devant guider la composition des scénarios afin de garantir leur qualité (valeurs pédagogiques). Répondre rapidement à ces besoins d'apprentissage par la proposition d'un contenu approprié ainsi qu'un cheminement d'apprentissage efficace et pédagogiquement valide est une nécessité, tant dans la formation classique en ligne que dans la formation en milieu industriel. L'offre d'une solution permettant d'atteindre un tel objectif contribuerait à une économie de coûts liés à la formation. Ce mémoire rend compte d'un travail visant à proposer une solution novatrice pour générer un contenu sur mesure (selon un besoin précis) et ainsi qu'un parcours pédagogiquement valide de celui-ci. La méthode s'appuie essentiellement sur une ontologie du domaine pour sélectionner les éléments de contenus appropriés (ou objets d'apprentissage) et sur un ensemble de principes pédagogiques explicites pour les structurer. Après un état de l'art conséquent qui met en perspectives l'ensemble des domaines en jeu (elearning, web sémantique et ingénierie ontologique), les standards disponibles dans le domaine du elearning pour la gestion des contenus d'apprentissage, et les problèmes de composition automatique (fondée ou non sur les ontologies) des objets d'apprentissage, une architecture générale de l'approche proposée est présentée, illustrant clairement les éléments qui soutiennent le processus de composition. Ce dernier comporte essentiellement trois (3) étapes : la sélection des ressources pertinentes, leur organisation (par la prise en compte des contraintes de référencement sémantique réalisé à partir de l'ontologie du domaine) et la scénarisation pédagogique qui prend en compte les principes de la théorie pédagogique sélectionnée. Un modèle définissant les opérateurs essentiels est proposé ainsi que des algorithmes qui implémentent les différents services. Un outil a été réalisé et testé avec des contenus d'un cours de programmation en Java.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : elearning, web sémantique, ontologies, objets d'apprentissage, théories pédagogiques, composition automatique des objets d'apprentissage

    ScaleSem (model checking et web sémantique)

    Get PDF
    Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle Le Model checking .Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu un modèle d un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l outil de vérification de la méthode Model checking). Il est nécessaire d avoir des outils logiciels permettant de réaliser la traduction d un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalismeThe increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalismDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF

    Actes de la conférence conjointe JEP-TALN-RECITAL 2016, volume 09 : ELTAL

    Get PDF
    National audienceELTAL is a workshop organized within the JEP-TALN-RECITAL 2016 conference. This workshop brings together papers investigating metdods and applications in NLP applied to language teaching.ELTAL est un atelier organisé au sein de la conférence JEP-TALN-RECITAL 2016 et regroupe des contributions qui étudient les méthodes et les applications en TAL dans le domaine de l'enseignement des langues

    AGEWEB : les agents personnels d'aide Ă  la recherche documentaire sur le Web

    Get PDF

    PRINCIPES D'ASSISTANCE A LA MAITRISE D'OUVRAGE POUR LA MODELISATION ET L'INTEGRATION D'EXPERTISE

    Get PDF
    Trade expertise integration is a major issue of new generations of product-lifecycle global-management systems. Project control of such integration has been hardened by knowledge management complexity increasing with the product complexity, the diversity of stakeholders and the lack of feedbacks during or at the end of such projects, past or present. These PhD works have been leaded in parallel with a case study on the USIQUICK project, which seeks an automation of process planning generation. This experience has also been compared to projects taking place in other service or industry fields. The contribution of this PhD propose a conceptual tool set, usable to prepare or during expertise integration projects. In early phases this tool set can be used to consolidate previous experiences and constitute analysis grids to take decision on methodologies to deploy. During the project, this methodological tool base underlines for project control some analysis criteria to evaluate the project dynamic. It allows the identification of modelling problems, the development preparation. In these two cases, it indicates possible representation locations from which could be constructed some performance indicators related to the project specificity. The methodological output for project control is constituted of the proposition and the analysis of four “pillars” or resources sustaining expertise modelling and integration (concept networks, specification lists, document corpus, management tools). These pillars are justifying a list of phases, describing modelling stakes (identification, extraction, structuring and formalisation phases) and integration issues (refinement, specification development, diffusion and maintenance phases). Combined with the analyses of initial and expected management maturity of expertise, these “pillars” and phases allows constituting a framework for feedback consolidation and project deployment. In parallel, three couples of concepts, syntax / semantic, infrastructure / architecture, domain / project, allows questioning and identifying potential problem zones in representation and considering resolutions axes. This contributes to bring closer epistemological systematism of knowledge management with empirical and pragmatic practice of learning. The consolidation of binds between these two aspects of expertise allows driving projects with real elements of knowledge and expertise.L'intégration des expertises métiers constitue un enjeu primordial des nouvelles générations des systèmes de gestion globale du cycle de vie du produit. La maîtrise d'ouvrage de telles intégrations est rendue difficile par la complexité de la gestion de la connaissance proportionnelle à celle croissante du produit, la diversité des acteurs de tels projets et le manque de retour au cours ou à l'issue de déploiements de tels projets passés et présents. Ces travaux de thèse ont été menés en parallèle d'un cas d'étude sur le projet USIQUICK, visant à l'automatisation de la génération de gamme d'usinage. Cette expérience a également été confrontée à des projets dans d'autres secteurs de l'industrie ou des services. La contribution de cette thèse propose un ensemble d'outils conceptuels utilisables en préparation ou au cours d'un projet d'intégration d'expertise. En phase amont cet ensemble d'outils peut être utilisé pour consolider les expériences précédentes et constituer des grilles d'analyses pour la prise de décision des méthodologies à déployer. Au cours du projet, cette base méthodologique d'outils donne à la maîtrise d'ouvrage des critères d'analyse pour évaluer la dynamique de projet. Elle permet de faire émerger les problèmes liés à la modélisation de l'expertise, de préparer les phases de programmation et de faire ressortir dans ces deux cas des lieux de représentations propices à l'émergence d'indicateurs de performance relatifs à la spécificité du projet étudié. L'apport méthodologique pour la maîtrise d'ouvrage est constitué de la proposition et de l'analyse des quatre « piliers » de ressources à la modélisation et à l'intégration d'expertise (réseaux de concepts, listes de spécifications, corpus de document, outils de gestion). Ces piliers permettent de justifier une série de phases décrivant les enjeux de la modélisation (phases d'identification, d'extraction, de structuration et de formalisation) et de l'intégration (phases de raffinement, de spécification des développements, de diffusion et de maintenance). Grâce à une analyse des niveaux de maturité de la gestion initiale et attendue de l'expertise, ces « piliers » et ces phases permettent de cadrer le contexte d'un retour d'expérience ou d'un projet à déployer. En parallèle, trois couples de concepts, syntaxe / sémantique, infrastructure / architecture, domaine / projet, permettent un questionnement pour identifier les zones potentielles de problèmes dans les représentations et envisager des axes de résolution. Il est ainsi permis de contribuer au rapprochement du systématisme épistémologique de la gestion des connaissances avec la pratique empirique et pragmatique contenue dans les savoirs. La consolidation des liens entre ces aspects de l'expertise permet un pilotage de projet par des éléments réels de connaissances et d'expertise

    Sémantique des sites Web de restaurants : analyse de productions polysémiotiques

    Get PDF
    corecore