104 research outputs found

    Extraction de termes, reconnaissance et labellisation de relations dans un th\'esaurus

    Get PDF
    Within the documentary system domain, the integration of thesauri for indexing and retrieval information steps is usual. In libraries, documents own rich descriptive information made by librarians, under descriptive notice based on Rameau thesaurus. We exploit two kinds of information in order to create a first semantic structure. A step of conceptualization allows us to define the various modules used to automatically build the semantic structure of the indexation work. Our current work focuses on an approach that aims to define an ontology based on a thesaurus. We hope to integrate new knowledge characterizing the territory of our structure (adding "toponyms" and links between concepts) thanks to a geographic information system (GIS)

    Enrichissement d'un module ontologique : proposition d'une méthode pour le cas de l'agriculture

    Get PDF
    National audienceAfin de contribuer au Web de données pour l'agriculture, nous souhaitons construireune ontologie de ce domaine. Les classes de haut niveau d'un module ontologiqueont déjà été définies ; la problématique maintenant est de réussir à l'enrichir. Noussouhaitons exploiter un point fort de ce domaine qui est l'existence de nombreusessources d'information. Nous avons posé l'hypothèse que l'utilisation de plusieurssources lors d'un processus d'extraction et de transformation permet une extractionsimplifiée et plus efficace que l'utilisation d'une unique source. Par rapport à cettehypothèse, nous avons défini quatre étapes d'une méthode de transformation quipermettrait l'enrichissement de notre module ontologique

    Construction et enrichissement automatique d'ontologie Ă  partir de ressources externes

    Get PDF
    National audienceAutomatic construction of ontologies from text is generally based on retrieving text content. For a much more rich ontology we extend these approaches by taking into account the document structure and some external resources (like thesaurus of indexing terms of near domain). In this paper we describe how these external resources are at first analyzed and then exploited. This method has been applied on a geographical domain and the benefit has been evaluated

    TOTh 2011 Proceedings - Terminology & Ontology: Theories and applications

    Get PDF
    International audienceAvant-proposLa Terminologie est un domaine scientifique par nature pluridisciplinaire. Elle puise, entre autres, à la linguistique, la théorie de la connaissance, la logique. Pour que cette diversité soit une richesse, il faut lui offrir un cadre approprié au sein duquel elle puisse s’exprimer et s’épanouir : c’est une des raisons d’être des Conférences TOTh. Dans ce contexte, la formation et la transmission des connaissances jouent un rôle essentiel. La Formation TOTh, programmée sur un jour et demi précédant la conférence, se déroule depuis 2011 sur deux années consécutives dédiées pour l’une à la dimension linguistique et pour l’autre à la dimension conceptuelle de la terminologie, deux dimensions intimement liées. La Disputatio, introduite à partir de cette année, renoue avec une forme d’enseignement et de recherche héritée de la scolastique. Elle vise, à travers une lecture commentée effectuée par un membre du comité scientifique, à donner accès à des textes jugés fondateurs de notre domaine, trop souvent oubliés voire ignorés.La cinquième édition des Conférences TOTh a également été l’occasion de mettre en place un Prix « Jeune chercheur ». Décerné par le comité scientifique lors de la conférence, il récompense le travail soumis à TOTh d’un de nos jeunes collègues. Notre collègue Michele Prandi, professeur à l’Università degli Studi di Genova, a ouvert la Conférence TOTh 2011 par un exposé passionnant sur : « Signes, signifiés, concepts : pour un tournant philosophique en linguistique ». Le ton était donné.Ont suivi douze communications (hors conférence d’ouverture et disputatio) réparties sur deux jours en six sessions animées par différents présidents. Elles ont permis d’aborder en profondeur – chaque intervention dure au minimum 45 minutes – de nombreux sujets tant théoriques que pratiques rappelant qu’il ne peut y avoir de terminologie sans langue de spécialité ni savoir spécialisé.Les douze communications, équitablement réparties sur les deux langues officielles de la conférence et provenant de sept pays différents, confirment l’audience internationale acquise aujourd’hui par TOTh.Avant de vous souhaiter bonne lecture de ces actes, j’aimerais terminer en remerciant tous les participants de TOTh 2011 pour la richesse des débats et des moments partagés. Christophe RochePrésident du comité scientifiqu

    Une approche ontologique pour l'interopérabilité et la composition automatique de services Web : application en astrophysique

    Get PDF
    Dans le but d’exploiter au mieux les grandes masses de données hétérogènes produites par les instruments scientifiques modernes de l’astrophysique, les scientifiques ont développé le concept d’Observatoire Virtuel (OV). Il s’agit d’une architecture orientée services, qui a pour objectif de faciliter l’identification et l’interopérabilité des données astrophysiques. Malgré le développement et les avancées permises par l’OV dans l’exploitation de ces données, certains objectifs sont partiellement atteints notamment l’interopérabilité, la sélection de services et l’identification de services connexes, etc. Par ailleurs, l’ergonomie des outils à la disposition de l’utilisateur final reste perfectible. De même l’utilisation actuelle des ressources de l’OV, s’appuyant sur des compétences humaines, gagnerait à être automatisée. Les services de données astrophysiques n’étant pas tous inscrits dans l’OV, il serait aussi souhaitable pour permettre une utilisation plus large de ces outils, qu’ils s’appuient également sur des services disponibles en-dehors de l’OV. En vue d’automatiser l’utilisation des ressources en ligne, les sciences de l’information travaillent depuis 2001 à l’élaboration du Web sémantique. Cette évolution apporte au Web des capacités de raisonnement automatiques, basées sur des algorithmes utilisant une nouvelle forme de description des contenus. Cette nouvelle forme de description sémantique se trouve exprimée dans des représentations informatiques appelées ontologies. Malheureusement, les méthodes actuelles d’élaboration du Web sémantique ne sont pas complètement compatibles avec les services OV qui utilisent des modèles de données, des formats et des protocoles d’accès aux services qui s’éloignent de ceux rencontrés habituellement dans les sciences de l’information. Dans ce contexte, cette thèse décrit une méthodologie générique de composition de services sans état, basée sur la description des services par une ontologie dont la définition est proposée dans ce document. Cette ontologie représente aussi bien des services Web que des services non accessibles par le Web. Elle prend en compte certaines spécificités qui peuvent être rencontrées dans les infrastructures de services préexistantes. L’enrichissement de l’ontologie par des concepts issus de domaines d’application spécifiques pour lesquels il n’existe que peu de représentations ontologiques est également pris en compte. La population de cette ontologie, par des services éventuellement éloignés des standards utilisés habituellement dans les sciences de l’information, est aussi traitée. La méthodologie a été appliquée avec succès dans le cadre de l’astrophysique, et a permis de développer une application Web permettant la composition automatique de services utilisable par un public non averti

    Une approche d'ingénierie ontologique pour l'acquisition et l'exploitation des connaissances à partir de documents textuels : vers des objets de connaissances et d'apprentissage

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Création, partage et transfert d'ensembles de données terminologiques basés sur SKOS

    Get PDF
    Depuis quelques années, la recherche sur la normalisation des ensembles de données terminologiques a été une des plus grandes préoccupations d'un groupe de travail du World Wide Web Consortium. Ce travail de recherche a permis de développer un nouveau standard SKOS qui a été ensuite émis en 2009 en tant que recommandation du W3C. Le travail de recherche que nous entreprenons dans ce mémoire concerne ce standard. Notre étude consiste à réaliser à partir de cette recommandation un modèle conceptuel fiable et cohérent reprenant les principaux éléments de SKOS et de son extension. Elle consiste aussi à prototyper un outil reposant sur ce modèle qui permettrait de gérer, de manipuler et de partager des ensembles de données terminologiques basés sur SKOS. Pour ce faire, une méthodologie de recherche bien précise a été adoptée et diverses recherches concernant le standard SKOS et le type d'ensemble de données terminologiques ont été réalisées. A partir de ces recherches, nous avons proposé un modèle conceptuel de SKOS et nous avons conçu et prototypé l'outil le supportant, qui a été par la suite testé à travers des cas d'utilisation réels. Ces tests ont permis d'évaluer l'outil et de démontrer sa capacité à manipuler des données normalisées en SKOS en toute simplicité. \ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : Gestion de connaissances, SKOS, RDF, gestion des KOS, ensembles de données terminologiques basés sur SKOS, exportation SKOS, glossaires, thésaurus

    Le Web sémantique n'est pas antisocial

    Get PDF
    National audienceCet article rebondit sur une série d'articles soulignant l'importance de la prise en compte de l'aspect social dans le Web sémantique mais opposant radicalement l'approche Web sémantique et l'approche sociale. Tout en reconnaissant cette importance, nous montrons ici que ces deux approches sont complémentaires

    ScaleSem (model checking et web sémantique)

    Get PDF
    Le développement croissant des réseaux et en particulier l'Internet a considérablement développé l'écart entre les systèmes d'information hétérogènes. En faisant une analyse sur les études de l'interopérabilité des systèmes d'information hétérogènes, nous découvrons que tous les travaux dans ce domaine tendent à la résolution des problèmes de l'hétérogénéité sémantique. Le W3C (World Wide Web Consortium) propose des normes pour représenter la sémantique par l'ontologie. L'ontologie est en train de devenir un support incontournable pour l'interopérabilité des systèmes d'information et en particulier dans la sémantique. La structure de l'ontologie est une combinaison de concepts, propriétés et relations. Cette combinaison est aussi appelée un graphe sémantique. Plusieurs langages ont été développés dans le cadre du Web sémantique et la plupart de ces langages utilisent la syntaxe XML (eXtensible Meta Language). Les langages OWL (Ontology Web Language) et RDF (Resource Description Framework) sont les langages les plus importants du web sémantique, ils sont basés sur XML.Le RDF est la première norme du W3C pour l'enrichissement des ressources sur le Web avec des descriptions détaillées et il augmente la facilité de traitement automatique des ressources Web. Les descriptions peuvent être des caractéristiques des ressources, telles que l'auteur ou le contenu d'un site web. Ces descriptions sont des métadonnées. Enrichir le Web avec des métadonnées permet le développement de ce qu'on appelle le Web Sémantique. Le RDF est aussi utilisé pour représenter les graphes sémantiques correspondant à une modélisation des connaissances spécifiques. Les fichiers RDF sont généralement stockés dans une base de données relationnelle et manipulés en utilisant le langage SQL ou les langages dérivés comme SPARQL. Malheureusement, cette solution, bien adaptée pour les petits graphes RDF n'est pas bien adaptée pour les grands graphes RDF. Ces graphes évoluent rapidement et leur adaptation au changement peut faire apparaître des incohérences. Conduire l application des changements tout en maintenant la cohérence des graphes sémantiques est une tâche cruciale et coûteuse en termes de temps et de complexité. Un processus automatisé est donc essentiel. Pour ces graphes RDF de grande taille, nous suggérons une nouvelle façon en utilisant la vérification formelle Le Model checking .Le Model checking est une technique de vérification qui explore tous les états possibles du système. De cette manière, on peut montrer qu un modèle d un système donné satisfait une propriété donnée. Cette thèse apporte une nouvelle méthode de vérification et d interrogation de graphes sémantiques. Nous proposons une approche nommé ScaleSem qui consiste à transformer les graphes sémantiques en graphes compréhensibles par le model checker (l outil de vérification de la méthode Model checking). Il est nécessaire d avoir des outils logiciels permettant de réaliser la traduction d un graphe décrit dans un formalisme vers le même graphe (ou une adaptation) décrit dans un autre formalismeThe increasing development of networks and especially the Internet has greatly expanded the gap between heterogeneous information systems. In a review of studies of interoperability of heterogeneous information systems, we find that all the work in this area tends to be in solving the problems of semantic heterogeneity. The W3C (World Wide Web Consortium) standards proposed to represent the semantic ontology. Ontology is becoming an indispensable support for interoperability of information systems, and in particular the semantics. The structure of the ontology is a combination of concepts, properties and relations. This combination is also called a semantic graph. Several languages have been developed in the context of the Semantic Web. Most of these languages use syntax XML (eXtensible Meta Language). The OWL (Ontology Web Language) and RDF (Resource Description Framework) are the most important languages of the Semantic Web, and are based on XML.RDF is the first W3C standard for enriching resources on the Web with detailed descriptions, and increases the facility of automatic processing of Web resources. Descriptions may be characteristics of resources, such as the author or the content of a website. These descriptions are metadata. Enriching the Web with metadata allows the development of the so-called Semantic Web. RDF is used to represent semantic graphs corresponding to a specific knowledge modeling. RDF files are typically stored in a relational database and manipulated using SQL, or derived languages such as SPARQL. This solution is well suited for small RDF graphs, but is unfortunately not well suited for large RDF graphs. These graphs are rapidly evolving, and adapting them to change may reveal inconsistencies. Driving the implementation of changes while maintaining the consistency of a semantic graph is a crucial task, and costly in terms of time and complexity. An automated process is essential. For these large RDF graphs, we propose a new way using formal verification entitled "Model Checking".Model Checking is a verification technique that explores all possible states of the system. In this way, we can show that a model of a given system satisfies a given property. This thesis provides a new method for checking and querying semantic graphs. We propose an approach called ScaleSem which transforms semantic graphs into graphs understood by the Model Checker (The verification Tool of the Model Checking method). It is necessary to have software tools to perform the translation of a graph described in a certain formalism into the same graph (or adaptation) described in another formalismDIJON-BU Doc.électronique (212319901) / SudocSudocFranceF
    • …
    corecore