90 research outputs found

    Structuration sématique de documents XML centres-documents

    Get PDF
    La numérisation des documents et le développement des technologies Internet ont engendré une augmentation permanente du nombre de documents et de types de documents disponibles. Face à cette masse documentaire, XML (eXtensible Markup Language) s’est imposé comme format standard de structuration et d’échange de documents. Ainsi, un nombre de plus en plus important de documents devient disponible sous ce format. Ces documents XML peuvent être classés en deux types : les documents XML orienté-données et les documents XML orienté-textes. Les documents XML orienté-données sont constitués d’un ensemble d’éléments généralement courts et précis et sont similaires aux données relationnelles. Nous constatons que les balises utilisées pour ce type de documents décrivent généralement d’une manière précise le contenu, et offrent la sémantique basique nécessaire à la description de l’information (Exemples de balises : Article, Client, Quantité, Prix). A contrario, les documents XML orienté-textes sont riches en texte et utilisent des balises qui reflètent la plupart du temps un découpage (structurel) logique (exemples de balises : Contenu, Section, Paragraphe). Malheureusement, ces balises n’ont qu’une très pauvre vocation sémantique. Partant de cette constatation, le développement d’approches supportées par des outils automatisés permettant de décrire la sémantique des documents XML orientés-textes devient un besoin urgent, voire une nécessité pour certains usages. Dans ce contexte, nous proposons une approche de structuration sémantique des documents XML à partir de leurs structures logiques et de leurs contenus. Elle construit une arborescence de concepts. Cette approche de structuration sémantique passe par quatre phases : 1) Extraction des termes des contenus des documents en utilisant des techniques de recherche d’information ; 2) Détermination d’une taxonomie1 qui sera affectée au document, c’est-à-dire celle qui correspond au mieux à sa sémantique (cette étape se base sur une démarche de pondération d’un ensemble de taxonomies candidates) ; 3) Affectation, à chaque élément feuille de la structure logique du document, du concept le plus significatif à partir de la taxonomie retenue ; 4) Inférence de concepts aux éléments non feuilles du document. Notre approche de structuration sémantique des documents se base sur l’indexation sémantique et diffère des autres travaux par : 1) Le choix d’une taxonomie appropriée pour chaque document, il s’agit de déterminer la taxonomie qui décrit au mieux la sémantique du document, et 2) La pondération des concepts extraits de manière à donner plus d’importance aux concepts les plus spécifiques car nous partons du constat suivant : plus le niveau auquel se situe le concept est bas dans la hiérarchie, plus l’information qu’il apporte est fine et ciblée. Pour exploiter ces structures sémantiques, nous avons étendu le méta-modèle d’entrepôts de documents pour assurer leur stockage. De plus, nous avons introduit le concept de métadocument afin de permettre l’interrogation de ces structures sémantiques. Enfin, pour évaluer nos propositions, nous avons mené un ensemble d’expérimentations sur la collection de documents XML ImageCLEFMed 2010 en utilisant la ressource sémantique MeSH (NML's Medical Subject Headings). Les résultats obtenus montrent que l’algorithme de pondération des concepts des taxonomies qui a été proposé permet de sélectionner avec précision la taxonomie pertinente pour un document donné et, en conséquence, les concepts pertinents à affecter aux éléments feuilles de la structure sémantique de ce document.Le résumé en anglais n'a pas été communiqué par l'auteur

    Structuration sématique de documents XML centres-documents

    Get PDF
    La numérisation des documents et le développement des technologies Internet ont engendré une augmentation permanente du nombre de documents et de types de documents disponibles. Face à cette masse documentaire, XML (eXtensible Markup Language) s’est imposé comme format standard de structuration et d’échange de documents. Ainsi, un nombre de plus en plus important de documents devient disponible sous ce format. Ces documents XML peuvent être classés en deux types : les documents XML orienté-données et les documents XML orienté-textes. Les documents XML orienté-données sont constitués d’un ensemble d’éléments généralement courts et précis et sont similaires aux données relationnelles. Nous constatons que les balises utilisées pour ce type de documents décrivent généralement d’une manière précise le contenu, et offrent la sémantique basique nécessaire à la description de l’information (Exemples de balises : Article, Client, Quantité, Prix). A contrario, les documents XML orienté-textes sont riches en texte et utilisent des balises qui reflètent la plupart du temps un découpage (structurel) logique (exemples de balises : Contenu, Section, Paragraphe). Malheureusement, ces balises n’ont qu’une très pauvre vocation sémantique. Partant de cette constatation, le développement d’approches supportées par des outils automatisés permettant de décrire la sémantique des documents XML orientés-textes devient un besoin urgent, voire une nécessité pour certains usages. Dans ce contexte, nous proposons une approche de structuration sémantique des documents XML à partir de leurs structures logiques et de leurs contenus. Elle construit une arborescence de concepts. Cette approche de structuration sémantique passe par quatre phases : 1) Extraction des termes des contenus des documents en utilisant des techniques de recherche d’information ; 2) Détermination d’une taxonomie1 qui sera affectée au document, c’est-à-dire celle qui correspond au mieux à sa sémantique (cette étape se base sur une démarche de pondération d’un ensemble de taxonomies candidates) ; 3) Affectation, à chaque élément feuille de la structure logique du document, du concept le plus significatif à partir de la taxonomie retenue ; 4) Inférence de concepts aux éléments non feuilles du document. Notre approche de structuration sémantique des documents se base sur l’indexation sémantique et diffère des autres travaux par : 1) Le choix d’une taxonomie appropriée pour chaque document, il s’agit de déterminer la taxonomie qui décrit au mieux la sémantique du document, et 2) La pondération des concepts extraits de manière à donner plus d’importance aux concepts les plus spécifiques car nous partons du constat suivant : plus le niveau auquel se situe le concept est bas dans la hiérarchie, plus l’information qu’il apporte est fine et ciblée. Pour exploiter ces structures sémantiques, nous avons étendu le méta-modèle d’entrepôts de documents pour assurer leur stockage. De plus, nous avons introduit le concept de métadocument afin de permettre l’interrogation de ces structures sémantiques. Enfin, pour évaluer nos propositions, nous avons mené un ensemble d’expérimentations sur la collection de documents XML ImageCLEFMed 2010 en utilisant la ressource sémantique MeSH (NML's Medical Subject Headings). Les résultats obtenus montrent que l’algorithme de pondération des concepts des taxonomies qui a été proposé permet de sélectionner avec précision la taxonomie pertinente pour un document donné et, en conséquence, les concepts pertinents à affecter aux éléments feuilles de la structure sémantique de ce document.Le résumé en anglais n'a pas été communiqué par l'auteur

    Introduction : Comprendre et maîtriser la redocumentarisation du monde

    Get PDF
    Introduction du livre bilan du réseau thématique pluridisciplinaire du CNRS : "Document et contenu". Problématique générale et présentation des chapitres résumant les apports des groupes de travail

    Étudier des structures de discours : préoccupations pratiques et méthodologiques

    Get PDF
    National audienceThis paper deals with problems related to discourse analysis within the framework of corpus linguistics, through a linguistic study dealing with procedurality in discourse. The fact that the study does not concern a specific lexical item makes it difficult to collect data without any predefined idea, in other words without introducing a bias in the study. The paper proposes a method to solve these problems, involving several annotators on the same texts and merging their proposals in order to get an objective unified annotation. We show that this step is a real part of the overall linguistic analysis.Cet article porte sur des problèmes d'analyse en corpus de structures discursives, en partant de l'exemple de la procéduralité. Quand l'objet d'étude ne porte pas sur une forme particulière, il est difficile de recueillir les données à analyser sans idée préconçue, c'est-à-dire sans biaiser a priori les résultats. L'article propose une méthode permettant de résoudre en partie ces problèmes, en partant d'une annotation à plusieurs mains qui est progressivement unifiée afin d'obtenir un résultat objectif. Nous montrons que cette étape fait pleinement partie de l'étude linguistique elle-même

    Gestion de l'incertitude dans le processus d'extraction de connaissances Ă  partir de textes

    Get PDF
    The increase of textual sources over the Web offers an opportunity for knowledge extraction and knowledge base creation. Recently, several research works on this topic have appeared or intensified. They generally highlight that to extract relevant and precise information from text, it is necessary to define a collaboration between linguistic approaches, e.g., to extract certain concepts regarding named entities, temporal and spatial aspects, and methods originating from the field of semantics' processing. Moreover, successful approaches also need to qualify and quantify the uncertainty present in the text. Finally, in order to be relevant in the context of the Web, the linguistic processing need to be consider several sources in different languages. This PhD thesis tackles this problematic in its entirety since our contributions cover the extraction, representation of uncertain knowledge as well as the visualization of generated graphs and their querying. This research work has been conducted within a CIFRE funding involving the Laboratoire d'Informatique Gaspard Monge (LIGM) of the Université Paris-Est Marne la Vallée and the GEOLSemantics start-up. It was leveraging from years of accumulated experience in natural language processing (GeolSemantics) and semantics processing (LIGM).In this context, our contributions are the following:- the integration of a qualifation of different forms of uncertainty, based on ontology processing, within the knowledge extraction processing,- the quantification of uncertainties based on a set of heuristics,- a representation, using RDF graphs, of the extracted knowledge and their uncertainties,- an evaluation and an analysis of the results obtained using our approachLa multiplication de sources textuelles sur le Web offre un champ pour l'extraction de connaissances depuis des textes et à la création de bases de connaissances. Dernièrement, de nombreux travaux dans ce domaine sont apparus ou se sont intensifiés. De ce fait, il est nécessaire de faire collaborer des approches linguistiques, pour extraire certains concepts relatifs aux entités nommées, aspects temporels et spatiaux, à des méthodes issues des traitements sémantiques afin de faire ressortir la pertinence et la précision de l'information véhiculée. Cependant, les imperfections liées au langage naturel doivent être gérées de manière efficace. Pour ce faire, nous proposons une méthode pour qualifier et quantifier l'incertitude des différentes portions des textes analysés. Enfin, pour présenter un intérêt à l'échelle du Web, les traitements linguistiques doivent être multisources et interlingue. Cette thèse s'inscrit dans la globalité de cette problématique, c'est-à-dire que nos contributions couvrent aussi bien les aspects extraction et représentation de connaissances incertaines que la visualisation des graphes générés et leur interrogation. Les travaux de recherche se sont déroulés dans le cadre d'une bourse CIFRE impliquant le Laboratoire d'Informatique Gaspard Monge (LIGM) de l'Université Paris-Est Marne la Vallée et la société GEOLSemantics. Nous nous appuyons sur une expérience cumulée de plusieurs années dans le monde de la linguistique (GEOLSemantics) et de la sémantique (LIGM).Dans ce contexte, nos contributions sont les suivantes :- participation au développement du système d'extraction de connaissances de GEOLSemantics, en particulier : (1) le développement d'une ontologie expressive pour la représentation des connaissances, (2) le développement d'un module de mise en cohérence, (3) le développement d'un outil visualisation graphique.- l'intégration de la qualification de différentes formes d'incertitude, au sein du processus d'extraction de connaissances à partir d'un texte,- la quantification des différentes formes d'incertitude identifiées ;- une représentation, à l'aide de graphes RDF, des connaissances et des incertitudes associées ;- une méthode d'interrogation SPARQL intégrant les différentes formes d'incertitude ;- une évaluation et une analyse des résultats obtenus avec notre approch

    Données ouvertes liées et recherche historique : un changement de paradigme

    Get PDF
    Dans le contexte de la transition numérique, le Web sémantique et les données ouvertes liées (linked open data [LOD], en anglais) jouent un rôle de plus en plus central, car ils permettent de construire des « graphes d’information » (knowledge graphs, en anglais) reliant l’ensemble des ressources du Web. Ce phénomène interroge les sciences historiques et soulève la question d’un changement de paradigme. Après avoir précisé ce qu’il faut entendre par « données », l’article analyse la place qu’elles occupent dans le processus de production du savoir. Il présente les principales composantes du changement de paradigme, en particulier le potentiel des LOD et d’une sémantique robuste en tant que véhicules d’une information factuelle de qualité, intelligible et réutilisable. S’ensuit une présentation des projets d’infrastructure réalisés au sein du Laboratoire de recherche historique Rhône-Alpes (Larhra) : symogih.org, ontome.net, geovistory.org. Leur but est de faciliter la transition numérique grâce à un outillage construit en cohérence avec l’épistémologie des sciences historiques et de contribuer à la réalisation d’un « graphe d’information » disciplinaire.In the context of the digital transition, the semantic Web and linked open data (LOD) play an increasingly central role as they allow the construction of knowledge graphs linking together the resources of the Web. This phenomenon questions the historical sciences and raises the major issue of a paradigm shift. After clarifying what the meaning of “data” is, the paper analyses their place in the process of knowledge production. It presents the main components of the paradigm shift, and in particular the potential of LOD and robust semantics as vehicles for high-quality, intelligible and reusable factual information. We then present the infrastructure projects carried out at the Larhra (Laboratoire de recherche historique Rhône-Alpes) with the aim of facilitating the digital transition: symogih.org, ontome.net, geovistory.org. These Web applications are developed in line with the epistemology of the historical sciences and contribute to the realisation of a disciplinary “information graph”

    Equipement informatique des annotations et des pratiques d'écriture professionnelles : une étude ancrée pour l'organisation des soins en cancérologie

    Get PDF
    Prenant appui sur une méthodologie d'enquête, de conceptualisation et de développement itérative - la Théorie Ancrée - notre recherche sur l'instrumentation informatique des annotations et des pratiques d'écriture professionnelles nous a permis de développer des concepts, un modèle et un prototype informatique originaux pour le support de l'organisation des soins en cancérologie. Pour mener à bien ce travail itératif de modélisation, nous nous sommes inspirés des pratiques d'écriture des soignants que nous avons observées durant plusieurs années dans un hôpital en cancérologie. Cette étude qualitative a été complétée par un état de l'art pluridisciplinaire. Ce travail d'articulation entre différents domaines scientifiques, enquête et confrontation aux acteurs du terrain nous a permis de développer les concepts de pratique annotative et d'écriture heuristique considérés comme constitutifs du travail d'organisation des soins. Ces pratiques permettent aux soignants d'appréhender leurs environnements de travail complexes, et de gérer efficacement les dynamiques et les variétés de situations et de prise en charge des patients. La caractérisation de ces pratiques nous a permis de développer un modèle informatique simple, robuste et ouvert, mais surtout ancré dans le terrain de recherche et dans les pratiques soignantes. Ce prototype grâce notamment aux contextes d'affichage diversifiés des réseaux d'annotation qu'il autorise, grâce à sa flexibilité et son évolutivité, permet effectivement d'adresser la question du support du travail collectif d'organisation des soins en cancérologie, autant qu'il est prometteur pour d'autres contextes d'exploitation.Our research about computerized equipment of annotations and professional writing practices has articulated Computer Sciences and Communication and Information Sciences in order for us to develop a software prototype for the support of organisation of care in oncology thanks to an empirical and longitudinal study. This articulation has relied on 4 years long of multimodal ethnography, a conceptualization based upon Grounded Theory rules, a model and a software development that we iteratively conduct simultaneously with this qualitative inquiry. This original combination of methodologies from different domains has been remarkably rich to help us build a specific point of view about oncology hospital organizations, and about the accomplishment of care work and about patients' management in these complex professional organizations. The modern medical and hospital rationalizations, including ICT and e-health tools, are in the confluence of various movements that impact upon several elements of hospital organizations, and upon medical and care practices. We focused our study on the situated writing practices of caregivers and specifically on the richness of the materiality of writings that led us to question notions such as information systems, collective and distributed production of knowledge, and the documentary production cycles for the organization of activity. We are making the hypothesis that annotations can be opportunely considered as constitutive elements in the production of "organizational texts" that are in the core of the support of the organization and the realization of collective and individual work. Caregivers rely on these "organizational texts" that they build, actualize and stabilize thanks to what we call the "annotative practice" that enables them to apprehend their complex environments of work, and to handle the dynamics and the variety of situations and to manage patients. We will show how the characterization of this "annotative practice" helped us to develop a simple, robust and open software model. We will detail the iterative process between inquiry, analysis, conceptualizations and developments that led us to stabilize our model and our web prototype that implement this annotative practice. We will conclude our work by showing that this prototype, thanks to the numerous context displays of annotations networks, thanks to its flexibility and evolutivity achieves the support of the collective organization of patients' care in oncology, as much as it seems to be relevant in other exploitation context of collective organization of work

    Multilinguisation d'ontologies dans le cadre de la recherche d'information translingue dans des collections d'images accompagnées de textes spontanés

    Get PDF
    Le Web est une source proliférante d'objets multimédia, décrits dans différentes langues natu- relles. Afin d'utiliser les techniques du Web sémantique pour la recherche de tels objets (images, vidéos, etc.), nous proposons une méthode d'extraction de contenu dans des collections de textes multilingues, paramétrée par une ou plusieurs ontologies. Le processus d'extraction est utilisé pour indexer les objets multimédia à partir de leur contenu textuel, ainsi que pour construire des requêtes formelles à partir d'énoncés spontanés. Il est basé sur une annotation interlingue des textes, conservant les ambiguïtés de segmentation et la polysémie dans des graphes. Cette première étape permet l'utilisation de processus de désambiguïsation factorisés au niveau d'un lexique pivot (de lexèmes interlingues). Le passage d'une ontologie en paramètre du système se fait en l'alignant de façon automatique avec le lexique interlingue. Il est ainsi possible d'utiliser des ontologies qui n'ont pas été conçues pour une utilisation multilingue, et aussi d'ajouter ou d'étendre l'ensemble des langues et leurs couvertures lexicales sans modifier les ontologies. Un démonstrateur pour la recherche multilingue d'images, développé pour le projet ANR OMNIA, a permis de concrétiser les approches proposées. Le passage à l'échelle et la qualité des annotations produites ont ainsi pu être évalués.The World Wide Web is a proliferating source of multimedia objects described using various natural languages. In order to use semantic Web techniques for retrieval of such objects (images, videos, etc.), we propose a content extraction method in multilingual text collections, using one or several ontologies as parameters. The content extraction process is used on the one hand to index multimedia objects using their textual content, and on the other to build formal requests from spontaneous user requests. The process is based on an interlingual annotation of texts, keeping ambiguities (polysemy and segmentation) in graphs. This first step allows using common desambiguation processes at th elevel of a pivot langage (interlingual lexemes). Passing an ontology as a parameter of the system is done by aligning automatically its elements with the interlingual lexemes of the pivot language. It is thus possible to use ontologies that have not been built for a specific use in a multilingual context, and to extend the set of languages and their lexical coverages without modifying the ontologies. A demonstration software for multilingual image retrieval has been built with the proposed approach in the framework of the OMNIA ANR project, allowing to implement the proposed approaches. It has thus been possible to evaluate the scalability and quality of annotations produiced during the retrieval process.SAVOIE-SCD - Bib.électronique (730659901) / SudocGRENOBLE1/INP-Bib.électronique (384210012) / SudocGRENOBLE2/3-Bib.électronique (384219901) / SudocSudocFranceF
    • …
    corecore