30 research outputs found

    Contribution Ă  la maintenance des ontologies Ă  partir d'analyses textuelles : extraction de termes et de relations entre termes

    Get PDF
    Les ontologies sont des nouvelles formes de contrôle intelligent de l'information. Elles présentent un savoir préalable requis pour un traitement systématique de l'information à des fins de navigation, de rappel, de précision, etc. Toutefois, les ontologies sont confrontées de façon continue à un problème d'évolution. Étant donné la complexité des changements à apporter, un processus de maintenance, du moins semi-automatique, s'impose de plus en plus pour faciliter cette tâche et assurer sa fiabilité.\ud L'approche proposée trouve son fondement dans un modèle cognitif décrivant un processus d'extraction de connaissances à partir de textes et de thésaurus. Nous mettons ainsi, les textes au centre du processus d'ingénierie des connaissances et présentons une approche se démarquant des techniques formelles classiques en représentation de connaissances par son indépendance de la langue. Les traitements textuels sont fondés principalement sur un processus de classification supporté par un réseau de neurones (ART 1) et sur l'Indexation Sémantique Latente appliquée sur des classes de termes. Partant de l'hypothèse que l'extraction -de connaissances à partir de textes ne peut se contenter d'un traitement statistique (ni même linguistique) de données textuelles pour accaparer toute leur richesse sémantique, un processus d'extraction de connaissances à partir d'un thésaurus a été conçu afin d'intégrer, le mieux possible, les connaissances du domaine au sein de l'ontologie. Ce processus est fondé principalement sur un calcul d'associations sémantiques entre des Vecteurs Conceptuels. Le modèle proposé représente une chaîne de traitement (ONTOLOGICO) au sein de la plateforme\ud SATIM. Ce modèle vise à assister les experts de domaine dans leur tâche de conceptualisation et de maintenance des ontologies en se basant sur un processus itératif supporté par un ensemble de modules, en particulier, un extracteur de termes, un lemmatiseur, un segmenteur, un classifieur, un module de raffinement sémantique basé sur l'Indexation Sémantique Latente et un identificateur de termes reliés basé sur le calcul de similarité sémantique entre les couples de vecteurs conceptuels. La découverte de relations entre termes pour les besoins d'une conceptualisation de domaine s'avère être le résultat d'une complémentarité de traitements appliqués tant sur des textes de domaine que sur un thésaurus. D'une part, les analyses textuelles fondées principalement sur l'application de l'Indexation Sémantique Latente sur des classes de termes génèrent des relations sémantiques précises. D'autre part, l'extraction de relations sémantiques à partir d'un thésaurus, en se basant sur une représentation par des Vecteurs conceptuels, constitue un choix théorique judicieux et performant. Ce processus joue en effet, un rôle important dans la complétude des relations.\ud Ce projet de recherche se place au coeur des échanges entre terminologie et acquisition de connaissances. Il amène une réflexion sur les divers paliers à envisager dans une telle démarche de modélisation de connaissances textuelles pour des objectifs de maintenance d'une ontologie de domaine. La méthodologie proposée constitue une aide précieuse dans le domaine de la maintenance des ontologies. Elle assiste les terminologues chargés de naviguer à travers de vastes données textuelles pour extraire et normaliser la terminologie et facilite la tâche des ingénieurs en connaissances, chargés de modéliser des domaines. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Maintenance d'ontologie, Traitement Automatique du Langage Naturel (TALN), Indexation Sémantique Latente, Vecteurs Conceptuels, Classification automatique, Réseaux de Neurones

    Une approche d'ingénierie ontologique pour l'acquisition et l'exploitation des connaissances à partir de documents textuels : vers des objets de connaissances et d'apprentissage

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Un mod{\`e}le de base de connaissances terminologiques

    Full text link
    In the present paper, we argue that Terminological Knowledge Bases (TKB) are all the more useful for addressing various needs as they do not fulfill formal criteria. Moreover, they intend to clarify the terminology of a given domain by illustrating term uses in various contexts. Thus we designed a TKB structure including 3 linked features: terms, concepts and texts, that present the peculiar use of each term in the domain. Note that concepts are represented into frames whose non-formal description is standardized. Associated with this structure, we defined modeling criteria at the conceptual level. Finaly, we discuss the situation of TKB with regard to ontologies, and the use of TKB for the development of AI systems.Comment: in French language. 2{\`e}mes Rencontres Terminologie et Intelligence Artificielle (TIA 1997), Groupe de recherche TIA : Terminologie et intelligence artificielle, UT2 LeMirail, Toulouse, Apr 1997, Toulouse, Franc

    Vers l'automatisation de la mise à jour des bases de données spatio-temporelles d'aide à la navigation : cas d'une base de données pour la navigation des personnes à mobilité réduite

    Get PDF
    De nos jours, les systèmes d'aide à la navigation occupent une place de plus en plus importante dans la vie quotidienne. Toutefois, leur potentiel est mal exploité pour le déplacement des personnes à mobilité réduite (PMR). À cet égard, le projet MobiliSIG a vu le jour. Son objectif est de développer une solution d'assistance multimodale mobile selon les principes de la conception cognitive pour la navigation des PMR. Au cœur de cette solution se trouve une base de données d'accessibilité dont l'usage permettra de proposer des itinéraires adaptés aux profils des utilisateurs. Cependant, vu que l'environnement évolue et que certains obstacles ont un caractère spatio-temporel, l'outil développé doit être doté d'un système qui lui permettra de rester continuellement à jour. L'objectif global assigné à notre projet est la conception d'un système automatique de mise à jour (MÀJ) continuelle des données d'accessibilité en temps quasi-réel à partir de données multi-sources hétérogènes. Pour ce faire, tout d'abord, nous avons passé en revue la littérature inhérente aux concepts relatifs à notre problématique. Ensuite, nous avons créé et implémenté une ontologie d'obstacles/facilitateurs sur la base des facteurs environnementaux de la classification PPH afin d'identifier et de bien cibler les données spatio-temporelles d'accessibilité. Par la suite, nous avons déterminé les besoins et fonctionnalités utiles à notre système de MÀJ à travers la présentation et l'analyse des spécifications des données d'accessibilité et de différents scénarios de cas d'utilisations. Finalement, en s'inspirant des concepts fondamentaux des processus ETL et des architectures orientées services, nous avons proposé une solution composée d'une couche d'extraction automatique de multi-sources; une couche de transformation qui répond au besoin du multi-formats; une application web pour les collaborateurs; et un service web de MÀJ chargé des tâches de traitement automatique et en temps quasi-réel de l'information reçue de multi-sources en effectuant l'analyse syntaxique et sémantique, la géolocalisation, le géocodage, la projection du système de référence le cas échéant, la validation et le contrôle d'unicité avant de procéder au chargement. Les résultats des tests et validations du prototype développé ont permis de confirmer l'atteinte de l'objectif de la recherche

    Extraction de relations en domaine de spécialité

    Get PDF
    La quantité d'information disponible dans le domaine biomédical ne cesse d'augmenter. Pour que cette information soit facilement utilisable par les experts d'un domaine, il est nécessaire de l'extraire et de la structurer. Pour avoir des données structurées, il convient de détecter les relations existantes entre les entités dans les textes. Nos recherches se sont focalisées sur la question de l'extraction de relations complexes représentant des résultats expérimentaux, et sur la détection et la catégorisation de relations binaires entre des entités biomédicales. Nous nous sommes intéressée aux résultats expérimentaux présentés dans les articles scientifiques. Nous appelons résultat expérimental, un résultat quantitatif obtenu suite à une expérience et mis en relation avec les informations permettant de décrire cette expérience. Ces résultats sont importants pour les experts en biologie, par exemple pour faire de la modélisation. Dans le domaine de la physiologie rénale, une base de données a été créée pour centraliser ces résultats d'expérimentation, mais l'alimentation de la base est manuelle et de ce fait longue. Nous proposons une solution pour extraire automatiquement des articles scientifiques les connaissances pertinentes pour la base de données, c'est-à-dire des résultats expérimentaux que nous représentons par une relation n-aire. La méthode procède en deux étapes : extraction automatique des documents et proposition de celles-ci pour validation ou modification par l'expert via une interface. Nous avons également proposé une méthode à base d'apprentissage automatique pour l'extraction et la classification de relations binaires en domaine de spécialité. Nous nous sommes intéressée aux caractéristiques et variétés d'expressions des relations, et à la prise en compte de ces caractéristiques dans un système à base d'apprentissage. Nous avons étudié la prise en compte de la structure syntaxique de la phrase et la simplification de phrases dirigée pour la tâche d'extraction de relations. Nous avons en particulier développé une méthode de simplification à base d'apprentissage automatique, qui utilise en cascade plusieurs classifieurs.The amount of available scientific literature is constantly growing. If the experts of a domain want to easily access this information, it must be extracted and structured. To obtain structured data, both entities and relations of the texts must be detected. Our research is about the problem of complex relation extraction which represent experimental results, and detection and classification of binary relations between biomedical entities. We are interested in experimental results presented in scientific papers. An experimental result is a quantitative result obtained by an experimentation and linked with information that describes this experimentation. These results are important for biology experts, for example for doing modelization. In the domain of renal physiology, a database was created to centralize these experimental results, but the base is manually populated, therefore the population takes a long time. We propose a solution to automatically extract relevant knowledge for the database from the scientific papers, that is experimental results which are represented by a n-ary relation. The method proceeds in two steps: automatic extraction from documents and proposal of information extracted for approval or modification by the experts via an interface. We also proposed a method based on machine learning for extraction and classification of binary relations in specialized domains. We focused on the variations of the expression of relations, and how to represent them in a machine learning system. We studied the way to take into account syntactic structure of the sentence and the sentence simplification guided by the task of relation extraction. In particular, we developed a simplification method based on machine learning, which uses a series of classifiers.PARIS11-SCD-Bib. électronique (914719901) / SudocSudocFranceF

    Un système multi-agents pour la gestion des connaissances hétérogènes et distribuées

    Get PDF
    La gestion des connaissances permet d'identifier et de capitaliser les savoirs faires de l'entreprise afin de les organiser et de les diffuser. Cette thèse propose un système de gestion des connaissances hétérogènes et distribuées, appelé OCEAN. Basé sur les ontologies et sur un système multi-agents, OCEAN a pour but de résoudre le problème de la capitalisation et de réutilisation des connaissances provenant de plusieurs sources différentes, afin d aider les acteurs métiers dans le processus de développement de produits mécaniques. Le système OCEAN repose sur un cycle de vie de quatre étapes Ce cycle de vie possède les phases : d identification, d extraction, de validation et se termine par la réutilisation des connaissances. Chaque phase constitue l objectif d une organisation d agents.L identification dans le système OCEAN consiste à définir les connaissances par un expert métier sous la forme d une ontologie. Les ontologies sont utilisées dans notre système pour représenter les connaissances définis d une façon structurée et formelle afin d être compréhensible par les machines. L extraction des connaissances dans OCEAN est réalisée par les agents de manière automatique à l aide des ontologies créées par les experts métiers. Les agents interagissent avec les différentes applications métiers via des services web. Le résultat de cette phase est stocké dans une mémoire organisationnelle. La validation des connaissances consiste à permettre aux acteurs métiers de valider les connaissances de la mémoire organisationnelle dans un wiki sémantique. Ce wiki permet de présenter les connaissances de la mémoire organisationnelle aux acteurs pour les réutiliser, les évaluer et les faire évoluer. La réutilisation des connaissances dans OCEAN est inspiré de travaux antérieurs intégrés au sein d OCEAN. Les quatre phases du cycle de vie des connaissances traitées dans cette thèse nous ont permis de réaliser un système apte à gérer les connaissances hétérogènes et distribuées dans une entreprise étendue.Among the goals of Knowledge Management we can cite the identification and capitalization of the know-how of companies in order to organize and disseminate them. This thesis proposes a heterogeneous and distributed knowledge management system, called OCEAN. Based on ontologies and multi-agents system, OCEAN aims to solve the problem of capitalization and reuse of multi-sources knowledge in order to assist business actors in the development process of mechanical products. The OCEAN system is based on a knowledge life cycle composed by four steps. This knowledge life cycle begins with the identification then extraction, validation and finishes with knowledge reuse. Each step is the goal of an organization of agents.The identification in OCEAN system consists in the definition of knowledge by a business expert with an ontology. Ontologies are used in our system to represent the knowledge, defined by the business expert, in a structured and formal way in order to be understandable by machines. Agents according to the ontology defined by business experts realize knowledge extraction in OCEAN automatically. Agents interact with professional softwares via web services. The result of this extraction is stored in an organizational memory (OM). Validation of knowledge in OCEAN relies on business actors that validate the knowledge of the OM in a semantic wiki. This wiki allows also the presentation of this knowledge to business actors in order to reuse, evaluate or evolve it. Previous works, integrated within OCEAN, inspires the knowledge reuse step. The four steps lifecycle discussed in this thesis has enabled us to achieve a system that can manage heterogeneous and distributed knowledge in an extended enterprise.BELFORT-UTBM-SEVENANS (900942101) / SudocSudocFranceF

    Extraction et intégration des données à partir des pages WEB

    Full text link
    Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal

    LORESA : un système de recommandation d'objets d'apprentissage basé sur les annotations sémantiques

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Le filtrage basé sur le contenu pour la recommandation de cours (FCRC)

    Get PDF
    RÉSUMÉ La recherche d'un cours sur un sujet précis dans un répertoire d'une ou de plusieurs universités peut s'avérer fastidieuse. Seulement à Montréal, on compte plusieurs milliers de cours universitaires offerts. Le problème est accentué par la multidisciplinarité de certains cours. Les étudiants de cycle supérieur sont responsables de ¬¬¬choisir leur plan d’études, les cours pertinents à leur domaine de recherche, mais ce n’est pas évident qu’ils puissent faire le bon choix des cours sans avoir besoin d’être guidés ou orientés. Encore, les étudiants du premier cycle ont souvent le problème du nombre de places limité dans un groupe de cours. Avec un outil permettant d'établir la similarité entre des cours, les étudiants pourraient trouver rapidement des cours similaires à ceux qui, pour une raison ou une autre, ne sont pas disponibles à un trimestre ou pour leur plan d’étude. A cette fin, plusieurs systèmes de filtrage ont été proposés, mais le filtrage basé sur le contenu pour la recommandation de cours, n’a jamais été abordé avant. L’objectif est de créer un système permettant d’établir la similarité entre les cours en se basant sur leurs descriptions et sur le calcul de leur distance dans un espace vectoriel . Ce mémoire présente le système FCRC (Filtrage basé Contenu pour la Recommandation de Cours) qui fournit des suggestions de cours sur la base de leur similarité sémantique. Les résultats montrent que la mesure de similarité basée sur le cosinus fournit des recommandations relativement précises et complètes. Le coefficient de Dice permet aussi d’obtenir de bons résultats. Ces deux mesures sont les plus performantes. Nous sommes arrivés à identifier plus que cinq cours les plus similaires à l’intérieur des dix premiers résultats.----------ABSTRACT Searching for courses on a topic in a university database or listing of courses can prove difficult. Strictly in Montreal universities, the number of courses range in the thousands. The problem is exacerbated by the fact that many courses are multidisciplinary. For graduate students in particular, who should look for courses on a topic related to their research, it implies that defining their course plan can be a difficult process that requires some assistance. Even when a course that is relevant is found, it often is not offered in the right semester or it is filled to capacity. Therefore, a system that provides a means of finding courses based on their similarity would prove very useful. A number of systems have been developed to provide course recommendations to students, but we aim to define an approach that is solely content-based, using the similarity of course descriptions. The algorithm is based on the vector-space model of the term-document matrix. This thesis presents the FCRC approach (content-based course recommender) which offers recommendations based on course similarity measures. Results show that the similarity measured on the cosine between document vectors offers relatively complete and precise recommendations. The Dice coefficient is also a good measure of similarity. In general, the first 5 of 10 recommendations are relevant based on this approach, and the recall rate is close to 100%

    Propositions de méthodologies pour la valorisation de la médecine traditionnelle fondées sur une ontologie

    Get PDF
    The work presented in this thesis focuses on the problematic of the valorization of traditional medicine. Traditional medicine is a very rich biological andcultural diversity. His practise is widespread and occurs in various forms. The valorization of this medicine is now a very important issue; it will capitalize this knowledge to popularize, and thus improve its performance in terms of diagnosis, treatment and cost. World Health Organization (WHO)proposes its integration into the national health system. But the practice and exercise of this medicine face many problems which make its implementation difficult. Among these problems, we can list the informal nature of its practice, its content is not formalized, its access mode is not determined, etc. We propose in this thesis, practices more efficient based on the new technology of information and communications; they based specifically on semantic resource such as the ontology which is the formal structure of an acquaintance. The methods proposed in this thesis allow to formalize the contents of this medicine, to facilitate its exercise and ultimately to succeed its revalorization.Le travail présenté dans cette thèse porte sur la problématique de la valorisation de la médecine traditionnelle. La médecine traditionnelle est d’une diversité biologique et culturelle très riche. Sa pratique est très répandue et se fait sous des formes variées . La valorisation de cette médecine constitue aujourd’hui un enjeu très important ; elle permettra de capitaliser ce savoir, de le vulgariser, et donc d’améliorer ses prestations en termes de diagnostic, de traitement et de coût. L’Organisation Mondiale de la Santé (OMS) propose, du reste, de l’intégrer dans le système national de santé. Mais la pratique et l’exercice de cette médecine rencontrent de nombreux problèmes qui rendent son application difficile. Parmi ces problèmes, nous pouvons relever le caractère informel de sa pratique, son contenu non formalisé, son mode d’accès non déterminé, etc. Nous proposons, dans cette thèse, des techniques de pratiques plus efficaces puisque basées sur les nouvelles technologies de l’information et de la communication ; celles-ci reposent plus spécifiquement sur la ressource sémantique telle que l’ontologie qui est la structuration formelle d’une connaissance. Les méthodes proposées dans cette thèse permettent de formaliser le contenu de cette médecine, pour en faciliter l’exercice et en définitive, pour aboutir à sa revalorisation
    corecore