1,831 research outputs found

    Le rôle épistémique de certaines simulations informatiques fondamentales en théorie de l'évolution

    Full text link
    Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

    Annotation sémantique de documents pour la révision des règles métiers

    No full text
    http://www.irit.fr/TIA09/thekey/articles/guisse-levy-nazarenko-szulman.pdfLes systèmes décisionnels reposent généralement sur un ensemble de règles métiers dont la formalisation nécessite souvent de revenir aux documents sources pour des raisons de justification ou de maintenance. Cela pose un problème complexe d'annotation sémantique puisqu'il faut articuler des textes réglementaires, des règles métiers qui en sont dérivées de manière plus ou moins directe et une ontologie du domaine qui décrit le vocabulaire conceptuel dans lequel les règles métiers s'expriment. Nous proposons une structure riche d'index qui permet de passer des concepts de l'ontologie et des règles aux textes et inversement

    Les définitions des émotions en français et en espagnol : Étude sémantique et lexicographique

    Get PDF
    Cet article veut démontrer la possibilité de standardisation de la définition lexicographique pour des lexèmes appartenant à un même champ sémantique bilingue. Nous traitons ici, avec des fins de démonstration, le champ des émotions en français et en espagnol. Nous décrivons les principes sur lesquels nous nous appuyons pour l’établissement de ce patron standard de définition et les résultats auxquels nous parvenons pour le champ concerné. Nous énumérons ensuite les conséquences générales qu’implique cette standardisation des définitions en ce qui concerne l’analyse et la comparaison des contenus sémantiques d’unités lexicales appartenant à deux langues différentes. Nous montrons aussi le changement qualitatif que supposerait pour la lexicographie bilingue, l’introduction systématique de ce procédé de patron standard de définition.The aim of this article is to demonstrate the possibility of standardization of lexicographic definitions in lexemes which belong to a bilingual semantic field. We present here the analysis of a group of French and Spanish words denoting emotions. We describe the principles that underlie the constitution of the definitional standard pattern and the results for this particular field. We enumerate the general consequences that suppose this definitional pattern for the analysis and comparison of the semantic characteristics of lexical units belonging to two tongues. We also show that the systematic introduction of definitional patterns in bilingual lexicography would mean a qualitative transformation of bilingual dictionary

    Proposition d'un modèle relationnel d'indexation syntagmatique : mise en oeuvre dans le système iota

    No full text
    National audienceNous présentons un modèle supportant une indexation à base de syntagmes. Cette modélisation inclut une description formelle des termes d'indexation, un processus de dérivation, une fonction de correspondance, une sémantique du langage d'indexation et une fonction de pondération de la orrespondance entre termes d'indexation. Elle met en évidence les éléments qui doivent permettre de guider la conception de Systèmes de Recherche d'Informations à base de mots composés. Nous proposons également un choix de techniques pour mettre en oeuvre ce modèle, particulièrement dans l'extraction automatique des syntagmes et dans leur pondération pour le calcul de la mesure pertinence d'un document par rapport à une requête

    Repérage automatique de structures linguistiques en corpus : le cas des énoncés définitoires

    Get PDF
    International audienceThis paper presents the process that leads from a linguistic study on a given type of discourse phenomena (definitions, in our case) to the practical design of morpho-syntactic patterns for their automatic retrieval in corpora. We present and assess the technological aspects of such a study, including an evaluation of the resulting patterns, and we discuss the three different kinds of skill needed in the process: generic linguistic knowledge, use of NLP tools, and corpus linguistics.Cet article propose, pour le cas spécifique des énoncés définitoires, une démarche qui s'échelonne depuis une étude linguistique du phénomène jusqu'à la constitution de patrons permettant un repérage automatique des énoncés. Une attention particulière est portée aux technologies d'analyse de corpus, et l'accent est tout particulièrement mis sur les différentes pratiques à l'oeuvre dans cette démarche : une pratique linguistique, une pratique des outils de repérage, et une pratique spécifique à l'étude des corpus

    Régularité, génération de documents, et Cyc

    Get PDF
    Nous nous intéressons à la modélisation des réseaux hiérarchiques, et avons développé un modèle de hiérarchies sémantiques basé sur la RÉGULARITÉ, une généralisation de l’héritage [MIL 88a]. Nous nous intéressons également à la génération de documents séquentiels structurés à partir de documents hypertextes en utilisant la sémantique des liens hypertextes pour structurer la présentation [MIL 90b]. Nous avons acquis une copie de la base de connaissances CYC [LEN 90a] dans le but de: 1) utiliser le réseau sémantique sous-jacent à CYC pour aider à la génération de textes, et 2) tester\ud l’hypothèse de la régularité. Ironiquement, la taille gigantesque de CYC a forcé ses concepteurs d’adopter des optimisations d’implantation qui la rendent peu adaptée aux explorations logiques profondes requises par la génération de textes. Par ailleurs, l’étude des patrons de régularité dans CYC nous a amené à généraliser la notion de régularité, et à formuler un certain nombre d’hypothèses quant à la structure logique de la base de connaissances

    Parcours interprétatifs et terminologie

    No full text
    http://www.loria.fr/~yannick/TIA2005/doc/poibeau.pdfCet article esquisse quelques réflexions liées au renouveau de l'analyse terminologique de ces dernières années. Alors que l'analyse reposait auparavant essentiellement sur les connaissances d'experts du domaine, la linguistique textuelle a proposé un nouveau cadre pour l'acquisition de terminologie. Cette évolution renouvelle la réflexion sur le statut des connaissances obtenues et modélisées : en quoi la langue rend-elle compte de la notion de domaine ? Quelle est la relation entre terminologie et monde physique ? Le terme a-t-il une dimension référentielle ? Nous proposons quelques pistes de réflexion, en nous inspirant largement des travaux théoriques récents dans le domaine

    : Identification of fuzzy and underspecified terms in technical documents : an experiment with distributional semantics

    Get PDF
    International audienceThis study takes place in the framework of the development of linguistic resources used by an automatic verification system of technical documents like specifications. Our objective is to enlarge semi-automatically the classes of intrinsically fuzzy terms along with generic terms in order to improve the steps of identifying ambiguous elements of the system such as factors of risk. We measure and compare the efficiency of the methods of automatic distributional analysis by considering obtained results from corpora of different sizes and specialization degrees by priming from a reduced list of prime terms. We show that if a corpus of too limited size is not useable, its automatic extension by similar documents produces results that can be completed by those obtained from distributional analysis on large generic corpora.Cette étude se place dans le cadre du développement des ressources linguistiques utilisées par un système de vérification automatique de documentations techniques comme les spécifications. Notre objectif est d'étendre semi-automatiquement des classes de termes intrinsèquement flous ainsi que des termes génériques afin d'améliorer le système de détection de passages ambigus reconnus comme des facteurs de risque. Nous mesurons et comparons l'efficacité de méthodes d'analyse distributionnelle automatiques en comparant les résultats obtenus sur des corpus de taille et de degré de spécialisation variables pour une liste réduite de termes amorces. Nous montrons que si un corpus de taille trop réduite est inutilisable, son extension automatique par des documents similaires donne des résultats complémentaires à ceux que produit l'analyse distributionnelle sur de gros corpus génériques

    Identification de termes flous et génériques dans la documentation technique : expérimentation avec l’analyse distributionnelle automatique

    Get PDF
    International audienceThis study takes place in the framework of the development of linguistic resources used by an automatic verification system of technical documents like specifications. Our objective is to enlarge semi-automatically the classes of intrinsically fuzzy terms along with generic terms in order to improve the steps of identifying ambiguous elements of the system such as factors of risk. We measure and compare the efficiency of the methods of automatic distributional analysis by considering obtained results from corpora of different sizes and specialization degrees by priming from a reduced list of prime terms. We show that if a corpus of too limited size is not usable, its automatic extension by similar documents produces results that can be completed by those obtained from distributional analysis on large generic corpora.Cette étude se place dans le cadre du développement des ressources linguistiques utilisées par un système de vérification automatique de documentations techniques comme les spécifications. Notre objectif est d'étendre semi-automatiquement des classes de termes intrinsèquement flous ainsi que des termes génériques afin d'améliorer le système de détection de passages ambigus reconnus comme des facteurs de risque. Nous mesurons et comparons l'efficacité de méthodes d'analyse distributionnelle automatiques en comparant les résultats obtenus sur des corpus de taille et de degré de spécialisation variables pour une liste réduite de termes amorces. Nous montrons que si un corpus de taille trop réduite est inutilisable, son extension automatique par des documents similaires donne des résultats complémentaires à ceux que produit l'analyse distributionnelle sur de gros corpus génériques

    Les emprunts : du repérage aux analyses. Diversité des objectifs et des traitements

    Get PDF
    Deux exposés, complémentaires et non opposés, visent à illustrer la complexité du concept d'emprunt : des points de vue et des objectifs différents conduisent à des pratiques différentes. Cette complexité du concept d'emprunt est responsable de nombre de malentendus à dissiper. JFS s'intéresse au processus (l'emprunt est un des - trois - types fondamentaux traditionnellement reconnus de la néologie) et examine les difficultés concrètes auxquelles on se heurte dans l'analyse des néologismes relevés et dans l'identification de leur matrice lexicale. Quelques propositions sont esquissées. La dimension processuelle est en revanche absente des préoccupations de CJP. Son objectif est le repérage, dans des productions écrites, d'unités lexicales dont certaines particularités formelles révèlent une origine étrangère, donc non intégrée au système de la langue emprunteuse. Ces informations sont utilisables dans différentes étapes et en vue de différentes applications de l'analyse automatique : recherche d'information et indexation, identification de types de textes, de spécialité en particulier, domaines du savoir dont ils traitent, reconnaissance des langues utilisées, notamment dans le contexte de la traduction..
    • …
    corecore