1,287 research outputs found

    Analyse syntaxique et granularité variable

    No full text
    National audienceIt is beneficial for a syntactic analysis - in Natural Language Processing- to be carried out with more or less accuracy depending on the context, i.e. its granularity should be adjustable. In order to reach this objective, we present here preliminary studies allowing, first of all, to understand the technical and scientific contexts which raise this problem. We establish a framework within which developments can be carried out. Several kinds of variable granularity are defined.We then describe a technic developed within this framework using satisfaction density, on algorithms based on a constraints satisfaction formalism (Property Grammars) and allowing the use of the same linguistic resources with an adjustable degree of accuracy. Lastly, we further consider developments towards a syntactic analysis with variable granularity.Il est souhaitable qu'une analyse syntaxique en traitement automatique des langues naturelles soit rĂ©alisĂ©e avec plus ou moins de prĂ©cision en fonction du contexte, c'est-Ă -dire que sa granularitĂ© soit rĂ©glable. Afin d'atteindre cet objectif, nous prĂ©sentons ici des Ă©tudes prĂ©liminaires permettant d'apprĂ©hender les contextes technique et scientifique qui soulĂšvent ce problĂšme.Nous Ă©tablissons un cadre pour les dĂ©veloppements Ă  rĂ©aliser. Plusieurs types de granularitĂ© sont dĂ©finis. Puis nous dĂ©crivons une technique basĂ©e sur la densitĂ© de satisfaction, dĂ©veloppĂ©edans ce cadre avec des algorithmes basĂ©s sur un formalisme de satisfaction de contraintes (celui des Grammaires de PropriĂ©tĂ©s) ayant l'avantage de permettre l'utilisation des mĂȘmes ressources linguistiques avec un degrĂ© de prĂ©cision rĂ©glable. Enfin, nous envisageons les dĂ©veloppements ultĂ©rieurs pour une analyse syntaxique Ă  granularitĂ© variable

    Analyse syntaxique du français : des constituants aux dépendances

    Get PDF
    10 pagesInternational audienceThis paper describes a technique for both constituent and dependency parsing. Parsing proceeds by adding functional labels to the output of a constituent parser trained on the French Treebank in order to further extract typed dependencies. On the one hand we specify on formal and linguistic grounds the nature of the dependencies to output as well as the conversion algorithm from the French Treebank to this dependency representation. On the other hand, we describe a class of algorithms that allows to perform the automatic labeling of the functions from the output of a constituent based parser. We specifically focus on discriminative learning methods for functional labelling

    Une approche formelle pour la génération d'analyseurs de langages naturels

    Get PDF
    [Abstract] Un processus d'analyse syntaxique et d'annotation efficace est dĂ©terminante dans l'Ă©laboration de structures d'analyse de langages naturels. Ce papier introduit un environnement de programmation permettant l'implĂ©mentation du support formel des langages naturels depuis deux points de vue, analyse syntaxique et annotation. Le problĂšme de l'analyse syntaxique se pose dans le domaine de l'analyse de grammaires algĂ©briques sans restrictions, et celui de l'annotation dans le contexte des automates finis non dĂ©terministes. L'analyseur syntaxique prends en entrĂ©e un texte arbitraire, suivant la structure dĂ©signĂ©e par une grammaire algĂ©brique. La structure de la forĂȘt partagĂ©e rĂ©sultante est Ă©tudiĂ©e par rapport Ă  l'optimisation du partage syntaxique, de façon Ă  favoriser l'Ă©limination des ambigĂŒitĂ©s pendant le processus sĂ©mantique. Les automates Ă  Ă©tats finis sont utilisĂ©s comme formalisme opĂ©rationnel pour annoter les corpora de façon efficace, spĂ©cialement pour les langages autres que l'Anglais, pour lesquels l'analyse morphologique a une relevance accrue. Les deux activitĂ©s, analyse syntaxique et annotation, sont intĂ©grĂ©es dans un mĂȘme outil, qui a pour nom Galena (pour Generador de Analizadores para Lenguages Naturales), fournissant l'incrĂ©mentalitĂ© comme fonctionnalitĂ© favorisant la rĂ©utilisabilitĂ© des composantes d'un point de vue gĂ©nie logiciel.Xunta de Galcia; XUGA10501A9

    ANTELOPE - Une plateforme industrielle de traitement linguistique

    Get PDF
    International audienceThe Antelope linguistic platform, inspired by Meaning-Text Theory, targets the syntactic and semantic analysis of texts, and can handle large corpora. Antelope integrates several pre-existing (parsing) components as well as broad-coverage linguistic data originating from various sources. Efforts towards integration of all components nonetheless make for a homogeneous platform. Our direct contribution deals with components for semantic analysis, and the formalization of a unified text analysis model. This paper introduces the platform and compares it with state-of-the-art projects. It offers to the NLP community a feedback from a software company, by underlining the architectural measures that should be taken to ensure that such complex software remains maintainable.La plate-forme de traitement linguistique Antelope, en partie basée sur la Théorie Sens-Texte (TST), permet l'analyse syntaxique et sémantique de textes sur des corpus de volume important. Antelope intÚgre plusieurs composants préexistants (pour l'analyse syntaxique) ainsi que des données linguistiques à large couverture provenant de différentes sources. Un effort d'intégration permet néanmoins d'offrir une plate-forme homogÚne. Notre contribution directe concerne l'ajout de composants d'analyse sémantique et la formalisation d'un modÚle linguistique unifié. Cet article présente la plate-forme et la compare à d'autres projets de référence. Il propose un retour d'expérience d'un éditeur de logiciel vers la communauté du TAL, en soulignant les précautions architecturales à prendre pour qu'un tel ensemble complexe reste maintenable

    Extraction de paraphrases désambiguïsées à partir d'un corpus d'articles encyclopédiques alignés automatiquement

    Get PDF
    International audienceWe describe here how to automatically import encyclopedic articles into WordNet. This process makes it possible to create new entries, attached to their appropriate hypernym. In addition, the preexisting entries of WordNet can get enriched with complementary descriptions. Reiterating this process on several encyclopedias makes it possible to constitute a corpus of comparable articles; we can then automatically extract paraphrases from the couples of articles that have been created. The paraphrases components can finally be disambiguated, by means of a similarity measure (using the verbs WordNet hierarchy).Nous dĂ©crivons ici comment enrichir automatiquement WordNet en y important des articles encyclopĂ©diques. Ce processus permet de crĂ©er des nouvelles entrĂ©es, en les rattachant au bon hyperonyme. Par ailleurs, les entrĂ©es prĂ©existantes de WordNet peuvent ĂȘtre enrichies de descriptions complĂ©mentaires. La rĂ©pĂ©tition de ce processus sur plusieurs encyclopĂ©dies permet de constituer un corpus d'articles comparables. On peut ensuite extraire automatiquement des paraphrases Ă  partir des couples d'articles ainsi crĂ©Ă©s. GrĂące Ă  l'application d'une mesure de similaritĂ©, utilisant la hiĂ©rarchie de verbes de WordNet, les constituants de ces paraphrases peuvent ĂȘtre dĂ©sambiguĂŻsĂ©s

    Syntex, analyseur syntaxique de corpus

    Get PDF
    Cet article est un document de présentation de l'analyseur syntaxique de corpus Syntex, dans lequel nous décrivons les principes à la base du développement de l'analyseur et son architecture informatique. Une bibliographie du projet SYNTEX est donnée à la fin du document

    Modèles génératif et discriminant en analyse syntaxique : expériences sur le corpus arboré de Paris 7

    No full text
    International audienceNous présentons une architecture pour l'analyse syntaxique en deux étapes. Dans un premier temps un analyseur syntagmatique construit, pour chaque phrase, une liste d'analyses qui sont converties en arbres de dépendances. Ces arbres sont ensuite réévalués par un réordonnanceur discriminant. Cette méthode permet de prendre en compte des informations auxquelles l'analyseur n'a pas accès, en particulier des annotations fonction- nelles. Nous validons notre approche par une évaluation sur le corpus arboré de Paris 7. La seconde étape permet d'améliorer significativement la qualité des analyses retournées, quelle que soit la métrique utilisée

    Influence de la qualité de l'étiquetage sur le chunking: une corrélation dépendant de la taille des chunks

    No full text
    International audienceWe show in this paper that a strong correlation exists between the performance of chunk parsers and the quality of the tagging task in input. This dependency becomes linear when the size of the chunks is small. Our demonstration is based on an experiment conducted at the end of the Passage 2007 shared task evaluation initiative (De la Clergerie et al. 2008). The performance of two parsers which took part in this evaluation has been investigated. The results indicate that the chunking task, for sufficiently short chunks, is similar to a super-tagging task.Nous montrons dans cet article qu'il existe une corrĂ©lationĂ©troite existant entre la qualitĂ© de l'Ă©tiquetagemorpho-syntaxique et les performances des chunkers. CettecorrĂ©lation devient linĂ©aire lorsque la taille des chunks estlimitĂ©e. Nous appuyons notre dĂ©monstration sur la base d'uneexpĂ©rimentation conduite suite Ă  la campagne d'Ă©valuationPassage 2007 (De la Clergerie et al. 2008). Nous analysons pourcela les comportements de deux analyseurs ayant participĂ© Ă  cettecampagne. L'interprĂ©tation des rĂ©sultats montre que la tĂąche dechunking, lorsqu'elle vise des chunks courts, peut ĂȘtre assimilĂ©eĂ  une tĂąche de ``super-Ă©tiquetage'

    Direkt Profil : un systĂšme d’évaluation de textes d’élĂšves de français langue Ă©trangĂšre fondĂ© sur les itinĂ©raires d'acquisition

    Get PDF
    Abstract in FrenchRĂ©sumĂ© : Direkt Profil est un analyseur automatique de textes Ă©crits en français comme langue Ă©trangĂšre. Son but est de produire une Ă©valuation du stade de langue des Ă©lĂšves sous la forme d’un profil d’apprenant. Direkt Profil rĂ©alise une analyse des phrases fondĂ©e sur desitinĂ©raires d’acquisition, i.e. des phĂ©nomĂšnes syntaxiques locaux liĂ©s Ă  un dĂ©veloppement dans l’apprentissage du français. L’article prĂ©sente les corpus que noustraitons et d’une façon sommaire les itinĂ©raires d’acquisition. Il dĂ©crit ensuite l’annotationque nous avons dĂ©finie, le moteur d’analyse syntaxique et l’interface utilisateur. Nous concluons par les rĂ©sultats obtenus jusqu’ici : sur le corpus de test, le systĂšme obtient un rappel de 83% et une prĂ©cision de 83%Abstract: Direkt Profil is an automatic analyzer of texts written in French as a second language. The objective is to produce an evaluation of the development stage of the students under the form of a learner profile. Direkt Profil carries out a sentence analysis based ondevelopmental sequences, i.e. local morphosyntactic phenomena linked to a development in the learning of French. The paper presents the corpus that we use and briefly, the developmental sequences. Furthermore, it describes the annotation that we have defined, theparser, and the user interface. We conclude by the results obtained so far: on the test corpus the systems obtains a recall of 83% and a precision of 83%
    • 

    corecore