114 research outputs found

    Approche logique de grammaires pour les langues naturelles

    Get PDF
    Les contributions majeures de cette thèse s’articulent autour des trois axes de base de la linguistique computationnelle, à savoir la logique, la linguistique et l’informatique. Nous proposons ainsi un nouveau système non-directionnel GLE permettant de simuler les opérations transformationnelles du Programme Minimaliste dans un cadre logique qui fait appel au raisonnement hypothétique de manière contrôlée. La pertinence de ce formalisme est soulignée en montrant sa capacité de prendre en charge des phénomènes linguistiques complexes, nécessitant un partage contraint de ressources, tels que le liage d’anaphores ou la résolution d’ellipse. En outre, nous présentons un atelier logique ICHARATE destiné à la recherche et l’enseignement de la linguistique computationnelle. Cet outil est composé de bibliothèques pour l’assistant à la démonstration Coq, qui comprennent la formalisation de systèmes logiques avancés dédiés au traitement des langues naturelles, dont la logique multimodale.The major contributions of this thesis are articulated around the three basic axes of computational linguistics, namely logic, linguistics and computer science. We propose a new undirected system GLE which allows to simulate the transformational operations of Minimalist Program within a logical setting. The relevance of this formalism is underlined by showing its ability to deal with complex linguistic phenomena, requiring constrained resource sharing, such as anaphora binding or ellipsis resolution. Moreover, we present a logical framework ICHARATE intended for the study of computational linguistics. This tool is composed of libraries, built upon the Coq proof assistant, which include the formalization of advanced logical systems dedicated to natural language analysis, such as multimodal logic

    La non-commutativité comme argument linguistique : modéliser la notion de phase dans un cadre logique

    Get PDF
    International audienceRÉSUMÉ. L'une des questions du traitement automatique des langues est de discuter de la réalité de la capacité langagière des formalismes. Au delà de la modélisation linguistique, la théorie générative de Chomsky et le minimalisme s'intéressent à appréhender le langage humain en tant que processus cognitif, ce qui conduit à introduire le principe de dérivation par phases. Une première formalisation du minimalisme a été proposée dans (Stabler, 1997) afin, notamment, d'en étudier les propriétés computationnelles. L'extension formelle proposée ici, basée sur les Grammaires Minimalistes Catégorielles, (Amblard, 2011), s'attache à intégrer la notion de phase dans un cadre logique qui permet aussi de définir un calcul sémantique. Les enjeux de cette modélisation nous amènent à discuter de la commutativité et de la non-commutativité dans le formalisme. ABSTRACT. One of the recurring questions in natural language processing is the models's ability to account for the reality of language ability. Chomsky's Generative Theory and Minimalism are interested in understanding human language as a cognitive process, which is especially highlighted in the latest proposals by the principle of derivation by phases. A first formaliza-tion of Minimalism was introduced in (Stabler, 1997) to study the computational properties. The extension proposed here attempts to account for the idea of phase in a logical framework that allows to easily define a semantic calculus from parsing. This approach raises the problem of using the commutativity and non-commutativity in the Minimalist Categorial Grammars , (Amblard, 2011)

    Modélisation des mouvements explicites dans les ACG avec le produit dépendant

    Get PDF
    National audienceAbstract Categorial Grammars (ACG) is a grammatical framework based on linear lambda-calculus. As in Muskens' Lambda Grammars, an abstract term in this kind of categorial grammar can be realized in different directions, such as syntactic and semantic ones. This structure provides autonomy for these different processings. ACG's architecture is independent from the used logic and so the type system is easily extensible in order to deal better with some linguistic phenomena. This paper will be concerned with the issue of overt grammatical movements, in particular extraction constraints in relative propositions, and how several close frameworks deal with it. We will introduce the dependent product construction and show how use it to capture this phenomenon in ACG

    La logique et les logiques : la question du pluralisme

    Full text link
    Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.Starting from the seminal work of Boole, Frege and Russell, the dissertation seeks to clarify the issue of logical pluralism in the era of the proliferation of non-classical logics and the developments in theoretical computer science and proof theory. Two “historical” chapters are scheduled: the first chapter articulate the absolutism of Frege and Russell, taking care to show how it condemns the possibility to consider alternative structures and logics; the fourth chapter describes the path that led Carnap from the adoption of the syntactic method to the formulation of the principle of tolerance, then goes on to display Carnap‟s instrumentalism in philosophy of Logic and mathematics. Opening with the analysis of an intuitive interpretation of linear logic, the second chapter then turns to the establishment of a form of logico-mathematical pluralism with the help of order theory and category theory. The third chapter delineates the playground of revisionism (philosophical positions surrounding the debate between monism and pluralism) and then provides an argument against the thesis that denies the reality of the conflict between rival logics, all this being done by adopting the substructural logic point of view. The fifth chapter shows that each of the three main approaches to the concept of logical consequence (model-theoretic, proof-theoretic and dialogical) supplies a framework sufficiently general to establish pluralism. In short, the dissertation is a defence of logical pluralism

    Volume 1: Modélisation, unités, structures

    Get PDF
    Conçu comme une introduction générale à la syntaxe, cet ouvrage présente les notions de base nécessaires à une étude de la combinaison des unités lexicales et grammaticales au sein d’un énoncé. Sans se placer dans un cadre préconçu, l’ouvrage étudie les différentes possibilités pour la représentation des structures syntaxiques, en fonction des principes généraux et des critères particuliers retenus. Élaboré avec l’objectif de fournir une base pour l’enseignement de la syntaxe à l’université, cet ouvrage souhaite montrer qu’on peut dégager de manière méthodique les propriétés des langues et mettre de l’ordre dans la forêt vierge que constitue chaque langue. Il est divisé en trois parties : comment élaborer le modèle d’une langue, comment déterminer les unités de base de la langue en fonction de leur sens, forme et combinatoire, comment définir et représenter les différents modes d’organisation des unités. Cette dernière partie présente une abondance de diagrammes syntaxiques de diverses natures. L’ouvrage est découpé en de petites sections, alternant le contenu principal avec des éclairages, des notes historiques, des élaborations plus formelles, des exemples linguistiques dans diverses langues, des propositions de lectures additionnelles et des exercices avec des éléments de correction

    Syntaxe théorique et formelle

    Get PDF
    Conçu comme une introduction générale à la syntaxe, cet ouvrage présente les notions de base nécessaires à une étude de la combinaison des unités lexicales et grammaticales au sein d’un énoncé. Sans se placer dans un cadre préconçu, l’ouvrage étudie les différentes possibilités pour la représentation des structures syntaxiques, en fonction des principes généraux et des critères particuliers retenus. Élaboré avec l’objectif de fournir une base pour l’enseignement de la syntaxe à l’université, cet ouvrage souhaite montrer qu’on peut dégager de manière méthodique les propriétés des langues et mettre de l’ordre dans la forêt vierge que constitue chaque langue. Il est divisé en trois parties : comment élaborer le modèle d’une langue, comment déterminer les unités de base de la langue en fonction de leur sens, forme et combinatoire, comment définir et représenter les différents modes d’organisation des unités. Cette dernière partie présente une abondance de diagrammes syntaxiques de diverses natures. L’ouvrage est découpé en de petites sections, alternant le contenu principal avec des éclairages, des notes historiques, des élaborations plus formelles, des exemples linguistiques dans diverses langues, des propositions de lectures additionnelles et des exercices avec des éléments de correction

    Méthodes d'analyse supervisée pour l'interface syntaxe-sémantique: De la réécriture de graphes à l'analyse par transitions

    Get PDF
    Nowadays, the amount of textual data has become so gigantic, that it is not possible to deal with it manually. In fact, it is now necessary to use Natural Language Processing techniques to extract useful information from these data and understand their underlying meaning. In this thesis, we offer resources, models and methods to allow: (i) the automatic annotation of deep syntactic corpora to extract argument structure that links (verbal) predicates to their arguments (ii) the use of these resources with the help of efficient methods.First, we develop a graph rewriting system and a set of manually-designed rewriting rules to automatically annotate deep syntax in French. Thanks to this approach, two corpora were created: the DeepSequoia, a deep syntactic version of the Séquoia corpus and the DeepFTB, a deep syntactic version of the dependency version of the French Treebank. Next, we extend two transition-based parsers and adapt them to be able to deal with graph structures. We also develop a set of rich linguistic features extracted from various syntactic trees. We think they are useful to bring different kind of topological information to accurately predict predicat-argument structures. Used in an arc-factored second-order parsing model, this set of features gives the first state-of-the-art results on French and outperforms the one established on the DM and PAS corpora for English.Finally, we briefly explore a method to automatically induce the transformation between a tree and a graph. This completes our set of coherent resources and models to automatically analyze the syntax-semantics interface on French and English.Aujourd'hui, le volume de données textuelles disponibles est colossal. Ces données représentent des informations inestimables impossibles à traiter manuellement. De fait, il est essentiel d'utiliser des techniques de Traitement Automatique des Langues pour extraire les informations saillantes et comprendre le sens sous-jacent. Cette thèse s'inscrit dans cette perspective et proposent des ressources, des modèles et des méthodes pour permettre : (i) l'annotation automatique de corpus à l'interface entre la syntaxe et la sémantique afin d'en extraire la structure argumentale (ii) l'exploitation des ressources par des méthodes efficaces. Nous proposons d’abord un système de réécriture de graphes et un ensemble de règles de réécriture manuellement écrites permettant l'annotation automatique de la syntaxe profonde du français. Grâce à cette approche, deux corpus ont vu le jour : le DeepSequoia, version profonde du corpus Séquoia et le DeepFTB, version profonde du French Treebank en dépendances. Ensuite, nous proposons deux extensions d'analyseurs par transitions et les adaptons à l'analyse de graphes. Nous développons aussi un ensemble de traits riches issus d'analyses syntaxiques. L'idée est d'apporter des informations topologiquement variées donnant à nos analyseurs les indices nécessaires pour une prédiction performante de la structure argumentale. Couplé à un analyseur par factorisation d'arcs, cet ensemble de traits permet d'établir l'état de l'art sur le français et de dépasser celui établi pour les corpus DM et PAS sur l'anglais. Enfin, nous explorons succinctement une méthode d'induction pour le passage d'un arbre vers un graphe

    Mise au point d'un formalisme syntaxique de haut niveau pour le traitement automatique des langues

    Get PDF
    The goal of computational linguistics is to provide a formal account linguistical knowledge, and to produce algorithmic tools for natural languageprocessing. Often, this is done in a so-called generative framework, where grammars describe sets of valid sentences by iteratively applying some set of rewrite rules. Another approach, based on model theory, describes instead grammaticality as a set of well-formedness logical constraints, relying on deep links between logic and automata in order to produce efficient parsers. This thesis favors the latter approach. Making use of several existing results in theoretical computer science, we propose a tool for linguistical description that is both expressive and designed to facilitate grammar engineering. It first tackles the abstract structure of sentences, providing a logical language based on lexical properties of words in order to concisely describe the set of grammaticaly valid sentences. It then draws the link between these abstract structures and their representations (both in syntax and semantics), through the use of linearization rules that rely on logic and lambda-calculus. Then in order to validate this proposal, we use it to model various linguistic phenomenas, ending with a specific focus on languages that include free word order phenomenas (that is, sentences which allow the free reordering of some of their words or syntagmas while keeping their meaning), and on their algorithmic complexity.La linguistique informatique a pour objet de construire un modèle formel des connaissances linguistiques, et d’en tirer des algorithmes permettant le traitement automatique des langues. Pour ce faire, elle s’appuie fréquemment sur des grammaires dites génératives, construisant des phrases valides par l’application successive de règles de réécriture. Une approche alternative, basée sur la théorie des modèles, vise à décrire la grammaticalité comme une conjonction de contraintes de bonne formation, en s’appuyant sur des liens profonds entre logique et automates pour produire des analyseurs efficaces. Notre travail se situe dans ce dernier cadre. En s’appuyant sur plusieurs résultats existants en informatique théorique, nous proposons un outil de modélisation linguistique expressif, conçu pour faciliter l’ingénierie grammaticale. Celui-ci considère dans un premier temps la structure abstraite des énoncés, et fournit un langage logique s’appuyant sur les propriétés lexicales des mots pour caractériser avec concision l’ensemble des phrases grammaticalement correctes. Puis, dans un second temps, le lien entre ces structures abstraites et leurs représentations concrètes (en syntaxe et en sémantique) est établi par le biais de règles de linéarisation qui exploitent la logique et le lambda-calcul. Par suite, afin de valider cette approche, nous proposons un ensemble de modélisations portant sur des phénomènes linguistiques divers, avec un intérêt particulier pour le traitement des langages présentant des phénomènes d’ordre libre (c’est-à-dire qui autorisent la permutation de certains mots ou groupes de mots dans une phrase sans affecter sa signification), ainsi que pour leur complexité algorithmique

    Mise au point d'un formalisme de haut niveau pour le traitement automatique des langues

    Get PDF
    The goal of computational linguistics is to provide a formal account linguistical knowledge, and to produce algorithmic tools for natural language processing. Often, this is done in a so-called generative framework, where grammars describe sets of valid sentences by iteratively applying some set of rewrite rules. Another approach, based on model theory, describes instead grammaticality as a set of well-formedness logical constraints, relying on deep links between logic and automata in order to produce efficient parsers. This thesis favors the latter approach.Making use of several existing results in theoretical computer science, we propose a tool for linguistical description that is both expressive and designed to facilitate grammar engineering. It first tackles the abstract structure of sentences, providing a logical language based on lexical properties of words in order to concisely describe the set of grammaticaly valid sentences. It then draws the link between these abstract structures and their representations (both in syntax and semantics), through the use of linearization rules that rely on logic and lambda-calculus.Then in order to validate this proposal, we use it to model various linguistic phenomenas, ending with a specific focus on languages that include free word order phenomenas (that is, sentences which allow the free reordering of some of their words or syntagmas while keeping their meaning), and on their algorithmic complexity.La linguistique informatique a pour objet de construire un modèle formel des connaissances linguistiques, et d’en tirer des algorithmes permettant le traitement automatique des langues. Pour ce faire, elle s’appuie fréquemment sur des grammaires dites génératives, construisant des phrases valides par l’application successive de règles de réécriture. Une approche alternative, basée sur la théorie des modèles, vise à décrire la grammaticalité comme une conjonctionde contraintes de bonne formation, en s’appuyant sur des liens profonds entre logique et automates pour produire des analyseurs efficaces. Notre travail se situe dans ce dernier cadre.En s’appuyant sur plusieurs résultats existants en informatique théorique, nous proposons un outil de modélisation linguistique expressif, conçu pour faciliter l’ingénierie grammaticale. Celui-ci considère dans un premier temps la structure abstraite des énoncés, et fournit un langage logique s’appuyant sur les propriétés lexicales des mots pour caractériser avec concision l’ensemble des phrases grammaticalement correctes. Puis, dans un second temps, le lien entre ces structures abstraites et leurs représentations concrètes (en syntaxe et en sémantique) est établi par le biais de règles de linéarisation qui exploitent la logique et le lambda-calcul.Par suite, afin de valider cette approche, nous proposons un ensemble de modélisations portant sur des phénomènes linguistiques divers, avec un intérêt particulier pour le traitement des langages présentant des phénomènes d’ordre libre (c’est-à-dire qui autorisent la permutation de certains mots ou groupes de mots dans une phrase sans affecter sa signification), ainsi que pour leur complexité algorithmique

    Les grammaires catégorielles lambekiennes : le traitement des constituants discontinus

    Get PDF
    Jusque dans les années quatre-vingts, l’approche catégorielle s’avère incapable de proposer un traitement adéquat des constituants discontinus. La raison de cet échec provient du fait que les grammaires catégorielles sont régies par un principe d’adjacence qui pose que « the rules may only apply to entities which are linguistically realized and adjacent » (Steedman, 1985). L’impossibilité de montrer la bonne-formation syntaxique de la phrase « He looked it up » conduisit ainsi Bar-Hillel (195..
    corecore