777 research outputs found

    Une généralisation de la théorie des types en λ\lambda -calcul

    Full text link

    Décidabilité et Complexité

    Get PDF
    International audienceL'informatique fondamentale est un vaste sujet, comme en témoignent les 2 283 et 3 176 pages des "Handbooks" (228; 1). Couvrir en quelques dizaines de pages, l'ensemble de l'in- formatique nous a semblé une entreprise hors de notre portée. De ce fait, nous nous sommes concentrés sur la notion de calcul, sujet qui reflète le goût et la passion des auteurs de ce chapitre. La notion de calcul est omniprésente et aussi ancienne que les mathématiques

    Etude polarisée du système L

    Get PDF
    Herbelin coined the name ``System L'' to refer to syntactical quotients of sequent calculi, in which two classes of terms interact in commands, in the manner of Curien's and Herbelin's lambda-bar-mu-mu-tilde calculus or Wadler's dual calculus. This paper introduces a system L that has constructs for all connectives of second order linear logic, and that shifts focus from the old code/environment interaction to a game between positives and negatives. L provides quotients for major second order sequent calculi, in their right-hand-side-sequents formulation as well as their two-sided-sequents formulation, namely LL, LK and LLP. The logician reader will appreciate the unifying framework for the study of sequent calculi it claims to be, whereas the computer scientist reader will appreciate the fact that it is a step toward Herbelin's project of rebuilding a theory of computation that puts ``call by name'' and ``call by value'' on an equal footing --- in particular is L involved with respect to reduction strategies, to wit that a cut elimination protocol that enjoys the Curch-Rosser property seems to stand out, and it allows to mix lazy and eager aspects. The principal tool for the study of this system is classical realizability, a consequence being that this tool is now extended to call by value

    Conception d'un noyau de vérification de preuves pour le λΠ-calcul modulo

    No full text
    In recent years, the emergence of feature rich and mature interactive proof assistants has enabled large formalization efforts of high-profile conjectures and results previously established only by pen and paper. A medley of incompatible and philosophically diverging logics are at the core of all these proof assistants. Cousineau and Dowek (2007) have proposed the λΠ-calculus modulo as a universal target framework for other front-end proof languages and environments. We explain in this thesis how this particularly simple formalism allows for a small, modular and efficient proof checker upon which the consistency of entire systems can be made to rely upon. Proofs increasingly rely on computation both in the large, as exemplified by the proof of the four colour theorem by Gonthier (2007), and in the small following the SSReflect methodoly and supporting tools. Encoding proofs from other systems in the λΠ-calculus modulo bakes yet more computation into the proof terms. We show how to make the proof checking problem manageable by turning entire proof terms into functional programs and compiling them in one go using off-the-shelf compilers for standard programming languages. We use untyped normalization by evaluation (NbE) as an enabling technology and show how to optimize previous instances of it found in the literature. Through a single change to the interpretation of proof terms, we arrive at a representation of proof terms using higher order abstract syntax (HOAS) allowing for a proof checking algorithm devoid of any explicit typing context for all Pure Type Systems (PTS). We observe that this novel algorithm is a generalization to dependent types of a type checking algorithm found in the HOL proof assistants enabling on-the-fly checking of proofs. We thus arrive at a purely functional system with no explicit state, where all proofs are checked by construction. We formally verify in Coq the correspondence of the type system on higher order terms lying behind this algorithm with respect to the standard typing rules for PTS. This line of work can be seen as connecting two historic strands of proof assistants: LCF and its descendents, where proofs of untyped or simply typed formulae are checked by construction, versus Automath and its descendents, where proofs of dependently typed terms are checked a posteriori. The algorithms presented in this thesis are at the core of a new proof checker called Dedukti and in some cases have been transferred to the more mature platform that is Coq. In joint work with Denes, we show how to extend the untyped NbE algorithm to the syntax and reduction rules of the Calculus of Inductive Constructions (CIC). In joint work with Burel, we generalize previous work by Cousineau and Dowek (2007) on the embedding into the λΠ-calculus modulo of a large class of PTS to inductive types, pattern matching and fixpoint operators.Ces dernières années ont vu l'émergence d'assistants interactifs de preuves riches en fonctionnalités et d'une grande maturité d'implémentation, ce qui a permis l'essor des grosses formalisations de résultats papier et la résolution de conjectures célèbres. Mais autant d'assistants de preuves reposent sur presque autant de logiques comme fondements théoriques. Cousineau et Dowek (2007) proposent le λΠ-calcul modulo comme un cadre universel cible pour tous ces environnement de démonstration. Nous montrons dans cette thèse comment ce formalisme particulièrement simple admet une implémentation d'un vérificateur de taille modeste mais pour autant modulaire et efficace, à la correction de laquelle on peut réduire la cohérence de systèmes tout entiers. Un nombre croissant de preuves dépendent de calculs intensifs comme dans la preuve du théorème des quatre couleurs de Gonthier (2007). Les méthodologies telles que SSReflect et les outils attenants privilégient les preuves contenant de nombreux petits calculs plutôt que les preuves purement déductives. L'encodage de preuves provenant d'autres systèmes dans le λΠ-calcul modulo introduit d'autres calculs encore. Nous montrons comment gérer la taille de ces calculs en interprétant les preuves tout entières comme des programmes fonctionnels, que l'on peut compiler vers du code machine à l'aide de compilateurs standards et clé-en-main. Nous employons pour cela une variante non typée de la normalisation par évaluation (NbE), et montrons comment optimiser de précédentes formulation de celle-ci. Au travers d'une seule petite modification à l'interprétation des termes de preuves, nous arrivons aussi à une représentation des preuves en syntaxe abstraite d'ordre supérieur (HOAS), qui admet naturellement un algorithme de typage sans aucun contexte de typage explicite. Nous généralisons cet algorithme à tous les systèmes de types purs (PTS). Nous observons que cet algorithme est une extension à un cadre avec types dépendants de l'algorithme de typage des assistants de preuves de la famille HOL. Cette observation nous amène à développer une architecture à la LCF pour une large classe de PTS, c'est à dire une architecture où tous les termes de preuves sont corrects par construction, a priori donc, et n'ont ainsi pas besoin d'être vérifié a posteriori. Nous prouvons formellement en Coq un théorème de correspondance entre les système de types sans contexte et leur pendant standard avec contexte explicite. Ces travaux jettent un pont entre deux lignées historiques d'assistants de preuves : la lignée issue de LCF à qui nous empruntons l'architecture du noyau, et celle issue de Automath, dont nous héritons la notion de types dépendants. Les algorithmes présentés dans cette thèse sont au coeur d'un nouveau vérificateur de preuves appelé Dedukti et ont aussi été transférés vers un système plus mature : Coq. En collaboration avec Dénès, nous montrons comment étendre la NbE non typée pour gérer la syntaxe et les règles de réduction du calcul des constructions inductives (CIC). En collaboration avec Burel, nous généralisons des travaux précédents de Cousineau et Dowek (2007) sur l'encodage dans le λΠ-calcul modulo d'une large classe de PTS à des PTS avec types inductifs, motifs de filtrage et opérateurs de point fixe

    Une étude formelle de la théorie des calculs locaux à l'aide de l'assistant de preuve Coq

    Get PDF
    L'objectif de cette thèse est de produire un environnement permettant de raisonner formellement sur la correction de systèmes de calculs locaux, ainsi que sur l'expressivité de ce modèle de calcul. Pour ce faire, nous utilisons l'assistant de preuve Coq. Notre première contribution est la formalisation en Coq de la sémantique des systèmes de réétiquetage localement engendrés, ou calculs locaux. Un système de calculs locaux est un système de réétiquetage de graphe dont la portée est limitée. Nous proposons donc tout d'abord une implantation succincte de la théorie des graphes en Coq, et utilisons cette dernière pour définir les systèmes de réétiquetage de graphes localement engendrés. Nous avons relevé, dans la définition usuelle des calculs locaux, certaines ambiguïtés. Nous proposons donc une nouvelle définition, et montrons formellement que celle-ci capture toutes les sous-classes d'algorithmes étudiées. Nous esquissons enfin une méthodologie de preuve des systèmes de calculs locaux en Coq.Notre seconde contribution consiste en l'étude formelle de l'expressivité des systèmes de calculs locaux. Nous formalisons un résultat de D. Angluin (repris par la suite par Y. Métivier et J. Chalopin): l'inexistence d'un algorithme d'élection universelle. Nous proposons ensuite deux lemmes originaux concernant les calculs locaux sur les arêtes (ou systèmes LC0), et utilisons ceux-ci pour produire des preuves formelles d'impossibilité pour plusieurs problèmes: calcul du degré de chaque sommet, calcul d'arbre recouvrant, etélection. Nous proposons informellement une nouvelles classes de graphe pour laquelle l'élection est irréalisable par des calculs locaux sur les arêtes.Nous étudions ensuite les transformations de systèmes de calculs locaux et de leur preuves. Nous adaptons le concept de Forward Simulation de N. Lynch aux systèmes de calculs locaux et utilisons ce dernier pour démontrer formellement l'inclusion de deux modes de détection de terminaison dans le cas des systèmes LC0. La preuve de cette inclusion estsimplifiée par l'utilisation de transformations "standards" de systèmes, pour lesquels des résultats génériques ont été démontrés. Finalement, nous réutilisons ces transformations standards pour étudier, en collaboration avec M. Tounsi, deux techniques de composition des systèmes de réétiquetage LC0. Une bibliothèque Coq d'environ 50000 lignes, contenant les preuves formelles des théorèmes présentés dans le mémoire de thèse à été produite en collaboration avec Pierre Castéran (dont environ 40%produit en propre par V. Filou) au cours de cette thèse.The goal of this work is to build a framework allowing the study, in aformal setting, of the correctness of local computations systems aswell as the expressivity of this model. A local computation system isa set of graph relabelling rules with limited scope, corresponding to a class of distributed algorithms.Our first contribution is the formalisation, in the Coq proofassistant, of a relationnal semantic for local computation systems.This work is based on an original formal graph theory for Coq.Ambiguities inherent to a "pen and paper" definition of local computations are corrected, and we prove that our definition captures all sub-classes of relabelling relations studied in the remainder. We propose a draft of a proof methodology for local computation systems in Coq. Our second contribution is the study of the expressivity of classes of local computations inside our framework. We provide,for instance, a formal proof of D. Angluin results on election and graph coverings. We propose original "meta-theorems" concerningthe LC0 class of local computation, and use these theorem to produce formal impossibility proofs.Finally we study possible transformations of local computation systemsand of their proofs. To this end, we adapt the notion of ForwardSimulation, originally formulated by N. Lynch, to localcomputations. We use this notion to define certified transformationsof LC0 systems. We show how those certified transformation can be useto study the expressivity of certain class of algorithm in ourframework. We define, as certified transformation, two notions ofcomposition for LC0 systems.A Coq library of ~ 50000 lines of code, containing the formal proofs of the theorems presented in the thesis has been produced in collaboration with Pierre Castéran.BORDEAUX1-Bib.electronique (335229901) / SudocSudocFranceF

    L'introuvable identité du terme technique

    Get PDF
    International audienceD'une manière générale le terme n'est jamais pensé en lui-même mais toujours relativement à son antétype l'UL. De fait les notions de terme et d'UL sont marquées par le paradigme théorique (t : paradigme terminologique ; l : paradigme linguistique) à l'intérieur duquel elles sont conceptualisées, celui-ci étant informé par la discipline (Terminologie ou Linguistique) qui le convoque. Quatre combinaisons sont attestées : - T,t : la Terminologie conceptualise le terme et l'UL dans un paradigme qu'elle a produit elle-même ; - T,l : la Terminologie conceptualise le terme et l'UL en empruntant (partiellement ou en totalité) un paradigme élaboré par la Linguistique ; - L, l : la Linguistique conceptualise le terme et l'UL dans un paradigme qu'elle a produit elle-même. - L,t : la Linguistique conceptualise le terme et l'UL en empruntant un appareil théorique élaboré par la Terminologie. La présente étude interrogera l'identité du terme sur les trois premières matrices . Contrairement à un prérequis largement partagé dans les Sciences du langage selon lequel la Terminologie et la terminologie constitueraient des espaces de stabilité et d'ordonnancement conceptuels aboutis parce que rationalisés, cette identité reste extrêmement instable dans la mesure où elle est principalement tributaire de la conception que chaque discipline se fait de l'UL. Que l'on se situe relativement à la théorie classique du terme (T,t), à sa tentative de révision (T,l) ou bien à son appropriation (L,l) la notion de terme est une construction qui résulte d'emprunts théoriques plus ou moins contrôlés, de glissements voire d'amalgammes. En définitive c'est sa réalité même qui s'en voit affectée

    La représentation dans le cadre de la composition et de la musicologie assistées par ordinateur & Parcours de recherche et création

    Get PDF
    It’s clear that it is possible to make music with music instruments, but it seems much less obvious to talk and/or communicate about it with the same instruments. Thus, we always needed to rely on the use of natural language and develop a large number of representations to be able to talk and communicate about music. Although the computers conception has pushed further the need for a new representation. In this writing, we will explore the concept of representation, both from the point of view of the process (to represent) than that of the generated object (representation) in the context of computer music composition and computer-aided musicology (or computational musicology). Our interest will focus on the epistemological properties and the various consequences of the representation process, and on the representations as cognitive determinants, specifically: how representations induce the operative field, and how they guide our choices?Concerning my research and musical composition journey, when I look back at my career, I realize that a linear table of contents is not an appropriate way to represent it. This path made of coincidences, encounters, desires and intuitions. I must recognize that there was no ‘’big scheme’’, just curiosity, willingness to act, affinities and coming across inspiring personalities, encouraging people that helped and offered me options in this path that led to my actual career. However, in retrospect I could say that from this fog an outline emerges: "composition - modeling", supported by the problematic of representation, having as background my pedagogical work.S’il est clair qu’il est possible de faire de la musique avec les outils de la musique, il nous semble bien moins évident d'en parler et/ou de communiquer à son propos avec ces mêmes outils. Ainsi, nous avons toujours eu besoin de nous appuyer sur l’utilisation du langage naturel et de développer un grand nombre de représentations pour pouvoir parler et communiquer sur la musique. L’arrivée de l’informatique a poussé plus loin ce besoin de représentation. Dans ce mémoire, nous nous attellerons à étudier le concept de représentation, tant du point de vue du processus (représenter) que de celui de l’objet généré (la représentation) dans le contexte de la composition musicale assistée par ordinateur et de la musicologie computationnelle. Notre intérêt se portera principalement sur les propriétés épistémologiques et les divers corollaires du processus, de l’objet généré, et plus particulièrement sur les représentations en tant que déterminants cognitifs : comment les représentations induisent-elles le champ opératoire, et orientent-elles nos choix ?Concernant mon parcours de recherche et création, ceci n’est pas un mémoire, ceux-ci sont des mémoires.Lorsque je me penche sur mon parcours, je me rends compte qu’une table de matières linéaire n’est pas du tout appropriée pour le représenter. Ce parcours s’est fait de coïncidences, de rencontres, d’envies et d’intuitions. Force est de reconnaître qu’il n’y avait pas de grand plan, juste de la curiosité, une volonté d’action, des affinités et la rencontre avec des personnalités m’inspirant, m’encourageant, m’aidant ou me proposant des chemins. Cependant, avec le recul je pourrais dire que de cette brume un profil se dégage, l’axe « composition – modélisation », soutenu par la problématique de la représentation, ayant comme contexte mon travail pédagogique
    corecore