331 research outputs found

    Résolution de contraintes du premier ordre dans la théorie des arbres finis ou infinis

    No full text
    National audienceWe present in this paper an algorithm, in the theory \Tt\, of (eventually infinite) trees, for solving constraints represented by full first order formulae, with equality as the only relation and with symbols of function taken in an infinite set \Ff. The algorithm consists of a set of 11 rewrite rules. It transforms a first order formula in a conjunction of ``solved'' formulae, equivalent in \Tt, which has not new free variables and which is such that, (1) the conjunction either is the constant logic \true or is reduced to \neg\true, or has at least one free variable and is equivalent neither to \true nor to \false, (2) each solved formula can be transformed immediately in a Boolean combination of basic formulae whose length does not exceed twice the length of the solved formula. The basic formulae are particular cases of existentially quantified conjunctions of equations. The correctness of the algorithm gives another proof of the completeness of \Tt demonstrated by Michael Maher. We end with benchmarks realized by an implementation, solving formulae with more than 160 nested alternated quantifiers

    Résolution de contraintes du premier ordre dans la théorie des arbres évalués

    No full text
    Nous présentons dans ce papier un algorithme général de résolution de contraintes du premier ordre dans la théorie T des arbres évalués. Cette théorie est une combinaison de la théorie des arbres finis ou infinis et de la théorie des rationnels munis de l'addition, de la soustraction et d'une relation d'ordre dense sans extrême. L'algorithme est donné sous forme d'un ensemble de 28 règles de réécriture et transforme toute formule du premier ordre ', qui peut éventuellement contenir des variables libres, en une disjonction D de formules résolues, équivalente à ' dans T, sans nouvelles variables libres, et telle que D est soit la formule vrai , soit la formule faux , soit une formule ayant au moins une variable libre et n'étant équivalente ni à vrai ni à faux dans T. En particulier, si ' est sans variables libres, D est soit la formule vrai soit la formule faux . Si D contient des variables libres, les solutions sur ces variables sont exprimées d'une façon explicite et D peut se transformer directement en une combinaison booléenne de conjonctions quantifiées de formules atomiques, qui n'acceptent pas d'élimination de quantificateurs. La correction de notre algorithme est une autre preuve de la complétude de la théorie T

    Niveaux d’explicitation en mathématiques chez des étudiants universitaires

    Get PDF
    Cet article propose un modèle par niveau des efforts d’explicitation qui peuvent être mis à contribution dans l’apprentissage des mathématiques. L’analyse des liens entre la formation fondamentale et les effets observés dans l’application des mathématiques a mis en évidence l’importance d’un tel travail d’explicitation. En effet, ceux qui font montre de compétences supérieures dans l’application des mathématiques investissent davantage, et de façon personnelle et autonome, dans l’explicitation des contenus d’apprentissage : lecture, questionnement, argumentation, utilisation des définitions, réécriture du cours, confection de résumés, tableaux de synthèse, etc. Il ressort de cette étude que le travail d’explicitation dans l’apprentissage des mathématiques doit non seulement favoriser la compréhension du sens, mais aussi viser la structuration des concepts mathématiques.This article proposes a model based on the level of explanatory processes that can be used in learning mathematics. An analysis of the relation between formal and pre-university training and the results observed in applying mathematics demonstrated the importance of explanatory work. It was found that those with higher competencies in applying mathematics showed greater engagement, considered as being more of a personal and autonomous nature, in explaining the learning content : reading, questioning, developing arguments, using definitions, re-writing course notes, developing summaries, developing tables to show synthesis, etc. This study shows that explanatory activities in learning mathematics should not only facilitate understanding but also develop mathematical concept structures.Este artículo propone un modelo por nivel de los esfuerzos de explicitación que pueden contribuir al aprendizaje de las matemáticas. El análisis de los nexos entre la formación fundamental y los efectos observados en la aplicación de las matemáticas hizo resaltar la importancia de tal trabajo de explicitación. En efecto, los que demuestran competencias superiores en la aplicación de las matemáticas se involucran más, y de manera personal y autónoma, en la explicitación de los contenidos de aprendizaje : lectura, cuestionamiento, argumentación, utlización de las definiciones, reescritura de los apuntes de clase, realización de resúmenes y de cuadros síntesis, etc. Se destaca de este estudio que el trabajo de explicitación en el aprendizaje de las matemáticas no sólo debe fomentar la comprensión del significado, sino también tender a la estructuración de conceptos matemáticos.In diesem Artikel wird ein Modell für die verschiedenen Erklärungsniveaus vorgelegt, die im Mathematikunterricht verwendet werden. Die Analyse der Beziehungen zwischen der Grundausbildung und der bei der Anwendung der Mathematik erzielten Erfolge hat die Wichtigkeit einer solchen Erklärungsarbeit deutlich gemacht. Diejenigen Lehrkräfte, die über eine erweiterte Ausbildung auf dem Gebiet der Mathematik verfügen, legen mehr Gewicht auf eine klare Erläuterung der Lehrinhalte, was sie durch persönliche und selbstständige Initiativen erreichen. Die dabei verwendeten Formen sind : Lektüre, Fragen stellen, diskutieren, Verwendung von Definitionen, Umformulierung des Kurstextes, Anfertigung von Resümees, Übersichtstabellen, usw. Aus der Untersuchung ergibt sich, dass die Erklärungsarbeit beim Erlernen der Mathematik nicht nur das Sinnverständnis, sondern auch die Neustrukturierung mathematischer Konzepte fördern soll

    Actes de la conférence JFLA 2009 (Vingtièmes Journées Francophones des Langages Applicatifs)

    Get PDF
    Ce fichier regroupe en un seul document l'ensemble des articles acceptés pour la conférence JFLA 2009.Pour la vingtième année consécutive, les Journées Francophones des Langages Applications sont l'occasion de se retrouver dans un cadre agréable et propice aux échanges conviviaux. Cette année, c'est à Saint-Quentin sur Isère, près de Grenoble, que nous nous réunissons, maintenant la tradition de l'alternance mer-montagne. Les neuf articles choisis par le comité de programme reflètent bien la diversité de notre communauté et les avancés tant du point de vue de l'application de langages fonctionnels que de la conception et de l'utilisation d'assistants à la preuve. Nous avons souhaité également inclure des articles plus proches de tutoriels ou de retours d'expérience, ceux-ci étant particulièrement adaptés au cadre pédagogique des Journées. Deux orateurs nous ont fait l'honneur d'accepter notre invitation. L'exposé de Vincent Balat, de l'université Paris 7, intitulé ≪ Ocsigen : approche fonctionnelle typée de la programmation Web ≫ illustre l'utilisation croissante de langages applicatifs dans des milieux inattendus. L'exposé de Bruno Barras, de Trusted Labs, intitulé ≪ Faut-il avoir peur de sa carte SIM ? ≫ présente l'application d'assistants à la preuve dans la modélisation de cartes à puces. Pour la quatrième année consécutive, deux sessions d'une demi-journée chacune sont consacrées à des cours. Le premier porte sur la modélisation de la linguistique (par Gérard Huet, de l'INRIA Paris - Rocquencourt) et le deuxième sur les bibliothèques Coq utilisées dans la preuve récente du théorème des quatre couleurs (par Assia Mahboubi, de l'INRIA Saclay - Île-de-France)

    Vérification formelle de diagrammes UML : une approche basée sur la logique de réécriture

    Get PDF

    Analyse d'atteignabilité pour les programmes fonctionnels avec stratégie d'évaluation en profondeur

    Get PDF
    Proving that programs behave correctly is difficult; one uses proof tools, which must rely on overapproximation (because of Rice's theorem). Automaton completion is such a tool, which overapproximates the set of reachable terms during the execution of a program represented as a TRS. An evaluation strategy dictates which subterm of a term should be rewritten first; taking this into account allows for a better approximation. Our thesis sets forward an adaptation of automaton completion to the innermost strategy, which is used among others by OCaml. We prove the soundness and the precision of our adaptation and show how it is part of a greater framework for analysis of functional programms (OCaml).Établir des preuves de bon fonctionnement des programmes est délicat ; on a recours à des outils de preuve, qui doivent procéder par surapproximation (à cause du théorème de Rice). La complétion d'automate est un tel outil, qui surapproxime l'ensemble des termes accessibles lors de l'exécution d'un programme représenté par un système de réécriture. La stratégie d'évaluation donne l'ordre dans lequel les sous-termes d'un terme doivent être réécrits ; en tenir compte permet une meilleur précision de l'analyse. Notre thèse propose une adaptation de la complétion d'automate à la stratégie en profondeur, utilisée notamment par OCaml. Nous établissons la correction et la précision de notre méthode et montrons comment elle s'inscrit dans le cadre plus large de l'analyse de programmes fonctionnels (OCaml)

    Conception d'un noyau de vérification de preuves pour le λΠ-calcul modulo

    No full text
    In recent years, the emergence of feature rich and mature interactive proof assistants has enabled large formalization efforts of high-profile conjectures and results previously established only by pen and paper. A medley of incompatible and philosophically diverging logics are at the core of all these proof assistants. Cousineau and Dowek (2007) have proposed the λΠ-calculus modulo as a universal target framework for other front-end proof languages and environments. We explain in this thesis how this particularly simple formalism allows for a small, modular and efficient proof checker upon which the consistency of entire systems can be made to rely upon. Proofs increasingly rely on computation both in the large, as exemplified by the proof of the four colour theorem by Gonthier (2007), and in the small following the SSReflect methodoly and supporting tools. Encoding proofs from other systems in the λΠ-calculus modulo bakes yet more computation into the proof terms. We show how to make the proof checking problem manageable by turning entire proof terms into functional programs and compiling them in one go using off-the-shelf compilers for standard programming languages. We use untyped normalization by evaluation (NbE) as an enabling technology and show how to optimize previous instances of it found in the literature. Through a single change to the interpretation of proof terms, we arrive at a representation of proof terms using higher order abstract syntax (HOAS) allowing for a proof checking algorithm devoid of any explicit typing context for all Pure Type Systems (PTS). We observe that this novel algorithm is a generalization to dependent types of a type checking algorithm found in the HOL proof assistants enabling on-the-fly checking of proofs. We thus arrive at a purely functional system with no explicit state, where all proofs are checked by construction. We formally verify in Coq the correspondence of the type system on higher order terms lying behind this algorithm with respect to the standard typing rules for PTS. This line of work can be seen as connecting two historic strands of proof assistants: LCF and its descendents, where proofs of untyped or simply typed formulae are checked by construction, versus Automath and its descendents, where proofs of dependently typed terms are checked a posteriori. The algorithms presented in this thesis are at the core of a new proof checker called Dedukti and in some cases have been transferred to the more mature platform that is Coq. In joint work with Denes, we show how to extend the untyped NbE algorithm to the syntax and reduction rules of the Calculus of Inductive Constructions (CIC). In joint work with Burel, we generalize previous work by Cousineau and Dowek (2007) on the embedding into the λΠ-calculus modulo of a large class of PTS to inductive types, pattern matching and fixpoint operators.Ces dernières années ont vu l'émergence d'assistants interactifs de preuves riches en fonctionnalités et d'une grande maturité d'implémentation, ce qui a permis l'essor des grosses formalisations de résultats papier et la résolution de conjectures célèbres. Mais autant d'assistants de preuves reposent sur presque autant de logiques comme fondements théoriques. Cousineau et Dowek (2007) proposent le λΠ-calcul modulo comme un cadre universel cible pour tous ces environnement de démonstration. Nous montrons dans cette thèse comment ce formalisme particulièrement simple admet une implémentation d'un vérificateur de taille modeste mais pour autant modulaire et efficace, à la correction de laquelle on peut réduire la cohérence de systèmes tout entiers. Un nombre croissant de preuves dépendent de calculs intensifs comme dans la preuve du théorème des quatre couleurs de Gonthier (2007). Les méthodologies telles que SSReflect et les outils attenants privilégient les preuves contenant de nombreux petits calculs plutôt que les preuves purement déductives. L'encodage de preuves provenant d'autres systèmes dans le λΠ-calcul modulo introduit d'autres calculs encore. Nous montrons comment gérer la taille de ces calculs en interprétant les preuves tout entières comme des programmes fonctionnels, que l'on peut compiler vers du code machine à l'aide de compilateurs standards et clé-en-main. Nous employons pour cela une variante non typée de la normalisation par évaluation (NbE), et montrons comment optimiser de précédentes formulation de celle-ci. Au travers d'une seule petite modification à l'interprétation des termes de preuves, nous arrivons aussi à une représentation des preuves en syntaxe abstraite d'ordre supérieur (HOAS), qui admet naturellement un algorithme de typage sans aucun contexte de typage explicite. Nous généralisons cet algorithme à tous les systèmes de types purs (PTS). Nous observons que cet algorithme est une extension à un cadre avec types dépendants de l'algorithme de typage des assistants de preuves de la famille HOL. Cette observation nous amène à développer une architecture à la LCF pour une large classe de PTS, c'est à dire une architecture où tous les termes de preuves sont corrects par construction, a priori donc, et n'ont ainsi pas besoin d'être vérifié a posteriori. Nous prouvons formellement en Coq un théorème de correspondance entre les système de types sans contexte et leur pendant standard avec contexte explicite. Ces travaux jettent un pont entre deux lignées historiques d'assistants de preuves : la lignée issue de LCF à qui nous empruntons l'architecture du noyau, et celle issue de Automath, dont nous héritons la notion de types dépendants. Les algorithmes présentés dans cette thèse sont au coeur d'un nouveau vérificateur de preuves appelé Dedukti et ont aussi été transférés vers un système plus mature : Coq. En collaboration avec Dénès, nous montrons comment étendre la NbE non typée pour gérer la syntaxe et les règles de réduction du calcul des constructions inductives (CIC). En collaboration avec Burel, nous généralisons des travaux précédents de Cousineau et Dowek (2007) sur l'encodage dans le λΠ-calcul modulo d'une large classe de PTS à des PTS avec types inductifs, motifs de filtrage et opérateurs de point fixe

    La linguistique au contact de l'informatique : de la construction des grammaires aux grammaires de construction

    Get PDF
    National audienceLes auteurs proposent un essai d'histoire rationnelle d'un aspect du programme génératif dans sa relation à l'informatique, celui qui va de la définition de la notion de grammaire par Chomsky, et en particulier de la caractérisation mathématique des grammaires possibles (la linguistique algébrique), à la conception de grammaires multidimensionnelles qui trouvent dans les systèmes de représentation des connaissances leur fondation formelle. Les auteurs distinguent trois moments : (a) l'émergence du programme génératif et de la notion de grammaire générative ; (b) le mouvement de réforme qui se cristallise dans le refus de la forme transformationnelle de la grammaire et qui voit l'invention de nombreux nouveaux formalismes qui auront tous la caractéristique d'être déclaratifs ; (c) le développement des grammaires multidimensionnelles qui sont chargées d'intégrer les analyses des dimensions formelles (syntaxe et phonologie) et non formelles (sémantique, pragmatique) des langues

    Conception d’une plateforme d’apprentissage en ligne en algèbre et en géométrie : prise en compte et apports de modèles didactiques

    Get PDF
    This article presents the design of a theoretical and methodological framework for the didactic design of a learning environment: a learning platform in mathematics for cycle 4 students (aged 12 to 15). We cross several approaches to build didactic models and their computer representation: a model of the knowledge involved in the platform, a model of the learner's reasoning, and a model of learning paths adapted to the student's learning needs. We illustrate this approach on two themes from two mathematical domains, the solving of first-degree equations in algebra and the construction of triangles in geometry.Cet article présente la définition d’un cadre théorique et méthodologique pour la conception didactique d’un environnement informatique pour l’apprentissage humain (EIAH) : une plateforme d’apprentissage en mathématiques à destination d’élèves de cycle 4 (élèves de 12 à 15 ans). Nous croisons plusieurs approches théoriques pour construire des modèles didactiques et leur représentation informatique : un modèle du savoir en jeu dans la plateforme, un modèle du raisonnement de l’apprenant et un modèle des parcours d’apprentissage adaptés aux besoins d’apprentissage de l’élève. Nous illustrons cette conception sur deux thèmes issus de deux domaines mathématiques, la résolution d’équations du premier degré en algèbre et la construction de triangles en géométrie
    • …
    corecore