71 research outputs found

    Évaluation des performances de l'imagerie thermique par fluorescence pour l'analyse de défaillance des flip chips

    Get PDF
    Imagerie thermique par fluorescence -- Optimisation de la technique -- Mesures absolues de température -- Mesures de températures sur les flip chips

    Actes des 2èmes journées sur l’Ingénierie Dirigée

    Get PDF
    National audienceL’ingénierie dirigée par les modèles (IDM), appelée en anglais MDE (Model-Driven Engineering) ou aussi MDD (Model-Driven Development) place le modèle au centre du processus de conception et permet à cette notion de modèle de passer d’un rôle contemplatif à un rôle unificateur vis-à-vis des autres activités du cycle de développement du logiciel. L’IDM doit alors être vu non pas comme une révolution, mais comme un moyen d’intégrationde différents espaces techniques pour aller vers une production automatisée des logiciels.L’ingénierie dirigée par les modèles apporte alors des solutions à la construction de ces nouveaux logiciels en proposant des approches de modélisation, de métamodélisation, de détermination du domaine, de transformation et de prise en compte des plates-formes. Ces approches sont accompagnées de démarches de conception et de moyens de génération de code, mais également de validation et de vérification de la conformité des modèles produits vis-à-vis des métamodèles. Elles sont proches des idées actuelles comme la programmation générative, les langages spécifiques de domaine (DSL), le MIC (Model Integrating Computing) ou encore les usines à logiciels (Software factories). Après le succès des journées IDM à Paris en 2005, la seconde édition de ces journées se déroule à Lille et a pour objectif de rassembler les chercheurs francophones intéressés par ce domaine et souhaitant participer à la structuration de cette communauté scientifique émergente

    Conception d'un noyau de vérification de preuves pour le λΠ-calcul modulo

    No full text
    In recent years, the emergence of feature rich and mature interactive proof assistants has enabled large formalization efforts of high-profile conjectures and results previously established only by pen and paper. A medley of incompatible and philosophically diverging logics are at the core of all these proof assistants. Cousineau and Dowek (2007) have proposed the λΠ-calculus modulo as a universal target framework for other front-end proof languages and environments. We explain in this thesis how this particularly simple formalism allows for a small, modular and efficient proof checker upon which the consistency of entire systems can be made to rely upon. Proofs increasingly rely on computation both in the large, as exemplified by the proof of the four colour theorem by Gonthier (2007), and in the small following the SSReflect methodoly and supporting tools. Encoding proofs from other systems in the λΠ-calculus modulo bakes yet more computation into the proof terms. We show how to make the proof checking problem manageable by turning entire proof terms into functional programs and compiling them in one go using off-the-shelf compilers for standard programming languages. We use untyped normalization by evaluation (NbE) as an enabling technology and show how to optimize previous instances of it found in the literature. Through a single change to the interpretation of proof terms, we arrive at a representation of proof terms using higher order abstract syntax (HOAS) allowing for a proof checking algorithm devoid of any explicit typing context for all Pure Type Systems (PTS). We observe that this novel algorithm is a generalization to dependent types of a type checking algorithm found in the HOL proof assistants enabling on-the-fly checking of proofs. We thus arrive at a purely functional system with no explicit state, where all proofs are checked by construction. We formally verify in Coq the correspondence of the type system on higher order terms lying behind this algorithm with respect to the standard typing rules for PTS. This line of work can be seen as connecting two historic strands of proof assistants: LCF and its descendents, where proofs of untyped or simply typed formulae are checked by construction, versus Automath and its descendents, where proofs of dependently typed terms are checked a posteriori. The algorithms presented in this thesis are at the core of a new proof checker called Dedukti and in some cases have been transferred to the more mature platform that is Coq. In joint work with Denes, we show how to extend the untyped NbE algorithm to the syntax and reduction rules of the Calculus of Inductive Constructions (CIC). In joint work with Burel, we generalize previous work by Cousineau and Dowek (2007) on the embedding into the λΠ-calculus modulo of a large class of PTS to inductive types, pattern matching and fixpoint operators.Ces dernières années ont vu l'émergence d'assistants interactifs de preuves riches en fonctionnalités et d'une grande maturité d'implémentation, ce qui a permis l'essor des grosses formalisations de résultats papier et la résolution de conjectures célèbres. Mais autant d'assistants de preuves reposent sur presque autant de logiques comme fondements théoriques. Cousineau et Dowek (2007) proposent le λΠ-calcul modulo comme un cadre universel cible pour tous ces environnement de démonstration. Nous montrons dans cette thèse comment ce formalisme particulièrement simple admet une implémentation d'un vérificateur de taille modeste mais pour autant modulaire et efficace, à la correction de laquelle on peut réduire la cohérence de systèmes tout entiers. Un nombre croissant de preuves dépendent de calculs intensifs comme dans la preuve du théorème des quatre couleurs de Gonthier (2007). Les méthodologies telles que SSReflect et les outils attenants privilégient les preuves contenant de nombreux petits calculs plutôt que les preuves purement déductives. L'encodage de preuves provenant d'autres systèmes dans le λΠ-calcul modulo introduit d'autres calculs encore. Nous montrons comment gérer la taille de ces calculs en interprétant les preuves tout entières comme des programmes fonctionnels, que l'on peut compiler vers du code machine à l'aide de compilateurs standards et clé-en-main. Nous employons pour cela une variante non typée de la normalisation par évaluation (NbE), et montrons comment optimiser de précédentes formulation de celle-ci. Au travers d'une seule petite modification à l'interprétation des termes de preuves, nous arrivons aussi à une représentation des preuves en syntaxe abstraite d'ordre supérieur (HOAS), qui admet naturellement un algorithme de typage sans aucun contexte de typage explicite. Nous généralisons cet algorithme à tous les systèmes de types purs (PTS). Nous observons que cet algorithme est une extension à un cadre avec types dépendants de l'algorithme de typage des assistants de preuves de la famille HOL. Cette observation nous amène à développer une architecture à la LCF pour une large classe de PTS, c'est à dire une architecture où tous les termes de preuves sont corrects par construction, a priori donc, et n'ont ainsi pas besoin d'être vérifié a posteriori. Nous prouvons formellement en Coq un théorème de correspondance entre les système de types sans contexte et leur pendant standard avec contexte explicite. Ces travaux jettent un pont entre deux lignées historiques d'assistants de preuves : la lignée issue de LCF à qui nous empruntons l'architecture du noyau, et celle issue de Automath, dont nous héritons la notion de types dépendants. Les algorithmes présentés dans cette thèse sont au coeur d'un nouveau vérificateur de preuves appelé Dedukti et ont aussi été transférés vers un système plus mature : Coq. En collaboration avec Dénès, nous montrons comment étendre la NbE non typée pour gérer la syntaxe et les règles de réduction du calcul des constructions inductives (CIC). En collaboration avec Burel, nous généralisons des travaux précédents de Cousineau et Dowek (2007) sur l'encodage dans le λΠ-calcul modulo d'une large classe de PTS à des PTS avec types inductifs, motifs de filtrage et opérateurs de point fixe

    Approche Domain-Specific Modeling pour l'opérationnalisation des scénarios pédagogiques sur les plateformes de formation à distance

    Get PDF
    Ce travail de recherche porte sur la spécification et l opérationnalisation des scénarios pédagogiques sur les plateformes de formation à distance dans une perspective d'ingénierie et de réingénierie des EIAH (Environnements Informatique pour l Apprentissage Humain). En se situant dans une approche centrée plateformes, nous supposons que les plateformes disposent de leur propre paradigme de conception. Pour cela, nous proposons aux développeurs et à la communauté de développement des plateformes un processus spécifique d identification et d explicitation du langage de conception pédagogique des plateformes de formation par le biais d un métamodèle. Nous exploitons l approche outillée Domain-Specific Modeling comme cadre pratique pour le développement de langages et d'outils de conception graphiques basés sur le métamodèle du langage de conception pédagogique. Afin de répondre à des besoins récurrents d'opérationnalisation de scénarios pédagogiques, nous utilisons également ce métamodèle pour la spécification des modules d import/export intégrés au sein des plateformes. Ces modules permettent d opérationnaliser les scénarios conformes au langage identifié et également d exporter les scénarios existants sur les plateformes afin de permettre leur adaptation par les outils développés. Nous avons expérimenté nos propositions théoriques sur deux plateformes de formation Moodle et Ganesha. Enfin, nous avons vérifié la cohérence de notre approche par la mise à l essai des outils développés. Par le biais de notre approche, nous favorisons une opérationnalisation de ces scénarios sans pertes d information ni de sémantique.In the engineering and reengineering perspective of Technology Enhanced Learning, our research work concerns the specification and the operationalization of learning scenarios on learning platforms. By positioning in an approach centered LMS instructional design, we suppose that each learning platform has its own instructional design language. So, we propose a specific process for its identification and formalization through a metamodel. Based on this metamodel, we use the Domain-Specific Modeling approach as a practical framework for the development of languages and graphical design tools. This metamodel is also used to specify the import/export modules that are integrated into the platforms in order to meet the recurring needs of the operationalization of learning scenarios. These modules allow also the extraction of the existing scenarios on platforms to enable their adaptation on the developed tools. Our theoretical propositions have been tested on two learning platforms: Moodle and Ganesha. On the other hand, the consistency of our approach was checked and validated by implementing and testing the developed tools. Through our approach, we promote scenarios operationalization without loss of information or semantics.LE MANS-BU Sciences (721812109) / SudocSudocFranceF

    Nouvelles approches pour la conception d'outils CAO pour le domaine des systèmes embarqués

    Full text link
    Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal

    Modèle de communication entre un laboratoire virtuel réflexif et un tuteur dans un systeme tutoriel intelligent

    Get PDF
    L'intégration des laboratoires virtuels à des agents tuteurs d'un système tutoriel intelligent (STI) s'est souvent réalisée avec une perte de leur autonomie. En effet, l'encapsulation des composantes est difficile à préserver parce qu'elles doivent collaborer intimement. Il en résulte que les modifications de ces composantes sont difficiles. Notre objectif est de réconcilier ces deux aspects, c'est-à-dire d'ouvrir les fonctionnalités du laboratoire virtuel aux agents tuteurs tout en réduisant le couplage. Nous proposons à cet effet un cadre méthodologique de développement de laboratoires virtuels sous forme d'un modèle générique. Ces laboratoires sont réflexifs aux agents tuteurs et à l'apprenant et peuvent s'intégrer aisément à une architecture de STI à travers une interface de communication qui fait partie du présent travail. La réflexivité permet aux laboratoires virtuels de décrire leurs caractéristiques et leurs fonctionnalités aux agents tuteurs via les ontologies. Elle permet également une adaptation plus facile de ces entités, tout en encapsulant les caractéristiques et les fonctionnalités de chacun

    Contribution informatique en sciences pour l'environnement

    Get PDF
    Ce document propose de détailler mes activités scientifiques en vue d’obtention de l’Habilitation à Diriger des Recherches. Après un CV détaillé, on y retrouve un résumé des travaux de recherche et d’encadrement, les charges d’enseignement occupées, les fonctions d’intérêt collectif exercées, une liste exhaustive des publications, mes activités de recherche et une conclusion générale. La première période correspondant à mes activités de recherche a débuté au sein de l'équipe "Modélisation et Simulation" et concerne l'application de techniques de test de logiciel pour des descriptions de circuit électroniques décrits avec le langage VHDL. Il s'agit d'un langage de programmation utilisé dans l'industrie et permettant de modéliser et simuler des circuits électroniques mais aussi de les synthétiser, c'est à dire obtenir une description en terme de portes logiques de ceux-ci en vue de leur fabrication. Une fois synthétisé, il devient impossible de tester de façon exhaustive un circuit électronique en un temps raisonnable. En effet, le circuit électronique alors constitué de millions de portes logiques, contient un nombre de chemins à tester et donc à parcourir trop important pour tous les parcourir. Mon travail de recherche s'est ainsi focalisé sur la génération automatique de jeux de test à partir de descriptions écrites en VHDL. Ce type de description étant similaire à un programme, nous avonsexploré des techniques utilisées dans le domaine du test de logiciels.La seconde période fait suite à un changement d’équipe opéré en 2005. En effet, j’ai eu l’opportunité de m’investir dans deux thématiques propres à l’étude des systèmes énergétiques à sources d’Energies Renouvelables (EnR) et leur intégration dans les réseaux électriques insulaires, comme celui de la Corse. Au sein de l’équipe EnR de l'UMR 6134 j'ai pu développer des travaux de recherche au niveau de deux axes principaux.Le premier concerne la modélisation et la prédiction de phénomènes spatiotemporels. Nous nous sommes plus particulièrement intéressés à l’utilisation des réseaux de neurones artificiels appartenant aux techniques d'intelligence artificielle. Nous les avons principalement utilisées dans le cadre de la prédiction de séries temporelles d’ensoleillement et de pics de pollution atmosphérique. Nous avons étudié tout d'abord l'impact de prétraitements statistiques des séries temporelles sur la performance de prédicteurs. Aussi, au vue du nombre important de données dontnous disposions, nous avons étudié différentes méthodes de sélection de caractéristiques (ou de variables) avec l'objectif d'obtenir le modèle le plusperformant mais aussi le plus simple possible (principe de parcimonie). Enfin, lors de la comparaison de performance entre notre modèle et différentes méthodes de prédictions ("benchmarking" en anglais), nous avons constaté un chevauchement de celles-ci suivant l'horizon considéré. Nous avons alors étudié comment les hybrider, technique qui entre dans le cadre de la problématique plus large de la sélection de modèles. Une étude sur l'extension de ces méthodes pour les séries temporelles de vitesse de vent a été initiée et sera évoquée en perspectives dans la conclusion de ce mémoire. Enfin et plus récemment nous avons démarré des travaux concernant l'estimation de potentiel solaire également à l'aide réseaux de neurones artificiels. Il s'agit cette fois, non pas de prédire, mais d'estimer le rayonnement solaire incliné à partir du rayonnement solaire global horizontal et d'autres variables météorologiques disponibles.Le second axe propose d'étudier l’apport des langages informatiques de représentation des connaissances pour représenter la connaissance produite tout au long des processus d'aide à la décision. Des projets tels que les centrales photovoltaïques ou encore les fermes éoliennes constituent des exemples significatifs de processus de décision extrêmement complexe, difficile et conflictuel

    Actes de la conférence conjointe JEP-TALN-RECITAL 2016, volume 09 : ELTAL

    Get PDF
    National audienceELTAL is a workshop organized within the JEP-TALN-RECITAL 2016 conference. This workshop brings together papers investigating metdods and applications in NLP applied to language teaching.ELTAL est un atelier organisé au sein de la conférence JEP-TALN-RECITAL 2016 et regroupe des contributions qui étudient les méthodes et les applications en TAL dans le domaine de l'enseignement des langues

    Les savoirs professionnels à la base de la formation des enseignants au Québec et en Ontario : une étude comparative des modèles universitaires de professionnalisation et de leurs enjeux

    Full text link
    La professionnalisation de l’enseignement a connu un essor important depuis la fin des années 1980, et ce dans plusieurs contextes sociaux. Depuis cette époque, la recherche sur le savoir des enseignants s’est développée dans le but de définir la nature des connaissances devant être à la base de l’enseignement, ce qui, en même temps, a changé les modèles de formation à l’enseignement. Les provinces canadiennes se sont vues insérées dans ce mouvement de professionnalisation de l’enseignement qui a induit des réformes et des changements dans les programmes de formation des enseignants. Cette recherche doctorale porte sur la professionnalisation, les savoirs et les programmes de formation des enseignants dans deux provinces canadiennes, le Québec et l’Ontario. Son objectif général était de cerner, dans une perspective comparative, comment les politiques de professionnalisation de la formation à l’enseignement développées par ces deux provinces ont été interprétées ces dernières décennies dans les programmes de formation au sein des universités. Pour ce faire, nous avons analysé, plus spécifiquement, trois enjeux qui touchent les savoirs des enseignants : les conceptions professionnelles et les savoirs dans la formation à l’enseignement; les standards et les référentiels de compétences encadrant cette formation; et les savoirs qui se trouvent dans les programmes de formation à l’enseignement primaire dans ces deux provinces. De ce fait, nous avons cherché à répondre à la question générale de recherche suivante : Comment les politiques de professionnalisation de la formation à l’enseignement développées par le Québec et l’Ontario ont-elles été traduites dans les programmes de formation universitaire? Et aux questions spécifiques suivantes : 1. Quelles sont les conceptions dominantes de la professionnalisation qui se dégagent des politiques éducatives ontariennes et québécoises? (1.1. Quelle est l’évolution des politiques éducatives qui encadrent la formation et la certification des enseignants dans ces deux provinces? 1.2. Comment évoluent les savoirs à la base de la formation des enseignants? Quels référentiels de compétences ou standards ont été proposés? 1.3. Quelle est la vision officielle actuelle du professionnel à former?) 2. Que deviennent les conceptions de la professionnalisation une fois traduites en programmes de formation dans les universités québécoises et ontariennes? (2.1. Comment sont conçus les savoirs professionnels dans les programmes de formation? 2.2. Est-ce qu’il y a des modalités d’articulation des cours théoriques et pratiques? Quelle est la place des stages? La place de la recherche? 2.3. Y a-t-il des différences entre ce que les enseignants sont censés apprendre selon le contexte ou, au contraire, une base de connaissances uniformisée est-elle visible entre ces deux contextes différents? Où se situent les différences?). Cette recherche pose ainsi la question du savoir formel à la lumière de la sociologie des professions, plus particulièrement à travers l’approche néo-wébérienne. Cette approche se situe à l’interieur de l’approche « critique » en sociologie des professions et s’inspire de Weber pour analyser la professionnalisation selon les enjeux économiques, politiques, historiques et académiques qui permettent à un groupe de métier de se voir octroyer une « fermeture sociale » et de réussir à se « professionnaliser ». En nous basant sur ce cadre théorique, et à travers une analyse de 70 documents politiques et de recherche, ainsi qu’une comparaison de programmes de formation dans 25 universités (12 au Québec et 13 en Ontario) et 1030 descriptifs de cours, nous avons établi des différences entre les deux provinces dans l’évolution de la conception du savoir enseignant et son influence sur les modèles de formation qui en ont découlé. Par exemple, nous avons démontré comment les conceptions des années 1950-1960 de la science pédagogique au Québec et de l’éducation libérale en Ontario ont conduit à des modèles de professionnalisation différents dans ces deux provinces. Au Québec, l’importance des compétences psychopédagogiques a amené un modèle de formation des enseignants plus « professionnalisé », tandis qu’en Ontario on a gardé un modèle combiné « académique » et « professionnel ». Nous avons également analysé et comparé le rôle de l’État dans la professionnalisation de l’enseignement, de même que son rôle actuel d’encadrement de la formation, ce qui nous a permis de constater qu’il y a une gouvernance politique au Québec et une gouvernance corporative en Ontario. Enfin, grâce à l’approche néo-wébérienne, cette recherche a permis d’établir une contribution nouvelle, sociologique et comparative, à l’évaluation critique de la formation des enseignants au Québec et en Ontario, notamment en mettant en relation l’évolution historique et sociologique du savoir; le rôle de l’État et les standards de formation et de certification des enseignants; ainsi que les modèles de formation et le savoir formel provenant de la formation et de la recherche universitaire.The professionalization of teaching and teacher education has been a significant movement since the late 1980s in many social contexts. Since then, research on teachers' knowledge developed with the main objective of defining the nature of the knowledge base of teaching, which, at the same time, changed teacher education models. Canadian provinces were not spared by this movement, which induced reforms and changes in teacher education programs. This doctoral research focuses on the professionalization of teaching and teacher education, and on teachers’ knowledge base, in two Canadian provinces: Quebec and Ontario. Our general objective was to identify, in a comparative perspective, how universities in these two provinces translated the policies of professionalization of teaching and teacher education, as well as the evolution of teachers’ knowledge, into teacher education programs during recent decades. To this end, we analyzed, more specifically, three issues relating to teachers’ knowledge: the conceptions of teaching as a profession and the knowledge base for teaching that should respectively guide and be included in teacher education programs in each of the provinces; the standards and skills that frame these programs; and the knowledge base that is actually present in teacher education programs (primary/junior). Thereby, we set out to answer the following research questions: How have the policies for the professionalization of teacher education developed by Quebec and Ontario been translated into university training programs? More specifically: 1. What are the dominant conceptions of professionalization emerging from Ontario and Quebec educational policies? (1.1. What has been the evolution of the educational policies governing teacher education and certification in these two provinces? 1.2. How has the knowledge base of teacher education evolved, and what competency frameworks or standards have been proposed? 1.3. What is the current official vision of the professional teacher to be trained) 2. What happens to the conceptions of professionalization when translated into teacher education programs in universities in Quebec and Ontario? (2.1. How is the professional knowledge base conceived in teacher education programs? 2.2. Are there ways of articulating theoretical and practical courses? What is the place of the practicum and research in the programs? 2.3. Are there any differences in what teachers are expected to learn depending on the context or, on the contrary, is a standardized knowledge base visible in these two different contexts? Where can we find these differences?). This research thus raises the question about the teachers’ formal knowledge in the light of the sociology of professions, particularly through the neo-Weberian approach. This approach is situated within the “critical” approach in the field of the sociology of professions and is inspired by Weber to analyze professionalization according to the economic, political, historical and academic stakes that allow a group of workers to be awarded a “social closure” and to succeed in their “professionalization” process. Based on this theoretical framework, and through the analysis of 70 political and research documents, and a comparison of teacher education programs in 25 universities (12 in Quebec and 13 in Ontario) and 1030 courses descriptions, we identified a number of differences between these two provinces in the evolution of the official conception of the teachers’ knowledge base and its influence on the teacher education models that ensued. For example, we demonstrated how the conceptions of teachers’ knowledge in the 1950s and the 1960s (pedagogy as science in Quebec, and liberal education in Ontario), have influenced current models of professionalization in the two provinces. In Quebec, the importance of psycho-pedagogical skills led to a more “professionalized” teacher education model, while Ontario maintained a combined “academic” and “professional” model . We also analyzed and compared the role of the State in the professionalization of teaching as well as its current role of supervision of teacher education. This led to the finding that the governance of teacher education and the teaching profession is political in Quebec and corporatist in Ontario. Overall, the neo-Weberian approach enabled us to make a new contribution, sociological and comparative, to the critical examination of teacher education in Quebec and Ontario, in particular by linking the historical evolution of teachers’ knowledge, the role of the State, the teacher education models, and the current formal knowledge base for teaching that comes from university research and programs
    • …
    corecore