21 research outputs found

    Définition et implémentation d'un modèle causal d'exécution temps-réel distribuée

    No full text
    Co-encadrement de la thèse : Bruno SteuxThis work is part of the AROS project. Its goal is to define a fast prototyping tool for dynamic and distributed real-time applications, mostly for automotive industry and robotic. Two distinct methods are normally used to develop distributed real-time applications. The first one -the time triggered approach- is based on worst execution time analysis, whereby time sharing for the various tasks of an application is statically defined. This approach offers considerable safety but the time analysis is sometimes difficult to process. The second one -the priority scheduling approach- is based on ascribing a priority level to each task, which will then allow the system to define an execution order, based on the events is has received. This second approach is more flexible and easier to implement but is less safe and cannot ensure that the application behaves predictably. The structure of the AROS applications being dynamic, the time-triggered approach is irrelevant as it requires a static analysis that cannot be conducted. The priority scheduling approach is also irrelevant because of the non predictable behaviour. We propose an approach based on causal events scheduling inspired by distributed event simulators scheduling techniques. While comparatively easy to use for application designers, this new approach produces applications with a perfectly predictable behaviour. Two main obstacles must be overcome: the real time synchronisation of the execution engine and compliance with real-time constraints.Ces travaux s'inscrivent dans le cadre du projet AROS (Automotive Robust Operating Services). Il a pour objectif de proposer un outil de prototypage rapide d'applications dynamiques distribuées temps-réel, principalement dans le domaine de l'automobile et de la robotique. Les applications distribuées temps-réel sont traditionnellement développées selon deux approches. La première, l'ordonnancement temporel, est basée sur l'analyse du pire temps d'exécution (worst execution time). Un partage du temps entre les différentes tâches de l'application est établi de façon statique. Cette technique offre une grande sureté de fonctionnement au prix d'une analyse temporelle parfois difficile à mener. La seconde, l'ordonnancement par priorité, est basée sur l'attribution à chaque tâche d'un niveau de priorité qui permet d'établir l'ordre d'exécution en fonction des évènements reçus par le système. Cette seconde technique, plus souple à mettre en œuvre, offre moins de garanties et conduit à un comportement non déterministe de l'application. La structure des applications AROS étant dynamique, l'approche temporelle est exclue car elle demande une analyse statique qu'il est impossible de produire. L'approche basée sur les priorités d'exécution est également exclue à cause de son non déterminisme comportemental. Nous proposons une approche basée sur un ordonnancement évènementiel causal inspirée des techniques d'ordonnancement des simulateurs évènementiels distribués. Tout en étant relativement simple à utiliser pour le concepteur d'application, cette technique produit des applications dont le comportement est parfaitement déterministe. Deux principales difficultés sont à surmonter : la synchronisation en temps-réel du moteur d'exécution et le respect des contraintes temps-réel

    Analyse des performances de stockage, en mémoire et sur les périphériques d'entrée/sortie, à partir d'une trace d'exécution

    Get PDF
    Le stockage des données est vital pour l’industrie informatique. Les supports de stockage doivent être rapides et fiables pour répondre aux demandes croissantes des entreprises. Les technologies de stockage peuvent être classifiées en deux catégories principales : stockage de masse et stockage en mémoire. Le stockage de masse permet de sauvegarder une grande quantité de données à long terme. Les données sont enregistrées localement sur des périphériques d’entrée/sortie, comme les disques durs (HDD) et les Solid-State Drive (SSD), ou en ligne sur des systèmes de stockage distribué. Le stockage en mémoire permet de garder temporairement les données nécessaires pour les programmes en cours d’exécution. La mémoire vive est caractérisée par sa rapidité d’accès, indispensable pour fournir rapidement les données à l’unité de calcul du processeur. Les systèmes d’exploitation utilisent plusieurs mécanismes pour gérer les périphériques de stockage, par exemple les ordonnanceurs de disque et les allocateurs de mémoire. Le temps de traitement d’une requête de stockage est affecté par l’interaction entre plusieurs soussystèmes, ce qui complique la tâche de débogage. Les outils existants, comme les outils d’étalonnage, permettent de donner une vague idée sur la performance globale du système, mais ne permettent pas d’identifier précisément les causes d’une mauvaise performance. L’analyse dynamique par trace d’exécution est très utile pour l’étude de performance des systèmes. Le traçage permet de collecter des données précises sur le fonctionnement du système, ce qui permet de détecter des problèmes de performance difficilement identifiables. L’objectif de cette thèse est de fournir un outil permettant d’analyser les performances de stockage, en mémoire et sur les périphériques d’entrée/sortie, en se basant sur les traces d’exécution. Les défis relevés par cet outil sont : collecter les données nécessaires à l’analyse depuis le noyau et les programmes en mode utilisateur, limiter le surcoût du traçage et la taille des traces générées, synchroniser les différentes traces, fournir des analyses multiniveau couvrant plusieurs aspects de la performance et enfin proposer des abstractions permettant aux utilisateurs de facilement comprendre les traces.----------ABSTRACT: Data storage is an essential resource for the computer industry. Storage devices must be fast and reliable to meet the growing demands of the data-driven economy. Storage technologies can be classified into two main categories: mass storage and main memory storage. Mass storage can store large amounts of data persistently. Data is saved locally on input/output devices, such as Hard Disk Drives (HDD) and Solid-State Drives (SSD), or remotely on distributed storage systems. Main memory storage temporarily holds the necessary data for running programs. Main memory is characterized by its high access speed, essential to quickly provide data to the Central Processing Unit (CPU). Operating systems use several mechanisms to manage storage devices, such as disk schedulers and memory allocators. The processing time of a storage request is affected by the interaction between several subsystems, which complicates the debugging task. Existing tools, such as benchmarking tools, provide a general idea of the overall system performance, but do not accurately identify the causes of poor performance. Dynamic analysis through execution tracing is a solution for the detailed runtime analysis of storage systems. Tracing collects precise data about the internal behavior of the system, which helps in detecting performance problems that are difficult to identify. The goal of this thesis is to provide a tool to analyze storage performance based on lowlevel trace events. The main challenges addressed by this tool are: collecting the required data using kernel and userspace tracing, limiting the overhead of tracing and the size of the generated traces, synchronizing the traces collected from different sources, providing multi-level analyses covering several aspects of storage performance, and lastly proposing abstractions allowing users to easily understand the traces. We carefully designed and inserted the instrumentation needed for the analyses. The tracepoints provide full visibility into the system and track the lifecycle of storage requests, from creation to processing. The Linux Trace Toolkit Next Generation (LTTng), a free and low-overhead tracer, is used for data collection. This tracer is characterized by its stability, and efficiency with highly parallel applications, thanks to the lock-free synchronization mechanisms used to update the content of the trace buffers. We also contributed to the creation of a patch that allows LTTng to capture the call stacks of userspace events

    Apprentissage automatique pour l'assistance au suivi d'étudiants en ligne : approches classique et bio-inspirée

    Get PDF
    Cette thèse a pris la forme d’un partenariat entre l’équipe VORTEX du laboratoire de recherche en informatique IRIT et l’entreprise Andil, spécialisée dans l'informatique pour l'e-learning. Ce partenariat est conclu autour d’une thèse CIFRE, dispositif soutenu par l’État via l’ANRT. La doctorante, Angela Bovo, a travaillé au sein de l'Université Toulouse 1 Capitole. Un partenariat a également été noué avec l'institut de formation Juriscampus, qui nous a fourni des données issues de formations réelles pour nos expérimentations. Notre objectif principal avec ce projet était d'améliorer les possibilités de suivi des étudiants en cours de formation en ligne pour éviter leur décrochage ou leur échec. Nous avons proposé des possibilités de suivi par apprentissage automatique classique en utilisant comme données les traces d'activité des élèves. Nous avons également proposé, à partir de nos données, des indicateurs de comportement des apprenants. Avec Andil, nous avons conçu et réalisé une application web du nom de GIGA, déjà commercialisée et appréciée par les responsables de formation, qui implémente ces propositions et qui a servi de base à de premières expériences de partitionnement de données qui semblent permettre d'identifier les étudiants en difficulté ou en voie d'abandon. Ce projet a également été lancé avec l'objectif d'étudier les possibilités de l'algorithme d'apprentissage automatique inspiré du cerveau humain Hierarchical Temporal Memory (HTM), dans sa version Cortical Learning Algorithm (CLA), dont les hypothèses fondatrices sont bien adaptées à notre problème. Nous avons proposé des façons d'adapter HTM-CLA à des fonctionnalités d'apprentissage automatique classique (partitionnement, classification, régression, prédiction), afin de comparer ses résultats à ceux fournis par les autres algorithmes plus classiques ; mais aussi de l'utiliser comme base d'un moteur de génération de comportement, qui pourrait être utilisé pour créer un tuteur virtuel intelligent chargé de conseiller les apprenants en temps réel. Les implémentations ne sont toutefois pas encore parvenues à produire des résultats probants.This Ph.D. took the shape of a partnership between the VORTEX team in the computer science research laboratory IRIT and the company Andil, which specializes in software for e-learning. This partnership was concluded around a CIFRE Ph.D. This plan is subsidized by the French state through the ANRT. The Ph.D. student, Angela Bovo, worked in Université Toulouse 1 Capitole. Another partnership was built with the training institute Juriscampus, which gave us access to data from real trainings for our experiments. Our main goal for this project was to improve the possibilities for monitoring students in an e-learning training to keep them from falling behind or giving up. We proposed ways to do such monitoring with classical machine learning methods, with the logs from students' activity as data. We also proposed, using the same data, indicators of students' behaviour. With Andil, we designed and produced a web application called GIGA, already marketed and sold, and well appreciated by training managers, which implements our proposals and served as a basis for first clustering experiments which seem to identify well students who are failing or about to give up. Another goal of this project was to study the capacities of the human brain inspired machine learning algorithm Hierarchical Temporal Memory (HTM), in its Cortical Learning Algorithm (CLA) version, because its base hypotheses are well adapted to our problem. We proposed ways to adapt HTM-CLA to classical machine learning functionalities (clustering, classification, regression, prediction), in order to compare its results to those of more classical algorithms; but also to use it as a basis for a behaviour generation engine, which could be used to create an intelligent tutoring system tasked with advising students in real time. However, our implementations did not get to the point of conclusive results

    Actes des Sixièmes journées nationales du Groupement De Recherche CNRS du Génie de la Programmation et du Logiciel

    Get PDF
    National audienceCe document contient les actes des Sixièmes journées nationales du Groupement De Recherche CNRS du Génie de la Programmation et du Logiciel (GDR GPL) s'étant déroulées au CNAM à Paris du 11 au 13 juin 2014. Les contributions présentées dans ce document ont été sélectionnées par les différents groupes de travail du GDR. Il s'agit de résumés, de nouvelles versions, de posters et de démonstrations qui correspondent à des travaux qui ont déjà été validés par les comités de programmes d'autres conférences et revues et dont les droits appartiennent exclusivement à leurs auteurs

    Journées Francophones des Langages Applicatifs 2018

    Get PDF
    National audienceLes 29èmes journées francophones des langages applicatifs (JFLA) se déroulent en 2018 à l'observatoire océanographique de Banyuls-sur-Mer. Les JFLA réunissent chaque année, dans un cadre convivial, concepteurs, développeurs et utilisateurs des langages fonctionnels, des assistants de preuve et des outils de vérification de programmes en présentant des travaux variés, allant des aspects les plus théoriques aux applications industrielles.Cette année, nous avons sélectionné 9 articles de recherche et 8 articles courts. Les thématiques sont variées : preuve formelle, vérification de programmes, modèle mémoire, langages de programmation, mais aussi théorie de l'homotopieet blockchain

    Static analysis of an actor-based process calculus by abstract interpretation

    Get PDF
    Le modèle des Acteurs, introduit par HEWITT et AGHA à la fin des années 80, décrit un système concurrent comme un ensemble d'agents autonomes au comportement non uniforme et communiquant de façon point-à-point par l'envoi de messages étiquetés. Le calcul CAP, proposé par COLAÇO, est un calcul de processus basé sur ce modèle qui permet de décrire sans encodage complexe des systèmes réalistes non triviaux. Ce calcul permet, entre autre, la communication de comportements via les messages et est, en ce sens, un calcul d'ordre supérieur. L'analyse de propriétés sur ce calcul a déjà fait l'objet de plusieurs travaux, essentiellement par inférence de type en utilisant des types comportementaux et du sous-typage. Par ailleurs, des travaux plus récents, effectués par VENET puis FERET, proposent une utilisation de l'interprétation abstraite pour l'analyse de calculs de processus. Ces approches permettent de calculer des propriétés non uniformes : elles permettent, par exemple, de différencier les instances récursives d'un même processus. Cette thèse s'inscrit donc dans la suite de ces deux approches, en appliquant l'interprétation abstraite à l'analyse de CAP. Suivant le cadre proposé par FERET, CAP est, tout d'abord, exprimé dans une forme non standard facilitant les analyses. L'ensemble des configurations atteignables est ensuite sur-approximé via une représentation, correcte par construction, dans des domaines abstraits. Des domaines abstraits généraux sont ensuite introduits afin d'améliorer les analyses existantes ou de représenter des propriétés locales à un sous-terme. Des propriétés spécifiques à CAP, la linéarité des termes et l'absence de messages orphelins, sont alors étudiées dans ce cadre. Des domaines spécifiques sont définis et utilisés pour vérifier ces propriétés. Le cadre présenté permet de lever toutes les restrictions existantes des analyses précédentes quant à la forme des termes ou l'utilisation du passage de comportement. L'intégralité des analyses présentées a été implantée dans un prototype. ABSTRACT : The Actor model, introduced by HEWITT and AGHA in the late 80s, describes a concurrent communicating system as a set of autonomous agents, with non uniform interfaces and communicating by the use of labeled messages. The CAP process calculus, proposed by COLAÇO, is based on this model and allows to describe non trivial realistic systems, without the need of complex encodings. CAP is a higher-order calculus: messages can carry actor behaviors. Multiple works address the analysis of CAP properties, mainly by the use of inferencebased type systems using behavioral types and sub-typing. Otherwise, ore recent works, by VENET and later FERET, propose the use of abstract interpretation to analyze process calculi. These approaches allow to compute non-uniform properties. For example, they are able to differentiate recursive instances of the same thread. This thesis is at the crossroad of these two approaches, applying abstract interpretation to the analysis of CAP. Following the framework of FERET, CAP is firstly expressed in a non standard form, easing its analysis. The set of reachable states is then over-approximated via a sound by construction representation within existing abstract domains. New general abstract domains are then introduced in order to improve the accuracy of existing analyses or to represent local properties. CAP specific properties such as the linearity of terms or the absence of orphan messages, are then considered in this framework. Specific abstract domains are defined and used to check these properties. The proposed framework is able to relax any existing restriction of previous analyses such as constraints on the shape of terms or limitation in the use of CAP behavior passing. The whole analyses have been implemented in a prototyp

    Ondes matière et Univers

    Get PDF
    Cet ouvrage, dans la vision pluridisciplinaire de l’Académie, montre les progrès scientifiques réalisés depuis les premiers travaux d’Albert Einstein et de ses contemporains du début du XXe siècle sur les deux grands piliers de la Physique moderne que sont la Relativité générale et la Mécanique quantique. Il a la prétention de rassembler les résultats et les observations scientifiques les plus significatifs de la fin du XXe siècle et de ce début de troisième millénaire. Malgré les difficultés actuelles des tentatives de leur conciliation en vue de bâtir une théorie unifiée, ces deux théories montrent leur grande pertinence dans leurs domaines respectifs de validité. Elles nous offrent une vision du monde et de l’Univers d’une richesse insoupçonnée. Ce livre comporte quatre parties. 1) Relativité, ondes de l'univers. 2) Dualité ondes/corpuscules de la physique quantique. 3) Ondes, matière et quantification. 4) Une nouvelle révolution scientifique à l'horizon ? La même exigence traverse en filigrane tous les travaux ou réflexions présentés : l’exigence d'accroître et d’affiner constamment les techniques d’observations et d’expérimentations, et de construire parallèlement les outils mathématiques nécessaires à l’analyse de leurs résultats ; l’exigence de tester les implications des théories jusqu’aux dernières limites permises par ces possibilités observationnelles et expérimentales ; pour résumer l’exigence de mettre sans cesse à l’épreuve les théories dans leur conformité aux observations et expériences, et, à travers leur interprétation, dans le rapport que nous leur attribuons à la « réalité » de notre Univers

    A port-Hamiltonian formulation of flexible structures. Modelling and structure-preserving finite element discretization

    Get PDF
    Despite the large literature on port-Hamiltonian (pH) formalism, elasticity problems in higher geometrical dimensions have almost never been considered. This work establishes the connection between port-Hamiltonian distributed systems and elasticity problems. The originality resides in three major contributions. First, the novel pH formulation of plate models and coupled thermoelastic phenomena is presented. The use of tensor calculus is mandatory for continuum mechanical models and the inclusion of tensor variables is necessary to obtain an equivalent and intrinsic, i.e. coordinate free, pH description. Second, a finite element based discretization technique, capable of preserving the structure of the infinite-dimensional problem at a discrete level, is developed and validated. The discretization of elasticity problems requires the use of non-standard finite elements. Nevertheless, the numerical implementation is performed thanks to well-established open-source libraries, providing external users with an easy to use tool for simulating flexible systems in pH form. Third, flexible multibody systems are recast in pH form by making use of a floating frame description valid under small deformations assumptions. This reformulation include all kinds of linear elastic models and exploits the intrinsic modularity of pH systems

    Téléologie et fonctions en biologie. Une approche non causale des explications téléofonctionnelles

    Get PDF
    This dissertation is focused on teleology and functions in biology. More precisely, it focuses on the scientific legitimacy of teleofunctional attributions and explanations in biology. It belongs to a multi-faceted debate that can be traced back to at least the 1970s. One aspect of the debate concerns the naturalization of functions. Most authors try to reduce, translate or explain functions and teleology in terms of efficient causes so that they find their place in the framework of the natural sciences. Our approach here is radically different, as we question the premise that teleological explanations are disguised causal explanations. On the contrary, we defend that they are acceptable in natural sciences and in biology in particular. We challenge the idea that teleological explanations are immature causal explanations, as well as the idea that teleology and functions are some sort of intentional explanations. We therefore reject the accusations of anthropomorphism, vitalism and finalism. On the contrary, we defend that teleology, causality and intentionality correspond to different, autonomous and complementary modes of representation of the outside world. ———[FRANÇAIS]——— Ce travail de thèse porte sur la téléologie et les fonctions en biologie. Plus précisément, il porte sur la légitimité scientifique des attributions et des explications téléofonctionnelles en biologie. Il s’inscrit dans le cadre d’un débat à plusieurs facettes que l’on peut faire remonter au moins jusqu’aux années 1970 et qui est encore très actif aujourd’hui. L’un des aspects du débat porte sur la naturalisation des fonctions, c’est-à-dire sur la manière de les réduire, de les traduire ou de les expliciter en termes de causes efficientes de sorte qu’elles trouvent leur place dans le cadre des sciences de la nature. Notre approche ici est radicalement différente, car nous remettons en question la prémisse selon laquelle les explications téléologiques seraient des explications causales déguisées. Nous défendons au contraire qu’elles sont acceptables en tant que telles aussi bien de façon générale que dans le domaine scientifique et en particulier en biologie. De façon générale, nous remettons en question l’idée selon laquelle la pensée téléologique serait une pensée causale immature, ainsi que sa dépendance présumée vis-à-vis de la psychologie, c’est-à-dire de l’intentionnalité. Nous rejetons donc les accusations d’anthropomorphisme, de vitalisme et de finalisme formulées contre elle. Nous défendons au contraire que la téléologie, la causalité et l’intentionnalité correspondent à des modes différents, autonomes et complémentaires de représentation du monde extérieur

    Les signatures neurobiologiques de la conscience

    Get PDF
    Dans le cadre de ses activités scientifiques, l’Académie Européenne Interdisciplinaire des Sciences a réuni durant la période 2016-2018, par l’intermédiaire de séminaires, conférences et colloque, divers spécialistes travaillant dans les domaines des neurosciences, de la psychologie cognitive, de l’intelligence artificielle, ou encore réfléchissant aux impacts sociétaux des avancées obtenues. Cet ouvrage est le fruit de toutes ces contributions et a pour ambition de présenter un certain nombre de résultats, de perspectives actuellement discernables, de points de vue concernant l’état des connaissances dans ces domaines avec un lien, parfois direct, parfois implicite, avec la question de la conscience. Une introduction générale, rédigée par le comité de lecture de l’AEIS, rappelle le contexte de l’émergence de ces résultats, perspectives et points de vue, dont le lecteur prendra connaissance dans le corps de l’ouvrage, qui comporte quatre parties : Travaux en neurosciences et psychologie expérimentale. Sciences cognitives et intelligence artificielle. Réflexions sur l’intelligence, la conscience et l’impact de l’IA sur les activités humaines. Synthèse des discussions de la table ronde tenue à l’issue du colloque de mars 2018. Un court épilogue rédigé par le comité de lecture met en avant des réflexions et questions qu’ont soulevé la lecture des différents chapitres de l’ouvrage et la prise de connaissance d’articles scientifiques foisonnants sur les travaux actuels pluridisciplinaires autour des interrogations liées à la conscience au sens large
    corecore