926 research outputs found

    Comparaison de méthodes d'évaluation macroscopique de la robustesse des horaires ferroviaires

    Get PDF
    Dans le cadre des projets de RFF visant la structuration du graphique (par le cadencement des horaires) et l'optimisation de la maintenance du réseau, l'examen amont de la qualité des nouveaux horaires et de l'impact des différentes politiques de maintenance (type et étendue des plages-travaux) sur celle-ci devient déterminant. Des outils macroscopiques existent pour évaluer la robustesse des horaires, qui permettent d'apporter une réponse efficiente en la matière. Le présent travail propose une comparaison critique de trois de ces outils : FASTA, MakSi et la méthode UIC, dans le but de conseiller le gestionnaire d'infrastructure sur la pertinence de chacun d'eux par rapport à ses objectifs propres. Grâce à une analyse multicritère poussée, il apparaît que l'outil FASTA répond sans doute mieux aux préoccupations actuelles de RFF, alors que MakSi se révèlera plus pertinent lorsque la généralisation du cadencement et la régénération du réseau seront stabilisées. Les limitations algorithmiques du premier ont toutefois été mises au jour au cours de l'étude, de manière à servir de fil conducteur lors de ses développements futurs ; quelques recommandations ont également été faites en vue de l'amélioration du second.Exploitation ferroviaire, planification, structuration du graphique, horaire cadencé, massification de la maintenance, robustesse du graphique, stabilité des horaires, propagation des retards, outils macroscopiques, simulation dynamique, domaines de pertinence

    SCADE - Modélisation formelle de systèmes réactifs critiques

    Get PDF

    Modélisation géomatique rétrospective des paysages par évaluation multicritères et multiobjectifs

    Get PDF
    International audienceParmi les fonctions SIG pour la modélisation spatio-temporelle et l'aide à la décision, l'évaluation multicritères et multiobjectifs s'avèrent être particulièrement utile en ce qui concerne la reproductibilité des résultats et le paramétrage de scénarii en termes de prise de risque et de compensation. Ce travail illustre la méthodologie et les résultats obtenus pour la reconstitution probabiliste du paysage historique de la Alta Alpujarra Granadina (Sierra Nevada, Espagne) du 16ème, 18ème et 19ème siècle. L'évaluation multicritères génère des cartes de potentialité - ou d'aptitude - pour chaque usage (objectif), en l'occurrence les différentes catégories d'occupation du sol. Elle se base sur l'hypothèse qu'il existe, pour une date donnée, une série de critères spatialisés pouvant expliquer la variabilité des états de la variable (catégories d'occupation du sol), autrement dit l'aptitude pour un usage. L'évaluation multiobjectifs consiste, en tenant compte des superficies réellement occupées, à intégrer les objectifs concurrents (cartes d'aptitude monothématiques) afin de construire les cartes probabilistes d'occupation du sol historiques pour 1572, 1752 et 1855/61. Les résultats expriment la probabilité de présence d'une occupation du sol à un endroit donné selon les critères inclus dans l'analyse. Leur interprétation permet de se prononcer sur les apports et limites de la méthodologie mise en oeuvre sans pour autant autoriser une validation faute de documents historiques de comparaiso

    Conception sûre et optimale de systèmes dynamiques critiques auto-adaptatifs soumis à des évènements redoutés probabilistes

    Get PDF
    This study takes place in the broad field of Artificial Intelligence, specifically at the intersection of two domains : Automated Planning and Formal Verification in probabilistic environment.In this context, it raises the question of the integration of new technologies in critical systems, and the complexity it entails : How to ensure that adding intelligence to a system, in the form of autonomy, is not done at the expense of safety ?To address this issue, this study aims to develop a tool-supported process for designing critical, self-adaptive systems. Throughout this document, innovations are therefore proposed in methods of formal modeling and in algorithms for safe and optimal planning.Cette étude s’inscrit dans le domaine de l’intelligence artificielle, plus précisément au croisementdes deux domaines que sont la planification autonome en environnement probabiliste et la vérification formelle probabiliste. Dans ce contexte, elle pose la question de la maîtrise de lacomplexité face à l’intégration de nouvelles technologies dans les systèmes critiques : commentgarantir que l’ajout d’une intelligence à un système, sous la forme d’une autonomie, ne se fassepas au détriment de la sécurité ?Pour répondre à cette problématique, cette étude a pour enjeu de développer un processus outillé, permettant de concevoir des systèmes auto-adaptatifs critiques, ce qui met en oeuvre à la fois des méthodes de modélisation formelle des connaissances d’ingénierie, ainsi que des algorithmes de planification sûre et optimale des décisions du système

    Diagnostic de systèmes complexes par comparaison de listes d’alarmes : application aux systèmes de contrôle du LHC

    Get PDF
    In the context of the CERN Large Hadron Collider (LHC), a large number of control systems have been built based on industrial control and SCADA solutions. Beyond the complexity of these systems, a large number of sensors and actuators are controlled which make the monitoring and diagnostic of these equipment a continuous and real challenge for human operators. Even with the existing SCADA monitoring tools, critical situations prompt alarms avalanches in the supervision that makes diagnostic more difficult. This thesis proposes a decision support methodology based on the use of historical data. Past faults signatures represented by alarm lists are compared with the alarm list of the fault to diagnose using pattern matching methods. Two approaches are considered. In the first one, the order of appearance is not taken into account, the alarm lists are then represented by a binary vector and compared to each other thanks to an original weighted distance. Every alarm is weighted according to its ability to represent correctly every past faults. The second approach takes into account the alarms order and uses a symbolic sequence to represent the faults. The comparison between the sequences is then made by an adapted version of the Needleman and Wunsch algorithm widely used in Bio-Informatic. The two methods are tested on artificial data and on simulated data extracted from a very realistic simulator of one of the CERN system. Both methods show good results.Au CERN (Organisation européenne pour la recherche nucléaire), le contrôle et la supervision du plus grand accélérateur du monde, le LHC (Large Hadron Collider), sont basés sur des solutions industrielles (SCADA). Le LHC est composé de sous-systèmes disposant d’un grand nombre de capteurs et d’actionneurs qui rendent la surveillance de ces équipements un véritable défi pour les opérateurs. Même avec les solutions SCADA actuelles, l’occurrence d’un défaut déclenche de véritables avalanches d’alarmes, rendant le diagnostic de ces systèmes très difficile. Cette thèse propose une méthodologie d’aide au diagnostic à partir de données historiques du système. Les signatures des défauts déjà rencontrés et représentés par les listes d’alarmes qu’ils ont déclenchés sont comparées à la liste d’alarmes du défaut à diagnostiquer. Deux approches sont considérées. Dans la première, l’ordre d’apparition des alarmes n’est pas pris en compte et les listes d’alarmes sont représentées par un vecteur binaire. La comparaison se fait à l’aide d’une distance pondérée. Le poids de chaque alarme est évalué en fonction de son aptitude à caractériser chaque défaut. La seconde approche prend en compte l’ordre d’apparition des alarmes, les listes d’alarmes sont alors représentées sous forme de séquences symboliques. La comparaison entre ces deux séquences se fait à l’aide d’un algorithme dérivé de l’algorithme de Needleman et Wunsch utilisé dans le domaine de la Bio-Informatique. Les deux approches sont testées sur des données artificielles ainsi que sur des données extraites d’un simulateur très réaliste d’un des systèmes du LHC et montrent de bons résultats

    "Apparatus" : système de représentation et d'appropriation de données équivoques

    Get PDF
    L'objectif du projet « Apparatus » est de créer un système interactif dont le modèle ultime est la conversation, c'est-à-dire un système où le participant et l'automate s'engagent dans une dynamique dialogique. Il s'agit d'un mémoire-création contenant deux facettes. L'une est la création d'un processus automate basé sur des algorithmes déterministes et modélisés à l'aide du logiciel de programmation Max/MSP/Jitter permettant d'effectuer des performances en temps réel, et l'autre consiste à présenter, à l'aide du document d'accompagnement, les notions sous-jacentes à notre démarche de création. Les sujets traités dans ce mémoire touchent les relations ontologiques, l'intentionnalité, la représentation et la modélisation du vivant d'un système interactif.\ud ______________________________________________________________________________ \ud MOTS-CLÉS DE L’AUTEUR : interaction, conversation, automate, participant, représentation, autopoiès

    Les deux formes de la thèse de Church-Turing et l’épistémologie du calcul

    Get PDF
    La thèse de Church-Turing stipule que toute fonction calculable est calculable par une machine de Turing. En distinguant, à la suite de nombreux auteurs, une forme algorithmique de la thèse de Church-Turing portant sur les fonctions calculables par un algorithme d’une forme empirique de cette même thèse, portant sur les fonctions calculables par une machine, il devient possible de poser une nouvelle question : les limites empiriques du calcul sont-elles identiques aux limites des algorithmes ? Ou existe-t-il un moyen empirique d’effectuer un calcul qu’aucun algorithme ne permet d’effectuer ? Je montrerai ici la pertinence philosophique de cette question. Elle interroge la capacité de processus symboliques comme les calculs à simuler certains processus empiriques. Elle permet également d’étudier le statut épistémologique des calculs réalisés par des machines. S’il existait une fonction calculable par une machine sans être calculable par un algorithme, il existerait un problème mathématique qui serait soluble par un dispositif empirique, sans être soluble par aucune méthode mathématique a priori.Church-Turing’s thesis states that every computable function is computable by a Turing machine. By distinguishing, like many authors in the recent literature, between an algorithmic form of Church-Turing’s thesis on the functions computable by an algorithm, and an empirical form of the same on the functions computable by a machine, it becomes possible to ask a new question: Are the limits of empirical calculation identical to the limits of the algorithms? Or is there a way to empirically perform a calculation no algorithm can perform? I will show the philosophical relevance of this ques­tion. It questions the ability of symbolic processes as calculations to simulate certain empirical processes. It is also essential to the epistemological status of calculations performed by machines. If there were a function computable by a machine without being computable by an algorithm, there would be a mathematical problem, which would be solvable by an empirical device, but would be unsolvable by any a priori mathematical method

    Diagnostic, opacité et test de conformité pour des systèmes récursifs

    Get PDF
    L'une des façons les plus efficace de s'assurer du bon fonctionnement d'un système informatique est de les représenter par des modèles mathématiques. De nombreux travaux ont été réalisés en utilisant des automates finis comme modèles, nous essayons ici d'étendre ces travaux à des modèles infinis. Dans cette thèse, nous nous intéressons à quelques problèmes dans lesquels un système est observé de façon incomplète. Dans ce cas, il est impossible d'accéder à certaines informations internes. La diagnosticabilité d'une propriété donnée consiste à vérifier qu'à l'exécution du système, un observateur sera en mesure de déterminer avec certitude que la propriété est vérifiée par le système. L'opacité consiste, réciproquement, à déterminer qu'un doute existera toujours. Une autre application concerne la génération de cas de test. Une fois encore, on considère qu'un observateur n'accède qu'à une partie des événements se produisant dans le système (en général les entrées et les sorties). À partir d'une spécification, on produit automatiquement des cas de test, qui ont pour but de détecter des non-conformités (elles même formalisées de façon précise). Ces trois problèmes ont été étudiés pour des modèles finis. Dans cette thèse, nous étendons leur étude aux modèles récursifs, pour cela nous avons introduit notre propre modèle, les RTS, qui sont une généralisation des automates à pile, et d'autres modèles de la récursivité. Nous adaptons ensuite les techniques utilisées sur des modèles finis, qui servent à résoudre les problèmes qui nous intéressent.An effective way to ensure the proper functioning of a computer system is to represent it by using mathematical models . Many studies have been conducted using finite automata as models, in this thesis we try to extend these works to infinite models. We focus on three problems in which a system is partially observed. In this case, it is impossible to access certain internal informations. Diagnosability of a given property consist in checking, that, during the execution of the system, an observer will be able to determine with certainty that the property is verified by the system. Conversely, the opacity consists in determining if a doubt will always exist. Another application is the generation of test cases. Once again, we consider that an observer accesses only some events of the system (typically the inputs and outputs): from a specification, we automatically generate test cases, which are designed to detect non-conformance. These three problems have been studied for finite models. In this thesis, we extend their study to recursive models. For this purpose, we have introduced a new model, the RTS, which are a generalization of pushdown automata and other models of recursion. In order to solve problems of interest, we adapt the techniques used in finite models.RENNES1-Bibl. électronique (352382106) / SudocSudocFranceF

    Le nouveau passage du Nord-Ouest

    Get PDF
    National audienceL'année 2012 marque le vingtième anniversaire du Sommet de Rio et le vingt-cinquième du rapport Brundtland. On est à l'heure du bilan. Il faut reconnaître qu'il est pitoyable, on a tergiversé, discuté sur les mécanismes économiques de droits négociables ou de taxes, on a construit des éoliennes et des centrales nucléaires, et puis à Copenhague on a vu chacun camper sur des positions de moindre coût. Le résultat de ces atermoiements est que les glaces arctiques fondent à une vitesse qui surprend les scientifiques eux-mêmes de sorte que le passage entre le Canada et le pôle se dégage et ouvre une nouvelle voie maritime. La voie que les navigateurs cherchaient depuis des siècles s'ouvre enfin. C'est un symbole. Il s'impose à nous comme le résultat d'une certaine philosophie de l'avenir que nous tentons d'expliciter
    • …
    corecore