8 research outputs found

    Hierarchical Hybrid Monitoring for Autonomous Systems

    Get PDF
    To download the extended abstract click fulltext

    Cognitive conflict in human–automation interactions: A psychophysiological study

    Get PDF
    The review of literature in sociology and distributed artificial intelligence reveals that the occurrence of conflict is a remarkable precursor to the disruption of multi-agent systems. The study of this concept could be applied to human factors concerns, as man-system conflict appears to provoke perseveration behavior and to degrade attentional abilities with a trend to excessive focus. Once entangled in such conflicts, the human operator will do anything to succeed in his current goal even if it jeopardizes the mission. In order to confirm these findings, an experimental setup, composed of a real unmanned ground vehicle, a ground station is developed. A scenario involving an authority conflict between the partici- pants and the robot is proposed. Analysis of the effects of the conflict on the participants’ cognition and arousal is assessed through heart-rate measurement (reflecting stress level) and eye-tracking techniques (index of attentional focus). Our results clearly show that the occurrence of the conflict leads to perseveration behavior and can induce higher heart rate as well as excessive attentional focus. These results are discussed in terms of task commitment issues and increased arousal. Moreover, our results suggest that individual differences may predict susceptibility to perseveration behavior

    Petri net-based modelling of human–automation conflicts in aviation

    Get PDF
    Analyses of aviation safety reports reveal that human–machine conflicts induced by poor automation design are remarkable precursors of accidents. A review of different crew–automation conflicting scenarios shows that they have a common denominator: the autopilot behaviour interferes with the pilot's goal regarding the flight guidance via ‘hidden’ mode transitions. Considering both the human operator and the machine (i.e. the autopilot or the decision functions) as agents, we propose a Petri net model of those conflicting interactions, which allows them to be detected as deadlocks in the Petri net. In order to test our Petri net model, we designed an autoflight system that was formally analysed to detect conflicting situations. We identified three conflicting situations that were integrated in an experimental scenario in a flight simulator with 10 general aviation pilots. The results showed that the conflicts that we had a-priori identified as critical had impacted the pilots' performance. Indeed, the first conflict remained unnoticed by eight participants and led to a potential collision with another aircraft. The second conflict was detected by all the participants but three of them did not manage the situation correctly. The last conflict was also detected by all the participants but provoked typical automation surprise situation as only one declared that he had understood the autopilot behaviour. These behavioural results are discussed in terms of workload and number of fired ‘hidden’ transitions. Eventually, this study reveals that both formal and experimental approaches are complementary to identify and assess the criticality of human–automation conflicts. Practitioner Summary: We propose a Petri net model of human–automation conflicts. An experiment was conducted with general aviation pilots performing a scenario involving three conflicting situations to test the soundness of our formal approach. This study reveals that both formal and experimental approaches are complementary to identify and assess the criticality conflicts

    A new paradigm for uncertain knowledge representation by Plausible Petri nets

    Get PDF
    This paper presents a new model for Petri nets (PNs) which combines PN principles with the foundations of information theory for uncertain knowledge representation. The resulting framework has been named Plausible Petri nets (PPNs). The main feature of PPNs resides in their efficiency to jointly consider the evolution of a discrete event system together with uncertain information about the system state using states of information. The paper overviews relevant concepts of information theory and uncertainty representation, and presents an algebraic method to formally consider the evolution of uncertain state variables within the PN dynamics. To illustrate some of the real-world challenges relating to uncertainty that can be handled using a PPN, an example of an expert system is provided, demonstrating how condition monitoring data and expert opinion can be modelled

    Particle Petri Nets for Aircraft Procedure Monitoring Under Uncertainty

    No full text

    Proceedings of the International Workshop on the Design of Dependable Critical Systems “Hardware, Software, and Human Factors in Dependable System Design”

    Get PDF
    As technology advances, technical systems become increasingly complex not only in terms of functionality and structure but also regarding their handling and operation. In order to keep such complex safety-critical and mission-critical systems controllable, they are required to be highly dependable. Since the costs for designing, testing, operating, and maintaining such systems significantly increase with the dependability requirements, new design approaches for the cost effective development and production of dependable systems are required, covering hardware, software, and human factor aspects. This workshop aims at presenting and discussing the latest developments in this field, spanning the entire spectrum from theoretical works on system architecture and dependability measures to practical applications in safety and mission critical domains

    Komponentenbasierte Überwachung hybrider Systeme durch den Einsatz formaler Methoden

    Full text link
    Die vorliegende Arbeit beschĂ€ftigt sich mit der Entwicklung eines neuen Verfahrens zum nahtlosen Komponentenentwurf und zur SystemĂŒberwachung durch ein einheitliches Modell, das die Anforderungen der Entwicklung von komplexen dynamischen Systemen erfĂŒllt und somit einen Beitrag zum Entwurf verlĂ€sslicher Systeme leistet. HierfĂŒr wird die komponentenbasierte Design-Methodologie KobrA eingesetzt, weil diese eine schrittweise Komponentenzerlegung auf verschiedenen Abstraktionsebenen und Sichten durchfĂŒhrt. Sie beinhaltet sowohl „Top-down“-Elemente als auch „Bottom-up“-AnsĂ€tze, die fĂŒr eine effiziente prototypische Systemrealisierung geeignet sind. Mit der Entwicklung eines formalen echtzeitfĂ€higen Überwachungs- und Fehlererkennungsmechanismus wird die KobrA-Methode durch eine formale Modellierungssprache erweitert, welche sowohl fĂŒr die Softwareentwickler als auch fĂŒr die Ingenieure verstĂ€ndlich sein soll. Aus diesem Grund sollte diese Sprache eine eindeutige und streng definierte Semantik besitzen. Die einheitliche Beschreibung der Systemkomponenten sowie der Überwachungskomponenten durch denselben formalen Sprachmittel ermöglicht die systematische Einbettung der Überwachung ĂŒber den gesamten Entwicklungsprozess und dessen AusfĂŒhrung wĂ€hrend des Betriebs. Petri-Netze gehören zur Graphentheorie und zĂ€hlen seit mehreren Jahren zu den mĂ€chtigsten Spezifikationswerkzeugen in verschiedenen Gebieten. Sie erlauben die Beschreibung des Komponentenverhaltens durch ein Netzwerk, bestehend aus Knoten und aus Bedingungen fĂŒr den Datenfluss zwischen diesen Knoten. Wesentliche Vorteile von Petri-Netzen sind zum einen ihre formale mathematische Formulierung, die auf einem soliden theoretischen Fundament beruht, sowie zum anderen die explizite Abbildung des Prozesszustandes ĂŒber ein Markierungskonzept. Petri-Netze ermöglichen zusĂ€tzlich die Darstellung sequentieller, sich gegenseitig ausschließender sowie paralleler AktivitĂ€ten, die Modellierung und Visualisierung von Systemverhalten sowie die NebenlĂ€ufigkeit und die Synchronisation von kooperativen Prozessen. In dieser Arbeit erfolgt die Verhaltensbeschreibung der Überwachungskomponenten durch eine neue Klasse von Petri-Netzen, so genannte „Modifizierte Partikel Petri-Netze“ (engl., Modified Particle Petri Nets „MPPN“). Diese Netzklasse beinhaltet hybride Petri-Netze fĂŒr die Modellierung des hybriden Systemverhaltens und einen Partikelfilter als probabilistische Erweiterung, um die Überwachung als Tracking-Problem aufzufassen. Petri-Netze bieten eine vollstĂ€ndige und konsistente Beschreibung der Prozesse, die graphische Anschauung sowie Simulation und Animation als Testmöglichkeit bereits wĂ€hrend der Entwurfsphase. Die Kombination aus KobrA-Beschreibungsformalismus und Petri-Netzen erlaubt eine anschauliche, modular und hierarchisch strukturierte Modellierung, direkt in einer formalen Sprache. Durch unterstĂŒtzende Werkzeuge, die im Rahmen dieser Arbeit entwickelt sind, kann die Realisierung der Überwachungskomponente direkt aus der Spezifikation generiert werden. HierfĂŒr wird das Petri-Netzmodell in ein textuelles kompaktes XML-Austauschformat (engl., „Extensible Markup Language“) transformiert, welche sich an dem PNML-Standard (engl., „Petri Net Markup Language“) orientiert. Diese generische Vorlage enthĂ€lt das Komponentenverhalten und die fĂŒr den Überwachungsprozess notwendigen Parameter. Der besondere Aspekt fĂŒr den Einsatz derselben formalen Methode, nĂ€mlich die Petri-Netze, sowohl fĂŒr die Spezifikation als auch fĂŒr die Realisierung, beruht auf zwei Zielen. Das primĂ€re Ziel ist, ein einheitliches verstĂ€ndliches Ausdrucksmittel fĂŒr die Entwurfsphase eines Systems zu stellen, mit dem alle Aspekte des ausgewĂ€hlten Abstraktionsniveaus unmissverstĂ€ndlich dargestellt werden können. Denn Spezifikationsdokumente in natĂŒrlichen Sprachen sind anfĂ€llig fĂŒr MissverstĂ€ndnisse, wĂ€hrend formale Spezifikationen auf mathematischen Beschreibungen und eindeutiger Semantik und Syntaxen basieren. Das sekundĂ€re Ziel ist eine formale ĂŒberprĂŒfbare Spezifikation (mittels eines Simulationswerkzeuges) als solide Basis fĂŒr die Realisierungsphase zu bilden. Denn eine automatisch verifikationsbasierte Systementwicklung stellt eine Möglichkeit zur Erhöhung der SystemverlĂ€sslichkeit dar. Die andere Möglichkeit basiert auf der Robustheit des Überwachungsverfahrens wĂ€hrend der Betriebsphase
    corecore