121 research outputs found

    ASSESSING AND IMPROVING THE RELIABILITY AND SECURITY OF CIRCUITS AFFECTED BY NATURAL AND INTENTIONAL FAULTS

    Get PDF
    The reliability and security vulnerability of modern electronic systems have emerged as concerns due to the increasing natural and intentional interferences. Radiation of high-energy charged particles generated from space environment or packaging materials on the substrate of integrated circuits results in natural faults. As the technology scales down, factors such as critical charge, voltage supply, and frequency change tremendously that increase the sensitivity of integrated circuits to natural faults even for systems operating at sea level. An attacker is able to simulate the impact of natural faults and compromise the circuit or cause denial of service. Therefore, instead of utilizing different approaches to counteract the effect of natural and intentional faults, a unified countermeasure is introduced. The unified countermeasure thwarts the impact of both reliability and security threats without paying the price of more area overhead, power consumption, and required time. This thesis first proposes a systematic analysis method to assess the probability of natural faults propagating the circuit and eventually being latched. The second part of this work focuses on the methods to thwart the impact of intentional faults in cryptosystems. We exploit a power-based side-channel analysis method to analyze the effect of the existing fault detection methods for natural faults on fault attack. Countermeasures for different security threats on cryptosystems are investigated separately. Furthermore, a new micro-architecture is proposed to thwart the combination of fault attacks and side-channel attacks, reducing the fault bypass rate and slowing down the key retrieval speed. The third contribution of this thesis is a unified countermeasure to thwart the impact of both natural faults and attacks. The unified countermeasure utilizes dynamically alternated multiple generator polynomials for the cyclic redundancy check (CRC) codec to resist the reverse engineering attack

    The 30/20 GHz flight experiment system, phase 2. Volume 2: Experiment system description

    Get PDF
    A detailed technical description of the 30/20 GHz flight experiment system is presented. The overall communication system is described with performance analyses, communication operations, and experiment plans. Hardware descriptions of the payload are given with the tradeoff studies that led to the final design. The spacecraft bus which carries the payload is discussed and its interface with the launch vehicle system is described. Finally, the hardwares and the operations of the terrestrial segment are presented

    Runtime Monitoring for Dependable Hardware Design

    Get PDF
    Mit dem Voranschreiten der Technologieskalierung und der Globalisierung der Produktion von integrierten Schaltkreisen eröffnen sich eine Fülle von Schwachstellen bezüglich der Verlässlichkeit von Computerhardware. Jeder Mikrochip wird aufgrund von Produktionsschwankungen mit einem einzigartigen Charakter geboren, welcher sich durch seine Arbeitsbedingungen, Belastung und Umgebung in individueller Weise entwickelt. Daher sind deterministische Modelle, welche zur Entwurfszeit die Verlässlichkeit prognostizieren, nicht mehr ausreichend um Integrierte Schaltkreise mit Nanometertechnologie sinnvoll abbilden zu können. Der Bedarf einer Laufzeitanalyse des Zustandes steigt und mit ihm die notwendigen Maßnahmen zum Erhalt der Zuverlässigkeit. Transistoren sind anfällig für auslastungsbedingte Alterung, die die Laufzeit der Schaltung erhöht und mit ihr die Möglichkeit einer Fehlberechnung. Hinzu kommen spezielle Abläufe die das schnelle Altern des Chips befördern und somit seine zuverlässige Lebenszeit reduzieren. Zusätzlich können strahlungsbedingte Laufzeitfehler (Soft-Errors) des Chips abnormales Verhalten kritischer Systeme verursachen. Sowohl das Ausbreiten als auch das Maskieren dieser Fehler wiederum sind abhängig von der Arbeitslast des Systems. Fabrizierten Chips können ebenfalls vorsätzlich während der Produktion boshafte Schaltungen, sogenannte Hardwaretrojaner, hinzugefügt werden. Dies kompromittiert die Sicherheit des Chips. Da diese Art der Manipulation vor ihrer Aktivierung kaum zu erfassen ist, ist der Nachweis von Trojanern auf einem Chip direkt nach der Produktion extrem schwierig. Die Komplexität dieser Verlässlichkeitsprobleme machen ein einfaches Modellieren der Zuverlässigkeit und Gegenmaßnahmen ineffizient. Sie entsteht aufgrund verschiedener Quellen, eingeschlossen der Entwicklungsparameter (Technologie, Gerät, Schaltung und Architektur), der Herstellungsparameter, der Laufzeitauslastung und der Arbeitsumgebung. Dies motiviert das Erforschen von maschinellem Lernen und Laufzeitmethoden, welche potentiell mit dieser Komplexität arbeiten können. In dieser Arbeit stellen wir Lösungen vor, die in der Lage sind, eine verlässliche Ausführung von Computerhardware mit unterschiedlichem Laufzeitverhalten und Arbeitsbedingungen zu gewährleisten. Wir entwickelten Techniken des maschinellen Lernens um verschiedene Zuverlässigkeitseffekte zu modellieren, zu überwachen und auszugleichen. Verschiedene Lernmethoden werden genutzt, um günstige Überwachungspunkte zur Kontrolle der Arbeitsbelastung zu finden. Diese werden zusammen mit Zuverlässigkeitsmetriken, aufbauend auf Ausfallsicherheit und generellen Sicherheitsattributen, zum Erstellen von Vorhersagemodellen genutzt. Des Weiteren präsentieren wir eine kosten-optimierte Hardwaremonitorschaltung, welche die Überwachungspunkte zur Laufzeit auswertet. Im Gegensatz zum aktuellen Stand der Technik, welcher mikroarchitektonische Überwachungspunkte ausnutzt, evaluieren wir das Potential von Arbeitsbelastungscharakteristiken auf der Logikebene der zugrundeliegenden Hardware. Wir identifizieren verbesserte Features auf Logikebene um feingranulare Laufzeitüberwachung zu ermöglichen. Diese Logikanalyse wiederum hat verschiedene Stellschrauben um auf höhere Genauigkeit und niedrigeren Overhead zu optimieren. Wir untersuchten die Philosophie, Überwachungspunkte auf Logikebene mit Hilfe von Lernmethoden zu identifizieren und günstigen Monitore zu implementieren um eine adaptive Vorbeugung gegen statisches Altern, dynamisches Altern und strahlungsinduzierte Soft-Errors zu schaffen und zusätzlich die Aktivierung von Hardwaretrojanern zu erkennen. Diesbezüglich haben wir ein Vorhersagemodell entworfen, welches den Arbeitslasteinfluss auf alterungsbedingte Verschlechterungen des Chips mitverfolgt und dazu genutzt werden kann, dynamisch zur Laufzeit vorbeugende Techniken, wie Task-Mitigation, Spannungs- und Frequenzskalierung zu benutzen. Dieses Vorhersagemodell wurde in Software implementiert, welche verschiedene Arbeitslasten aufgrund ihrer Alterungswirkung einordnet. Um die Widerstandsfähigkeit gegenüber beschleunigter Alterung sicherzustellen, stellen wir eine Überwachungshardware vor, welche einen Teil der kritischen Flip-Flops beaufsichtigt, nach beschleunigter Alterung Ausschau hält und davor warnt, wenn ein zeitkritischer Pfad unter starker Alterungsbelastung steht. Wir geben die Implementierung einer Technik zum Reduzieren der durch das Ausführen spezifischer Subroutinen auftretenden Belastung von zeitkritischen Pfaden. Zusätzlich schlagen wir eine Technik zur Abschätzung von online Soft-Error-Schwachstellen von Speicherarrays und Logikkernen vor, welche auf der Überwachung einer kleinen Gruppe Flip-Flops des Entwurfs basiert. Des Weiteren haben wir eine Methode basierend auf Anomalieerkennung entwickelt, um Arbeitslastsignaturen von Hardwaretrojanern während deren Aktivierung zur Laufzeit zu erkennen und somit eine letzte Verteidigungslinie zu bilden. Basierend auf diesen Experimenten demonstriert diese Arbeit das Potential von fortgeschrittener Feature-Extraktion auf Logikebene und lernbasierter Vorhersage basierend auf Laufzeitdaten zur Verbesserung der Zuverlässigkeit von Harwareentwürfen

    Analysis of medium voltage vacuum switchgear through advanced condition monitoring, trending and diagnostic techniques

    Get PDF
    A research report submitted to the Faculty of Engineering and the Built Environment, University of the Witwatersrand, Johannesburg, in partial fulfilment of the requirements for the degree of Master of Science in Engineering, 2015Electrical utilities are tasked with managing large numbers of assets that have long useful lives and are fairly expensive to replace. With emphasis on medium voltage vacuum circuit breakers, a key challenge is determining when circuit breakers are close to their end-of-life and what the appropriate action at that point in time should be. Condition-based maintenance, intended to “do only what is required, when it is required,” has been reported as the most effective maintenance strategy for circuit breakers. This dissertation provides an overview, together with laboratory measurements, on non-intrusive technologies and analytics that could reduce maintenance costs, unplanned outages, catastrophic failures and even enhance the reliability and lifetime of circuit breakers by means of a real-time condition monitoring and effective failure prevention maintenance approach. The key areas of research are the condition assessment of the mechanical mechanism based on coil current signature diagnosis, degradation detection of the main interrupting contacts through thermal monitoring and interrupter vacuum integrity assessment based on magnetron atmospheric condition (MAC) testing. The information from test results allows both immediate onsite analysis and trending of key parameters which enables informed asset management decisions to be taken.GS201

    A two-stage fixed wing space transportation system. Volume 2 - Preliminary design Final report

    Get PDF
    Preliminary design for two stage fixed wing reusable space transportation system - Vol.

    Análisis de fiabilidad y resistencia a la radiación espacial del Observatorio del Universo Extremo (EUSO)

    Get PDF
    Tesis inédita de la Universidad Complutense de Madrid, Facultad de Ciencias Físicas, Departamento de Física de la Tierra, Astronomía y Astrofísica II (Astrofísica y Ciencias de la Atmósfera), leída el 11-11-2016El objetivo principal de esta tesis es el análisis de la fiabilidad del telescopio espacial JEM-EUSO considerando para ello los fallos asociados a Dosis Total de Ionización (TID) y Efectos de Evento Único (SEE). Eventos y/o partículas presentes en la órbita espacial LEO. Órbita en la cual transita la estación espacial internacional (ISS) quien llevará a bordo al telescopio JEM-EUSO. Durante el desarrollo de este trabajo y utilizando métodos actuales de predicción de fiabilidad, se ha creado una herramienta computacional con el fin de sistematizar cualquier evaluación futura de fiabilidad de electrónica espacial. JEM-EUSO (“Extreme Universe Space Observatory on the Japanese Experiment Module”) es un nuevo telescopio espacial que utilizará grandes volúmenes de atmósfera de la Tierra como detector de las partículas más energéticas en el Universo (E > 1019 eV). JEM-EUSO observa los destellos breves de luz de fluorescencia en la atmósfera de la Tierra causados por las partículas provenientes de las profundidades del espacio. Se espera que este instrumento permita, por fin, desvelar las incógnitas aun existentes acerca del origen y propagación de esta radiación. Cada 90 minutos, JEM-EUSO orbitará la Tierra, a bordo de la estación espacial internacional (ISS, por sus siglas en inglés) a una altitud de aproximadamente 400 km. Dicho entorno de funcionamiento, hace de un análisis de fiabilidad un estudio crucial en estos equipos. JEM-EUSO, por otra parte, no cuenta con apoyo externo de los astronautas que se encuentran en la ISS. Es decir, el reemplazo de piezas u/o componentes no sería posible a lo largo de la misión. Para ello, estudios de fiabilidad como los llevado a cabo en este trabajo son fundamentales. Estas evaluaciones aportan datos esenciales que permiten construir equipos e instrumentos adaptados a las necesidades de funcionamiento...The main objective of this Doctoral Thesis was to perform a reliability prediction of the JEM-EUSO space telescope due to the impact of Total Ionizing Dose (TID) and Single Event Effects (SEE) on its focal surface electronics when on-board the International Space Station (ISS)). The aim of this analysis was to evaluate its present and potential reliability of the instrument so as to ensure its mission success during its 5 years of operation. By implementing pre existing models, a computational tool for estimating such failure rates has been created. JEM-EUSO is a large imaging telescope that will study Extremely-High Energy Cosmic Rays (EHECR) from space by imaging the UV light generated by Extensive Air Showers (EAS) particles. These EAS are produced by cosmic rays with energies that can reach and exceed 1020 eV. Looking downward the Earth from the International Space Station (ISS) will detect such particles observing the UV light generated by Extensive Air Showers (EAS) the UHECRs develop in the atmosphere. Among the objectives of JEM-EUSO are: setting up a new window for observing the Universe never used before and therefore opening the Particle Astronomy Era; extend the measurement of the energy spectrum of the cosmic radiation beyond Greisen-Zatsepin-Kuzmin (GZK) suppresion energy; observe Extremely High Energy Gamma Rays (EHEGR) and Extremely High Energy Neutrinos (EHEN) opening the field of EHEGR & EHEN Astronomy...Depto. de Física de la Tierra y AstrofísicaFac. de Ciencias FísicasTRUEunpu

    Mariner Venus 67 spacecraft environmental test results

    Get PDF
    Mariner 5 spacecraft environmental test result

    Resilience of an embedded architecture using hardware redundancy

    Get PDF
    In the last decade the dominance of the general computing systems market has being replaced by embedded systems with billions of units manufactured every year. Embedded systems appear in contexts where continuous operation is of utmost importance and failure can be profound. Nowadays, radiation poses a serious threat to the reliable operation of safety-critical systems. Fault avoidance techniques, such as radiation hardening, have been commonly used in space applications. However, these components are expensive, lag behind commercial components with regards to performance and do not provide 100% fault elimination. Without fault tolerant mechanisms, many of these faults can become errors at the application or system level, which in turn, can result in catastrophic failures. In this work we study the concepts of fault tolerance and dependability and extend these concepts providing our own definition of resilience. We analyse the physics of radiation-induced faults, the damage mechanisms of particles and the process that leads to computing failures. We provide extensive taxonomies of 1) existing fault tolerant techniques and of 2) the effects of radiation in state-of-the-art electronics, analysing and comparing their characteristics. We propose a detailed model of faults and provide a classification of the different types of faults at various levels. We introduce an algorithm of fault tolerance and define the system states and actions necessary to implement it. We introduce novel hardware and system software techniques that provide a more efficient combination of reliability, performance and power consumption than existing techniques. We propose a new element of the system called syndrome that is the core of a resilient architecture whose software and hardware can adapt to reliable and unreliable environments. We implement a software simulator and disassembler and introduce a testing framework in combination with ERA’s assembler and commercial hardware simulators
    corecore