177 research outputs found

    A synthesis of logic and biology in the design of dependable systems

    Get PDF
    The technologies of model-based design and dependability analysis in the design of dependable systems, including software intensive systems, have advanced in recent years. Much of this development can be attributed to the application of advances in formal logic and its application to fault forecasting and verification of systems. In parallel, work on bio-inspired technologies has shown potential for the evolutionary design of engineering systems via automated exploration of potentially large design spaces. We have not yet seen the emergence of a design paradigm that combines effectively and throughout the design lifecycle these two techniques which are schematically founded on the two pillars of formal logic and biology. Such a design paradigm would apply these techniques synergistically and systematically from the early stages of design to enable optimal refinement of new designs which can be driven effectively by dependability requirements. The paper sketches such a model-centric paradigm for the design of dependable systems that brings these technologies together to realise their combined potential benefits

    Multi-criteria Resource Allocation in Modal Hard Real-Time Systems

    Get PDF
    In this paper, a novel resource allocation approach dedicated to hard real-time systems with distinctive operational modes is proposed. The aim of this approach is to reduce the energy dissipation of the computing cores by either powering them off or switching them into energy-saving states while still guaranteeing to meet all timing constraints. The approach is illustrated with two industrial applications, an engine control management and an engine control unit. Moreover, the amount of data to be migrated during the mode change is minimised. Since the number of processing cores and their energy dissipation are often negatively correlated with the amount of data to be migrated during the mode change, there is some trade-off between these values, which is also analysed in this paper

    Efficient Error-Tolerant Quantized Neural Network Accelerators

    Full text link
    Neural Networks are currently one of the most widely deployed machine learning algorithms. In particular, Convolutional Neural Networks (CNNs), are gaining popularity and are evaluated for deployment in safety critical applications such as self driving vehicles. Modern CNNs feature enormous memory bandwidth and high computational needs, challenging existing hardware platforms to meet throughput, latency and power requirements. Functional safety and error tolerance need to be considered as additional requirement in safety critical systems. In general, fault tolerant operation can be achieved by adding redundancy to the system, which is further exacerbating the computational demands. Furthermore, the question arises whether pruning and quantization methods for performance scaling turn out to be counterproductive with regards to fail safety requirements. In this work we present a methodology to evaluate the impact of permanent faults affecting Quantized Neural Networks (QNNs) and how to effectively decrease their effects in hardware accelerators. We use FPGA-based hardware accelerated error injection, in order to enable the fast evaluation. A detailed analysis is presented showing that QNNs containing convolutional layers are by far not as robust to faults as commonly believed and can lead to accuracy drops of up to 10%. To circumvent that, we propose two different methods to increase their robustness: 1) selective channel replication which adds significantly less redundancy than used by the common triple modular redundancy and 2) a fault-aware scheduling of processing elements for folded implementationsComment: 6 pages, 5 figure

    Dependable Embedded Systems

    Get PDF
    This Open Access book introduces readers to many new techniques for enhancing and optimizing reliability in embedded systems, which have emerged particularly within the last five years. This book introduces the most prominent reliability concerns from today’s points of view and roughly recapitulates the progress in the community so far. Unlike other books that focus on a single abstraction level such circuit level or system level alone, the focus of this book is to deal with the different reliability challenges across different levels starting from the physical level all the way to the system level (cross-layer approaches). The book aims at demonstrating how new hardware/software co-design solution can be proposed to ef-fectively mitigate reliability degradation such as transistor aging, processor variation, temperature effects, soft errors, etc. Provides readers with latest insights into novel, cross-layer methods and models with respect to dependability of embedded systems; Describes cross-layer approaches that can leverage reliability through techniques that are pro-actively designed with respect to techniques at other layers; Explains run-time adaptation and concepts/means of self-organization, in order to achieve error resiliency in complex, future many core systems

    Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems

    Full text link
    [ES] La utilización de sistemas empotrados en cada vez más ámbitos de aplicación está llevando a que su diseño deba enfrentarse a mayores requisitos de rendimiento, consumo de energía y área (PPA). Asimismo, su utilización en aplicaciones críticas provoca que deban cumplir con estrictos requisitos de confiabilidad para garantizar su correcto funcionamiento durante períodos prolongados de tiempo. En particular, el uso de dispositivos lógicos programables de tipo FPGA es un gran desafío desde la perspectiva de la confiabilidad, ya que estos dispositivos son muy sensibles a la radiación. Por todo ello, la confiabilidad debe considerarse como uno de los criterios principales para la toma de decisiones a lo largo del todo flujo de diseño, que debe complementarse con diversos procesos que permitan alcanzar estrictos requisitos de confiabilidad. Primero, la evaluación de la robustez del diseño permite identificar sus puntos débiles, guiando así la definición de mecanismos de tolerancia a fallos. Segundo, la eficacia de los mecanismos definidos debe validarse experimentalmente. Tercero, la evaluación comparativa de la confiabilidad permite a los diseñadores seleccionar los componentes prediseñados (IP), las tecnologías de implementación y las herramientas de diseño (EDA) más adecuadas desde la perspectiva de la confiabilidad. Por último, la exploración del espacio de diseño (DSE) permite configurar de manera óptima los componentes y las herramientas seleccionados, mejorando así la confiabilidad y las métricas PPA de la implementación resultante. Todos los procesos anteriormente mencionados se basan en técnicas de inyección de fallos para evaluar la robustez del sistema diseñado. A pesar de que existe una amplia variedad de técnicas de inyección de fallos, varias problemas aún deben abordarse para cubrir las necesidades planteadas en el flujo de diseño. Aquellas soluciones basadas en simulación (SBFI) deben adaptarse a los modelos de nivel de implementación, teniendo en cuenta la arquitectura de los diversos componentes de la tecnología utilizada. Las técnicas de inyección de fallos basadas en FPGAs (FFI) deben abordar problemas relacionados con la granularidad del análisis para poder localizar los puntos débiles del diseño. Otro desafío es la reducción del coste temporal de los experimentos de inyección de fallos. Debido a la alta complejidad de los diseños actuales, el tiempo experimental dedicado a la evaluación de la confiabilidad puede ser excesivo incluso en aquellos escenarios más simples, mientras que puede ser inviable en aquellos procesos relacionados con la evaluación de múltiples configuraciones alternativas del diseño. Por último, estos procesos orientados a la confiabilidad carecen de un soporte instrumental que permita cubrir el flujo de diseño con toda su variedad de lenguajes de descripción de hardware, tecnologías de implementación y herramientas de diseño. Esta tesis aborda los retos anteriormente mencionados con el fin de integrar, de manera eficaz, estos procesos orientados a la confiabilidad en el flujo de diseño. Primeramente, se proponen nuevos métodos de inyección de fallos que permiten una evaluación de la confiabilidad, precisa y detallada, en diferentes niveles del flujo de diseño. Segundo, se definen nuevas técnicas para la aceleración de los experimentos de inyección que mejoran su coste temporal. Tercero, se define dos estrategias DSE que permiten configurar de manera óptima (desde la perspectiva de la confiabilidad) los componentes IP y las herramientas EDA, con un coste experimental mínimo. Cuarto, se propone un kit de herramientas que automatiza e incorpora con eficacia los procesos orientados a la confiabilidad en el flujo de diseño semicustom. Finalmente, se demuestra la utilidad y eficacia de las propuestas mediante un caso de estudio en el que se implementan tres procesadores empotrados en un FPGA de Xilinx serie 7.[CA] La utilització de sistemes encastats en cada vegada més àmbits d'aplicació està portant al fet que el seu disseny haja d'enfrontar-se a majors requisits de rendiment, consum d'energia i àrea (PPA). Així mateix, la seua utilització en aplicacions crítiques provoca que hagen de complir amb estrictes requisits de confiabilitat per a garantir el seu correcte funcionament durant períodes prolongats de temps. En particular, l'ús de dispositius lògics programables de tipus FPGA és un gran desafiament des de la perspectiva de la confiabilitat, ja que aquests dispositius són molt sensibles a la radiació. Per tot això, la confiabilitat ha de considerar-se com un dels criteris principals per a la presa de decisions al llarg del tot flux de disseny, que ha de complementar-se amb diversos processos que permeten aconseguir estrictes requisits de confiabilitat. Primer, l'avaluació de la robustesa del disseny permet identificar els seus punts febles, guiant així la definició de mecanismes de tolerància a fallades. Segon, l'eficàcia dels mecanismes definits ha de validar-se experimentalment. Tercer, l'avaluació comparativa de la confiabilitat permet als dissenyadors seleccionar els components predissenyats (IP), les tecnologies d'implementació i les eines de disseny (EDA) més adequades des de la perspectiva de la confiabilitat. Finalment, l'exploració de l'espai de disseny (DSE) permet configurar de manera òptima els components i les eines seleccionats, millorant així la confiabilitat i les mètriques PPA de la implementació resultant. Tots els processos anteriorment esmentats es basen en tècniques d'injecció de fallades per a poder avaluar la robustesa del sistema dissenyat. A pesar que existeix una àmplia varietat de tècniques d'injecció de fallades, diverses problemes encara han d'abordar-se per a cobrir les necessitats plantejades en el flux de disseny. Aquelles solucions basades en simulació (SBFI) han d'adaptar-se als models de nivell d'implementació, tenint en compte l'arquitectura dels diversos components de la tecnologia utilitzada. Les tècniques d'injecció de fallades basades en FPGAs (FFI) han d'abordar problemes relacionats amb la granularitat de l'anàlisi per a poder localitzar els punts febles del disseny. Un altre desafiament és la reducció del cost temporal dels experiments d'injecció de fallades. A causa de l'alta complexitat dels dissenys actuals, el temps experimental dedicat a l'avaluació de la confiabilitat pot ser excessiu fins i tot en aquells escenaris més simples, mentre que pot ser inviable en aquells processos relacionats amb l'avaluació de múltiples configuracions alternatives del disseny. Finalment, aquests processos orientats a la confiabilitat manquen d'un suport instrumental que permeta cobrir el flux de disseny amb tota la seua varietat de llenguatges de descripció de maquinari, tecnologies d'implementació i eines de disseny. Aquesta tesi aborda els reptes anteriorment esmentats amb la finalitat d'integrar, de manera eficaç, aquests processos orientats a la confiabilitat en el flux de disseny. Primerament, es proposen nous mètodes d'injecció de fallades que permeten una avaluació de la confiabilitat, precisa i detallada, en diferents nivells del flux de disseny. Segon, es defineixen noves tècniques per a l'acceleració dels experiments d'injecció que milloren el seu cost temporal. Tercer, es defineix dues estratègies DSE que permeten configurar de manera òptima (des de la perspectiva de la confiabilitat) els components IP i les eines EDA, amb un cost experimental mínim. Quart, es proposa un kit d'eines (DAVOS) que automatitza i incorpora amb eficàcia els processos orientats a la confiabilitat en el flux de disseny semicustom. Finalment, es demostra la utilitat i eficàcia de les propostes mitjançant un cas d'estudi en el qual s'implementen tres processadors encastats en un FPGA de Xilinx serie 7.[EN] Embedded systems are steadily extending their application areas, dealing with increasing requirements in performance, power consumption, and area (PPA). Whenever embedded systems are used in safety-critical applications, they must also meet rigorous dependability requirements to guarantee their correct operation during an extended period of time. Meeting these requirements is especially challenging for those systems that are based on Field Programmable Gate Arrays (FPGAs), since they are very susceptible to Single Event Upsets. This leads to increased dependability threats, especially in harsh environments. In such a way, dependability should be considered as one of the primary criteria for decision making throughout the whole design flow, which should be complemented by several dependability-driven processes. First, dependability assessment quantifies the robustness of hardware designs against faults and identifies their weak points. Second, dependability-driven verification ensures the correctness and efficiency of fault mitigation mechanisms. Third, dependability benchmarking allows designers to select (from a dependability perspective) the most suitable IP cores, implementation technologies, and electronic design automation (EDA) tools. Finally, dependability-aware design space exploration (DSE) allows to optimally configure the selected IP cores and EDA tools to improve as much as possible the dependability and PPA features of resulting implementations. The aforementioned processes rely on fault injection testing to quantify the robustness of the designed systems. Despite nowadays there exists a wide variety of fault injection solutions, several important problems still should be addressed to better cover the needs of a dependability-driven design flow. In particular, simulation-based fault injection (SBFI) should be adapted to implementation-level HDL models to take into account the architecture of diverse logic primitives, while keeping the injection procedures generic and low-intrusive. Likewise, the granularity of FPGA-based fault injection (FFI) should be refined to the enable accurate identification of weak points in FPGA-based designs. Another important challenge, that dependability-driven processes face in practice, is the reduction of SBFI and FFI experimental effort. The high complexity of modern designs raises the experimental effort beyond the available time budgets, even in simple dependability assessment scenarios, and it becomes prohibitive in presence of alternative design configurations. Finally, dependability-driven processes lack an instrumental support covering the semicustom design flow in all its variety of description languages, implementation technologies, and EDA tools. Existing fault injection tools only partially cover the individual stages of the design flow, being usually specific to a particular design representation level and implementation technology. This work addresses the aforementioned challenges by efficiently integrating dependability-driven processes into the design flow. First, it proposes new SBFI and FFI approaches that enable an accurate and detailed dependability assessment at different levels of the design flow. Second, it improves the performance of dependability-driven processes by defining new techniques for accelerating SBFI and FFI experiments. Third, it defines two DSE strategies that enable the optimal dependability-aware tuning of IP cores and EDA tools, while reducing as much as possible the robustness evaluation effort. Fourth, it proposes a new toolkit (DAVOS) that automates and seamlessly integrates the aforementioned dependability-driven processes into the semicustom design flow. Finally, it illustrates the usefulness and efficiency of these proposals through a case study consisting of three soft-core embedded processors implemented on a Xilinx 7-series SoC FPGA.Tuzov, I. (2020). Dependability-driven Strategies to Improve the Design and Verification of Safety-Critical HDL-based Embedded Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/159883TESI

    Zeus: Understanding and Optimizing GPU Energy Consumption of DNN Training

    Full text link
    Training deep neural networks (DNNs) is becoming increasingly more resource- and energy-intensive every year. Unfortunately, existing works primarily focus on optimizing DNN training for faster completion, often without considering the impact on energy efficiency. In this paper, we observe that common practices to improve training performance can often lead to inefficient energy usage. More importantly, we demonstrate that there is a tradeoff between energy consumption and performance optimization. To this end, we propose Zeus, an optimization framework to navigate this tradeoff by automatically finding optimal job- and GPU-level configurations for recurring DNN training jobs. Zeus uses an online exploration-exploitation approach in conjunction with just-in-time energy profiling, averting the need for expensive offline measurements, while adapting to data drifts over time. Our evaluation shows that Zeus can improve the energy efficiency of DNN training by 15.3%-75.8% for diverse workloads.Comment: NSDI 2023 | Homepage https://ml.energy/zeu

    Reliable Software for Unreliable Hardware - A Cross-Layer Approach

    Get PDF
    A novel cross-layer reliability analysis, modeling, and optimization approach is proposed in this thesis that leverages multiple layers in the system design abstraction (i.e. hardware, compiler, system software, and application program) to exploit the available reliability enhancing potential at each system layer and to exchange this information across multiple system layers

    Adaptive Computing Systems for Aerospace

    Get PDF
    RÉSUMÉ En raison de leur complexité croissante, les systèmes informatiques modernes nécessitent de nouvelles méthodologies permettant d’automatiser leur conception et d’améliorer leurs performances. L’espace, en particulier, constitue un environnement très défavorable au maintien de la performance de ces systèmes : sans protection des rayonnements ionisants et des particules, l’électronique basée sur CMOS peut subir des erreurs transitoires, une dégradation des performances et une usure accélérée causant ultimement une défaillance du système. Les approches traditionnellement adoptees pour garantir la fiabilité du système et prolonger sa durée de vie sont basées sur la redondance, généralement établie durant la conception. En revanche, ces solutions sont coûteuses et parfois inefficaces, puisqu'elles augmentent la taille et la complexité du système, l'exposant à des risques plus élevés de surchauffe et d'erreurs. Les conséquences de ces limites sont d'autant plus importantes lorsqu'elles s’appliquent aux systèmes critiques (e.g., contraintes par le temps ou dont l’accès est limité) qui doivent être en mesure de prendre des décisions sans intervention humaine. Sur la base de ces besoins et limites, le développement en aérospatial de systèmes informatiques avec capacités adaptatives peut être considéré comme la solution la plus appropriée pour les dispositifs intégrés à haute performance. L’informatique auto-adaptative offre un potentiel sans égal pour assurer la création d’une génération d’ordinateurs plus intelligents et fiables. Qui plus est, elle répond aux besoins modernes de concevoir et programmer des systèmes informatiques capables de répondre à des objectifs en conflit. En nous inspirant des domaines de l’intelligence artificielle et des systèmes reconfigurables, nous aspirons à développer des systèmes informatiques auto-adaptatifs pour l’aérospatiale qui répondent aux enjeux et besoins actuels. Notre objectif est d’améliorer l’efficacité de ces systèmes, leur tolerance aux pannes et leur capacité de calcul. Afin d’atteindre cet objectif, une analyse expérimentale et comparative des algorithmes les plus populaires pour l’exploration multi-objectifs de l’espace de conception est d’abord effectuée. Les algorithmes ont été recueillis suite à une revue de la plus récente littérature et comprennent des méthodes heuristiques, évolutives et statistiques. L’analyse et la comparaison de ceux-ci permettent de cerner les forces et limites de chacun et d'ainsi définir des lignes directrices favorisant un choix optimal d’algorithmes d’exploration. Pour la création d’un système d’optimisation autonome—permettant le compromis entre plusieurs objectifs—nous exploitons les capacités des modèles graphiques probabilistes. Nous introduisons une méthodologie basée sur les modèles de Markov cachés dynamiques, laquelle permet d’équilibrer la disponibilité et la durée de vie d’un système multiprocesseur. Ceci est obtenu en estimant l'occurrence des erreurs permanentes parmi les erreurs transitoires et en migrant dynamiquement le calcul sur les ressources supplémentaires en cas de défaillance. La nature dynamique du modèle rend celui-ci adaptable à différents profils de mission et taux d’erreur. Les résultats montrent que nous sommes en mesure de prolonger la durée de vie du système tout en conservant une disponibilité proche du cas idéal. En raison des contraintes de temps rigoureuses imposées par les systèmes aérospatiaux, nous étudions aussi l’optimisation de la tolérance aux pannes en présence d'exigences d’exécution en temps réel. Nous proposons une méthodologie pour améliorer la fiabilité du calcul en présence d’erreurs transitoires pour les tâches en temps réel d’un système multiprocesseur homogène avec des capacités de réglage de tension et de fréquence. Dans ce cadre, nous définissons un nouveau compromis probabiliste entre la consommation d’énergie et la tolérance aux erreurs. Comme nous reconnaissons que la résilience est une propriété d’intérêt omniprésente (par exemple, pour la conception et l’analyse de systems complexes génériques), nous adaptons une définition formelle de celle-ci à un cadre probabiliste dérivé à nouveau de modèles de Markov cachés. Ce cadre nous permet de modéliser de façon réaliste l’évolution stochastique et l’observabilité partielle des phénomènes du monde réel. Nous proposons un algorithme permettant le calcul exact efficace de l’étape essentielle d’inférence laquelle est requise pour vérifier des propriétés génériques. Pour démontrer la flexibilité de cette approche, nous la validons, entre autres, dans le contexte d’un système informatisé reconfigurable pour l’aérospatiale. Enfin, nous étendons la portée de nos recherches vers la robotique et les systèmes multi-agents, deux sujets dont la popularité est croissante en exploration spatiale. Nous abordons le problème de l’évaluation et de l’entretien de la connectivité dans le context distribué et auto-adaptatif de la robotique en essaim. Nous examinons les limites des solutions existantes et proposons une nouvelle méthodologie pour créer des géométries complexes connectées gérant plusieurs tâches simultanément. Des contributions additionnelles dans plusieurs domaines sont résumés dans les annexes, nommément : (i) la conception de CubeSats, (ii) la modélisation des rayonnements spatiaux pour l’injection d’erreur dans FPGA et (iii) l’analyse temporelle probabiliste pour les systèmes en temps réel. À notre avis, cette recherche constitue un tremplin utile vers la création d’une nouvelle génération de systèmes informatiques qui exécutent leurs tâches d’une façon autonome et fiable, favorisant une exploration spatiale plus simple et moins coûteuse.----------ABSTRACT Today's computer systems are growing more and more complex at a pace that requires the development of novel and more effective methodologies to automate their design. Space, in particular, represents a challenging environment: without protection from ionizing and particle radiation, CMOS-based electronics are subject to transients faults, performance degradation, accelerated wear, and, ultimately, system failure. Traditional approaches adopted to guarantee reliability and extended lifetime are based on redundancy that is established at design-time. These solutions are expensive and sometimes inefficient, as they increase the complexity and size of a system, exposing it to higher risks of overheating and incurring in radiation-induced errors. Moreover, critical systems---e.g., time-constrained ones and those where access is limited---must be able to cope with pivotal situations without relying on human intervention. Hence, the emerging interest in computer systems with adaptive capabilities as the most suitable solution for novel high-performance embedded devices for aerospace. Self-adaptive computing carries unmatched potential and great promises for the creation of a new generation of smart, more reliable computers, and it addresses the challenge of designing and programming modern and future computer systems that must meet conflicting goals. Drawing from the fields of artificial intelligence and reconfigurable systems, we aim at developing self-adaptive computer systems for aerospace. Our goal is to improve their efficiency, fault-tolerance, and computational capabilities. The first step in this research is the experimental analysis of the most popular multi-objective design-space exploration algorithms for high-level design. These algorithms were collected from the recent literature and include heuristic, evolutionary, and statistical methods. Their comparison provides insights that we use to define guidelines for the choice of the most appropriate optimization algorithms, given the features of the design space. For the creation of a self-managing optimization framework---enabling the adaptive trade-off of multiple objectives---we leverage the tools of probabilistic graphical models. We introduce a mechanism based on dynamic hidden Markov models that balances the availability and lifetime of multiprocessor systems. This is achieved by estimating the occurrence of permanent faults amid transient faults, and by dynamically migrating the computation on excess resources, when failure occurs. The dynamic nature of the model makes it adjustable to different mission profiles and fault rates. The results show that we are able to lead systems to extended lifetimes, while keeping their availability close to ideal. On account of the stringent timing constraints imposed by aerospace systems, we then investigate the optimization of fault-tolerance under real-time requirements. We propose a methodology to improve the reliability of computation in the presence of transient errors when considering the mapping of real-time tasks on a homogeneous multiprocessor system with voltage and frequency scaling capabilities. In this framework, we take advantage of probability theory to define a novel trade-off between power consumption and fault-tolerance. As we recognize that resilience is a pervasive property of interest (e.g., for the design and analysis of generic complex systems), we adapt a formal definition of it to one more probabilistic framework derived from hidden Markov models. This allows us to realistically model the stochastic evolution and partial observability of complex real-world environments. Within this framework, we propose an efficient algorithm for the exact computation of the essential inference step required to construct generic property checking. To demonstrate the flexibility of this approach, we validate it in the context, among others, of a self-aware, reconfigurable computing system for aerospace. Finally, we move the scope of our research towards robotics and multi-agent systems: a topic of thriving popularity for space exploration. We tackle the problem of connectivity assessment and maintenance in the distributed and self-adaptive context of swarm robotics. We review the limitations of existing solutions and propose a novel methodology to create connected complex geometries for multiple task coverage. Additional contributions in the areas of (i) CubeSat design, (ii) the modelling of space radiation for FPGA fault-injection, and (iii) probabilistic timing analysis for real-time systems are summarized in the appendices. In the author's opinion, this research provides a number of useful stepping stones for the creation of a new generation of computing systems that autonomously---and reliably---perform their tasks for longer periods of time, fostering simpler and cheaper space exploration

    In pursuit of autonomous distributed satellite systems

    Get PDF
    Satellite imagery has become an essential resource for environmental, humanitarian, and industrial endeavours. As a means to satisfy the requirements of new applications and user needs, novel Earth Observation (EO) systems are exploring the suitability of Distributed Satellite Systems (DSS) in which multiple observation assets concurrently sense the Earth. Given the temporal and spatial resolution requirements of EO products, DSS are often envisioned as large-scale systems with multiple sensing capabilities operating in a networked manner. Enabled by the consolidation of small satellite platforms and fostered by the emerging capabilities of distributed systems, these new architectures pose multiple design and operational challenges. Two of them are the main pillars of this research, namely, the conception of decision-support tools to assist the architecting process of a DSS, and the design of autonomous operational frameworks based on decentralised, on-board decision-making. The first part of this dissertation addresses the architecting of heterogeneous, networked DSS architectures that hybridise small satellite platforms with traditional EO assets. We present a generic design-oriented optimisation framework based on tradespace exploration methodologies. The goals of this framework are twofold: to select the most optimal constellation design; and to facilitate the identification of design trends, unfeasible regions, and tensions among architectural attributes. Oftentimes in EO DSS, system requirements and stakeholder preferences are not only articulated through functional attributes (i.e. resolution, revisit time, etc.) or monetary constraints, but also through qualitative traits such as flexibility, evolvability, robustness, or resiliency, amongst others. In line with that, the architecting framework defines a single figure of merit that aggregates quantitative attributes and qualitative ones-the so-called ilities of a system. With that, designers can steer the design of DSS both in terms of performance or cost, and in terms of their high-level characteristics. The application of this optimisation framework has been illustrated in two timely use-cases identified in the context of the EU-funded ONION project: a system that measures ocean and ice parameters in Polar regions to facilitate weather forecast and off-shore operations; and a system that provides agricultural variables crucial for global management of water stress, crop state, and draughts. The analysis of architectural features facilitated a comprehensive understanding of the functional and operational characteristics of DSS. With that, this thesis continues to delve into the design of DSS by focusing on one particular functional trait: autonomy. The minimisation of human-operator intervention has been traditionally sought in other space systems and can be especially critical for large-scale, structurally dynamic, heterogeneous DSS. In DSS, autonomy is expected to cope with the likely inability to operate very large-scale systems in a centralised manner, to improve the science return, and to leverage many of their emerging capabilities (e.g. tolerance to failures, adaptability to changing structures and user needs, responsiveness). We propose an autonomous operational framework that provides decentralised decision-making capabilities to DSS by means of local reasoning and individual resource allocation, and satellite-to-satellite interactions. In contrast to previous works, the autonomous decision-making framework is evaluated in this dissertation for generic constellation designs the goal of which is to minimise global revisit times. As part of the characterisation of our solution, we stressed the implications that autonomous operations can have upon satellite platforms with stringent resource constraints (e.g. power, memory, communications capabilities) and evaluated the behaviour of the solution for a large-scale DSS composed of 117 CubeSat-like satellite units.La imatgeria per satèl·lit ha esdevingut un recurs essencial per assolir tasques ambientals, humanitàries o industrials. Per tal de satisfer els requeriments de les noves aplicacions i usuaris, els sistemes d’observació de la Terra (OT) estan explorant la idoneïtat dels Sistemes de Satèl·lit Distribuïts (SSD), on múltiples observatoris espacials mesuren el planeta simultàniament. Degut al les resolucions temporals i espacials requerides, els SSD sovint es conceben com sistemes de gran escala que operen en xarxa. Aquestes noves arquitectures promouen les capacitats emergents dels sistemes distribuïts i, tot i que són possibles gràcies a l’acceptació de les plataformes de satèl·lits petits, encara presenten molts reptes en quant al disseny i operacions. Dos d’ells són els pilars principals d’aquesta tesi, en concret, la concepció d’eines de suport a la presa de decisions pel disseny de SSD, i la definició d’operacions autònomes basades en gestió descentralitzada a bord dels satèl·lits. La primera part d’aquesta dissertació es centra en el disseny arquitectural de SSD heterogenis i en xarxa, imbricant tecnologies de petits satèl·lits amb actius tradicionals. Es presenta un entorn d’optimització orientat al disseny basat en metodologies d’exploració i comparació de solucions. Els objectius d’aquest entorn són: la selecció el disseny de constel·lació més òptim; i facilitar la identificació de tendències de disseny, regions d’incompatibilitat, i tensions entre atributs arquitecturals. Sovint en els SSD d’OT, els requeriments del sistema i l’expressió de prioritats no només s’articulen en quant als atributs funcionals o les restriccions monetàries, sinó també a través de les característiques qualitatives com la flexibilitat, l’evolucionabilitat, la robustesa, o la resiliència, entre d’altres. En línia amb això, l’entorn d’optimització defineix una única figura de mèrit que agrega rendiment, cost i atributs qualitatius. Així l’equip de disseny pot influir en les solucions del procés d’optimització tant en els aspectes quantitatius, com en les característiques dalt nivell. L’aplicació d’aquest entorn d’optimització s’il·lustra en dos casos d’ús actuals identificats en context del projecte europeu ONION: un sistema que mesura paràmetres de l’oceà i gel als pols per millorar la predicció meteorològica i les operacions marines; i un sistema que obté mesures agronòmiques vitals per la gestió global de l’aigua, l’estimació d’estat dels cultius, i la gestió de sequeres. L’anàlisi de propietats arquitecturals ha permès copsar de manera exhaustiva les característiques funcionals i operacionals d’aquests sistemes. Amb això, la tesi ha seguit aprofundint en el disseny de SSD centrant-se, particularment, en un tret funcional: l’autonomia. Minimitzar la intervenció de l’operador humà és comú en altres sistemes espacials i podria ser especialment crític pels SSD de gran escala, d’estructura dinàmica i heterogenis. En els SSD s’espera que l’autonomia solucioni la possible incapacitat d’operar sistemes de gran escala de forma centralitzada, que millori el retorn científic i que n’apuntali les seves propietats emergents (e.g. tolerància a errors, adaptabilitat a canvis estructural i de necessitats d’usuari, capacitat de resposta). Es proposa un sistema d’operacions autònomes que atorga la capacitat de gestionar els sistemes de forma descentralitzada, a través del raonament local, l’assignació individual de recursos, i les interaccions satèl·lit-a-satèl·lit. Al contrari que treballs anteriors, la presa de decisions autònoma s’avalua per constel·lacions que tenen com a objectius de missió la minimització del temps de revisita global

    In pursuit of autonomous distributed satellite systems

    Get PDF
    A la pàgina 265 diu: "In an effort to facilitate the reproduction of results, both the source code of the simulation environment and the configuration files that were prepared for the design characterisation are available in an open repository: https://github.com/carlesaraguz/aeossSatellite imagery has become an essential resource for environmental, humanitarian, and industrial endeavours. As a means to satisfy the requirements of new applications and user needs, novel Earth Observation (EO) systems are exploring the suitability of Distributed Satellite Systems (DSS) in which multiple observation assets concurrently sense the Earth. Given the temporal and spatial resolution requirements of EO products, DSS are often envisioned as large-scale systems with multiple sensing capabilities operating in a networked manner. Enabled by the consolidation of small satellite platforms and fostered by the emerging capabilities of distributed systems, these new architectures pose multiple design and operational challenges. Two of them are the main pillars of this research, namely, the conception of decision-support tools to assist the architecting process of a DSS, and the design of autonomous operational frameworks based on decentralised, on-board decision-making. The first part of this dissertation addresses the architecting of heterogeneous, networked DSS architectures that hybridise small satellite platforms with traditional EO assets. We present a generic design-oriented optimisation framework based on tradespace exploration methodologies. The goals of this framework are twofold: to select the most optimal constellation design; and to facilitate the identification of design trends, unfeasible regions, and tensions among architectural attributes. Oftentimes in EO DSS, system requirements and stakeholder preferences are not only articulated through functional attributes (i.e. resolution, revisit time, etc.) or monetary constraints, but also through qualitative traits such as flexibility, evolvability, robustness, or resiliency, amongst others. In line with that, the architecting framework defines a single figure of merit that aggregates quantitative attributes and qualitative ones-the so-called ilities of a system. With that, designers can steer the design of DSS both in terms of performance or cost, and in terms of their high-level characteristics. The application of this optimisation framework has been illustrated in two timely use-cases identified in the context of the EU-funded ONION project: a system that measures ocean and ice parameters in Polar regions to facilitate weather forecast and off-shore operations; and a system that provides agricultural variables crucial for global management of water stress, crop state, and draughts. The analysis of architectural features facilitated a comprehensive understanding of the functional and operational characteristics of DSS. With that, this thesis continues to delve into the design of DSS by focusing on one particular functional trait: autonomy. The minimisation of human-operator intervention has been traditionally sought in other space systems and can be especially critical for large-scale, structurally dynamic, heterogeneous DSS. In DSS, autonomy is expected to cope with the likely inability to operate very large-scale systems in a centralised manner, to improve the science return, and to leverage many of their emerging capabilities (e.g. tolerance to failures, adaptability to changing structures and user needs, responsiveness). We propose an autonomous operational framework that provides decentralised decision-making capabilities to DSS by means of local reasoning and individual resource allocation, and satellite-to-satellite interactions. In contrast to previous works, the autonomous decision-making framework is evaluated in this dissertation for generic constellation designs the goal of which is to minimise global revisit times. As part of the characterisation of our solution, we stressed the implications that autonomous operations can have upon satellite platforms with stringent resource constraints (e.g. power, memory, communications capabilities) and evaluated the behaviour of the solution for a large-scale DSS composed of 117 CubeSat-like satellite units.La imatgeria per satèl·lit ha esdevingut un recurs essencial per assolir tasques ambientals, humanitàries o industrials. Per tal de satisfer els requeriments de les noves aplicacions i usuaris, els sistemes d’observació de la Terra (OT) estan explorant la idoneïtat dels Sistemes de Satèl·lit Distribuïts (SSD), on múltiples observatoris espacials mesuren el planeta simultàniament. Degut al les resolucions temporals i espacials requerides, els SSD sovint es conceben com sistemes de gran escala que operen en xarxa. Aquestes noves arquitectures promouen les capacitats emergents dels sistemes distribuïts i, tot i que són possibles gràcies a l’acceptació de les plataformes de satèl·lits petits, encara presenten molts reptes en quant al disseny i operacions. Dos d’ells són els pilars principals d’aquesta tesi, en concret, la concepció d’eines de suport a la presa de decisions pel disseny de SSD, i la definició d’operacions autònomes basades en gestió descentralitzada a bord dels satèl·lits. La primera part d’aquesta dissertació es centra en el disseny arquitectural de SSD heterogenis i en xarxa, imbricant tecnologies de petits satèl·lits amb actius tradicionals. Es presenta un entorn d’optimització orientat al disseny basat en metodologies d’exploració i comparació de solucions. Els objectius d’aquest entorn són: la selecció el disseny de constel·lació més òptim; i facilitar la identificació de tendències de disseny, regions d’incompatibilitat, i tensions entre atributs arquitecturals. Sovint en els SSD d’OT, els requeriments del sistema i l’expressió de prioritats no només s’articulen en quant als atributs funcionals o les restriccions monetàries, sinó també a través de les característiques qualitatives com la flexibilitat, l’evolucionabilitat, la robustesa, o la resiliència, entre d’altres. En línia amb això, l’entorn d’optimització defineix una única figura de mèrit que agrega rendiment, cost i atributs qualitatius. Així l’equip de disseny pot influir en les solucions del procés d’optimització tant en els aspectes quantitatius, com en les característiques dalt nivell. L’aplicació d’aquest entorn d’optimització s’il·lustra en dos casos d’ús actuals identificats en context del projecte europeu ONION: un sistema que mesura paràmetres de l’oceà i gel als pols per millorar la predicció meteorològica i les operacions marines; i un sistema que obté mesures agronòmiques vitals per la gestió global de l’aigua, l’estimació d’estat dels cultius, i la gestió de sequeres. L’anàlisi de propietats arquitecturals ha permès copsar de manera exhaustiva les característiques funcionals i operacionals d’aquests sistemes. Amb això, la tesi ha seguit aprofundint en el disseny de SSD centrant-se, particularment, en un tret funcional: l’autonomia. Minimitzar la intervenció de l’operador humà és comú en altres sistemes espacials i podria ser especialment crític pels SSD de gran escala, d’estructura dinàmica i heterogenis. En els SSD s’espera que l’autonomia solucioni la possible incapacitat d’operar sistemes de gran escala de forma centralitzada, que millori el retorn científic i que n’apuntali les seves propietats emergents (e.g. tolerància a errors, adaptabilitat a canvis estructural i de necessitats d’usuari, capacitat de resposta). Es proposa un sistema d’operacions autònomes que atorga la capacitat de gestionar els sistemes de forma descentralitzada, a través del raonament local, l’assignació individual de recursos, i les interaccions satèl·lit-a-satèl·lit. Al contrari que treballs anteriors, la presa de decisions autònoma s’avalua per constel·lacions que tenen com a objectius de missió la minimització del temps de revisita global.Postprint (published version
    • …
    corecore