2,146 research outputs found

    Quantitative risk assessment using Monte Carlo and dynamic process simulation

    Get PDF
    Currently, the concern about the industrial risk is a key issue to implement any technology process or to improve the industry competitiveness. In this sense, the risk concept may be considered as the main tool to anticipate behaviors that can lead to further problems. Considering the process industry, different risk analysis techniques are employed to identify hazardous events, to estimate their frequencies and severities, and to characterize the risk, being such tools the best ones to improve the industrial safety. Knowing that, the present Thesis discusses these risk topics to propose four main contributions: (i) new procedure to identify hazardous events; (ii) new procedures to quantify frequency; (iii) new risk definition and representation; and (iv) a method to integrate the proposed procedures to manage a complete risk assessment management. The idea behind the contributions is to use computational tools in new techniques with improved results about the operational risk, helping its obtainment and understanding. Thus, based on a new risk definition that allow better relation between the developed analysis, process simulations are employed to identify hazardous events and Monte Carlo simulations are employed to estimate frequency and to generate a new risk representation characterized by a severity x time x frequency surface. Despite all contributions has its particularity and importance for the risk analyses development, as final contribution, the presented Thesis apply all developed techniques in a case study, proposing an innovative risk assessment procedure.Atualmente, a preocupação com o risco industrial é um ponto chave para implantação de uma nova tecnologia ou para um melhor posicionamento competitivo. Neste sentido, a ideia de risco pode ser considerada como o principal recurso para antever situações que podem gerar problemas futuros. Considerando a indústria de processos, diferentes técnicas de análise de riscos são utilizadas para identificar eventos perigosos, estimar suas frequências e severidades e caracterizar o risco, sendo essas as principais ferramentas para o aumento da segurança industrial. Sabendo disso, a presente tese aborda tais tópicos e propõe quatro contribuições principais: (i) novo procedimento para identificação de eventos perigosos; (ii) novos procedimentos para quantificação de frequência; (iii) nova definição e representação de risco e (iv) um método para integrar os procedimentos propostos em uma avaliação quantitativa de risco completa. A ideia por trás destas contribuições é utilizar procedimentos computacionais que geram resultados mais acurados sobre o risco de uma operação, ajudando em seu entendimento e na obtenção de seu valor. Assim, baseado em um novo conceito de risco que melhor relaciona as análises desenvolvidas, simulações de processos são utilizadas para identificação de eventos perigosos e simulações de Monte Carlo são utilizadas para estimativa de frequência e gerar uma nova representação de risco caracterizada por uma superfície com eixos frequência x severidade x tempo. Apesar de cada contribuição ter sua particularidade e importância para o desenvolvimento das técnicas de análise de risco, como contribuição final, a presente tese aplica todas as técnicas desenvolvidas em um estudo de caso, apresentando assim uma avaliação de risco inovadora

    Single-axis agonistic motion control system with electro-magnetic actuators

    Get PDF
    A novel single-axis motion control system using solenoid electromagnet actuators is built and successfully controlled using a non-linear real-time control algorithm. Procedures for defining and modeling the electromagnetic actuator are established and implemented. Discrete-time nonlinear control law with global asymptotic stability and zero steady-state error is designed and numerically optimized. Stable operation with small-signal 0dB crossover frequency of 370 Rad/sec and positioning RMS steady-state error of better than 4 micron is achieved. Time domain parameters are verified on a working prototype. A step reference response positioning a 0.35 Kg mass payload over 1 cm travel in under 30 milliseconds is demonstrated

    Contributions to the Construction of Extensible Semantic Editors

    Get PDF
    This dissertation addresses the need for easier construction and extension of language tools. Specifically, the construction and extension of so-called semantic editors is considered, that is, editors providing semantic services for code comprehension and manipulation. Editors like these are typically found in state-of-the-art development environments, where they have been developed by hand. The list of programming languages available today is extensive and, with the lively creation of new programming languages and the evolution of old languages, it keeps growing. Many of these languages would benefit from proper tool support. Unfortunately, the development of a semantic editor can be a time-consuming and error-prone endeavor, and too large an effort for most language communities. Given the complex nature of programming, and the huge benefits of good tool support, this lack of tools is problematic. In this dissertation, an attempt is made at narrowing the gap between generative solutions and how state-of-the-art editors are constructed today. A generative alternative for construction of textual semantic editors is explored with focus on how to specify extensible semantic editor services. Specifically, this dissertation shows how semantic services can be specified using a semantic formalism called refer- ence attribute grammars (RAGs), and how these services can be made responsive enough for editing, and be provided also when the text in an editor is erroneous. Results presented in this dissertation have been found useful, both in industry and in academia, suggesting that the explored approach may help to reduce the effort of editor construction

    Evaluating Architectural Safeguards for Uncertain AI Black-Box Components

    Get PDF
    Künstliche Intelligenz (KI) hat in den vergangenen Jahren große Erfolge erzielt und ist immer stärker in den Fokus geraten. Insbesondere Methoden des Deep Learning (ein Teilgebiet der KI), in dem Tiefe Neuronale Netze (TNN) zum Einsatz kommen, haben beeindruckende Ergebnisse erzielt, z.B. im autonomen Fahren oder der Mensch-Roboter-Interaktion. Die immense Datenabhängigkeit und Komplexität von TNN haben jedoch gravierende Schwachstellen offenbart. So reagieren TNN sensitiv auf bestimmte Einflussfaktoren der Umwelt (z.B. Helligkeits- oder Kontraständerungen in Bildern) und führen zu falschen Vorhersagen. Da KI (und insbesondere TNN) in sicherheitskritischen Systemen eingesetzt werden, kann solch ein Verhalten zu lebensbedrohlichen Situationen führen. Folglich haben sich neue Forschungspotenziale entwickelt, die sich explizit der Absicherung von KI-Verfahren widmen. Ein wesentliches Problem bei vielen KI-Verfahren besteht darin, dass ihr Verhalten oder Vorhersagen auf Grund ihrer hohen Komplexität nicht erklärt bzw. nachvollzogen werden können. Solche KI-Modelle werden auch als Black-Box bezeichnet. Bestehende Arbeiten adressieren dieses Problem, in dem zur Laufzeit “bösartige” Eingabedaten identifiziert oder auf Basis von Ein- und Ausgaben potenziell falsche Vorhersagen erkannt werden. Arbeiten in diesem Bereich erlauben es zwar potenziell unsichere Zustände zu erkennen, machen allerdings keine Aussagen, inwiefern mit solchen Situationen umzugehen ist. Somit haben sich eine Reihe von Ansätzen auf Architektur- bzw. Systemebene etabliert, um mit KI-induzierten Unsicherheiten umzugehen (z.B. N-Version-Programming-Muster oder Simplex Architekturen). Darüber hinaus wächst die Anforderung an KI-basierte Systeme sich zur Laufzeit anzupassen, um mit sich verändernden Bedingungen der Umwelt umgehen zu können. Systeme mit solchen Fähigkeiten sind bekannt als Selbst-Adaptive Systeme. Software-Ingenieure stehen nun vor der Herausforderung, aus einer Menge von Architekturellen Sicherheitsmechanismen, den Ansatz zu identifizieren, der die nicht-funktionalen Anforderungen bestmöglich erfüllt. Jeder Ansatz hat jedoch unterschiedliche Auswirkungen auf die Qualitätsattribute des Systems. Architekturelle Entwurfsentscheidungen gilt es so früh wie möglich (d.h. zur Entwurfszeit) aufzulösen, um nach der Implementierung des Systems Änderungen zu vermeiden, die mit hohen Kosten verbunden sind. Darüber hinaus müssen insbesondere sicherheitskritische Systeme den strengen (Qualitäts-) Anforderungen gerecht werden, die bereits auf Architektur-Ebene des Software-Systems adressiert werden müssen. Diese Arbeit befasst sich mit einem modellbasierten Ansatz, der Software-Ingenieure bei der Entwicklung von KI-basierten System unterstützt, um architekturelle Entwurfsentscheidungen (bzw. architekturellen Sicherheitsmechanismen) zum Umgang mit KI-induzierten Unsicherheiten zu bewerten. Insbesondere wird eine Methode zur Zuverlässigkeitsvorhersage von KI-basierten Systemen auf Basis von etablierten modellbasierten Techniken erforscht. In einem weiteren Schritt wird die Erweiterbarkeit/Verallgemeinerbarkeit der Zuverlässigkeitsvorhersage für Selbst-Adaptive Systeme betrachtet. Der Kern beider Ansätze ist ein Umweltmodell zur Modellierung () von KI-spezifischen Unsicherheiten und () der operativen Umwelt des Selbst-Adaptiven Systems. Zuletzt wird eine Klassifikationsstruktur bzw. Taxonomie vorgestellt, welche, auf Basis von verschiedenen Dimensionen, KI-basierte Systeme in unterschiedliche Klassen einteilt. Jede Klasse ist mit einem bestimmten Grad an Verlässlichkeitszusicherungen assoziiert, die für das gegebene System gemacht werden können. Die Dissertation umfasst vier zentrale Beiträge. 1. Domänenunabhängige Modellierung von KI-spezifischen Umwelten: In diesem Beitrag wurde ein Metamodell zur Modellierung von KI-spezifischen Unsicherheiten und ihrer zeitlichen Ausdehnung entwickelt, welche die operative Umgebung eines selbstadaptiven Systems bilden. 2. Zuverlässigkeitsvorhersage von KI-basierten Systemen: Der vorgestellte Ansatz erweitert eine existierende Architekturbeschreibungssprache (genauer: Palladio Component Model) zur Modellierung von Komponenten-basierten Software-Architekturen sowie einem dazugehörigenWerkzeug zur Zuverlässigkeitsvorhersage (für klassische Software-Systeme). Das Problem der Black-Box-Eigenschaft einer KI-Komponente wird durch ein Sensitivitätsmodell adressiert, das, in Abhängigkeit zu verschiedenen Unsicherheitsfaktoren, die Prädektive Unsicherheit einer KI-Komponente modelliert. 3. Evaluation von Selbst-Adaptiven Systemen: Dieser Beitrag befasst sich mit einem Rahmenwerk für die Evaluation von Selbst-Adaptiven Systemen, welche für die Absicherung von KI-Komponenten vorgesehen sind. Die Arbeiten zu diesem Beitrag verallgemeinern/erweitern die Konzepte von Beitrag 2 für Selbst-Adaptive Systeme. 4. Klassen der Verlässlichkeitszusicherungen: Der Beitrag beschreibt eine Klassifikationsstruktur, die den Grad der Zusicherung (in Bezug auf bestimmte Systemeigenschaften) eines KI-basierten Systems bewertet. Der zweite Beitrag wurde im Rahmen einer Fallstudie aus dem Bereich des Autonomen Fahrens validiert. Es wurde geprüft, ob Plausibilitätseigenschaften bei der Zuverlässigkeitsvorhersage erhalten bleiben. Hierbei konnte nicht nur die Plausibilität des Ansatzes nachgewiesen werden, sondern auch die generelle Möglichkeit Entwurfsentscheidungen zur Entwurfszeit zu bewerten. Für die Validierung des dritten Beitrags wurden ebenfalls Plausibilitätseigenschaften geprüft (im Rahmen der eben genannten Fallstudie und einer Fallstudie aus dem Bereich der Mensch-Roboter-Interaktion). Darüber hinaus wurden zwei weitere Community-Fallstudien betrachtet, bei denen (auf Basis von Simulatoren) Selbst-Adaptive Systeme bewertet und mit den Ergebnissen unseres Ansatzes verglichen wurden. In beiden Fällen konnte gezeigt werden, dass zum einen alle Plausibilitätseigenschaft erhalten werden und zum anderen, der Ansatz dieselben Ergebnisse erzeugt, wie die Domänen-spezifischen Simulatoren. Darüber hinaus konnten wir zeigen, dass unser Ansatz Software-Ingenieure bzgl. der Bewertung von Entwurfsentscheidungen, die für die Entwicklung von Selbst-Adaptiven Systemen relevant sind, unterstützt. Der erste Beitrag wurde implizit mit Beitrag 2 und mit 3 validiert. Für den vierten Beitrag wurde die Klassifikationsstruktur auf bekannte und repräsentative KI-Systeme angewandt und diskutiert. Es konnte jedes KI-System in eine der Klassen eingeordnet werden, so dass die generelle Anwendbarkeit der Klassifikationsstruktur gezeigt wurde

    Proxy compilation for Java via a code migration technique

    Get PDF
    There is an increasing trend that intermediate representations (IRs) are used to deliver programs in more and more languages, such as Java. Although Java can provide many advantages, including a wider portability and better optimisation opportunities on execution, it introduces extra overhead by requiring an IR translation for the program execution. For maximum execution performance, an optimising compiler is placed in the runtime to selectively optimise code regions regarded as “hotspots”. This common approach has been effectively deployed in many implementation of programming languages. However, the computational resources demanded by this approach made it less efficient, or even difficult to deploy directly in a resourceconstrained environment. One implementation approach is to use a remote compilation technique to support compilation during the execution. The work presented in this dissertation supports the thesis that execution performance can be improved by the use of efficient optimising compilation by using a proxy dynamic optimising compiler. After surveying various approaches to the design and implementation of remote compilation, a proxy compilation system called Apus is defined. To demonstrate the effectiveness of using a dynamic optimising compiler as a proxy compiler, a complete proxy compilation system is written based on a research-oriented Java VirtualMachine (JVM). The proxy compilation system is discussed in detail, showing how to deliver remote binaries and manage a cache of binaries by using a code migration approach. The proxy compilation client shows how the proxy compilation service is integrated with the selective optimisation system to maximise execution performance. The results of empirical measurements of the system are given, showing the efficiency of code optimisation from either the proxy compilation service and a local binary cache. The conclusion of this work is that Java execution performance can be improved by efficient optimising compilation with a proxy compilation service by using a code migration technique

    Subsidizing extensive cattle production in the European Union has major implications for global agricultural trade and climate change

    Get PDF
    Pastureland maintenance is seen as a land-based measure to reduce dependency on feed concentrates and mitigate greenhouse gas (GHG) emissions from livestock production in the EU, while providing other ecosystems services. This paper assesses potential market-mediated impacts, including global Land Use Change (LUC) and GHG emissions, from increased subsidies to pasture-based livestock production in the EU. A tax recycling strategy (TRS) is simulated against a baseline up to 2030 under the shared socioeconomic pathway 2 (SSP2). This implies a budget-neutral increase in the level of pasture subsidies in individual Member States, as land subsidies for other cropping activities decrease. We employ the computable general equilibrium (CGE) model GTAP in its recursive-dynamic version, GTAP-RDEM, extended with the Multi-Regional Input-Output (MRIO) database FABIO to disaggregate agri-food sectors from 21 to 31. This approach allows considering price- and income-dependent feedbacks when assessing long-run changes in the global economy, improving the sectoral resolution relative to GTAP v10. The policy increases pastureland areas and cattle production in almost all EU Member States, whereas cropland and crop production decrease, causing significant changes across EU agri-food markets. Crop prices increase, leading to the reduced output of intensive animal production sectors, mainly pig and poultry. Cropland areas decrease and most EU countries increase imports of grain, oilseeds, and cakes, essentially soybean cake from Brazil and North America. While GHG emissions decrease in those EU countries where pasturelands expand mainly at the cost of croplands, GHG emissions increase in those countries where pastureland expansion comes with forest loss. As a result, net GHG emissions increase in the EU-27 in 2030 (+2.49 Mt CO2-eq). Emissions from LUC in major non-EU grain- and oilseed-exporting countries increase, e.g., by 102.52 Mt CO2-eq in Brazil and by 129.17 Mt CO2-eq in North America. The simulated policy shows that promoting extensive livestock per se does not meet the objectives of the Common Agricultural Policy and the EU Green Deal. The TRS should be complemented with policies to foster crop diversification and promote the use of domestic feed sources (e.g., legumes) to effectively ensure feed self-sufficiency and that extensive cattle production in the EU does not lead to deforestation in carbon-rich countries

    Complex Attack Analysis and Safeguard Selection: a Cost-Oriented Approach

    Get PDF
    When intelligent threats attack a system, they rarely achieve their goals by exploiting a single vulnerability. Rather, they achieve their goals by composing attacks and by exploiting structural security flaws of the target system. Attack graphs have been the de facto tool for discovering possible complex attacks. This thesis proposes a cost-effective safeguard selection strategy, which first identifies a complex attack set that covers all the complex attacks through the use of attack graphs and later selects a minimal set of countermeasures through the formulation and resolution of an integer linear programming problem. Multiple goals in conjunction or disjunction relation can be analyzed. We have built a working prototype system that implements this strategy and that helps maximizing the return-on-investment by identifying critical stepping-stone hosts and by suggesting the most cost-effective set of countermeasures. The mechanism of this approach is independent of the modeling abstraction level. We have considered both an example model that goes into the details of elementary attacks and an example model that targets worst-case analysis

    Stochastic Performance Throttling for Multicore Architectures under Spatial and Temporal Dependencies

    Get PDF
    corecore