394 research outputs found

    Evaluating Architectural Safeguards for Uncertain AI Black-Box Components

    Get PDF
    Künstliche Intelligenz (KI) hat in den vergangenen Jahren große Erfolge erzielt und ist immer stärker in den Fokus geraten. Insbesondere Methoden des Deep Learning (ein Teilgebiet der KI), in dem Tiefe Neuronale Netze (TNN) zum Einsatz kommen, haben beeindruckende Ergebnisse erzielt, z.B. im autonomen Fahren oder der Mensch-Roboter-Interaktion. Die immense Datenabhängigkeit und Komplexität von TNN haben jedoch gravierende Schwachstellen offenbart. So reagieren TNN sensitiv auf bestimmte Einflussfaktoren der Umwelt (z.B. Helligkeits- oder Kontraständerungen in Bildern) und führen zu falschen Vorhersagen. Da KI (und insbesondere TNN) in sicherheitskritischen Systemen eingesetzt werden, kann solch ein Verhalten zu lebensbedrohlichen Situationen führen. Folglich haben sich neue Forschungspotenziale entwickelt, die sich explizit der Absicherung von KI-Verfahren widmen. Ein wesentliches Problem bei vielen KI-Verfahren besteht darin, dass ihr Verhalten oder Vorhersagen auf Grund ihrer hohen Komplexität nicht erklärt bzw. nachvollzogen werden können. Solche KI-Modelle werden auch als Black-Box bezeichnet. Bestehende Arbeiten adressieren dieses Problem, in dem zur Laufzeit “bösartige” Eingabedaten identifiziert oder auf Basis von Ein- und Ausgaben potenziell falsche Vorhersagen erkannt werden. Arbeiten in diesem Bereich erlauben es zwar potenziell unsichere Zustände zu erkennen, machen allerdings keine Aussagen, inwiefern mit solchen Situationen umzugehen ist. Somit haben sich eine Reihe von Ansätzen auf Architektur- bzw. Systemebene etabliert, um mit KI-induzierten Unsicherheiten umzugehen (z.B. N-Version-Programming-Muster oder Simplex Architekturen). Darüber hinaus wächst die Anforderung an KI-basierte Systeme sich zur Laufzeit anzupassen, um mit sich verändernden Bedingungen der Umwelt umgehen zu können. Systeme mit solchen Fähigkeiten sind bekannt als Selbst-Adaptive Systeme. Software-Ingenieure stehen nun vor der Herausforderung, aus einer Menge von Architekturellen Sicherheitsmechanismen, den Ansatz zu identifizieren, der die nicht-funktionalen Anforderungen bestmöglich erfüllt. Jeder Ansatz hat jedoch unterschiedliche Auswirkungen auf die Qualitätsattribute des Systems. Architekturelle Entwurfsentscheidungen gilt es so früh wie möglich (d.h. zur Entwurfszeit) aufzulösen, um nach der Implementierung des Systems Änderungen zu vermeiden, die mit hohen Kosten verbunden sind. Darüber hinaus müssen insbesondere sicherheitskritische Systeme den strengen (Qualitäts-) Anforderungen gerecht werden, die bereits auf Architektur-Ebene des Software-Systems adressiert werden müssen. Diese Arbeit befasst sich mit einem modellbasierten Ansatz, der Software-Ingenieure bei der Entwicklung von KI-basierten System unterstützt, um architekturelle Entwurfsentscheidungen (bzw. architekturellen Sicherheitsmechanismen) zum Umgang mit KI-induzierten Unsicherheiten zu bewerten. Insbesondere wird eine Methode zur Zuverlässigkeitsvorhersage von KI-basierten Systemen auf Basis von etablierten modellbasierten Techniken erforscht. In einem weiteren Schritt wird die Erweiterbarkeit/Verallgemeinerbarkeit der Zuverlässigkeitsvorhersage für Selbst-Adaptive Systeme betrachtet. Der Kern beider Ansätze ist ein Umweltmodell zur Modellierung () von KI-spezifischen Unsicherheiten und () der operativen Umwelt des Selbst-Adaptiven Systems. Zuletzt wird eine Klassifikationsstruktur bzw. Taxonomie vorgestellt, welche, auf Basis von verschiedenen Dimensionen, KI-basierte Systeme in unterschiedliche Klassen einteilt. Jede Klasse ist mit einem bestimmten Grad an Verlässlichkeitszusicherungen assoziiert, die für das gegebene System gemacht werden können. Die Dissertation umfasst vier zentrale Beiträge. 1. Domänenunabhängige Modellierung von KI-spezifischen Umwelten: In diesem Beitrag wurde ein Metamodell zur Modellierung von KI-spezifischen Unsicherheiten und ihrer zeitlichen Ausdehnung entwickelt, welche die operative Umgebung eines selbstadaptiven Systems bilden. 2. Zuverlässigkeitsvorhersage von KI-basierten Systemen: Der vorgestellte Ansatz erweitert eine existierende Architekturbeschreibungssprache (genauer: Palladio Component Model) zur Modellierung von Komponenten-basierten Software-Architekturen sowie einem dazugehörigenWerkzeug zur Zuverlässigkeitsvorhersage (für klassische Software-Systeme). Das Problem der Black-Box-Eigenschaft einer KI-Komponente wird durch ein Sensitivitätsmodell adressiert, das, in Abhängigkeit zu verschiedenen Unsicherheitsfaktoren, die Prädektive Unsicherheit einer KI-Komponente modelliert. 3. Evaluation von Selbst-Adaptiven Systemen: Dieser Beitrag befasst sich mit einem Rahmenwerk für die Evaluation von Selbst-Adaptiven Systemen, welche für die Absicherung von KI-Komponenten vorgesehen sind. Die Arbeiten zu diesem Beitrag verallgemeinern/erweitern die Konzepte von Beitrag 2 für Selbst-Adaptive Systeme. 4. Klassen der Verlässlichkeitszusicherungen: Der Beitrag beschreibt eine Klassifikationsstruktur, die den Grad der Zusicherung (in Bezug auf bestimmte Systemeigenschaften) eines KI-basierten Systems bewertet. Der zweite Beitrag wurde im Rahmen einer Fallstudie aus dem Bereich des Autonomen Fahrens validiert. Es wurde geprüft, ob Plausibilitätseigenschaften bei der Zuverlässigkeitsvorhersage erhalten bleiben. Hierbei konnte nicht nur die Plausibilität des Ansatzes nachgewiesen werden, sondern auch die generelle Möglichkeit Entwurfsentscheidungen zur Entwurfszeit zu bewerten. Für die Validierung des dritten Beitrags wurden ebenfalls Plausibilitätseigenschaften geprüft (im Rahmen der eben genannten Fallstudie und einer Fallstudie aus dem Bereich der Mensch-Roboter-Interaktion). Darüber hinaus wurden zwei weitere Community-Fallstudien betrachtet, bei denen (auf Basis von Simulatoren) Selbst-Adaptive Systeme bewertet und mit den Ergebnissen unseres Ansatzes verglichen wurden. In beiden Fällen konnte gezeigt werden, dass zum einen alle Plausibilitätseigenschaft erhalten werden und zum anderen, der Ansatz dieselben Ergebnisse erzeugt, wie die Domänen-spezifischen Simulatoren. Darüber hinaus konnten wir zeigen, dass unser Ansatz Software-Ingenieure bzgl. der Bewertung von Entwurfsentscheidungen, die für die Entwicklung von Selbst-Adaptiven Systemen relevant sind, unterstützt. Der erste Beitrag wurde implizit mit Beitrag 2 und mit 3 validiert. Für den vierten Beitrag wurde die Klassifikationsstruktur auf bekannte und repräsentative KI-Systeme angewandt und diskutiert. Es konnte jedes KI-System in eine der Klassen eingeordnet werden, so dass die generelle Anwendbarkeit der Klassifikationsstruktur gezeigt wurde

    Implementation of an Online Feedback-Path-Modelling Active Noise Control System

    Get PDF
    Active Noise Control (ANC) systems have proved to be a very efficient way to reduce low-frequency acoustic noise. On this domain, passive techniques like enclosures, barriers and silencers tend to be relatively large, costly and ineffective. Although many studies and articles have been published in order to improve performance and stability, the implementation of a real-time, stable and robust system still faces several theoretical and practical challenges

    Indoktrination als Phantom. Über die Intentionalität im Lehr- Lernprozess.

    Get PDF
    Der folgende Artikel versucht Antworten auf die Fragen:\ud Wenn wir uns erlittener Indoktrination erst nach ihrer Überwindung bewusst werden, können wir dann diese Problematik mit ruhigem Gewissen als Thema der Vergangenheit archivieren? Oder erinnert uns der "bittere Nachgeschmack" daran, dass das Phantom der Indoktrination nach wie vor sein Unwesen treibt – vielleicht in einer neuen Gestalt?\ud Um Antworten auf diese Fragen zu bekommen, versteht sich die vorliegende Erörterung als ein Versuch der Enthüllung des Phantoms der Indoktrination. Am Beispiel theoretischer Konzeptionen des didaktischen Medieneinsatzes, soll\ud erörtert werden, mit welchen indoktrinären Intentionen Medien im Lehr- Lernprozess ihren Einsatz finden. Hierbei soll der Fokus nicht auf der Medien liegen, sondern es gilt im Sinne einer hermeneutisch-kritischen medienpädagogischen Herangehensweise nach implitziten Voraussetzungen zu fragen, die auf Momente medialer Indoktrination im Lehr- Lernprozss hinweisen

    Linguistische Intelligenz in der Fach(fremd)sprachendidaktik – einige Bemerkungen zu den aktuellen E-learning-Systemen

    Get PDF
    Die rasche Entwicklung der elektronischen Medien hat dazu geführt, dass „geschlossene“ und „offene“ E-Learning-Lösungen mit neuen Kommunikationstechniken oder fortgeschrittenen Sprachanalysesystemen entwickelt wurden. Der Zweck des Beitrags ist der Versuch, die Frage zu beantworten, was gegenwärtig die sogenannte „linguistische Intelligenz“ moderner glottodidaktischer Lernsysteme, unter besonderer Berücksichtigung der Systeme für die Fach(fremd)sprachendidaktik, ausmacht. Im Aufsatz wird die Adaptivität (in der Mikro- und Makroskala) und Beispiele mikro- und makroadaptiver sprachdidaktische Systeme näher gebracht, die u.a. aufgrund der Komplexität der Analyse linguistischer Daten als „intelligente“ Werkzeuge klassifiziert werden können

    Resilience Engineering

    Get PDF
    The increasing complexity of our world makes the occurrence of disruptive events with unforeseeable consequences more likely. The future is characterised by uncertainty; therefore, societies and their critical infrastructures need resilience, understood as generic adaptability thanks to flexibility and loose resources. In this book, the author argues that resilience can be normatively desirable if it is used to combine individual freedom and security. Using this as his premise, he develops a new concept of resilience for civil security research and shows how the engineering sciences can implement it through system principles such as diversity, modularity, decentralisation and redundancy.illustratorDie zunehmende Komplexität unserer Welt macht das Auftreten disruptiver Ereignisse mit unvorhersehbaren Folgen wahrscheinlicher. Die Zukunft ist durch Unsicherheit gekennzeichnet. Deshalb brauchen Gesellschaften und ihre kritische Infrastrukturen Resilienz, verstanden als generische Anpassungsfähigkeit dank Flexibilität und loser Ressourcen. Der Autor argumentiert in diesem Buch, dass Resilienz durch das Zusammendenken von individueller Freiheit und Sicherheit normativ wünschenswert sein kann. Davon ausgehend entwickelt er ein neues Resilienz-Konzept für die zivile Sicherheitsforschung und zeigt, wie die Ingenieurwissenschaften dieses durch Systemprinzipien wie Diversität, Modularität, Dezentralität und Redundanz umsetzen können
    corecore