15 research outputs found

    Modellbasierte Steuerung des Kühlkreislaufes einer Brennstoffzelle mit automatisiertem Test der Software

    Get PDF
    Zur Rekonstruktion und Steuerung des Volumenstroms in einem Kühlkreislauf, wird ein Brennstoffzellensystem analysiert und physikalische Modelle für die Fluidtemperatur und den Pumpenvolumenstrom werden hergeleitet. Basierend auf diesen Zusammenhängen werden Funktionsmodelle zur Ableitung von Softwarealgorithmen vorgestellt. Diese ermöglichen es den Volumenstrom in einem Fluidkreislauf modellbasiert zu bestimmen bzw. die Kühlmittelpumpe basierend auf einer detaillierten Systemmodellierung zu steuern. Die zur Verfügung stehenden Funktionen erlauben eine komplette Regelung, Steuerung und Diagnose des Volumenstroms. Die Funktionsmodelle, in Matlab/Simulink realisiert und zur Ausführung auf einem Steuergerät vorgesehen, werden im Kontext eines Software-entwicklungsprozesses diskutiert. Es wird die Notwendigkeit der Sicherstellung der Korrektheit der Funktionen herausgearbeitet und ein Testautomatisierungssystem für solche Funktionsmodelle vorgestellt

    Entwicklung eines skalierten digitalen Zwillings einer Flugzeugtragfläche mittels Prüfstand, Testflugzeug sowie Fluid- und Struktur-Simulation

    Get PDF
    In der vorliegenden Thesis erfolgt die Konzeptionierung und Erstellung eines skalierten digitalen Zwillings einer Flugzeugtragfläche. Dazu wird die Tragfläche eines Testflugzeugs betrachtet, die mit Sensorik ausgestattet wird. Die Tragfläche wird sowohl an dem Testflugzeug als auch an einem isolierten Prüfstand untersucht. Das Testflugzeug dient der Generierung realer Flugdaten sowie der Validierung des Prüfstands und der numerischen Modelle. Der Prüfstand wird später als Datengenerator verwendet, um daran Methoden für den digitalen Zwilling zu erarbeiten. Für die Entwicklung des digitalen Zwillings wird zuvor ein Konzept entwickelt. Dieses umfasst einen Zeitplan, der sich in kurz-, mittel- und langfristige Ziele gliedert. Ferner wird das Gesamtkonzept skizziert, welches aus einer Anwendungsschicht sowie virtuellen und physischen Komponenten besteht. Das Konzept leitet sich aus den Projekten oLAF und INTELWI ab, an denen das Deutsche Zentrum für Luft- und Raumfahrt e.V. beteiligt ist. Ferner werden allgemeine und spezielle Ansätze für den digitalen Zwilling aus der Literatur herangezogen. Im Endeffekt soll der digitale Zwilling mithilfe einer geeigneten Dateninfrastruktur und Datenfusion eine Aussage über den Gesundheitszustand der Tragfläche treffen. Der Fokus liegt dabei auf den Untersuchungen der am Prüfstand befestigten Tragfläche. Das Testflugzeug wird lediglich theoretisch ausgelegt. Die Struktur wird physisch wie numerisch anhand eines Kalibrierungsversuchs am Prüfstand untersucht. Dazu werden vorerst statische Belastungen berücksichtigt. Diese werden durch Stahlgewichte hervorgerufen, die über Adapter an der Tragfläche befestigt werden. Die Verschiebungen der Tragfläche werden durch Sensoren aufgezeichnet. Mit den Kalibrierungsmessungen wird die Aussagekraft der Sensordaten überprüft. Die Belastungen werden durch Dehnungsmessstreifen aufgenommen. Die Dehnungsmessstreifen geben die Belastungen gut wieder und können sogar Schwingungen der Tragfläche abbilden. Infrarot- und Ultraschallsensoren weisen eine zu geringe Genauigkeit auf. Drifts oder Schwankungen treten nicht auf, jedoch werden viele Ausreißern identifiziert. Die Daten der inertialen Messeinheiten liefern im Allgemeinen gute Rohdaten. Eine Bestimmung der Tragflächenauslenkungen bleibt jedoch aus, da die Beschleunigungen und Winkel nicht konvertiert werden können. Hinsichtlich der Struktur-Simulation kann ein Modell aufgebaut werden, welches die Auslenkungen der Tragfläche gut wiedergibt. Die Spannungen können jedoch nicht validiert werden. Mithilfe der Literatur wird ein Fluid-Modell aufgebaut. Die Validierung des Modells kann nicht erreicht werden. Dadurch können entsprechende Fluid-Struktur-Simulationen ebenfalls nicht realisiert werden. Für die Fluid-Struktur-Interaktion wird die Ein- und Zwei-Wege-Kopplung in Betracht gezogen. Basierend auf der Literatur wird ein neuer Ansatz auf Grundlage eines reduzierten zweidimensionalen Schnittmodells verfolgt. Seitens der Anwendungssicht wird eine Benutzeroberfläche aufgebaut, mit der der digitale Zwilling bedient werden kann. Dadurch können Prozesse gestartet und Daten archiviert werden. Für die Simulationen wird eine SSH-Verbindung zum CARA-Hochleistungsrechner aufgebaut. Über die Anwendungsschicht können die Simulationen konfiguriert und gestartet werden. Zum jetzigen Zeitpunkt sind noch nicht alle Funktionen der Anwendungsschicht lauffähig

    Forschungsbericht 2017

    Get PDF
    Projekte und Publikationen der TH Wilda

    MBSE-gestützte Methoden zur Strukturierung und Anwendung von Baukästen in der Frühen Phase der PGE - Produktgenerationsentwicklung mechatronischer Steuergeräte im Einsatz in Kleinantrieben im Automobilbereich = MBSE-supported methods for Structuring and Application of Modular Kits in the Early Stages of PGE - Product Generation Engineering of Mechatronic Control Units in Small Drives in the Automotive Sector

    Get PDF
    Die Entwicklung des Automobils hin zu einem HiTech Multimediaprodukt ist nicht erst durch die neusten Erkenntnisse im Bereich des autonomen Fahrens abzusehen. Bereits seit dem Einzug der Mechatronik ins Fahrzeug ist eine stete Zunahme an Funktionalität zu beobachten. Im Zentrum des Geschehens stehen dabei die Steuergeräte, die als intelligente Schaltzentralen außerhalb oder innerhalb der elektrischen Komponenten des Fahrzeuges agieren. Der Bereich der elektrischen Kleinantriebe stellt bis heute einen der bedeutendsten Sektoren dieser Komponenten dar. Durch den zunehmenden globalen Wettbewerb sind auch in diesem Segment Individualität und Differenzierung zu unverzichtbaren Verkaufsargumenten geworden. Standardisierungsmethoden allen voran die Baukastenentwicklung bieten an dieser Stelle die Aussicht, sich langfristig am Markt zu behaupten. Anders als in der Automobilindustrie, deren Baukästen über Jahre bestehen bleiben, zeichnet sich die Steuergeräteentwicklung aufgrund der unterschiedlichen Entwicklungszyklen der beteiligten Domänen, durch eine sehr hohe Innovationsdynamik aus. Gepaart mit den Trends der Hochintegration und der zunehmenden Funktionsdichte führt dies zu einem drastischen Anstieg der Produktkomplexität. Gerade in der frühen Phase eines Produktentstehungsprozesses, die sich ohnehin durch eine hohe Unsicherheit auszeichnet, gilt es geeignete Wege zum Umgang mit der vorherrschenden Komplexität zu ermöglichen. Hieraus entsteht der Bedarf nach geeigneten Ansätzen die spezifischen Herausforderungen der Steuergeräteentwicklung im Einsatz elektrischer Kleinantriebe mittels Baukastenentwicklung adressieren zu können. Im Rahmen der vorliegenden Arbeit werden, an die Spezifika der frühen Phase der PGE – Produktgenerationsentwicklung mechatronischer Steuergeräte angepasste Methoden zur Baukastenstrukturierung und -anwendung entwickelt. Methodisches und modelltheoretisches Fundament des Forschungsvorhabens bilden dabei die Erkenntnisse der KaSPro – Karlsruher Schule für Produktentwicklung. Mittels der Strukturierungsmethode wird eine detaillierte Vorgehensweise beschrieben, die den Leser ausgehend von einem Produktportfolio mechatronischer Steuergeräte zur Erstellung eines MBSE-gestützten Baukastenmodells führt. Um die Anwendung des Baukastens in der industriellen Praxis zu ermöglichen, wird eine Toolkette entwickelt, die dazu in der Lage ist, basierend auf realen Kundenanforderungen Produktempfehlungen aus dem Baukastenmodell heraus zu generieren und gegeneinander abzuwägen. Die unter der Durchführung von Fallstudien und Experteninterviews generierten Evaluationsergebnisse bestätigen die Eignung der Methoden zum praktischen Einsatz. Die automatisierte Baukastenanwendung zeichnet sich zusätzlich durch einen signifikanten Beitrag hinsichtlich der Effizienzsteigerung in der Ableitung von Produktkonzepten in der frühen Entwicklungsphase aus

    Entwicklung eines rationalen Entscheidungsprozesses für Architekturentscheidungen

    Get PDF
    AbstractIt is one of the critical tasks to make the right design- and architectural-decisions in huge and complex developing or reengineering projects. Such decisions have different types. On the one hand there are decisions with minimal effects on the architecture and the software system. On the other hand there are more strategic decisions which effect the architecture widely and change the central characteristics of the software system. Particularly the strategic decisions are very complex, risky and include many uncertain facts about hidden dependencies. The complexity and risks rise if such decisions have to be made in huge projects with 50 or more developers. The decisionmaker, mostly the project manager or the client, is confronted with various factors, assumptions and constraints. Typical examples are competing objectives, alternative solutions and incomplete information about external third-party systems. If such complex decisions have to be made in an unsystematic way, they will lead to uncalculatable risks with enormous bad consequences for the software system and the development project. Examples are changed or missed deadlines, risen development costs or monetary losses due to an outage of a business critical system.However, the specific characteristics of architectural decisions are not considered by existing methods and concepts to support decision making. They are too detailed, focussed on source code and require information in a formal quality and completeness. These information can not be gathered within such huge projects because of the high effort, time pressure and lacking resources. Therefore an architectural decision process is missing to structure the various information, assumptions and subjective estimations and so you can make such complex and risky decisions in a systematic and focussed way.The main objective of the following dissertation is to reduce the complexity, uncertainty and risks of architectural decisions in order to avoid additional changes and adjustments as well as to achieve the desired objectives. An architectural decision process with four phases is developed on the basis of the generic proceeding of the decision theory. This process includes methods and concepts in order to establish alternative solutions on the basis of the objectives, conditions and the model of the existing architecture. The various alternative solutions are evaluated through a systematic proceeding in order to identify and select the best solution. The developed process includes the specific characteristics of software architectures:Besides incomplete information and uncertainties, it is possible to observe hidden dependencies through scenario-based analysis methods, establishted by the concepts of the Architecture-Level-Modifiability-Analysis (ALMA).Due to the complexity and risks, huge architectural changes have to be separated into smaller tasks. This is supported by a stepped planning, from abtract analysis to more detailed planning.To achieve a reasonable relation between the analysis effort and the benefis from the analysis in terms of reduced risks, complexity and uncertainty, the depths of the analysis can be adjusted flexibly by clear objectives. Two practical applications show, how to make architectural decisions in a systematic way by using the decision process. Afterwards, the assumptions and expectations, which have been used for the decision making, are evaluated by comparing with the consequences of the real implementation. Due to the results of the comparison it can be described clearly, which advantages and disadvantages the application of the decision process has.In Softwareentwicklungsprozessen müssen permanent die richtigen Design- und Architekturentscheidungen getroffen werden, damit die mit dem Entwicklungs- oder Reengineeringprojekt verbundenen Ziele in vollem Umfang erfüllt werden können. Diese Entscheidungen können dabei von unterschiedlicher Natur sein. So werden einerseits Entscheidungen getroffen, die nur geringe Auswirkungen auf das Softwaresystem haben. Auf der anderen Seite existieren Entscheidungen mit strategischem Charakter, die sich auf große Teile der Architektur und auf zentrale Systemeigenschaften auswirken. Gerade die strategischen Architekturentscheidungen sind in Großprojekten mit 50 oder mehr Entwicklern von hoher kombinatorischer Komplexität und beinhalten große Unsicherheiten über versteckte Abhängigkeiten. Der Entscheidungsträger, meist der Architekt oder der Projektleiter, ist mit einer Vielzahl unterschiedlicher Faktoren und Bedingungen konfrontiert. Hierzu zählen konkurrierende Ziele oder alternative Lösungsansätze, für die meist nur unvollständige Informationen vorliegen. Unter diesen Voraussetzungen führen unsystematische Entscheidungen zu unkalkulierbaren Risiken mit gravierenden Folgen für das Softwaresystem und das Entwicklungsprojekt, wie z. B. eine deutliche Erhöhung der Entwicklungskosten oder zeitliche Verzögerungen. Die bereits existierenden Methoden zur Entscheidungsunterstützung berücksichtigen die spezifischen Eigenschaften von Softwarearchitekturen zu wenig. Sie sind zu feingranular, codeorientiert und benötigen Informationen in einer formalen Genauigkeit und Vollständigkeit, die bei Architekturentscheidungen in Großprojekten aus Aufwandsgründen nicht erhoben werden können. Somit fehlt eine Unterstützung des Entscheidungsträgers, um die Vielzahl an Einzelinformationen und subjektiven Einschätzungen zu strukturieren sowie die Entscheidungsfindung systematisch und fokussiert durchzuführen. Mit der vorliegenden Dissertation wird das Ziel verfolgt, die Komplexität, Unsicherheiten und Risiken bei Architekturentscheidungen zu reduzieren, um aufwandsintensive Korrekturen zu vermeiden und die Architekturziele in vollem Umfang zu erfüllen. Auf der Grundlage des in der Entscheidungstheorie beschriebenen generischen Vorgehens zur Entscheidungsfindung wird ein Vier-Phasen-Entscheidungsprozess entwickelt. Dieser Prozess beinhaltet Methoden und Konzepte, um ausgehend von den Zielen, Rahmenbedingungen und der existierenden Architektur systematisch alternative Lösungsansätze zu entwickeln. Im Anschluss werden die Lösungsansätze nach rationalen Gesichtspunkten im Hinblick auf die Zielerreichung bewertet, um eine ausgewogene Entscheidung zu treffen. Der entwickelte Entscheidungsprozess berücksichtigt dabei die speziellen Eigenschaften von Softwarearchitekturen: Trotz unvollständiger Informationen und Unsicherheiten können versteckte Abhängigkeiten mit einem szenariobasierten Analyse- und Bewertungsansatz, auf der Grundlage der Architecture-Level-Modifiability-Analysis (ALMA), sichtbar gemacht werden. Die systematische Aufteilung komplexer Entscheidungen in handhabbare Einzelentscheidungen wird durch die Anwendung eines gestuften Verfahrens mit Grob- und Feinplanung erreicht.Um ein ökonomisch sinnvolles Verhältnis zwischen dem Aufwand zur Entscheidungsfindung und dem Nutzen in Form von reduzierten Risiken, Unsicherheiten und einer geringeren Komplexität zu ermöglichen, kann die Detailtiefe der Analysen anhand eindeutiger Kriterien flexibel angepasst werden.Zwei praktische prototypische Anwendungen des Entscheidungsprozesses zeigen auf, wie eine Architekturentscheidung systematisch und nach rationalen Gesichtspunkten durchgeführt werden kann. Die während der Entscheidungsfindung getroffenen Annahmen und Erwartungen werden im Anschluss mit den Ergebnissen der realen Implementierung verglichen. Anhand des Vergleichs wird klar erkennbar, welche versteckten Abhängigkeiten durch den Einsatz des Entscheidungsprozesses bereits frühzeitig erkannt wurden sowie welche Vorteile die richtige Entscheidungsfindung für das Softwaresystem und das Entwicklungsprojekt hat

    Proceedings. 16. Workshop Computational Intelligence, Dortmund, 29. Nov.-1. Dez. 2006

    Get PDF
    These proceedings contain the papers of the 16th Workshop Computational Intelligence. It was organized by the Working Group 5.14 of the VDI/VDE-Gesellschaft für Mess- und Automatisierungstechnik (GMA) and the Working Group Fuzzy-Systems and Soft-Computing of the Gesellschaft für Informatik (GI)

    Systemverstehen beim hochautomatisierten Fahren

    Get PDF
    Hintergrund: Die Automation von Systemen schreitet immer weiter voran. Viele Studien beschäftigen sich mit der Messung von mentalen Modellen zu automatisierten Systemen auf Basis von Daten aus subjektiven Methoden. Die subjektiven Methoden erzeugen aufgrund der zeitlichen und inhaltlichen, dynamischen Entwicklung automatisierter Systeme keine langfristig vergleichbaren Ergebnisse über verschiedene Automationslevel und Versuchsaufbauten hinweg. Ziel: Ziel dieser Arbeit war es, den Aufbau und die Aktualisierung mentaler Modelle des Fahrers hochautomatisierter Fahrzeuge zu messen, das Vertrauen in und die Akzeptanz von solchen Systemen in Beziehung zu setzen und mit Hilfe einer in diesem Kontext neuen, objektiven Methode den Einfluss von Systembeschreibungen auf mentale Modelle beim hochautomatisierten Fahren zu zeigen und zu evaluieren. Methode: Es wurden drei Studien durchgeführt, in denen mentale Modelle mittels Systembeschreibungen manipuliert wurden. Die erste Studie fand in einer laborähnlichen Umgebung vor einem Laptop statt und die mentalen Modelle wurden mit Hilfe einer subjektiven Messmethode untersucht. Die zweite Studie fand in einem Fahrsimulator statt und es wurden zwei objektive Messmethoden verglichen. Die dritte Studie fand ebenfalls im Fahrsimulator statt und eine der objektiven Messmethoden aus Studie zwei wurde anhand einer größeren Stichprobe und längeren Fahrt evaluiert. Ergebnisse: In Summe konnte die Manipulation mentaler Modelle über das Lesen von Systembeschreibungen repliziert werden (Beggiato & Krems, 2013) und eine objektive Messmethode zur Ableitung des Einflusses von Systembeschreibungen auf mentale Modelle während einer hochautomatisierten Fahrt gefunden werden. Der Einfluss mentaler Modelle auf das Vertrauen und die Akzeptanz in hochautomatisierte Systeme war geringer als erwartet. Die Auswertung der objektiven Messungen mentaler Modelle beim hochautomatisierten Fahren ergab, dass vor allem die Phase des Einschaltprozesses der Automation zu einer Anpassung des mentalen Modells führte. Dies hatte wiederum auf informationsverarbeitende Prozesse im Verlauf der Fahrt und während der Übernahme der Fahraufgabe durch den Fahrer (Übernahmephase) Einfluss. Dennoch war sowohl die subjektive Messmethode, als auch die objektive Messmethode im Stande die Entwicklung mentaler Modelle darzustellen. Fazit: Eine objektive Messmethode steht den bisherigen subjektiven Messmethoden in der Sensibilität in nichts nach. Im Gegenteil, sie bietet eine weitaus genauere Auflösung der Einflüsse auf den Aufbau und die Aktualisierung mentaler Modelle (Studie 2 Experiment 2). Das Messen von Aufbau und Aktualisierung mentaler Modelle mit einer objektiven, verhaltensbasierten Methode ist vor allem aufgrund der langfristigen Vergleichbarkeit der Ergebnisse zu empfehlen. Um die Einflüsse mentaler Modelle auf das Vertrauen und die Akzeptanz genauer zu betrachten, wird ein weiteres Experiment empfohlen, das im Realverkehr durchgeführt wird. Anwendung: Mögliche Anwendung finden die Ergebnisse in der Entwicklung von objektiven Messmethoden mentaler Modelle automatisierter Fahrzeuge jeden Automationslevels und bei der Serienentwicklung von Fahrerassistenzsystemen. Zudem wird offensichtlich, dass der Fahrer zum korrekten Aufbau eines mentalen Modells, Informationen zu den Fahrzeugfunktionen und dessen Grenzen benötigt. Nur konkretes Wissen über die mentale Verarbeitung und Speicherung von Informationen während einer hochautomatisierten Fahrt, führt zu Hinweisen bezüglich einer optimal auf das hochautomatisierte Fahren abgestimmte instruktionale Maßnahme in Form von zum Beispiel Informationsmaterial für den Fahrer. Eine Kurzanleitung zu hochautomatisierten Systemen, Tutorials in Form von YouTube Videos oder Probefahrten können womöglich die Wahrscheinlichkeit eines Unfalls aufgrund eines mentalen Modells das nicht der Realität entspricht (inkorrektes Modell) verringern. Weiterführende Untersuchungen um dies zu klären, werden auf Grundlage dieser Ausarbeitung empfohlen

    Foundations and applications of human-machine-interaction

    Get PDF
    Der vorliegende Tagungsband zur 10. Berliner Werkstatt Mensch-Maschine-Systeme gibt einen Einblick in die aktuelle Forschung im Bereich der Mensch-Maschine- Interaktion. Einen besonderen Fokus stellt das Wechselspiel von Grundlagenforschung und anwendungsbezogener Forschung dar, was sich im breiten Themenspektrum widerspiegelt, welches von theoretischen und methodischen Betrachtungen bis hin zu anwendungsnahen Fragestellungen reicht. Dabei finden Inhalte aus allen Phasen des Forschungsprozesses Beachtung, sodass auch im Rahmen der 10. Berliner Werkstatt MMS wieder sowohl neue Untersuchungskonzepte als auch abschließende Befunde diskutiert werden. Zentrale Themengebiete sind u. a. Fahrer-Fahrzeug-Interaktion, Assistenzsysteme, User Experience, Usability, Ubiquitous Computing, Mixed & Virtual Reality, Robotics & Automation, Wahrnehmungsspezifika sowie Psychophysiologie und Beanspruchung in der Mensch-Maschine-Interaktion.The proceedings of the 10th Berlin Workshop Human-Machine-Systems provide an insight into the current research in the field of human-machine-interaction. The main focus lies on the interplay between basic and applied research, which is reflected in the wide range of subjects: from theoretical and methodological issues to application oriented considerations. Again all stages of the research process are represented in the contributions of the 10th Berlin Workshop HMS. This means new research concepts as well as final results are subject of this volume. Central topics include driver-vehicleinteraction, assistance systems, user experience, usability, ubiquitous computing, mixed and virtual reality, robotics & automation, perception specifics, as well as psychophysiology and workload in human-machine-interaction

    Vertrauen in autonome Technik

    Get PDF
    Autonome Technik, z.B. ein Fahrerassistenzsystem, beschränkt sich nicht mehr nur auf bloßes „Funktionieren“, sondern greift aktiv in gesellschaftliche Interaktionszusammenhänge ein. Dabei werden Handlungsmöglichkeiten menschlicher Akteure eingeschränkt und es besteht die Gefahr des Fehllaufens. In dem Kontext stellen sich Fragen nach den Bedingungen, unter denen Vertrauen in ebendiese Technik entstehen kann. Ausgehend von der Überlegung, dass Vertrauen in einem engen Wechselverhältnis zu Verhalten und damit Handlungen steht, ist eine soziologisch fundierte Sichtweise auf Aspekte der Mensch-Maschine-Interaktion, die anschlussfähig ist an ingenieurwissenschaftliche und informatische Denkweisen, von wesentlicher Bedeutung. Unter Rekurs auf handlungstheoretische Ansätze lässt sich das Zusammenhandeln von Mensch und autonomer Technik in Form eines operationalisierbaren und computersimultativ umsetzbaren Makro-Mikro-Makro-Modells soziologischer Erklärung rekonstruieren. Basierend auf diesem Modell werden wechselseitige Modellzuschreibungen, also Handlungsmodelle, die dem jeweiligen Interaktionspartner unterstellt werden, als theoretisch-methodologischer Zugang zum Verständnis von Mensch-Maschine-Interaktion vorgeschlagen. Dabei hat sich in zwei Experimentalstudien, von denen eine auf die Methode der agentenbasierten Modellierung und Simulation (ABMS) zurückgreift, gezeigt, dass ein Zusammenhang zwischen Modellzuschreibungsdifferenzen und Vertrauen besteht. Sofern die implementierten Erwartungen der Programmierer mit den Erwartungen, die Nutzer an autonome Technik adressieren, in Deckung gebracht werden können, kann das Vertrauen in und damit auch die Akzeptanz von Technik gesteigert werden

    Vermarktungsstrategien im Mobile-Gaming-Markt

    Get PDF
    corecore