34 research outputs found

    Algorithmisches Differenzieren in Simulation und Optimalsteuerung von Differentialgleichungen

    Get PDF
    Die Technologie des Algorithmischen Differenzierens bietet die Möglichkeit, auf Basis eines gegebenen Computerprogramms zur Auswertung einer Funktion zusätzlich die Ableitung dieser Funktion zu berechnen. Dabei wird entweder ein neues Quellprogramm generiert oder das ursprüngliche Programm mit einer speziellen Bibliothek zusammengebunden. In dieser Arbeit werden die grundlegenden Techniken des Algorithmischen Differenzierens und die wesentlichen Voraussetzungen für seinen effizienten und zuverlässigen Einsatz in der angewandten Mathematik vorgestellt. Dabei stehen Simulationen, Optimierungs- und Optimalsteuerprobleme bei Differentialgleichungen sowie Sensitivitäts- und Unsicherheitsanalysen im Vordergrund. Die behandelten Anwendungsbeispiele stammen u.a. aus Strömungsmechanik und Klimamodellierung. Die Relation zwischen algorithmisch generierten Ableitungsinformationen und solchen, die über die Diskretisierung einer analytischen Charakterisierung (z.B. mit Hilfe einer adjungierten Gleichung) berechnet werden, wird konzeptionell und in Bezug auf Effizienz und Genauigkeit untersucht

    Optimierung eines Seegangsmodells mit der adjungierten Methode

    No full text
    Die Untersuchung der Quellfunktionen als zentrale Größe der Seegangsmodel- lierung ist Gegenstand dieser Arbeit. Dabei steht die physikalische Diskussion der Prozesse an der Meeresoberfläche im Vordergrund. Für das bestehende Seegangs- modell WAM wurde ein adjungiertes Modeil entwickelt, mit dessen Hilfe freie Pa- rameter in den Modellgleichungen optimiert wurden. Die Entwicklung des Seegangs wird beschrieben durch eine Energiebilanzglei- chung, in der die Wechselwirkungen an der Grenzschicht zwischen Atmosphäre und Ozean und die der Wellen untereinander als Quellfunktionen auftreten. Die Anfa- chung des Seegangs durch den Wind erfordert eine Modellierung der Luftströmung über einer rauhen, bewegten Oberfläche. Für diesen Term wurden drei derzeit ak- tuelle, konkurrierende Modelle miteinander verglichen. Es sind dies WAM cycle 3, WAM cycle 4 und Grenzschicht-WAM. Die Beschreibung erfordert dabei in der Regel eine Parametrisierung derjenigen Prozesse, die vom Modell nicht aufgelöst werden oder prinzipiell nur durch Nähe- rungen beschreibbar sind. Dadurch bietet sich der Ansatzpunkt für eine Anpassung freier Parameter in der physikalischen Darstellung des Systems. Als Modell wurde eine eindimensionale Version des Seegangsmodells WAM benutzt, deren Ergebnisse mit Daten, die unter geeigneten Bedingungen gewon- nen wurden, verglichen werden können. Zur Optimierung freier Parameter in den Quelltermen der Energiebilanzgleichung wurde im Rahmen dieser Arbeit die Ad- jungierte Methode verwendet. Diese erlaubt es, Kontrollvariablen des Systems in einer mit den dynamischen Eigenschaften verträglichen Weise zu optimieren. Dafür wird eine Kostenfunktion definiert, welche die Abweichungen zwischen Modeller- gebnissen und gemessenen Daten bestimmt. Die Gradienten dieser Kostenfunktion bezüglich der Kontrollvariablen werden vom adjungierten Modell berechnet. Mit diesen ist es mögiich, unter Einsatz geeigneter numerischer Verfahren sukzessive das Minimum der Kostenfunktion zu bestimmen. Um das adjungierte Modell zu erstellen, wurde eine Technik angewandt, die auf den Methoden des automatischen Differenzierens beruht. Als Ergebnis der Optimierungen und durch den Vergleich der Modelle stellt sich heraus, daß die Anfachung des Seegangs durch den Wind auf der Basis sehr unterschiedÌicher Ansätze ähnlich gut beschrieben wird. Durch den Vergleich der Modelie im Detail wurden Erkenntnisse gewonnen, die für die Diskussion einer Präferenz von Bedeutung sind. Außerdem wurde offensichtlich, daß weniger die Struktur der Quellterme im einzelnen als die Form der Summe der Quellfunktio- nen für Windanfachung und Dissipation als Funktion der Frequenz zusammen mit der nichtlinearen Wechselwirkung entscheidend ist. Deren fundamentale Bedeu- tung bei der Seegangsentwicklung wurde erneut bestätigt. Darüber hinaus konnte gezeigt werden, daß das adjungierte Seegangsmodell ein geeignetes Werkzeug ist, die notwendigen Anpassungen freier Parameter des Modells systematisch vorzu- nehmen

    Automatisierte Anbindung von Simulations- und Optimierungssoftware zur parallelen Lösung inverser Problemklassen

    Get PDF
    In dieser Arbeit wird die in Python geschriebene Software “Environment for Combining Optimization and Simulation Software” (EFCOSS) zur Verbindung von Optimierungsalgorithmen mit Simulationsroutinen beschrieben, welche für verschiedene Problemstellungen aus der Geothermie und Materialwissenschaft angewendet wird. Zur Lösung werden inverse Probleme für Parameterbestimmung, Space-Mapping, Optimal Experimental Design (OED) und Modellidentifikation aufgestellt und diese mit Hilfe von EFCOSS gelöst. Dies wird nur möglich, da die interne Struktur von EFCOSS grundlegend umgearbeitet und dabei eine neue Softwarearchitektur unter Verwendung von Standard Python Paketen geschaffen wurde. Die Software ist gezielt darauf ausgelegt, mehrere Optimierungsprobleme, Zielfunktionen und Simulationsroutinen auszuwerten und damit ein breites Anwendungsspektrum effektiv zu lösen. Beispielhaft werden Simulationsmodelle für die geologischen Gegebenheiten in der Region um Perth in Australien, sowie in der Toskana in Italien, betrachtet, um neue Explorationsbohrlochpositionen mit Hilfe von OED zu finden, die niedrige Unsicherheiten in das Modell einbringen. Darüber hinaus werden Parameterschätzprobleme mit grob und fein aufgelösten Modellen der Regionen mit Hilfe des Space-Mapping Algorithmus optimiert und hierbei eine hohe Genauigkeit erzielt. Mit Hilfe der Modellidentifikation werden Modelle der Metallplastizität miteinander verglichen und Aussagen über deren Güte getroffen. Durch den automatisierten Einsatz von automatischem Differenzieren, sowohl im Vorwärts-, wie auch im Rückwärtsmodus, Parallelisierung und Wiederverwendung von bereits berechneten Ergebnissen, werden die seriellen Ausführungszeiten zur Lösung der gegebenen Probleme von mehreren Tagen beziehungsweise Wochen auf wenige Minuten gesenkt.This work introduces a novel extension of the Python software "Environment for Combining Optimization and Simulation Software'' (EFCOSS). The extension addresses the solution of optimization problems of different types. Various problem instances that demonstrate the feasibility of this approach in new practical application scenarios include geothermal engineering and material science. In a more general context, EFCOSS enables to investigate the questions of which parameter values best fit a given computer model to measurements from real-world experiments, how should such experiments be designed with minimal uncertainty, which computer models should be used for a specific task, and how can the efficiency of such investigations be improved by using simpler models. These questions are addressed by employing techniques from parameter estimation, space mapping, optimal experimental design, and model identification that are implemented and brought together in EFCOSS. To this end, the internal structure of EFCOSS had to be redesigned completely to introduce a new software architecture based on standard Python packages. This new architecture allows for multiple optimization problems, objective functions, and simulation routines to be used within a single application. Simulation models of geothermal reservoirs in the regions of Perth in Australia and Tuscany in Italy are used as illustrating examples of optimal experimental design to find the location of new borehole sites that introduce low uncertainty in the parameter estimation. Furthermore, new parameter estimation problems are solved using space-mapping algorithms. Model identification is applied to metal-plasticity models to investigate different kinds of models. By combining automatic differentiation, parallelization, and reuse of intermediate results, the serial runtimes of the described problems are reduced from several weeks to minutes

    Optimierung von dynamischen Multiple-Setpoint-Problemen mit Anwendung bei Fahrzeugmodellen

    Get PDF
    Die vorliegende Arbeit präsentiert eine neue anwendungsgerechte Methode für nichtlineare Optimierungsprobleme. Die Formulierung eines sogenannten Multiple-Setpoint-Problems führt zu Lösungen, die in der praktischen Anwendung oft deutlich bessere Ergebnisse erzielen als bei der üblichen Formulierung eines Optimierungproblems, da für einen ganzen Bereich (Multiple-Setpoint-Lösung) optimiert wird und nicht für einen einzigen festen Parametersatz (Single-Setpoint-Lösung). Gesucht sind Lösungen, die in dem Sinne optimal für verschiedene Szenarien oder für einen ganzen Parameterbereich sind, daß sie Nebenbedingungen für alle Szenarien einhalten und eine Zielfunktion in einem Mittel oder in einem Worst Case minimieren. Obwohl solche Lösungen in vielen Bereichen von großem Nutzen sind, ist die Multiple-Setpoint-Optimierung ein bisher wenig untersuchter Bereich. Zur Untersuchung von Optimierungsstrategien wird eine Problemklasse herausgegriffen -- die Probleme der optimalen Steuerung von Systemen, die sich durch differentiell-algebraische Gleichungen (DAE) beschreiben lassen. Mithilfe des Randwertproblemansatzes und einer Diskretisierung durch Bocks direkte Mehrziel-Methode (Bock's direct multiple shooting) werden die Probleme in große endlich-dimensionale nichtlineare Optimierungsprobleme transformiert, die mit einem SQP-Verfahren gelöst werden können. In dieser Arbeit wird eine allgemeine mathematische Problemformulierung für die Klasse der Multiple-Setpoint-Probleme und ein neuartiger, strukturausnutzender SQP-Algorithmus für Multiple-Setpoint-Probleme aus dem Bereich der optimalen Steuerung gegeben. Der Algorithmus ermöglicht es, neue Problemklassen zu behandeln bzw. Lösungen zu produzieren, die für den praktischen Einsatz in vielen Fällen geeigneter sind als bei bisherigen Optimierungsansätzen. Der Einsatz des neuen Algorithmus wird an einem komplexen Problem aus der Industrie demonstriert. In einem Auto soll durch eine Optimierung der Motorlagerung die Schwingungsübertragung von Straße und Motor auf den Fahrersitz in einem Frequenzbereich minimiert und somit der Fahrkomfort erhöht werden. Mithilfe einer (3-dimensionalen) Mehrkörpersimulation in natürlichen Koordinaten wird ein Automodell mit 32 kinematischen Freiheitsgraden betrachtet. Eine Fourier-Analyse hilft, die Schwingungsübertragung zu untersuchen. Das entstehende nichtlineare Optimierungsproblem hat eine Dimension von mehreren tausend Variablen. Durch Anwendung des neuen Algorithmus kann (unter Einhaltung von gewissen Nebenbedingungen) eine optimierte Motorlagerung gefunden werden, die eine Reduktion der Schwingungsübertragung im vorgegebenen Frequenzbereich um ca. 80% gegenüber der gegebenen Startlösung erzielt. Die Implementierung des neuen Multiple-Setpoint-Algorithmus' wird in einem neuen Softwarepaket realisiert, das bei der Firma Freudenberg im industriellen Einsatz ist. Die entwickelte Software basiert auf der Optimierungssoftware für Probleme der optimalen Steuerung MUSCOD-II sowie dem objekt-orientierten Modellierungstool für Mehrkörpersysteme MBSNAT, mit dem die Modellierung des Fahrzeugs inklusive der Berechung der für die Optimierung nötigen Ableitungen geschieht

    Begriffliches Wissen als Grundlage mathematischer Kompetenzentwicklung

    Get PDF
    Im vorliegenden Band werden Erkenntnisse sowohl der psychologischen als auch der mathematikdidaktischen Forschung zusammengetragen. Eine eigene Untersuchung, die im Kern aus einer Interviewstudie besteht, ergänzt die Ergebnisse zum Wissen von Schülerinnen und Schülern zu den Begriffen der Analysis

    Adjungierte Strömungssimulation und gradientenbasierte Ersatzmodelle in der Turbomaschinenauslegung

    Get PDF
    Die Arbeit thematisiert die Beschleunigung multikriterieller interdisziplinärer Formoptimierung von Turbomaschinen durch Ableitungsinformation aus adjungierten Strömungssimulationen. Es werden zwei Vorgehensweisen zur Implementierung diskret adjungierter Pendants eines existierenden Strömungssimulationsverfahrens gegenübergestellt: Manuelle Adjungierung unterstützt durch algorithmische Differentiation einzelner Routinen sowie algorithmische Differentiation des gesamten Strömungslösers gefolgt von manueller Beschleunigung und Speicherreduktion des Resultats. Zu beiden Ansätzen werden jeweils Implementierungen auf Basis des gleichen zugrundeliegenden Simulationsverfahrens vorgestellt und diese miteinander verglichen. Es wird gradientenbasiertes Kriging, erweitert um eine geeignete Regularisierungstechnik, eingesetzt. Die Kombination bildet einen robustes gradientenbasiertes Optimierungsverfahren. Diese wird auf die Optimierung eines gegenläufigen Triebwerksfans angewandt

    Mathematica im Mathematikunterricht am Beispiel "Schnittpunkte verschiedener Kurven""Schnittpunkte verschiedener Kurven"

    Get PDF
    Im Rahmen dieser Diplomarbeit soll aufgezeigt werden, wie man Mathematica im Mathematikunterricht anhand des Themas „Schnittpunkte verschiedener Kurven“ einsetzen kann

    Prognose makrooekonomischer Zeitreihen: Ein Vergleich linearer Modelle mit neuronalen Netzen

    Get PDF
    In dieser Arbeit wird die Eignung des Instrumentariums der neuronalen Netze, im Konkreten der autoregressiven Neuronale-Netz-Modelle (ARNN), zur Modellierung und Prognose von makroökonomischen Zeitreihen untersucht und mit jenen der autoregressiven (AR) und autoregressiven Moving-Average-Modelle (ARMA) verglichen. Als beispielhaftes Anwendungsgebiet werden die beiden monatlichen Zeitreihen der österreichischen Arbeitslosenrate und des österreichischen Industrieproduktionsindex herangezogen. Die Arbeit beinhaltet eine Reihe von Erweiterungen an den Methoden und Algorithmen im Zusammenhang mit der ARNN-Modellierung, die durch die besonderen Herausforderungen bei der Modellierung und Prognose von makroökonomischen Zeitreihen motiviert sind. Eine Evaluationsstudie zum Vergleich der Güte von Mehr-Schritt-Prognosen verschiedener Modellierungsstrategien wird durchgeführt

    Theoretische und empirische Studie zu den Auswirkungen konstruktivistischer, computerorientierter Lernarrangements im Mathematikunterricht der Sekundarstufe II auf die Begriffsbildung und das Problemlöseverhalten

    Get PDF
    Wenn man annimmt, dass der Aufbau von Verständnis eines Sachverhaltes sich nicht im Sachverhalt, sondern im Individuum, das den Sachverhalt verstehen will, vollzieht, wird erkennbar, dass die Entstehung von Wissen durch die kognitive und affektive Struktur des Individuums bedingt ist. Postuliert man zudem die objektive Unerkennbarkeit der Welt, werden die Sachverhalte und damit der Entwicklungsprozess von Wissen über diese Sachverhalte individuell. Lernen kann somit als ein selbstbestimmter und konstruktiver Prozess verstanden werden. Diese Annahme bildet den Ausgangspunkt der vorliegenden Arbeit. Vor diesem Hintergrund stellt sich die Frage, inwieweit Schule dazu beitragen kann, diese Form der Wissensgenerierung zu fördern. Ein erster Schritt dahin liegt in einem Perspektivwechsel von Stofforientierung zur Schüler- und Schülerinnenorientierung. Dies erfordert ein verändertes Verständnis von Lehren und Lernen. Im ersten Teil der vorliegenden Arbeit wird das lehr-/lerntheoretische Modell KLIP (Konstruktivistisches Lernen an Intentionalen Problemen) entworfen, das sich als tragfähiges Fundament für die Gestaltung von Lernarrangements zur Förderung von konstruktivem und selbstbestimmtem Lernen innerhalb von Schule eignet. Begriffe wie Kernschemata und Forschungshefte sind die Eckpfeiler des Konzeptes. Unter Hinzuziehung des Computereinsatzes und der Entwicklung einer konstruktivistischen Theorie zur Begriffsbildung im Mathematikunterricht werden Merkmale derartiger Lernarrangements entwickelt und diskutiert. Daran anschließend wird das Konzept KLIP in seiner Anwendung und seinen praktischen Implikationen im Rahmen des Mathematikunterrichts der gymnasialen Oberstufe am Beispiel der Integralrechnung untersucht. Die Güte und Viabilität des Konzeptes hat sich in der empirischen Analyse gezeigt, womit sich der dritte Teil dieser Arbeit beschäftigt. Mit Hilfe von qualitativen und interpretativen Verfahren der Datenanalyse, unter die ebenfalls statistische Verfahren wie beispielsweise die Logistische Regressionsanalyse und Clusterverfahren subsumiert werden, werden die Forschungshefte, mehrere Fragebögen und ein Vergleichstest ausgewertet

    Grundvorstellungen der Integralrechnung

    Get PDF
    Diese Arbeit widmete sich der Frage, wie der Einstieg in die Integralrechnung im Schulunterricht möglichst intuitiv, basierend auf deren Grundvorstellung, dargebracht werden kann. Dabei stand der Begriff des Integrals als „verallgemeinerte Produktsumme“ im Zentrum. Nach einem kurzen historischen Exkurs über die Entwicklung der Integralrechnung wurden zwei Grundprobleme des Analysisunterrichts in der Oberstufe angesprochen: einerseits das Problem eines ausgewogenen Verhältnisses von Anschaulichkeit und Strenge und andererseits die Frage, wie heuristische Denk- und Arbeitsweisen in den Unterricht integriert werden können. Anhand des Grenzwertbegriffes wurde dies im Anschluss anschaulich diskutiert. Zusammengefasst kann gesagt werden, dass ein intuitiver Zugang sinnvoll erscheint, der im Nachhinein präzisiert wird. In diesem Sinne wurde auch bei der Einführung in die Integralrechnung auf einen (auf den Grundvorstellungen basierenden) intuitiven Einstieg Wert gelegt, dem ein anschließendes Exaktifizierungskapitel folgte. Um den Zusammenhang von Ableiten und Integrieren besser nachvollziehen zu können, wurde des Weiteren die Differentialrechnung nicht über das „Tangentenproblem“, sondern über die „Momentangeschwindigkeit“ eingeführt. Anhand eines Schulbuchvergleiches zweier gängiger Lehrbücher wurden zwei weitere mögliche Einstiege in die Integralrechnung diskutiert und kritisch hinterfragt. Zuerst fasste eine rein quantitative Vergleichsanalyse die wichtigsten Eckdaten zusammen, während im Anschluss eine genauere Analyse der beiden Lehrbücher folgte. Anhand der gesammelten Informationen aus der Fachliteratur und den beiden Schulbüchern wurde die Arbeit mit einem eigenen möglichen Unterrichtsverlauf, basierend auf der Grundvorstellung „Integrieren heißt Rekonstruieren“, abgeschlossen.This paper discusses the question how students in secondary education can be first introduced to the concept of integral calculus intuitively while taking into account their basic notion. Focus has been put on the integral as a “generalized product sum”. After a short historical excursus on the development of integral calculus, two basic problems of teaching mathematical analysis in senior secondary education are debated: on the one hand, how to balance explicative teaching and strictness, and on the other hand, how heuristic thinking and working methods can be integrated into the lessons. To illustrate this, the concept of the limit is used. In a nutshell, it can be said that an intuitive approach appears to be sensible, a notion that will be discussed in more detail later on. Similarly, emphasis has been put on an intuitive approach (that bases on the students’ general notion) when introducing them to the concept of the integral calculus. This is elaborated on in the following chapter. Moreover, in order to provide the students with a better understanding of the correlation of differential and integral calculus, the differential calculus is introduced making use of the “instantaneous velocity problem” rather than the “tangent line”. By contrasting two commonly used school books two additional possibilities of how to familiarize students with the concept of integral calculus are discussed and analyzed. Firstly, a merely quantitative contrasting analysis summarizes the key data, which is then followed by a more detailed analysis of both school books. The final chapter of this paper suggests what a lesson could look like that is based on the principle “integrating means reconstructing” and implements the information collected from literature and the analyzed school books
    corecore