78 research outputs found

    Ein Programm für die Parallelisierung dynamisch adaptiver Mehrgitterverfahren

    Get PDF
    In dieser Arbeit werden dynamisch adaptive Mehrgitterverfahren parallelisiert. Bei dynamisch adaptiven Mehrgitterverfahren wird ein Gebiet mit einem Gitter überdeckt, und auf diesem Gitter wird gerechnet, indem Gitterpunkte in der Umgebung herangezogen werden, um den Wert des nächsten Zeitpunktes zu bestimmen. Dann werden gröbere und feinere Gitter erzeugt und verwendet, wobei die feineren Gitter sich auf Teilgebiete konzentrieren. Diese Teilgebiete ändern sich im Verlauf der Zeit. Durch die Verwendung der zusätzlichen Gitter werden die numerischen Eigenschaften verbessert. Die Parallelisierung solcher Verfahren geschieht in der Regel durch Bisektion. In der vorliegenden Arbeit wird die Umverteilung der Gebiete realisiert, indem Mengen von einzelnen Gitterpunkten verschickt werden. Das ist ein Scheduling-Verfahren. Die Mehrgitterstrukturen sind so aufgebaut, dass fast beliebige Gitterpunktverteilungen auf den Gitterebenen vorliegen können. Die Strukturen werden einmal erzeugt, und nur bei Bedarf geändert, sodass keine Speicherallokationen während der Iterationen nötig sind. Neben dem Gitter sind zusätzliche Strukturen, wie zum Beispiel die Randstrukturen, erforderlich. Eine Struktur Farbenfeld verzeichnet, auf welchem Kern sich ein Außenrandpunkt befindet. In der parallelen adaptiven Verfeinerung werden für einzelne durch ein Entscheidungskriterium ausgewählte Gitterpunkte 5 x 5 Punktüberdeckungen vorgenommen. Dazu werden die verfügbaren Entscheidungsinformationen zur Bestimmung von komplexeren Strukturen herangezogen. Damit muss das Verfeinerungsgitter nicht komplett abgebaut und dann wieder aufgebaut werden, sondern nur die Änderungen am Gitter sind vorzunehmen. Das spart viel Berechnungszeit. Der letzte Schritt besteht darin, den Lastausgleich durchzuführen. Zunächst werden die Lasttransferwerte bestimmt, die angeben, wie viele Gitterpunkte von wo nach wo zu verschicken sind. Das geschieht mit Hilfe einer PLB genannten Methode bzw. einer Variante. PLB wurde bisher vor allem für kombinatorische Probleme eingesetzt. Dann erfolgt eine Auswahl der zu verschickenden Gitterpunkte mit einer Strategie, welche Punkte eines Kerns zu welchen Nachbarkernen transferiert werden sollen. Im letzten Schritt werden schließlich die ausgewählten Punkte migriert, wobei alle Gitterpunktstrukturen umgebaut werden und solche Informationen gepackt werden müssen, sodass ein Umbau seiner Gitterpunktstrukturen bei dem Empfänger möglich wird. Neben den Gitterpunktstrukturen müssen auch Strukturen für die parallele adaptive Verfeinerung verändert werden. Es muss ein Weiterverschicken von Gitterpunkten möglich sein, wenn über die Lastkanten in mehreren Runden Last verschickt wird. Während des Lastausgleichs wird noch Arbeit durch eine Struktur Zwischenkorrektur durchgeführt, die es ermöglicht, das Farbenfeld intakt zu halten, wenn benachbarte Gitterpunkte gleichzeitig verschickt werden

    Ein HPC-tauglicher Spektralelemente-Löser auf der Grundlage von statischer Kondensation und Mehrgittermethoden

    Get PDF
    Arbeitstitel: Erweiterte mathematische Methoden zur Simulation von turbulenten Strömungsvorgängen auf parallelen Rechnern:Inhaltsverzeichnis 1 Einleitung 3 2 Numerische Simulation physikalischer Prozesse 6 2.1 Königsdisziplin - Turbulente Strömungssimulation 6 2.2 Vom mathematischen Modell zur numerischen Lösung 9 2.2.1 Räumliche und zeitliche Diskretisierung 9 2.2.2 Allgemeine Reduktion auf Poisson- und Helmholtz-Gleichungen 11 2.3 Anforderungen an effiziente Lösungsverfahren 12 3 Basiskomponenten des entwickelten Verfahrens 16 3.1 Spektralelemente-Methode 16 3.1.1 Grundlagen 17 3.1.2 Gewählte Ansatzfunktionen und Stützstellen 20 3.1.3 Struktur des linearen Operators 24 3.2 Statische Kondensation 25 3.3 Geometrisches Mehrgitterverfahren 26 4 Das Spektralelemente basierte Mehrgitterverfahren auf kondensierten Gittern 31 4.1 Stand der Forschung 31 4.2 Mehrgitterverfahren auf kondensierten Gittern 32 4.2.1 Konzeption wirkungsvoller Glätter 34 4.3 Nachweis optimaler Eigenschaften 41 4.3.1 Lineare Komplexität 41 4.3.2 Ausgezeichnete Konvergenzgeschwindigkeit 43 4.3.3 Robustheit gegenüber Gitterverfeinerung 46 5 Konzeption des parallelen Mehrgitterlösers 49 5.1 Parallelrechner und Leistungsbewertungskriterien 49 5.2 Stand der Forschung 52 5.3 Grundlegende Struktur und Parallelisierung 54 5.3.1 Analyse des Speicherbedarfs 54 5.3.2 Zwei- und dreidimensionale Zerlegung 58 5.3.3 Parallelisierung und Kommunikation 62 6 Ergebnisse 65 6.1 Implementierung des Lösers 65 6.2 Hardwarespezifikation des Testsystems 66 6.3 Bewertung der Implementierung 68 6.3.1 Sequentieller Anwendungsfall 68 6.3.2 Nachweis der Skalierbarkeit im parallelen Anwendungsfall 76 6.3.3 Vergleich mit etablierten Lösungsansätzen bzw. Lösern 87 7 Zusammenfassung und Ausblick 89 Abbildungsverzeichnis 92 Tabellenverzeichnis 94 Abkürzungsverzeichnis 95 Symbolverzeichnis 96 Literaturverzeichnis 98 A Weiterführende Messergebnisse 106 A.1 Relative Mehrkosten der parallelen Implementierung 106 A.2 Sequentielle Lösungszeiten ohne Nachglättung im 2D-Fall 107 A.3 Sequentielle Lösungszeiten ohne Nachglättung im 3D-Fall 108Die rechnergestützte Simulation physikalischer Prozesse ist ein fester Bestandteil im Alltag von Wissenschaftlern aus den unterschiedlichsten Wissensbereichen. Unabhängig davon, ob das Ziel die Vorhersage des Wetters von morgen, die Konzentrationsbestimmung von Fluidteilchen in Mischprozessen oder die Erschaffung von Werkstoffen mit optimalen Materialeigenschaften ist, ohne den Einsatz von leistungsfähigen Rechnern ist dieses Ziel nicht zu erreichen. Aus dieser inhärenten Kopplung lässt sich eine grundlegende Aussage bzgl. der Laufzeit durchzuführender Simulationen ableiten. Schnellere Rechentechnik reduziert automatisch die Laufzeit einer bereits bestehenden Simulation und somit auch die Wartezeit auf die potentiell zu erwartenden Erkenntnisse. Zeitgleich ist die so erreichte Reduktion der Berechnungszeit auch ein Maß für die mögliche Erhöhung des Detailgrades einer bestehenden Simulation und somit auch ein Indikator für den zusätzlich zu erwartenden Erkenntnisgewinn. Ein Blick auf die seit 1993 herausgegebene Top500-Liste der schnellsten Supercomputer zeigt ein annähernd gleichbleibend exponentielles Wachstum der Rechenleistung. Dieser durch eine Interpretation von „Moores-Law“ beschriebene Sachverhalt wird laut aktuellen Prognosen auch in den nächsten Jahren bestehen bleiben. Für die im Bereich der Simulation tätigen Wissenschaftler gleicht dies einem Versprechen, dass ohne deren Zutun auch in Zukunft mit stetig kürzeren Simulationszeiten zu rechnen ist. Immer vorausgesetzt, es können genug finanzielle Mittel für die neue Hardware akquiriert werden. Doch dieser Schein trügt. Eine genauere Analyse der Entwicklung der Rechentechnik der letzten Jahre zeigt zwei maßgebliche Veränderungen. Zum einen stagniert die maximale Taktrate einer einzelnen CPU seit Erreichen der 4 GHz Grenze im Jahr 2004 und zum anderen wird, insbesondere seit der Einführung der ersten Dual Core CPU’s 2005, gesteigerte Rechenleistung fast gänzlich durch die Verwendung einer Vielzahl von Rechenkernen erreicht. Das aktuell mit mehr als zehn Millionen Rechenkernen an Position 1 der Top500-Liste geführte System TaihuLight (deu. Licht der Göttlichkeit) verdeutlicht die Dimensionen dieser Entwicklung. Die für dieses System in Aussicht gestellte maximale Rechenleistung von circa 125 Billiarden gleitkommaoperationen pro Sekunde, kann dabei nur von einer perfekt parallelisierten Simulationsrechnung erreicht werden. „Amdahls-Law“ zeigt jedoch, dass dieser perfekte Zustand, aufgrund von unvermeidlichen sequentiellen Abschnitten in den einzelnen im Programm verwendeten Algorithmen, nicht zu erreichen ist. Die genaue Abweichung vom vollparallelisierten Idealzustand wird dabei durch die sogenannte parallele Effizienz quantifiziert. Deren Wert muss hierbei per Definition zwischen Null und Eins liegen. Dem Paradigma „eine hohe parallele Effizienz ergibt eine hohe Rechenleistung und dies führt zur kürzestmöglichen Simulationslaufzeit“ folgend, wurden in den letzten Jahren die unterschiedlichsten Simulationsprogramme auf eben diese Effizienz getrimmt. In den meisten Fällen wurden hierfür Codes verwendet, die auf eine sehr lange Historie zurückgreifen, so dass alte bestehende Strukturen und Algorithmen unabhängig von deren wirklicher Eignung parallelisiert wurden. Diese Entwicklung führt jedoch mehr und mehr dazu, dass die Entwickler den Blick für die Vielseitigkeit der Faktoren, die zu einer akzeptablen Simulationslaufzeit führen, verlieren. Werden zum Beispiel Methoden niederer Ordnung, wie dies etwa bei den Standard Finite-Differenzen-Verfahren der Fall ist, zur Diskretisierung des Simulationsgebietes eingesetzt, steigt die Zahl der für kleine Lösungsfehler benötigten Gitterpunkte so schnell an, dass jedweder Arbeitsspeicher vor Erreichen der benötigten Genauigkeit aufgebraucht ist. Im Gegensatz dazu sind Methoden höherer Ordnung, wie dies etwa bei den Standard Finite-Elemente-Verfahren der Fall ist, aufgrund ihrer suboptimalen numerischen Komplexität kaum besser geeignet. Ein ähnliches Bild ergibt sich bei den Algorithmen, mit denen die Gleichungssysteme in den einzelnen Simulationsschritten gelöst werden. Stellvertretend sei hier das Jacobi-Verfahren genannt, welches sich zwar durch eine parallele Effizienz nahe Eins auszeichnet, jedoch zum einen eine nicht optimale quadratische numerische Komplexität und zum anderen eine von der Auflösung des Simulationsgitters abhängige maximale Iterationszahl besitzt. Sofern die Anwender der etablierten Simulationsprogramme keine Kosten für den Zugang zu Hochleistungsrechnern zu erwarten haben und diese Rechner immer wieder massiv ausgebaut werden, stellen die genannten Einschränkungen fürs Erste nur bedingt ein Problem dar. Denn, eine Simulation die nach Hinzunahme einer bestimmten Zahl von Rechenkernen um annähernd diesen Faktor beschleunigt wird ist etwas Ausgezeichnetes. Werden den Anwendern jedoch, wie bereits von immer mehr Universitätsrechenzentren diskutiert und in der Industrie bereits gängige Praxis, die Kosten für den Energieverbrauch in Rechnung gestellt, ergibt sich ein gänzlich anderes Bild. Ein Bild, in dem der Effizienz, die die angewandten Methoden bzw. die eingesetzten Algorithmen erreichen, die größte Bedeutung zufällt. Die Effizienz einer Methode wird hierbei ungenauerweise oft nur anhand deren Implementierung als Algorithmus bestimmt. Jedoch kann eine effizient implementierte Methode mit numerisch ungünstigen Eigenschaften einer nicht effizient implementierten Methode mit numerisch optimalen Eigenschaften deutlich unterlegen sein. Demnach ist es offensichtlich, dass nur für eine effizient implementierte Methode mit optimalen numerischen Eigenschaften die kürzestmögliche Simulationslaufzeit erreicht werden kann. Der Fokus der vorliegenden Arbeit liegt deshalb zu allererst auf dem Nachweis der optimalen numerisch/mathematischen Eigenschaften der entwickelten Methode. Diese Eigenschaften sind: lineare numerische Komplexität, Robustheit des Verfahrens gegenüber Gitterverfeinerungen im Simulationsgebiet und eine bisher unerreichte Konvergenzrate. Abschließend wird zusätzlich die Eignung der Methoden bzgl. deren Verwendung auf aktuellen Hochleistungsrechnern unter Verwendung von Zehntausenden von Rechenkernen belegt und auch deren effiziente Implementierung bzw. Umsetzung dargelegt. Ziel dieser Arbeit ist die Entwicklung effizienter mathematischer Methoden zur numerischen Simulation von physikalischen Prozessen und deren hochskalierende Implementierung auf Hochleistungsrechnern. Unter allen denkbaren Aufgabenstellungen zählen hierbei insbesondere diejenigen zu den herausforderndsten, die der Strömungsmechanik zugeordnet sind. Besonders die direkte numerische Simulation (DNS), welche zur Analyse von turbulenten Strömungsphänomenen eingesetzt wird, stellt hierbei höchste Ansprüche an die eingesetzten numerischen Verfahren. Die Entwicklung und Umsetzung der im Rahmen dieser Arbeit vorgestellten Methoden ist deshalb auf die Anwendung im Rahmen der turbulenten Strömungssimulation ausgerichtet. Diese Fokussierung dient jedoch allein dem Beleg der Leistungsfähigkeit und stellt keine prinzipielle Einschränkung der Methode dar.:Inhaltsverzeichnis 1 Einleitung 3 2 Numerische Simulation physikalischer Prozesse 6 2.1 Königsdisziplin - Turbulente Strömungssimulation 6 2.2 Vom mathematischen Modell zur numerischen Lösung 9 2.2.1 Räumliche und zeitliche Diskretisierung 9 2.2.2 Allgemeine Reduktion auf Poisson- und Helmholtz-Gleichungen 11 2.3 Anforderungen an effiziente Lösungsverfahren 12 3 Basiskomponenten des entwickelten Verfahrens 16 3.1 Spektralelemente-Methode 16 3.1.1 Grundlagen 17 3.1.2 Gewählte Ansatzfunktionen und Stützstellen 20 3.1.3 Struktur des linearen Operators 24 3.2 Statische Kondensation 25 3.3 Geometrisches Mehrgitterverfahren 26 4 Das Spektralelemente basierte Mehrgitterverfahren auf kondensierten Gittern 31 4.1 Stand der Forschung 31 4.2 Mehrgitterverfahren auf kondensierten Gittern 32 4.2.1 Konzeption wirkungsvoller Glätter 34 4.3 Nachweis optimaler Eigenschaften 41 4.3.1 Lineare Komplexität 41 4.3.2 Ausgezeichnete Konvergenzgeschwindigkeit 43 4.3.3 Robustheit gegenüber Gitterverfeinerung 46 5 Konzeption des parallelen Mehrgitterlösers 49 5.1 Parallelrechner und Leistungsbewertungskriterien 49 5.2 Stand der Forschung 52 5.3 Grundlegende Struktur und Parallelisierung 54 5.3.1 Analyse des Speicherbedarfs 54 5.3.2 Zwei- und dreidimensionale Zerlegung 58 5.3.3 Parallelisierung und Kommunikation 62 6 Ergebnisse 65 6.1 Implementierung des Lösers 65 6.2 Hardwarespezifikation des Testsystems 66 6.3 Bewertung der Implementierung 68 6.3.1 Sequentieller Anwendungsfall 68 6.3.2 Nachweis der Skalierbarkeit im parallelen Anwendungsfall 76 6.3.3 Vergleich mit etablierten Lösungsansätzen bzw. Lösern 87 7 Zusammenfassung und Ausblick 89 Abbildungsverzeichnis 92 Tabellenverzeichnis 94 Abkürzungsverzeichnis 95 Symbolverzeichnis 96 Literaturverzeichnis 98 A Weiterführende Messergebnisse 106 A.1 Relative Mehrkosten der parallelen Implementierung 106 A.2 Sequentielle Lösungszeiten ohne Nachglättung im 2D-Fall 107 A.3 Sequentielle Lösungszeiten ohne Nachglättung im 3D-Fall 10

    Die Parallelisierung des filternden algebraischen Mehrgitterverfahrens zum Lösen partieller Differentialgleichungen

    Get PDF
    In dieser Doktorarbeit wird das neue robuste und effiziente parallele algebraische Mehrgitterverfahren pFAMG zum Lösen von partiellen Differentialgleichungen präsentiert. Der aktuelle Stand der Forschung für parallele und robuste Lösungsverfahren für partielle Differentialgleichungen wird zusammengefaßt; dies umfaßt vor allem parallele geometrische und algebraische Mehrgitterverfahren (AMG). Zwei Einsatzgebiete für algebraische Mehrgitterverfahren werden herausgearbeitet: als Löser für die Gleichung auf der von einem Gittergenerator erzeugten Triangulierung des Gebiets oder als Grobgitterlöser innerhalb eines geometrischen Mehrgitterverfahrens. MIMD Parallelrechner mit sehr vielen Prozessoren sind die Zielarchitektur; sie werden im SPMD Modell benutzt. Ein ganzer Satz von Methoden wird entwickelt, mit dem sich AMG Verfahren – speziell Selektionsverfahren – parallelisieren lassen. Das Ziel ist dabei, das serielle Verfahren möglichst wenig zu verändern, um seine Güte zu erhalten. Dafür wird ein knotenbasierter Verteilungsansatz verwendet. Darauf wird eine parallele lineare Algebra definiert. Der zentrale Begriff ist dabei die parallele Darstellungsform. Für alle benötigten linearen Algebra Operationen wird bewiesen, welche parallelen Darstellungsformen für die Operanden zulässig sind. Die wesentlichen Komponenten sind ein ausreichender Überlapp der Matrix-Teilgraphen auf den einzelnen Prozessoren, ein Graphfärbungsalgorithmus, mit dessen Hilfe die Arbeit im Überlappbereich teilsequentialisiert wird, um eine widersprüchliche Markierung der Knoten zu vermeiden, sowie die Gittertransferoperatoren (Restriktion und Prolongation), die Galerkinassemblierung für die Erstellung der Grobgittermatrizen und der Löser auf dem gröbsten Gitter. Dabei wird Wert darauf gelegt, daß alle Komponenten völlig verteilt ablaufen können, um so eine gute Skalierbarkeit auch für sehr viele Prozessoren zu ermöglichen. Für den Löser auf dem gröbsten Gitter stellt sich eine Agglomeration auf nur einen Prozessor als ausreichend performant heraus. Die Korrektheit aller Algorithmusteile wird bewiesen. Dieser Rahmenalgorithmus wird nun konkret auf das filternde algebraische Mehrgitterverfahren (FAMG) angewandt. Als Hilfsmittel für die parallele Programmierung wird das Programmiersystem UG (Unstructured Grids, siehe http://cox.iwr.uni-heidelberg.de/~ug) verwendet. Der Kern des FAMG Verfahrens, nämlich die Bestimmung einer Menge von guten Elternpaaren, aus denen ein Knoten gut interpoliert werden kann, kann gegenüber dem seriellen Verfahren unter den geschaffenen Voraussetzungen vollkommen unverändert gelassen werden. Die Sequenz, in der diese Elternpaare ausgewählt und zur Fein- bzw. Grobknotenmarkierung herangezogen werden, muß allerdings für einen effizienten parallelen Algorithmus entscheidend umgestaltet werden. Dafür stellt das entwickelte Rahmenverfahren die entscheidenden Hilfsmittel bereit. Da hier allerdings vom seriellen Ablauf abgewichen werden muß, ist das die kritische Stelle im gesamten Verfahren. Daß dabei die Robustheit des Lösungsverfahrens nicht verloren geht, zeigen die durchgeführten numerischen Experimente. Das Verfahren ist für alle Steifigkeitsmatrizen, wie sie aus Finiten Differenzen, Finiten Elemente oder Finiten Volumen Diskretisierungen entstehen, geeignet. Es werden Experimente für die Anisotrope Poissongleichung und die Konvektions-Diffusionsgleichung für lineare Strömungen und Kreisströmungen präsentiert. Für diese singulär gestörten Differentialgleichungen werden auch extreme Parameterwerte getestet, die üblicherweise ein paralleles Lösungsverfahren zum Versagen bringen. Die Parallelisierung kann unverändert auch für Systeme von partiellen Differentialgleichungen verwendet werden. In den Experimenten werden bis zu 128 Prozessoren und 16,7 Mio. Unbekannten verwendet. In allen Fällen wird Robustheit bezüglich des Gleichungsparameters (das ist der Anisotropiekoeffizient bzw. die Pecletzahl), der Prozessoranzahl, der Gebietsaufteilung und der Gitterweite (bzw. der Anzahl der Unbekannten im linearen Gleichungssystem) erzielt. Die ermittelten Scale-up Effizienzen von bis zu 80% auf 128 Prozessoren sind sehr gut. Als die zwei wesentlichen Einflußfaktoren auf die parallele Effizienz werden die Lastbalance und die Interfacelänge nachgewiesen. Für beide Faktoren gibt es ausgereifte Techniken, um mit ihnen umzugehen. Das Ziel, ein robustes, effizientes und paralleles algebraisches Mehrgitterverfahren zu erstellen, ist also vollständig erreicht worden

    Large Eddy Simulation auf uniform und adaptiv verfeinerten Gittern : adaptive LES, Diskretisierungs- und Modellfehler bei der LES, Wärme- und Stofftransport, Mehrgitterverfahren, statischer Mischer

    Get PDF
    Diese Arbeit vereint die Large Eddy Simulation (LES) mit parallelen, adaptiven Methoden und schnellen Mehrgitterverfahren auf unstrukturierten Gittern. Angefangen von den verwendeten kontinuierlichen Modellen zur Beschreibung turbulenter Strömung, wird das verwendete Teilschritt-Theta-Verfahren für die Zeitintegration und die zu Grunde liegende Finite-Volumen-Methode mit linearen Ansätzen für die räumliche Diskretisierung eingeführt. Da hier die inkompressiblen Navier-Stokes-Gleichungen und die Energiegleichung voll implizit gelöst werden, spielt der für die Stabilität des Diskretisierungsverfahrens verantwortliche Stabilisierungsterm hierbei eine wichtige Rolle. Anschließend wird die Gitteradaption, wie sie in dem verwendeten Softwarepaket UG realisiert wird, dargestellt. Sie ist zunächst unabhängig von dem betrachteten Problem. Die Verbindung zur LES führt über die in Betracht gezogenen a posteriori-Indikatoren, die zur Verfeinerung bzw. Vergröberung eines Anfangsgitters verwendet werden. Die beiden wichtigsten Indikatoren sind der klassische residuenbasierte Indikator, der ursprünglich zur Bestimmung des Diskretisierungsfehlers konstruiert wurde und einen Fehlerindikator darstellt, und der heuristische Maximum-Indikator, der als Verfeinerungs- bzw. Vergröberungskriterium n.a. die turbulente Viskosität verwendet. Obgleich beide Indikatoren verschieden sind, liefern sie ähnlich gute Ergebnisse. An Hand des Jet in Crossflow-Problems im R2 und der natürlichen Konvektion in einer hohen Nische im R2 und R3 werden die Diskretisierungs- und Modellfehler bei einer LES, die typischerweise dieselbe Größenordnung besitzen, bestimmt und die adaptiven Methoden den uniformen Verfahren gegenübergestellt. Es kann gezeigt werden, dass durch Gitteradaption mit 30% der Elemente eines uniformen Gitters ähnliche Ergebnisse erzielt werden können. Abgeschlossen wird diese Arbeit mit der numerischen Simulation eines statischen Mischers, dessen Ergebnisse mit den experimentellen Daten verglichen werden. Diese Arbeit zeichnet sich insbesondere durch drei Aspekte aus. Erstens, es werden die Diskretisierungs- und Modellfehler für zwei klassische Problemstellungen bestimmt. Zweitens, verschiedenste a posteriori Indikatoren werden für LES-Rechnungen verwendet und entsprechend bewertet. Und drittens wird über das ganze Zeitintervall einer Rechnung das unstrukturierte Gitter an die instationären Strukturen entsprechend der verwendeten Indikatoren durch Verfeinerung oder Vergröberung angepasst

    Ein Modell zur effizienten Parallelisierung von Algorithmen auf komplexen, dynamischen Datenstrukturen

    Get PDF
    Moderne berechnungsintensive Algorithmen, beispielsweise adaptive numerische Lösungsverfahren für partielle Differentialgleichungen, arbeiten oftmals auf komplexen, dynamischen Datenstrukturen. Die Implementierung solcher Algorithmen auf Parallelrechnern mit verteiltem Speicher mittels Datenpartitionierung wirft zahlreiche Probleme auf (z.B. Lastverteilung). Im Rahmen der vorliegenden Arbeit wurde das neue parallele Programmiermodell Dynamic Distributed Data (DDD) entwickelt, durch das die Parallelisierungsarbeit vom Design der verteilten Datenstrukturen bis hin zur Erstellung des portablen, parallelen und effizienten Programmcodes unterstützt wird. Dem DDD-Konzept liegt ein graphbasiertes formales Modell zugrunde. Dabei wird die Datenstruktur des jeweiligen Programms (z.B. unstrukturierte Gitter) formal auf einen verteilten Graphen abgebildet, der aus mehreren lokalen Graphen besteht. Das formale Modell dient als Spezifikation des Programmiermodells und gleichzeitig zur Definition der wichtigen in dieser Arbeit verwendeten Begriffe. Der Systemarchitektur von DDD-basierten Anwendungen liegt ein Schichtenmodell zugrunde, den Kern stellt dabei die DDD-Programmbibliothek dar. Diese bietet Funktionen zur dynamischen Definition verteilter Datentypen und zur Verwaltung lokaler Objekte. In den Überlappungsbereichen der lokalen Graphen stehen abstrakte Kommunikationsfunktionen in Form von sog. Interfaces zur Verfügung. Die wesentliche Neuerung gegenüber nahezu allen bestehenden Arbeiten ist jedoch die Möglichkeit zur dynamischen Veränderung des verteilten Graphen; dies ermöglicht es beispielsweise, dynamische Lastverteilung oder Gittergenerierungsverfahren einfach und effizient zu implementieren. Damit können beliebig komplexe Datentopologien dynamisch erzeugt, migriert und wieder entfernt werden

    Modellierung und Numerik zeitharmonischer Wirbelstromprobleme in 3D

    Get PDF
    Diese Arbeit beschäftigt sich mit der numerischen Lösung zeitharmonischer Wirbelstromprobleme in 3D und Aspekten der mathematischen Modellierung. Ziel ist sowohl die Entwicklung eines effizienten Finite-Element-Codes unter Verwendung adaptiver Mehrgitterverfahren als auch die Entwicklung einer Randelementmethode für Impedanzrandbedingungen. Das zugrundeliegende Wirbelstrommodell ist eine Näherung der Maxwellschen Gleichungen und beschreibt niederfrequente elektromagnetische Phänomene, bei denen die magnetische Energie dominiert. Innerhalb der Arbeit wird eine Schranke für den Modellierungsfehler des Wirbelstrommodells hergeleitet. Aus der Fehlerbetrachtung folgt, daß die in der Ingenieurliteratur anerkannten Bedingungen (charakteristische Größe 0 konvergiert, falls ausschliesslich induzierte Wirbelströme existieren, ansonsten konvergiert der Fehler nur mit O(f). Weiterhin wird eine systematische Studie durchgeführt, wie externe Strom- und Spannungsquellen im Wirbelstrommodell berücksichtigt werden können. Dabei wird zwischen lokalen Anregungen an Kontakten, vorgegebenen Generatorstromverteilungen und nicht-lokalen Varianten unterschieden. Es wird gezeigt, daß letztere das Faradaysche Gesetz entlang von sogenannten Seifert-Flächen verletzen und keine Lösung für das elektrische Feld in H(rot) zulassen. Eine physikalische Interpretation wird gegeben. Der Schwerpunkt der Arbeit liegt in der Entwicklung einer adaptiven Finite-Element-Software, die auf der Simulationsumgebung UG aufbaut. Als Grundlage dient eine auf dem elektrischen Feld basierende, sogenannte "ungeeichte" Variationsformulierung. Die Lösung ist bei Anwesenheit nichtleitender Gebietsteile nicht eindeutig und repräsentiert für diesen Fall eine Äquivalenzklasse von elektrischen Feldern, die alle auf dasselbe Magnetfeld führen, wobei letzteres die im Wirbelstrommodell relevante Größe darstellt. Zur Diskretisierung werden Whitney-Elemente verwendet. Die Berechnung erfolgt adaptiv mit Hilfe eines "Rot/Grün-Verfeinerungsalgorithmus" und eines residuenbasierten Fehlerschätzers. Zur Lösung der entstehenden Gleichungssysteme kommen Mehrgitterverfahren zum Einsatz. Diese besitzen eine optimale Komplexität und sind die derzeit schnellsten Lösungsverfahren. Dabei wird ein von R. Hiptmair entwickeltes Glättungsverfahren verwendet. Obwohl der (komplexe) zeitharmonische Fall bisher nicht von der Mehrgittertheorie abgedeckt wird, belegen die in der Arbeit durchgeführten numerischen Experimente, daß die Konvergenzraten des Mehrgitterverfahrens unabhängig von der Gitterweite gleichmäßig von Eins weg beschränkt sind. Aufgrund der Adaptivität wurde das Mehrgitterverfahren als lokales Mehrgitterverfahren implementiert, bei dem die Glättung sich auf verfeinerte Bereiche beschränkt. Dies ist notwendig, um auch im adaptiven Fall optimale Komplexität des Verfahrens zu gewährleisten. Implementiert wird das lokale Mehrgitterverfahren mit Hilfe von lokalen Gittern, die i.a. nicht das ganze Gebiet überdecken. Es wird gezeigt, daß das verwendete Glättungsverfahren gegenüber dem Standardfall erweiterte lokale Gitter erfordert. Die Lösbarkeit des singulären Gleichungssystems wird durch eine angemessene Berechnung der Stromquellen sichergestellt. Um die Kernanteile während des Lösungsprozesses zu kontrollieren, wird eine angenäherte Projektion auf die diskret divergenzfreien Felder eingesetzt. Das Gesamtverfahren wird auf realistische Problemstellungen angewendet. Für Wirbelstromprobleme, die auf sehr geringe Eindringtiefen führen, wird eine Randelementmethode realisiert. Hier wird der Einfluß des leitfähigen Gebietes durch Impedanzrandbedingungen repräsentiert. Daraus resultiert die Lösung einer Außenraumaufgabe statt eines Transmissionsproblems. Es wird eine auf dem Magnetfeld basierende Formulierung des Wirbelstrommodells verwendet und gezeigt, wie sich das Problem als eine skalare Integrodifferentialgleichung auf dem Rand des Leiters umformulieren läßt. Existenz und Eindeutigkeit werden bewiesen; ein Galerkin-Verfahren mit stetigen, stückweise linearen Randelementen wird zur Diskretisierung verwendet. Eine Fehlerabschätzung führt auf eine O(h^(5/2))-Konvergenz der Ohmschen Verluste. Das Ergebnis wird anhand eines numerischen Beispiels bestätigt. Anschließend werden die Grenzfälle unendlicher Leitfähigkeit und unendlicher Permeabilität betrachtet

    Numerische Analyse und parallele Simulation von nichtlinearen Cosserat-Modellen

    Get PDF

    Bridging the gap between geometric and algebraic multi-grid methods

    Full text link
    In this paper, a multi-grid solver for the discretisation of partial differential equations on complicated domains is developed. The algorithm requires as input the given discretisation only instead of a hierarchy of discretisations on coarser grids. Such auxiliary grids and discretisations are generated in a black-box fashion and are employed to define purely algebraic intergrid transfer operators. The geometric interpretation of the algorithm allows one to use the framework of geometric multigrid methods to prove its convergence. The focus of this paper is on the formulation of the algorithm and the demonstration of its efficiency by numerical experiments, while the analysis is carried out for some model problems
    corecore