11 research outputs found

    Untersuchung von elektrischen Feldverteilungen und Ladungsträgersammlung in ortsempfindlichen Germanium Detektoren

    Get PDF

    Simulation und Regelung von Resonanzversuchsständen zur Untersuchung der Bauteilermüdung

    Get PDF
    [no abstract

    Large Eddy Simulation auf uniform und adaptiv verfeinerten Gittern : adaptive LES, Diskretisierungs- und Modellfehler bei der LES, Wärme- und Stofftransport, Mehrgitterverfahren, statischer Mischer

    Get PDF
    Diese Arbeit vereint die Large Eddy Simulation (LES) mit parallelen, adaptiven Methoden und schnellen Mehrgitterverfahren auf unstrukturierten Gittern. Angefangen von den verwendeten kontinuierlichen Modellen zur Beschreibung turbulenter Strömung, wird das verwendete Teilschritt-Theta-Verfahren für die Zeitintegration und die zu Grunde liegende Finite-Volumen-Methode mit linearen Ansätzen für die räumliche Diskretisierung eingeführt. Da hier die inkompressiblen Navier-Stokes-Gleichungen und die Energiegleichung voll implizit gelöst werden, spielt der für die Stabilität des Diskretisierungsverfahrens verantwortliche Stabilisierungsterm hierbei eine wichtige Rolle. Anschließend wird die Gitteradaption, wie sie in dem verwendeten Softwarepaket UG realisiert wird, dargestellt. Sie ist zunächst unabhängig von dem betrachteten Problem. Die Verbindung zur LES führt über die in Betracht gezogenen a posteriori-Indikatoren, die zur Verfeinerung bzw. Vergröberung eines Anfangsgitters verwendet werden. Die beiden wichtigsten Indikatoren sind der klassische residuenbasierte Indikator, der ursprünglich zur Bestimmung des Diskretisierungsfehlers konstruiert wurde und einen Fehlerindikator darstellt, und der heuristische Maximum-Indikator, der als Verfeinerungs- bzw. Vergröberungskriterium n.a. die turbulente Viskosität verwendet. Obgleich beide Indikatoren verschieden sind, liefern sie ähnlich gute Ergebnisse. An Hand des Jet in Crossflow-Problems im R2 und der natürlichen Konvektion in einer hohen Nische im R2 und R3 werden die Diskretisierungs- und Modellfehler bei einer LES, die typischerweise dieselbe Größenordnung besitzen, bestimmt und die adaptiven Methoden den uniformen Verfahren gegenübergestellt. Es kann gezeigt werden, dass durch Gitteradaption mit 30% der Elemente eines uniformen Gitters ähnliche Ergebnisse erzielt werden können. Abgeschlossen wird diese Arbeit mit der numerischen Simulation eines statischen Mischers, dessen Ergebnisse mit den experimentellen Daten verglichen werden. Diese Arbeit zeichnet sich insbesondere durch drei Aspekte aus. Erstens, es werden die Diskretisierungs- und Modellfehler für zwei klassische Problemstellungen bestimmt. Zweitens, verschiedenste a posteriori Indikatoren werden für LES-Rechnungen verwendet und entsprechend bewertet. Und drittens wird über das ganze Zeitintervall einer Rechnung das unstrukturierte Gitter an die instationären Strukturen entsprechend der verwendeten Indikatoren durch Verfeinerung oder Vergröberung angepasst

    Rostocker Mathematisches Kolloquium. Heft 13 (1980)

    Get PDF

    Die Parallelisierung des filternden algebraischen Mehrgitterverfahrens zum Lösen partieller Differentialgleichungen

    Get PDF
    In dieser Doktorarbeit wird das neue robuste und effiziente parallele algebraische Mehrgitterverfahren pFAMG zum Lösen von partiellen Differentialgleichungen präsentiert. Der aktuelle Stand der Forschung für parallele und robuste Lösungsverfahren für partielle Differentialgleichungen wird zusammengefaßt; dies umfaßt vor allem parallele geometrische und algebraische Mehrgitterverfahren (AMG). Zwei Einsatzgebiete für algebraische Mehrgitterverfahren werden herausgearbeitet: als Löser für die Gleichung auf der von einem Gittergenerator erzeugten Triangulierung des Gebiets oder als Grobgitterlöser innerhalb eines geometrischen Mehrgitterverfahrens. MIMD Parallelrechner mit sehr vielen Prozessoren sind die Zielarchitektur; sie werden im SPMD Modell benutzt. Ein ganzer Satz von Methoden wird entwickelt, mit dem sich AMG Verfahren – speziell Selektionsverfahren – parallelisieren lassen. Das Ziel ist dabei, das serielle Verfahren möglichst wenig zu verändern, um seine Güte zu erhalten. Dafür wird ein knotenbasierter Verteilungsansatz verwendet. Darauf wird eine parallele lineare Algebra definiert. Der zentrale Begriff ist dabei die parallele Darstellungsform. Für alle benötigten linearen Algebra Operationen wird bewiesen, welche parallelen Darstellungsformen für die Operanden zulässig sind. Die wesentlichen Komponenten sind ein ausreichender Überlapp der Matrix-Teilgraphen auf den einzelnen Prozessoren, ein Graphfärbungsalgorithmus, mit dessen Hilfe die Arbeit im Überlappbereich teilsequentialisiert wird, um eine widersprüchliche Markierung der Knoten zu vermeiden, sowie die Gittertransferoperatoren (Restriktion und Prolongation), die Galerkinassemblierung für die Erstellung der Grobgittermatrizen und der Löser auf dem gröbsten Gitter. Dabei wird Wert darauf gelegt, daß alle Komponenten völlig verteilt ablaufen können, um so eine gute Skalierbarkeit auch für sehr viele Prozessoren zu ermöglichen. Für den Löser auf dem gröbsten Gitter stellt sich eine Agglomeration auf nur einen Prozessor als ausreichend performant heraus. Die Korrektheit aller Algorithmusteile wird bewiesen. Dieser Rahmenalgorithmus wird nun konkret auf das filternde algebraische Mehrgitterverfahren (FAMG) angewandt. Als Hilfsmittel für die parallele Programmierung wird das Programmiersystem UG (Unstructured Grids, siehe http://cox.iwr.uni-heidelberg.de/~ug) verwendet. Der Kern des FAMG Verfahrens, nämlich die Bestimmung einer Menge von guten Elternpaaren, aus denen ein Knoten gut interpoliert werden kann, kann gegenüber dem seriellen Verfahren unter den geschaffenen Voraussetzungen vollkommen unverändert gelassen werden. Die Sequenz, in der diese Elternpaare ausgewählt und zur Fein- bzw. Grobknotenmarkierung herangezogen werden, muß allerdings für einen effizienten parallelen Algorithmus entscheidend umgestaltet werden. Dafür stellt das entwickelte Rahmenverfahren die entscheidenden Hilfsmittel bereit. Da hier allerdings vom seriellen Ablauf abgewichen werden muß, ist das die kritische Stelle im gesamten Verfahren. Daß dabei die Robustheit des Lösungsverfahrens nicht verloren geht, zeigen die durchgeführten numerischen Experimente. Das Verfahren ist für alle Steifigkeitsmatrizen, wie sie aus Finiten Differenzen, Finiten Elemente oder Finiten Volumen Diskretisierungen entstehen, geeignet. Es werden Experimente für die Anisotrope Poissongleichung und die Konvektions-Diffusionsgleichung für lineare Strömungen und Kreisströmungen präsentiert. Für diese singulär gestörten Differentialgleichungen werden auch extreme Parameterwerte getestet, die üblicherweise ein paralleles Lösungsverfahren zum Versagen bringen. Die Parallelisierung kann unverändert auch für Systeme von partiellen Differentialgleichungen verwendet werden. In den Experimenten werden bis zu 128 Prozessoren und 16,7 Mio. Unbekannten verwendet. In allen Fällen wird Robustheit bezüglich des Gleichungsparameters (das ist der Anisotropiekoeffizient bzw. die Pecletzahl), der Prozessoranzahl, der Gebietsaufteilung und der Gitterweite (bzw. der Anzahl der Unbekannten im linearen Gleichungssystem) erzielt. Die ermittelten Scale-up Effizienzen von bis zu 80% auf 128 Prozessoren sind sehr gut. Als die zwei wesentlichen Einflußfaktoren auf die parallele Effizienz werden die Lastbalance und die Interfacelänge nachgewiesen. Für beide Faktoren gibt es ausgereifte Techniken, um mit ihnen umzugehen. Das Ziel, ein robustes, effizientes und paralleles algebraisches Mehrgitterverfahren zu erstellen, ist also vollständig erreicht worden

    Weiße Biotechnologie – Innovationsanalyse Teil II. Stand und Perspektiven der industriellen Biotechnologie: Umwelt- und Nachhaltigkeitspotenziale

    Get PDF
    Eine übergreifende Beurteilung der Umwelt- und Nachhaltigkeitspotenziale der IBT stößt auf mehrere fundamentale Schwierigkeiten. So existiert eine Vielzahl unterschiedlicher Prozesse, Verfahren und Produkte der IBT, die in verschiedenartige technische und ökonomische Zusammenhänge eingebunden sind. Bei den verfügbaren Studien bestehen fundamentale Einschränkungen hinsichtlich der Breite und Vergleichbarkeit der erfassten Wirkungsdimensionen. Insgesamt sind nur wenige allgemeine bzw. übergreifende Aussagen möglich. Der Einsatz von Verfahren der IBT erlaubt es grundsätzlich, kostengünstig, energieeffizient und unter milden Produktionsbedingungen (hinsichtlich Druck, Temperatur, pH-Wert etc.) zu produzieren. Die IBT zeichnet sich darüber hinaus dadurch aus, dass die Produktion i.d.R. in geschlossenen Systemen (Bioreaktoren) durchgeführt wird. Damit werden Kontaminationen der Umwelt weitgehend vermieden oder ausgeschlossen. Im Hinblick auf geäußerte Sicherheitsbedenken, beispielsweise hinsichtlich des Austrags von gentechnisch veränderten Organismen aus den geschlossenen Systemen, konnten keine stichhaltigen Hinweise identifiziert werden. Bei der übergreifenden Analyse der relativen Umwelt- und Nachhaltigkeitswirkungen verschiedener Produktgruppen der IBT zeigte sich, dass die Produktion der untersuchten, auf der Verarbeitung von Biomasse aufbauenden (»biobasierten«) Stoffe im Vergleich zu konventionell hergestellten Produkten in vielen Fällen den Energieverbrauch und die Treibhausgasemissionen reduzieren hilft. Im Gegenzug können aber negative Umweltwirkungen durch den großmaßstäblichen intensivlandwirtschaftlichen Anbau von Biomasse verursacht werden, beispielsweise die Belastung von Gewässern durch ein Überangebot an Nährstoffen, der stratosphärische Ozonabbau und die Bodenversauerung. Allerdings bestehen erhebliche Unsicherheiten bei quantitativen Wirkungsabschätzungen. Die langfristige Verfügbarkeit von nachhaltig produzierter Biomasse in ausreichenden Mengen ist essenzielle Voraussetzung für jedwede Ausweitung einer Bioökonomie. Dabei ist unumstritten, dass der Lebens- und Futtermittelproduktion Vorrang einzuräumen ist. Zu Industrieprodukten werden in Deutschland etwa 3,5 Mio. t Agrarrohstoffe/Jahr verarbeitet. Es ist Gegenstand der Forschung, auch alternative Rohstoffquellen zu erschließen, die nicht zugleich Nahrungs- oder Futtermittel sind. Hierzu zählen insbesondere Holz (Lignocellulose), organische Reststoffe (aus der Land- und Forstwirtschaft sowie aus Hausmüll) sowie das Treibhausgas CO2. Entscheidend für die Gesamtbilanz im Hinblick auf Nachhaltigkeit und die Frage, in welchem Umfang die IBT zu einer Bioökonomie beitragen kann, ist die Verfügbarkeit bzw. nachhaltige Produktion entsprechender Mengen von Biomasse unter Berücksichtigung von Nutzungskonkurrenzen mit der Nahrungs- und Futtermittelproduktion auf den zur Verfügung stehenden begrenzten Flächen. Zu dieser Frage liegen aus dem Kontext der Bereitstellung von Bioenergie zahlreiche Studien mit sehr unterschiedlichen Ergebnissen vor. Insgesamt zeigt sich, dass auch bei Ausweitung der entsprechend verwendeten Agrarfläche in Deutschland hiesige Biomasse wohl nicht die einzige Rohstoffbasis industrieller Produktion bilden kann

    Automatische Ergebnisverifikation bei globalen Optimierungsproblemen

    Get PDF

    Min Cost Flow in balancierten Netzwerken mit konvexer Kostenfunktion

    Get PDF
    Standard matching problems can be stated in terms of skew symmetric networks. On skew symmetric networks matching problems can be solved using network flow techniques. We consider the problem of minimizing a separable convex objective function over a skew-symmetric network with a balanced flow. We call this problem the Convex Balanced Min Cost Flow (Convex BMCF) problem. We start with 2 examples of Convex BMCF problems. The first problem is a problem from condensed matter physics: We want to simulate a so called super-rough phase using methods from graph-theory. This problem has previously been studied by Blasum, Hochstaettler, Rieger a and Moll. The second problem is a typical example for the minconvex-problems previously studied by Apollonio and Sebo and Berger and Hochstaettler [9]. We review the results for skew-symmetric networks by Jungnickel and Fremuth-Paeger and Kocay and Stone. Using these results we present several algorithms to solve the Convex BMCF problem. We present the first complete version of the Primal-Dual algorithm previously studied by Fremuth-Paeger and Jungnickel. However, we only consider the case of positive costs. We also show how to apply this algorithm to the Convex BMCF problem. Then we extend the Shortest Admissible Path Approach of Jungnickel and Fremuth-Paeger [23, p. 12] to a complete algorithm for linear as well as convex cost problems on skew symmetric networks. In the same manner we show how to adapt the Capacity Scaling algorithm by Ahuja and Orlin to skew symmetric networks and balanced flows. The capacity scaling algorithm is weakly polynomial. Another possibility for a weakly polynomial algorithm is the Balanced Out-of-Kilter algorithm. This algorithm is based on Fulkerson’s Out-of-Kilter algorithm and Minoux’s adaptation of the algorithm for convex costs. We show that augmentation on valid paths is not always necessary and introduce the idea of slightly different networks. Using the same ideas for the Balanced Capacity Scaling we obtain an Enhanced Capacity Scaling algorithm. The Enhanced Capacity Scaling algorithm as well as the Balanced Out-of-Kilter algorithm are the fastest algorithms presented here with a complexity of roughly O(m2log2U). Finally we show how to solve the problem from condensed matter physics using the new idea of anti-balanced flows on skew-symmetric networks. Using the Balanced Successive Shortest Path algorithm we also obtain a new complexity limit for the minconvex problem. This improves the complexity bound of Berger [8] by a factor of m in the case of separable convex costs with positive slope. In the appendix of this thesis we consider dual approaches for the Convex BMCF problem. The Balanced Relaxation algorithm, based on the Relaxation algorithm by Bertsekas [13], does not determine a balanced flow as the resulting flow will not necessarily be integral. This way we only determine fractional matchings. As the algorithm is also slow this algorithm is probably of limited use. A better ansatz seems to be the Cancel and Tighten method by Karzanov and McCormick. We review their results and end with some ideas on how to implement a balanced version of this algorithm

    Faktorisierung dünn besetzter, positiv definiter Matrizen

    Get PDF
    von Jürgen SchulzePaderborn, Univ., Diss., 200
    corecore