189 research outputs found

    Adjoint-Based Error Estimation and Mesh Adaptation for Hybridized Discontinuous Galerkin Methods

    Full text link
    We present a robust and efficient target-based mesh adaptation methodology, building on hybridized discontinuous Galerkin schemes for (nonlinear) convection-diffusion problems, including the compressible Euler and Navier-Stokes equations. Hybridization of finite element discretizations has the main advantage, that the resulting set of algebraic equations has globally coupled degrees of freedom only on the skeleton of the computational mesh. Consequently, solving for these degrees of freedom involves the solution of a potentially much smaller system. This not only reduces storage requirements, but also allows for a faster solution with iterative solvers. The mesh adaptation is driven by an error estimate obtained via a discrete adjoint approach. Furthermore, the computed target functional can be corrected with this error estimate to obtain an even more accurate value. The aim of this paper is twofold: Firstly, to show the superiority of adjoint-based mesh adaptation over uniform and residual-based mesh refinement, and secondly to investigate the efficiency of the global error estimate

    meta-analytical evaluation of coronary CT angiography studies

    Get PDF
    Zielsetzung: Ziel der Arbeit ist es, zu bestimmen, ob die Benutzung einer Sechsfeldertafel mit einer Intention-to-Diagnose Herangehensweise sich zur transparenten Darstellung und zum Umgang mit nichtbeurteilbaren Ergebnissen bei der Beurteilung der diagnostischen Genauigkeit eines Testverfahrens besser eignet, als die Benutzung einer "klassischen" Vierfeldertafel. Studiendesign: Basierend auf einer systematischen Suche nach diagnostischen Genauigkeitsstudien zur CT Koronarangiografie wurden Volltexte relevanter Studien dahingehend untersucht, ob alternativ eine Sechsfeldertafel berechnet werden konnte. Um einen Gesamteffekt zu quantifizieren, wurden die diagnostischen Genauigkeitswerte gemäß einer metaanalytischen Methodik statistisch zusammengefasst (gepoolt). Datenquellen: Gesucht wurde in den elektronische Datenbanken Medline (via PubMed), Embase (via Ovid) und ISI Web of Science. Eignungskriterien: Prospektive Studien in Englisch oder Deutsch, die die CT Koronarangiografie mit der konventionellen Koronarangiografie (beide Verfahren bei allen Patienten durchgeführt) verglichen und adäquate Daten für eine Analyse auf Patientenebene lieferten. Ergebnisse: 120 Studien (mit 10.287 Patienten) wurden als relevant identifiziert. Die Studien unterschieden sich stark in ihrer Herangehensweise, mit nichtbeurteilbaren Ergebnissen zu verfahren. Wir fanden 26 Studien (mit 2298 Patienten), für die sowohl eine Vier- als auch eine zusätzliche Sechsfeldertafel berechnet werden konnte. Unter Benutzung eines bivariaten Random Effects Modells verglichen wir die Ergebnisse der Vierfeldertafel mit denen der Sechsfeldertafel und identifizierten statistisch signifikante Unterschiede für die gepoolte Sensitivität ((98,2 (95% Konfidenzintervall (KI) 96,7 bis 99,1) gegenüber 92,7 (88,5 bis 95,3)), die Fläche unter der Kurve (area under the curve) (0,99 (0,98 bis 1,00) gegenüber 0,93 (0,91 bis 0,95)), die positive Likelihood Ratio (9,1 (6,2 bis 13,3) gegenüber 4,4 (3,3 bis 6,0)) und die Negative Likelihood Ratio (0,02 (0,01 bis 0,04) gegenüber 0,09 (0,06 bis 0,15); (p<0,05)). Schlussfolgerung: Die Parameter der diagnostischen Wertigkeit nehmen signifikant ab, wenn nichtbeurteilbare Ergebnisse aus der Sechsfeldertafel mit in die Analyse einfließen (Intention-to-Diagnose Herangehensweise). Diese Herangehensweise liefert ein realistischeres Abbild der klinischen Wertigkeit diagnostischer Tests.Objective: To determine whether a 3×2 table, using an intention to diagnose approach, is better than the “classic” 2×2 table at handling transparent reporting and non-evaluable results, when assessing the accuracy of a diagnostic test. Design: Based on a systematic search for diagnostic accuracy studies of coronary computed tomography (CT) angiography, full texts of relevant studies were evaluated to determine whether they could calculate an alternative 3×2 table. To quantify an overall effect, we pooled diagnostic accuracy values according to a meta-analytical approach. Data sources: Medline (via PubMed), Embase (via Ovid), and ISI Web of Science electronic databases. Eligibility criteria: Prospective English or German language studies comparing coronary CT with conventional coronary angiography in all patients and providing sufficient data for a patient level analysis. Results: 120 studies (10,287 patients) were eligible. Studies varied greatly in their approaches to handling non-evaluable findings. We found 26 studies (including 2298 patients) that allowed us to calculate both 2×2 tables and 3×2 tables. Using a bivariate random effects model, we compared the 2×2 table with the 3×2 table, and found significant differences for pooled sensitivity (98.2 (95% confidence interval 96.7 to 99.1) v 92.7 (88.5 to 95.3)), area under the curve (0.99 (0.98 to 1.00) v 0.93 (0.91 to 0.95)), positive likelihood ratio (9.1 (6.2 to 13.3) v 4.4 (3.3 to 6.0)), and negative likelihood ratio (0.02 (0.01 to 0.04) v 0.09 (0.06 to 0.15); (P<0.05)). Conclusion: Parameters for diagnostic performance significantly decrease if non-evaluable results are included by a 3×2 table for analysis (intention to diagnose approach). This approach provides a more realistic picture of the clinical potential of diagnostic tests

    A Comparison of Hybridized and Standard DG Methods for Target-Based hp-Adaptive Simulation of Compressible Flow

    Get PDF
    We present a comparison between hybridized and non-hybridized discontinuous Galerkin methods in the context of target-based hp-adaptation for compressible flow problems. The aim is to provide a critical assessment of the computational efficiency of hybridized DG methods. Hybridization of finite element discretizations has the main advantage, that the resulting set of algebraic equations has globally coupled degrees of freedom only on the skeleton of the computational mesh. Consequently, solving for these degrees of freedom involves the solution of a potentially much smaller system. This not only reduces storage requirements, but also allows for a faster solution with iterative solvers. Using a discrete-adjoint approach, sensitivities with respect to output functionals are computed to drive the adaptation. From the error distribution given by the adjoint-based error estimator, h- or p-refinement is chosen based on the smoothness of the solution which can be quantified by properly-chosen smoothness indicators. Numerical results are shown for subsonic, transonic, and supersonic flow around the NACA0012 airfoil. hp-adaptation proves to be superior to pure h-adaptation if discontinuous or singular flow features are involved. In all cases, a higher polynomial degree turns out to be beneficial. We show that for polynomial degree of approximation p=2 and higher, and for a broad range of test cases, HDG performs better than DG in terms of runtime and memory requirements

    A note on adjoint error estimation for one-dimensional stationary balance laws with shocks

    Full text link
    We consider one-dimensional steady-state balance laws with discontinuous solutions. Giles and Pierce realized that a shock leads to a new term in the adjoint error representation for target functionals.This term disappears if and only if the adjoint solution satisfies an internal boundary condition. Curiously, most computer codes implementing adjoint error estimation ignore the new term in the functional, as well as the internal adjoint boundary condition. The purpose of this note is to justify this omission as follows: if one represents the exact forward and adjoint solutions as vanishing viscosity limits of the corresponding viscous problems, then the internal boundary condition is naturally satisfied in the limit

    Optimierung und Charakterisierung eines Biprisma-Interferometers fĂĽr die Aharonov-Bohm Physik

    Get PDF
    Die Kontrolle und Manipulation von kohärenten Materiewellen wurde vor über 90 Jahren initiiert, indem der Wellencharakter von Materie nachgewiesen wurde. Im Laufe der Zeit konnten viele Fragen zur Grundlagenphysik, im Besonderen zur Quantenmechanik, beantwortet und die Sensorik verfeinert werden, wobei auch die vor über 60 Jahren entwickelte Biprisma-Interferometrie beigetragen hat. Auch im Hinblick auf aktuelle Forschung ist es erstrebenswert, diesen Wissenschaftsbereich mit konzeptionellen wie technischen Verbesserungen fortzuführen, um sie für zukünftige Projekte und Experimente zu wappnen. Für die konstruktionelle und technische Optimierung unseres Interferometers hinsichtlich der Entwicklung der Ioneninterferometrie, des routinemäßigen Betriebs sowie der Langzeitstabilität und Reproduzierbarkeit von Messungen wurden mehrere Komponenten neu entwickelt und ersetzt. Als Elektronen- sowie auch Ionenquelle mit hoher Monochromie und Langzeitstabilität verwenden wir eine Einatomspitze und charakterisierten ihre Emission in dieser Arbeit. Zusätzlich ersetzen wir die strahlaufspaltenden Biprismen, die mit einem völlig neuen Herstellungsprozess gefertigt werden, sowie den Detektor, der Messdaten mit hoher Orts- und Zeitauflösung erfassen kann. Zusätzliche Verbesserungen hinsichtlich der Langzeitstabilität und des routinemäßigen Betriebs wurden mit der Identifikation von Störquellen erreicht, um sie durch Modifikation des Aufbaus zu vermeiden oder bei der Datenerfassung und -analyse zu korrigieren. Infolgedessen wurde zur Vermeidung einer störenden Neutralemission beim Ionenbetrieb eine differentielle Druckstufe installiert. Zudem untersuchten wir die Dekohärenzeinflüsse von unterschiedlichen Hintergrundgasen wie auch die Störeinflüsse von mechanischen Schwingungen auf die Interferogramme. In dieser Arbeit wird durch Messungen gezeigt, dass die Erhöhung des Hintergrundgases bis zu einem Vakuumdruck von 10-4 mbar durch keinerlei Kontrastverluste in den gemessenen Interferenzen begleitet wird, jedoch reduziert sich die Signalstärke bis zu 94 %. Dabei haben diese Erkenntnisse unabhängig von der Interferometrie für alle Forschungsbereiche Relevanz, die freie Elektronen nutzen, insbesondere aber auch für zukünftige Sensoren. Mechanische Schwingungen von 300 Hz bis 1 kHz, die zum Teil Resonanzen in den Komponenten zur Manipulation und Führung freier Elektronen verursachen, bewirken hingegen deutliche Kontrastverluste. Dabei können die Interferenzen mit Hilfe einer Korrelationsanalyse auf die nahezu ungestörten Kontraste zurückgerechnet und damit korrigiert werden. Zugleich können auch sämtliche Störparameter ermittelt und somit die Resonanzen identifiziert und Optimierungsmöglichkeiten aufgezeigt werden. Auch diese Methodik ist nicht auf die Biprisma-Interferometrie begrenzt und kann in interferometrischer Grundlagenforschung sowie in der Sensorik zur Analyse, Optimierung und Desensibilisierung von Störeinflüssen herangezogen werden. Des Weiteren sollen die Optimierungen auch zur Realisierung der in dieser Arbeit vorgeschlagenen Messung zum elektrischen Aharonov-Bohm Effekts dienen. Hierbei wurden unterschiedliche Konzepte für eine Strahlaufspaltung durch Simulationen erstellt und die Komponenten inklusive Positionierungen optimiert. Die in dieser Arbeit durchgeführten Studien stellen eine Grundlage dar, für zukünftige, hochsensible Messungen an der Phase der Elektronen sowie Ionenwelle. Dies erlaubt neue Experimente in der Aharanov-Bohm Physik, der Dekohärenz, der Sensorik und auch der kohärenten Elektronenmikroskopie
    • …
    corecore