189 research outputs found
Adjoint-Based Error Estimation and Mesh Adaptation for Hybridized Discontinuous Galerkin Methods
We present a robust and efficient target-based mesh adaptation methodology,
building on hybridized discontinuous Galerkin schemes for (nonlinear)
convection-diffusion problems, including the compressible Euler and
Navier-Stokes equations. Hybridization of finite element discretizations has
the main advantage, that the resulting set of algebraic equations has globally
coupled degrees of freedom only on the skeleton of the computational mesh.
Consequently, solving for these degrees of freedom involves the solution of a
potentially much smaller system. This not only reduces storage requirements,
but also allows for a faster solution with iterative solvers. The mesh
adaptation is driven by an error estimate obtained via a discrete adjoint
approach. Furthermore, the computed target functional can be corrected with
this error estimate to obtain an even more accurate value. The aim of this
paper is twofold: Firstly, to show the superiority of adjoint-based mesh
adaptation over uniform and residual-based mesh refinement, and secondly to
investigate the efficiency of the global error estimate
meta-analytical evaluation of coronary CT angiography studies
Zielsetzung: Ziel der Arbeit ist es, zu bestimmen, ob die Benutzung einer
Sechsfeldertafel mit einer Intention-to-Diagnose Herangehensweise sich zur
transparenten Darstellung und zum Umgang mit nichtbeurteilbaren Ergebnissen
bei der Beurteilung der diagnostischen Genauigkeit eines Testverfahrens besser
eignet, als die Benutzung einer "klassischen" Vierfeldertafel. Studiendesign:
Basierend auf einer systematischen Suche nach diagnostischen
Genauigkeitsstudien zur CT Koronarangiografie wurden Volltexte relevanter
Studien dahingehend untersucht, ob alternativ eine Sechsfeldertafel berechnet
werden konnte. Um einen Gesamteffekt zu quantifizieren, wurden die
diagnostischen Genauigkeitswerte gemäß einer metaanalytischen Methodik
statistisch zusammengefasst (gepoolt). Datenquellen: Gesucht wurde in den
elektronische Datenbanken Medline (via PubMed), Embase (via Ovid) und ISI Web
of Science. Eignungskriterien: Prospektive Studien in Englisch oder Deutsch,
die die CT Koronarangiografie mit der konventionellen Koronarangiografie
(beide Verfahren bei allen Patienten durchgeführt) verglichen und adäquate
Daten fĂĽr eine Analyse auf Patientenebene lieferten. Ergebnisse: 120 Studien
(mit 10.287 Patienten) wurden als relevant identifiziert. Die Studien
unterschieden sich stark in ihrer Herangehensweise, mit nichtbeurteilbaren
Ergebnissen zu verfahren. Wir fanden 26 Studien (mit 2298 Patienten), fĂĽr die
sowohl eine Vier- als auch eine zusätzliche Sechsfeldertafel berechnet werden
konnte. Unter Benutzung eines bivariaten Random Effects Modells verglichen wir
die Ergebnisse der Vierfeldertafel mit denen der Sechsfeldertafel und
identifizierten statistisch signifikante Unterschiede fĂĽr die gepoolte
Sensitivität ((98,2 (95% Konfidenzintervall (KI) 96,7 bis 99,1) gegenüber 92,7
(88,5 bis 95,3)), die Fläche unter der Kurve (area under the curve) (0,99
(0,98 bis 1,00) gegenĂĽber 0,93 (0,91 bis 0,95)), die positive Likelihood Ratio
(9,1 (6,2 bis 13,3) gegenĂĽber 4,4 (3,3 bis 6,0)) und die Negative Likelihood
Ratio (0,02 (0,01 bis 0,04) gegenĂĽber 0,09 (0,06 bis 0,15); (p<0,05)).
Schlussfolgerung: Die Parameter der diagnostischen Wertigkeit nehmen
signifikant ab, wenn nichtbeurteilbare Ergebnisse aus der Sechsfeldertafel mit
in die Analyse einflieĂźen (Intention-to-Diagnose Herangehensweise). Diese
Herangehensweise liefert ein realistischeres Abbild der klinischen Wertigkeit
diagnostischer Tests.Objective: To determine whether a 3Ă—2 table, using an intention to diagnose
approach, is better than the “classic” 2×2 table at handling transparent
reporting and non-evaluable results, when assessing the accuracy of a
diagnostic test. Design: Based on a systematic search for diagnostic accuracy
studies of coronary computed tomography (CT) angiography, full texts of
relevant studies were evaluated to determine whether they could calculate an
alternative 3Ă—2 table. To quantify an overall effect, we pooled diagnostic
accuracy values according to a meta-analytical approach. Data sources: Medline
(via PubMed), Embase (via Ovid), and ISI Web of Science electronic databases.
Eligibility criteria: Prospective English or German language studies comparing
coronary CT with conventional coronary angiography in all patients and
providing sufficient data for a patient level analysis. Results: 120 studies
(10,287 patients) were eligible. Studies varied greatly in their approaches to
handling non-evaluable findings. We found 26 studies (including 2298 patients)
that allowed us to calculate both 2Ă—2 tables and 3Ă—2 tables. Using a bivariate
random effects model, we compared the 2Ă—2 table with the 3Ă—2 table, and found
significant differences for pooled sensitivity (98.2 (95% confidence interval
96.7 to 99.1) v 92.7 (88.5 to 95.3)), area under the curve (0.99 (0.98 to
1.00) v 0.93 (0.91 to 0.95)), positive likelihood ratio (9.1 (6.2 to 13.3) v
4.4 (3.3 to 6.0)), and negative likelihood ratio (0.02 (0.01 to 0.04) v 0.09
(0.06 to 0.15); (P<0.05)). Conclusion: Parameters for diagnostic performance
significantly decrease if non-evaluable results are included by a 3Ă—2 table
for analysis (intention to diagnose approach). This approach provides a more
realistic picture of the clinical potential of diagnostic tests
A Comparison of Hybridized and Standard DG Methods for Target-Based hp-Adaptive Simulation of Compressible Flow
We present a comparison between hybridized and non-hybridized discontinuous
Galerkin methods in the context of target-based hp-adaptation for compressible
flow problems. The aim is to provide a critical assessment of the computational
efficiency of hybridized DG methods. Hybridization of finite element
discretizations has the main advantage, that the resulting set of algebraic
equations has globally coupled degrees of freedom only on the skeleton of the
computational mesh. Consequently, solving for these degrees of freedom involves
the solution of a potentially much smaller system. This not only reduces
storage requirements, but also allows for a faster solution with iterative
solvers. Using a discrete-adjoint approach, sensitivities with respect to
output functionals are computed to drive the adaptation. From the error
distribution given by the adjoint-based error estimator, h- or p-refinement is
chosen based on the smoothness of the solution which can be quantified by
properly-chosen smoothness indicators. Numerical results are shown for
subsonic, transonic, and supersonic flow around the NACA0012 airfoil.
hp-adaptation proves to be superior to pure h-adaptation if discontinuous or
singular flow features are involved. In all cases, a higher polynomial degree
turns out to be beneficial. We show that for polynomial degree of approximation
p=2 and higher, and for a broad range of test cases, HDG performs better than
DG in terms of runtime and memory requirements
A note on adjoint error estimation for one-dimensional stationary balance laws with shocks
We consider one-dimensional steady-state balance laws with discontinuous
solutions. Giles and Pierce realized that a shock leads to a new term in the
adjoint error representation for target functionals.This term disappears if and
only if the adjoint solution satisfies an internal boundary condition.
Curiously, most computer codes implementing adjoint error estimation ignore the
new term in the functional, as well as the internal adjoint boundary condition.
The purpose of this note is to justify this omission as follows: if one
represents the exact forward and adjoint solutions as vanishing viscosity
limits of the corresponding viscous problems, then the internal boundary
condition is naturally satisfied in the limit
Optimierung und Charakterisierung eines Biprisma-Interferometers fĂĽr die Aharonov-Bohm Physik
Die Kontrolle und Manipulation von kohärenten Materiewellen wurde vor über 90 Jahren initiiert, indem der Wellencharakter von Materie nachgewiesen wurde. Im Laufe der Zeit konnten viele Fragen zur Grundlagenphysik, im Besonderen zur Quantenmechanik, beantwortet und die Sensorik verfeinert werden, wobei auch die vor über 60 Jahren entwickelte Biprisma-Interferometrie beigetragen hat. Auch im Hinblick auf aktuelle Forschung ist es erstrebenswert, diesen Wissenschaftsbereich mit konzeptionellen wie technischen Verbesserungen fortzuführen, um sie für zukünftige Projekte und Experimente zu wappnen. Für die konstruktionelle und technische Optimierung unseres Interferometers hinsichtlich der Entwicklung der Ioneninterferometrie, des routinemäßigen Betriebs sowie der Langzeitstabilität und Reproduzierbarkeit von Messungen wurden mehrere Komponenten neu entwickelt und ersetzt. Als Elektronen- sowie auch Ionenquelle mit hoher Monochromie und Langzeitstabilität verwenden wir eine Einatomspitze und charakterisierten ihre Emission in dieser Arbeit. Zusätzlich ersetzen wir die strahlaufspaltenden Biprismen, die mit einem völlig neuen Herstellungsprozess gefertigt werden, sowie den Detektor, der Messdaten mit hoher Orts- und Zeitauflösung erfassen kann. Zusätzliche Verbesserungen hinsichtlich der Langzeitstabilität und des routinemäßigen Betriebs wurden mit der Identifikation von Störquellen erreicht, um sie durch Modifikation des Aufbaus zu vermeiden oder bei der Datenerfassung und -analyse zu korrigieren. Infolgedessen wurde zur Vermeidung einer störenden Neutralemission beim Ionenbetrieb eine differentielle Druckstufe installiert. Zudem untersuchten wir die Dekohärenzeinflüsse von unterschiedlichen Hintergrundgasen wie auch die Störeinflüsse von mechanischen Schwingungen auf die Interferogramme. In dieser Arbeit wird durch Messungen gezeigt, dass die Erhöhung des Hintergrundgases bis zu einem Vakuumdruck von 10-4 mbar durch keinerlei Kontrastverluste in den gemessenen Interferenzen begleitet wird, jedoch reduziert sich die Signalstärke bis zu 94 %. Dabei haben diese Erkenntnisse unabhängig von der Interferometrie für alle Forschungsbereiche Relevanz, die freie Elektronen nutzen, insbesondere aber auch für zukünftige Sensoren. Mechanische Schwingungen von 300 Hz bis 1 kHz, die zum Teil Resonanzen in den Komponenten zur Manipulation und Führung freier Elektronen verursachen, bewirken hingegen deutliche Kontrastverluste. Dabei können die Interferenzen mit Hilfe einer Korrelationsanalyse auf die nahezu ungestörten Kontraste zurückgerechnet und damit korrigiert werden. Zugleich können auch sämtliche Störparameter ermittelt und somit die Resonanzen identifiziert und Optimierungsmöglichkeiten aufgezeigt werden. Auch diese Methodik ist nicht auf die Biprisma-Interferometrie begrenzt und kann in interferometrischer Grundlagenforschung sowie in der Sensorik zur Analyse, Optimierung und Desensibilisierung von Störeinflüssen herangezogen werden. Des Weiteren sollen die Optimierungen auch zur Realisierung der in dieser Arbeit vorgeschlagenen Messung zum elektrischen Aharonov-Bohm Effekts dienen. Hierbei wurden unterschiedliche Konzepte für eine Strahlaufspaltung durch Simulationen erstellt und die Komponenten inklusive Positionierungen optimiert. Die in dieser Arbeit durchgeführten Studien stellen eine Grundlage dar, für zukünftige, hochsensible Messungen an der Phase der Elektronen sowie Ionenwelle. Dies erlaubt neue Experimente in der Aharanov-Bohm Physik, der Dekohärenz, der Sensorik und auch der kohärenten Elektronenmikroskopie
- …