6 research outputs found
Uncertain Flow Visualization using LIC
In this paper we look at the Line Integral Convolution method for flow visualization and ways in which this can be
applied to the visualization of two dimensional, steady flow fields in the presence of uncertainty. To achieve this,
we start by studying the method and reviewing the history of modifications other authors have made to it in order
to improve its efficiency or capabilities, and using these as a base for the visualization of uncertain flow fields.
Finally, we apply our methodology to a case study from the field of oceanography
Doctor of Philosophy
dissertationIn this dissertation, we advance the theory and practice of verifying visualization algorithms. We present techniques to assess visualization correctness through testing of important mathematical properties. Where applicable, these techniques allow us to distinguish whether anomalies in visualization features can be attributed to the underlying physical process or to artifacts from the implementation under verification. Such scientific scrutiny is at the heart of verifiable visualization - subjecting visualization algorithms to the same verification process that is used in other components of the scientific pipeline. The contributions of this dissertation are manifold. We derive the mathematical framework for the expected behavior of several visualization algorithms, and compare them to experimentally observed results in the selected codes. In the Computational Science & Engineering community CS&E, this technique is know as the Method of Manufactured Solution (MMS). We apply MMS to the verification of geometrical and topological properties of isosurface extraction algorithms, and direct volume rendering. We derive the convergence of geometrical properties of isosurface extraction techniques, such as function value and normals. For the verification of topological properties, we use stratified Morse theory and digital topology to design algorithms that verify topological invariants. In the case of volume rendering algorithms, we provide the expected discretization errors for three different error sources. The results of applying the MMS is another important contribution of this dissertation. We report unexpected behavior for almost all implementations tested. In some cases, we were able to find and fix bugs that prevented the correctness of the visualization algorithm. In particular, we address an almost 2 0 -year-old bug with the core disambiguation procedure of Marching Cubes 33, one of the first algorithms intended to preserve the topology of the trilinear interpolant. Finally, an important by-product of this work is a range of responses practitioners can expect to encounter with the visualization technique under verification
Visuelle Analyse groĂer Partikeldaten
Partikelsimulationen sind eine bewĂ€hrte und weit verbreitete numerische Methode in der Forschung und Technik. Beispielsweise werden Partikelsimulationen zur Erforschung der KraftstoffzerstĂ€ubung in Flugzeugturbinen eingesetzt. Auch die Entstehung des Universums wird durch die Simulation von dunkler Materiepartikeln untersucht. Die hierbei produzierten Datenmengen sind immens. So enthalten aktuelle Simulationen Billionen von Partikeln, die sich ĂŒber die Zeit bewegen und miteinander interagieren. Die Visualisierung bietet ein groĂes Potenzial zur Exploration, Validation und Analyse wissenschaftlicher DatensĂ€tze sowie der zugrundeliegenden
Modelle. Allerdings liegt der Fokus meist auf strukturierten Daten mit einer regulĂ€ren Topologie. Im Gegensatz hierzu bewegen sich Partikel frei durch Raum und Zeit. Diese Betrachtungsweise ist aus der Physik als das lagrange Bezugssystem bekannt. Zwar können Partikel aus dem lagrangen in ein regulĂ€res eulersches Bezugssystem, wie beispielsweise in ein uniformes Gitter, konvertiert werden. Dies ist bei einer groĂen Menge an Partikeln jedoch mit einem erheblichen Aufwand verbunden. DarĂŒber hinaus fĂŒhrt diese Konversion meist zu einem Verlust der PrĂ€zision bei gleichzeitig erhöhtem Speicherverbrauch. Im Rahmen dieser Dissertation werde ich neue Visualisierungstechniken erforschen, welche speziell auf der lagrangen Sichtweise basieren. Diese ermöglichen eine effiziente und effektive visuelle Analyse groĂer Partikeldaten
Visualization challenges in distributed heterogeneous computing environments
Large-scale computing environments are important for many aspects of modern life.
They drive scientific research in biology and physics, facilitate industrial rapid prototyping, and provide information relevant to everyday life such as weather forecasts.
Their computational power grows steadily to provide faster response times and to satisfy the demand for higher complexity in simulation models as well as more details and higher resolutions in visualizations.
For some years now, the prevailing trend for these large systems is the utilization of additional processors, like graphics processing units.
These heterogeneous systems, that employ more than one kind of processor, are becoming increasingly widespread since they provide many benefits, like higher performance or increased energy efficiency.
At the same time, they are more challenging and complex to use because the various processing units differ in their architecture and programming model.
This heterogeneity is often addressed by abstraction but existing approaches often entail restrictions or are not universally applicable.
As these systems also grow in size and complexity, they become more prone to errors and failures.
Therefore, developers and users become more interested in resilience besides traditional aspects, like performance and usability.
While fault tolerance is well researched in general, it is mostly dismissed in distributed visualization or not adapted to its special requirements.
Finally, analysis and tuning of these systems and their software is required to assess their status and to improve their performance.
The available tools and methods to capture and evaluate the necessary information are often isolated from the context or not designed for interactive use cases.
These problems are amplified in heterogeneous computing environments, since more data is available and required for the analysis.
Additionally, real-time feedback is required in distributed visualization to correlate user interactions to performance characteristics and to decide on the validity and correctness of the data and its visualization.
This thesis presents contributions to all of these aspects.
Two approaches to abstraction are explored for general purpose computing on graphics processing units and visualization in heterogeneous computing environments.
The first approach hides details of different processing units and allows using them in a unified manner.
The second approach employs per-pixel linked lists as a generic framework for compositing and simplifying order-independent transparency for distributed visualization.
Traditional methods for fault tolerance in high performance computing systems are discussed in the context of distributed visualization.
On this basis, strategies for fault-tolerant distributed visualization are derived and organized in a taxonomy.
Example implementations of these strategies, their trade-offs, and resulting implications are discussed.
For analysis, local graph exploration and tuning of volume visualization are evaluated.
Challenges in dense graphs like visual clutter, ambiguity, and inclusion of additional attributes are tackled in node-link diagrams using a lens metaphor as well as supplementary views.
An exploratory approach for performance analysis and tuning of parallel volume visualization on a large, high-resolution display is evaluated.
This thesis takes a broader look at the issues of distributed visualization on large displays and heterogeneous computing environments for the first time.
While the presented approaches all solve individual challenges and are successfully employed in this context, their joint utility form a solid basis for future research in this young field.
In its entirety, this thesis presents building blocks for robust distributed visualization on current and future heterogeneous visualization environments.GroĂe Rechenumgebungen sind fĂŒr viele Aspekte des modernen Lebens wichtig.
Sie treiben wissenschaftliche Forschung in Biologie und Physik, ermöglichen die rasche Entwicklung von Prototypen in der Industrie und stellen wichtige Informationen fĂŒr das tĂ€gliche Leben, beispielsweise Wettervorhersagen, bereit.
Ihre Rechenleistung steigt stetig, um Resultate schneller zu berechnen und dem Wunsch nach komplexeren Simulationsmodellen sowie höheren Auflösungen in der Visualisierung nachzukommen.
Seit einigen Jahren ist die Nutzung von zusĂ€tzlichen Prozessoren, z.B. Grafikprozessoren, der vorherrschende Trend fĂŒr diese Systeme.
Diese heterogenen Systeme, welche mehr als eine Art von Prozessor verwenden, finden zunehmend mehr Verbreitung, da sie viele VorzĂŒge, wie höhere Leistung oder erhöhte Energieeffizienz, bieten.
Gleichzeitig sind diese jedoch aufwendiger und komplexer in der Nutzung, da die verschiedenen Prozessoren sich in Architektur und Programmiermodel unterscheiden.
Diese HeterogenitÀt wird oft durch Abstraktion angegangen, aber bisherige AnsÀtze sind hÀufig nicht universal anwendbar oder bringen EinschrÀnkungen mit sich.
Diese Systeme werden zusĂ€tzlich anfĂ€lliger fĂŒr Fehler und AusfĂ€lle, da ihre GröĂe und KomplexitĂ€t zunimmt.
Entwickler sind daher neben traditionellen Aspekten, wie Leistung und Bedienbarkeit, zunehmend an WiderstandfĂ€higkeit gegenĂŒber Fehlern und AusfĂ€llen interessiert.
Obwohl Fehlertoleranz im Allgemeinen gut untersucht ist, wird diese in der verteilten Visualisierung oft ignoriert oder nicht auf die speziellen UmstÀnde dieses Feldes angepasst.
Analyse und Optimierung dieser Systeme und ihrer Software ist notwendig, um deren Zustand einzuschÀtzen und ihre Leistung zu verbessern.
Die verfĂŒgbaren Werkzeuge und Methoden, um die erforderlichen Informationen zu sammeln und auszuwerten, sind oft vom Kontext entkoppelt oder nicht fĂŒr interaktive Szenarien ausgelegt.
Diese Probleme sind in heterogenen Rechenumgebungen verstĂ€rkt, da dort mehr Daten fĂŒr die Analyse verfĂŒgbar und notwendig sind.
FĂŒr verteilte Visualisierung ist zusĂ€tzlich RĂŒckmeldung in Echtzeit notwendig, um Interaktionen der Benutzer mit Leistungscharakteristika zu korrelieren und um die GĂŒltigkeit und Korrektheit der Daten und ihrer Visualisierung zu entscheiden.
Diese Dissertation prĂ€sentiert BeitrĂ€ge fĂŒr all diese Aspekte.
ZunÀchst werden zwei AnsÀtze zur Abstraktion im Kontext von generischen Berechnungen auf Grafikprozessoren und Visualisierung in heterogenen Umgebungen untersucht.
Der erste Ansatz verbirgt Details verschiedener Prozessoren und ermöglicht deren Nutzung ĂŒber einheitliche Schnittstellen.
Der zweite Ansatz verwendet pro-Pixel verkettete Listen (per-pixel linked lists) zur Kombination von Pixelfarben und zur Vereinfachung von ordnungsunabhÀngiger Transparenz in verteilter Visualisierung.
Ăbliche Fehlertoleranz-Methoden im Hochleistungsrechnen werden im Kontext der verteilten Visualisierung diskutiert.
Auf dieser Grundlage werden Strategien fĂŒr fehlertolerante verteilte Visualisierung abgeleitet und in einer Taxonomie organisiert.
Beispielhafte Umsetzungen dieser Strategien, ihre Kompromisse und ZugestÀndnisse, und die daraus resultierenden Implikationen werden diskutiert.
Zur Analyse werden lokale Exploration von Graphen und die Optimierung von Volumenvisualisierung untersucht.
Herausforderungen in dichten Graphen wie visuelle Ăberladung, AmbiguitĂ€t und Einbindung zusĂ€tzlicher Attribute werden in Knoten-Kanten Diagrammen mit einer Linsenmetapher sowie ergĂ€nzenden Ansichten der Daten angegangen.
Ein explorativer Ansatz zur Leistungsanalyse und Optimierung paralleler Volumenvisualisierung auf einer groĂen, hochaufgelösten Anzeige wird untersucht.
Diese Dissertation betrachtet zum ersten Mal Fragen der verteilten Visualisierung auf groĂen Anzeigen und heterogenen Rechenumgebungen in einem gröĂeren Kontext.
WĂ€hrend jeder vorgestellte Ansatz individuelle Herausforderungen löst und erfolgreich in diesem Zusammenhang eingesetzt wurde, bilden alle gemeinsam eine solide Basis fĂŒr kĂŒnftige Forschung in diesem jungen Feld.
In ihrer Gesamtheit prĂ€sentiert diese Dissertation Bausteine fĂŒr robuste verteilte Visualisierung auf aktuellen und kĂŒnftigen heterogenen Visualisierungsumgebungen
Explorative coastal oceanographic visual analytics : oceans of data
The widely acknowledged challenge to data analysis and understanding, resulting from the exponential increase in volumes of data generated by increasingly complex modelling and sampling systems, is a problem experienced by many researchers, including ocean scientists. The thesis explores a visualization and visual
analytics solution for predictive studies of coastal shelf and estuarine modelled, hydrodynamics undertaken to understand sea level rise, as a contribution to wider
climate change studies, and to underpin coastal zone planning, flood prevention and extreme event management.
But these studies are complex and require numerous simulations of estuarine hydrodynamics, generating extremely large datasets of multi-field data. This type\ud
of data is acknowledged as difficult to visualize and analyse, as its numerous attributes
present significant computational challenges, and ideally require a wide range of approaches to provide the necessary insight. These challenges are not easily
overcome with the current visualization and analysis methodologies employed by coastal shelf hydrodynamic researchers, who use several software systems to
generate graphs, each taking considerable time to operate, thus it is difficult to explore different scenarios and explore the data interactively and visually.
The thesis, therefore, develops novel visualization and visual analytics techniques to help researchers overcome the limitations of existing methods (for example
in understanding key tidal components); analyse data in a timely manner and explore different scenarios. There were a number of challenges to this: the size
of the data, resulting in lengthy computing time, also many data values becoming plotted on one pixel (overplotting).
The thesis presents: (1) a new visualization framework (VINCA) using caching and hierarchical aggregation techniques to make the data more interactive, plus explorative, coordinated multiple views, to enable the scientists to explore the data. (2)
A novel estuarine transect profiler and flux tool, which provides instantaneous flux calculations across an estuary. Measures of flux are of great significance in oceanographic
studies, yet are notoriously difficult and time consuming to calculate with the commonly used tools. This derived data is added back into the database for further
investigation and analysis. (3) New views, including a novel, dynamic, spatially aggregated Parallel Coordinate Plots (Sa-PCP), are developed to provide different
perspectives of the spatial, time dependent data, also methodologies for developing high-quality (journal ready) output from the visualization tool. Finally, (4) the
dissertation explored the use of hierarchical data-structures and caching techniques to enable fast analysis on a desktop computer and to overcome the overplotting challenge for this data