5 research outputs found
Visuelle Analyse großer Partikeldaten
Partikelsimulationen sind eine bewährte und weit verbreitete numerische Methode in der Forschung und Technik. Beispielsweise werden Partikelsimulationen zur Erforschung der Kraftstoffzerstäubung in Flugzeugturbinen eingesetzt. Auch die Entstehung des Universums wird durch die Simulation von dunkler Materiepartikeln untersucht. Die hierbei produzierten Datenmengen sind immens. So enthalten aktuelle Simulationen Billionen von Partikeln, die sich über die Zeit bewegen und miteinander interagieren. Die Visualisierung bietet ein großes Potenzial zur Exploration, Validation und Analyse wissenschaftlicher Datensätze sowie der zugrundeliegenden
Modelle. Allerdings liegt der Fokus meist auf strukturierten Daten mit einer regulären Topologie. Im Gegensatz hierzu bewegen sich Partikel frei durch Raum und Zeit. Diese Betrachtungsweise ist aus der Physik als das lagrange Bezugssystem bekannt. Zwar können Partikel aus dem lagrangen in ein reguläres eulersches Bezugssystem, wie beispielsweise in ein uniformes Gitter, konvertiert werden. Dies ist bei einer großen Menge an Partikeln jedoch mit einem erheblichen Aufwand verbunden. Darüber hinaus führt diese Konversion meist zu einem Verlust der Präzision bei gleichzeitig erhöhtem Speicherverbrauch. Im Rahmen dieser Dissertation werde ich neue Visualisierungstechniken erforschen, welche speziell auf der lagrangen Sichtweise basieren. Diese ermöglichen eine effiziente und effektive visuelle Analyse großer Partikeldaten
Scalable exploration of 3D massive models
Programa Oficial de Doutoramento en Tecnoloxías da Información e as Comunicacións. 5032V01[Resumo] Esta tese presenta unha serie técnicas escalables que avanzan o estado da arte da creación e exploración de grandes modelos tridimensionaies. No ámbito da xeración
destes modelos, preséntanse métodos para mellorar a adquisición e procesado de
escenas reais, grazas a unha implementación eficiente dun sistema out- of- core de
xestión de nubes de puntos, e unha nova metodoloxía escalable de fusión de datos
de xeometría e cor para adquisicións con oclusións. No ámbito da visualización de
grandes conxuntos de datos, que é o núcleo principal desta tese, preséntanse dous
novos métodos. O primeiro é unha técnica adaptabile out-of-core que aproveita o
hardware de rasterización da GPU e as occlusion queries para crear lotes coherentes
de traballo, que serán procesados por kernels de trazado de raios codificados en
shaders, permitindo out-of-core ray-tracing con sombreado e iluminación global. O segundo
é un método de compresión agresivo que aproveita a redundancia xeométrica
que se adoita atopar en grandes modelos 3D para comprimir os datos de forma
que caiban, nun formato totalmente renderizable, na memoria da GPU. O método
está deseñado para representacións voxelizadas de escenas 3D, que son amplamente
utilizadas para diversos cálculos como para acelerar as consultas de visibilidade na
GPU. A compresión lógrase fusionando subárbores idénticas a través dunha transformación
de similitude, e aproveitando a distribución non homoxénea de referencias
a nodos compartidos para almacenar punteiros aos nodos fillo, e utilizando unha
codificación de bits variable. A capacidade e o rendemento de todos os métodos
avalíanse utilizando diversos casos de uso do mundo real de diversos ámbitos e
sectores, incluídos o patrimonio cultural, a enxeñería e os videoxogos.[Resumen] En esta tesis se presentan una serie técnicas escalables que avanzan el estado del arte de la creación y exploración de grandes modelos tridimensionales. En el ámbito de
la generación de estos modelos, se presentan métodos para mejorar la adquisición y
procesado de escenas reales, gracias a una implementación eficiente de un sistema
out-of-core de gestión de nubes de puntos, y una nueva metodología escalable de
fusión de datos de geometría y color para adquisiciones con oclusiones. Para la
visualización de grandes conjuntos de datos, que constituye el núcleo principal de
esta tesis, se presentan dos nuevos métodos. El primero de ellos es una técnica
adaptable out-of-core que aprovecha el hardware de rasterización de la GPU y las
occlusion queries, para crear lotes coherentes de trabajo, que serán procesados por
kernels de trazado de rayos codificados en shaders, permitiendo renders out-of-core
avanzados con sombreado e iluminación global. El segundo es un método de compresión
agresivo, que aprovecha la redundancia geométrica que se suele encontrar en
grandes modelos 3D para comprimir los datos de forma que quepan, en un formato
totalmente renderizable, en la memoria de la GPU. El método está diseñado para
representaciones voxelizadas de escenas 3D, que son ampliamente utilizadas para
diversos cálculos como la aceleración las consultas de visibilidad en la GPU o el
trazado de sombras. La compresión se logra fusionando subárboles idénticos a través
de una transformación de similitud, y aprovechando la distribución no homogénea de
referencias a nodos compartidos para almacenar punteros a los nodos hijo, utilizando
una codificación de bits variable. La capacidad y el rendimiento de todos los métodos
se evalúan utilizando diversos casos de uso del mundo real de diversos ámbitos y
sectores, incluidos el patrimonio cultural, la ingeniería y los videojuegos.[Abstract] This thesis introduces scalable techniques that advance the state-of-the-art in massive model creation and exploration. Concerning model creation, we present methods for improving reality-based scene acquisition and processing, introducing an efficient
implementation of scalable out-of-core point clouds and a data-fusion approach for
creating detailed colored models from cluttered scene acquisitions. The core of this
thesis concerns enabling technology for the exploration of general large datasets.
Two novel solutions are introduced. The first is an adaptive out-of-core technique
exploiting the GPU rasterization pipeline and hardware occlusion queries in order
to create coherent batches of work for localized shader-based ray tracing kernels,
opening the door to out-of-core ray tracing with shadowing and global illumination.
The second is an aggressive compression method that exploits redundancy in large
models to compress data so that it fits, in fully renderable format, in GPU memory.
The method is targeted to voxelized representations of 3D scenes, which are widely
used to accelerate visibility queries on the GPU. Compression is achieved by merging
subtrees that are identical through a similarity transform and by exploiting the skewed
distribution of references to shared nodes to store child pointers using a variable bitrate
encoding The capability and performance of all methods are evaluated on many
very massive real-world scenes from several domains, including cultural heritage,
engineering, and gaming