4 research outputs found

    Visual analytics methods for shape analysis of biomedical images exemplified on rodent skull morphology

    Get PDF
    In morphometrics and its application fields like medicine and biology experts are interested in causal relations of variation in organismic shape to phylogenetic, ecological, geographical, epidemiological or disease factors - or put more succinctly by Fred L. Bookstein, morphometrics is "the study of covariances of biological form". In order to reveal causes for shape variability, targeted statistical analysis correlating shape features against external and internal factors is necessary but due to the complexity of the problem often not feasible in an automated way. Therefore, a visual analytics approach is proposed in this thesis that couples interactive visualizations with automated statistical analyses in order to stimulate generation and qualitative assessment of hypotheses on relevant shape features and their potentially affecting factors. To this end long established morphometric techniques are combined with recent shape modeling approaches from geometry processing and medical imaging, leading to novel visual analytics methods for shape analysis. When used in concert these methods facilitate targeted analysis of characteristic shape differences between groups, co-variation between different structures on the same anatomy and correlation of shape to extrinsic attributes. Here a special focus is put on accurate modeling and interactive rendering of image deformations at high spatial resolution, because that allows for faithful representation and communication of diminutive shape features, large shape differences and volumetric structures. The utility of the presented methods is demonstrated in case studies conducted together with a collaborating morphometrics expert. As exemplary model structure serves the rodent skull and its mandible that are assessed via computed tomography scans

    Feature centric volume visualization

    No full text
    Zsfassung in dt. SpracheDiese Arbeit beschäftigt sich mit Algorithmen und Techniken zur effektiven Exploration von volumetrischen Daten. Die Visualisierungstechniken sind mit dem Fokus auf benutzerdefinierte Merkmale entwickelt worden. Die vorgestellten Techniken sind in vier Kapitel eingeteilt: Feature Peeling, Berechnung und Darstellung von Produktionsfehlern, lokal adaptives Marching Cubes Verfahren, und vergleichende Visualisierung für Parameterstudien von Datensatzreihen.Feature Peeling ist ein neuer Darstellungsalgorithmus, der auf der Analyse von Sichtstrahlprofilen basiert. Die Strahlenprofile werden bei sogenannten Übergangspunkten also bei Hochpunkten und Tiefpunkten unterteilt. Die Empfindlichkeit dieser Übergangspunkte wird mittels zweier Schwellwerte kalibriert. Der Steigungsschwellwert basiert auf der Länge des Vektors, der einen Tiefpunkt und den darauffolgenden Hochpunkt verbindet. Der Peeling-Schwellwert bestimmt die Tiefe des Übergangspunktes im Verhältnis zu den Übergangspunkten der benachbarten Sichtstrahlen. Durch diese Technik kann ein Datensatz in eine Reihe von Merkmalsebenen zerlegt werden.Produktionsfehler sind für die Qualitätskontrolle bei der Erstinspektion einer industriellen Komponente von primärer Wichtigkeit. In dieser Arbeit werden Techniken zum direkten Vergleich eines CAD-Modells mit einem 3D Röntgen Computertomographie-Scan präsentiert. Informationen aus dem CAD-Modell werden verwendet, um korrespondierende Punkte im Volumen zu identifizieren.Anschließend werden verschiedene Vergleichsmetriken ausgewertet, um Unterschiede (Produktionsfehler) zwischen dem CAD-Modell und dem Volumen zu messen.Die Metriken können entweder global (geometry-driven) oder lokal (visual-driven) ausgewertet und angezeigt werden.Der lokal adaptive Marching Cubes Algorithmus ist eine Modifikation des ursprünglichen Marching Cubes Verfahrens, bei dem anstatt eines globalen Isowertes ein Isowert pro Voxel verwendet wird. Das dadurch definierte Isowertfeld modifiziert den Klassifikationsschritt des ursprünglichen Algorithmus. Das Isowertfeld ermöglicht die Korrektur von systematischen Messabweichungen im Datensatz, wie zum Beispiel Rauschen mit niedriger Frequenz, Kontrastverschiebungen, lokale Dichteveränderungen, etc.Außerdem kann der Algorithmus verwendet werden, um verschiedene Isoflächen (z.B. Haut und Knochen in einem medizinischen Datensatz) miteinander zu verschmelzen.Für den speziellen Anwendungsbereich der 3D Messung mittels industriellem Röntgen Computertomographen werden im Rahmen dieser Arbeit vergleichende Visualisierungstechniken vorgeschlagen. Durch das wiederholte Abtasten eines Messkörpers mit veränderten Messparametern wird eine Datensatzreihe erzeugt.Im Rahmen dieser Arbeit wurde ein Visualisierungssystem entwickelt, das sich der planaren Reformattierung bedient. Dieses System kann verwendet werden um eine hoch aufgelöste Datensatzreihe zu explorieren. Eine Mehrbildansicht und ein Werkzeng zur Kanteninspektion werden zur Verfügung gestellt, um mehrere Datensätze gleichzeitig miteinander vergleichen zu können. Die Datensätze sind in Blöcke unterteilt, um mit effizienten Datenstrukturen schnell auf die Volumendaten zugreifen zu können und eine hohe Benutzerfreundlichkeit zu gewährleisten.This thesis presents techniques and algorithms for the effective exploration of volumetric datasets. The visualization techniques are designed to focus on user specified features of interest. The proposed techniques are grouped into four chapters namely feature peeling, computation and visualization of fabrication artifacts, locally adaptive marching cubes, and comparative visualization for parameter studies of dataset series. The presented methods enable the user to efficiently explore the volumetric dataset for features of interest.Feature peeling is a novel rendering algorithm that analyzes ray profiles along lines of sight. The profiles are subdivided according to encountered peaks and valleys at so called transition points. The sensitivity of these transition points is calibrated via two thresholds. The slope threshold is based on the magnitude of a peak following a valley, while the peeling threshold measures the depth of the transition point relative to the neighboring rays. This technique separates the dataset into a number of feature layers.Fabrication artifacts are of prime importance for quality control engineers for first part inspection of industrial components. Techniques are presented in this thesis to measure fabrication artifacts through direct comparison of a reference CAD model with the corresponding industrial 3D X-ray computed tomography volume.Information from the CAD model is used to locate corresponding points in the volume data. Then various comparison metrics are computed to measure differences (fabrication artifacts) between the CAD model and the volumetric dataset. The comparison metrics are classified as either geometry-driven comparison techniques or visual-driven comparison techniques.The locally adaptive marching cubes algorithm is a modification of the marching cubes algorithm where instead of a global iso-value, each grid point has its own iso-value. This defines an iso-value field, which modifies the case identification process in the algorithm. An iso-value field enables the algorithm to correct biases within the dataset like low frequency noise, contrast drifts, local density variations, and other artifacts introduced by the measurement process. It can also be used for blending between different iso-surfaces (e.g., skin, and bone in a medical dataset).Comparative visualization techniques are proposed to carry out parameter studies for the special application area of dimensional measurement using industrial 3D X-ray computed tomography. A dataset series is generated by scanning a specimen multiple times by varying parameters of the scanning device. A high resolution series is explored using a planar reformatting based visualization system. A multi-image view and an edge explorer are proposed for comparing and visualizing gray values and edges of several datasets simultaneously. For fast data retrieval and convenient usability the datasets are bricked and efficient data structures are used.10
    corecore