16 research outputs found

    A Framework for the Automatic Analysis and Interactive Exploration of Document Aesthetics. Technical Report April 21, 2016

    Get PDF
    Modern word processing software and typesetting systems such as TeX enable the quick creation of documents of various kinds. Although the quality of the software packages varies, all can produce aesthetically pleasing documents in terms of layout and type setting. Problems typically originate from the large number of parameters which are exposed to the user. These range from simple settings like typeface, font size and column width to more elaborate ones, such as kerning and leading. Most often default values are modified without grasping the consequences for readability and aesthetic appeal of the resulting document.In this paper, we present a system for interactive visualization and exploration of quantifiable aspects of document aesthetics such as alignment, spacing, gray values, but also of image color harmony. This system also allows for comparative analysis of multiple documents and document versions side-by-side. The documents are rated using an extensible and parameterizable plug-in system allowing the user to define a task-specific processing pipeline interactively. The rating is hierarchically organized such that the user can drill down into the different aspects that influence the final score. Our system takes standard document formats such as Adobe PDF or Microsoft XPS as input. Our system serves as a platform for further research on document aesthetics as well as a utility to sensibilize authors for these often underestimated aspects of scientific publishing

    Punktbasierte Visualisierung von Molekulardynamikdatensätzen

    No full text
    The analysis and especially the exploration of large data sets from simulations often benefit from visualization. If it is not possible to calculate some well-known characteristic values, or if it is known that spatial features like distributions may play an important role, directly looking at a visual representation of the data becomes a first and important step in the analysis process. This is especially true for scientific work where simulations with novel methods or novel problem scenarios produce data with potentially unknown features and effects. Particle-based simulation methods, like molecular dynamics, smooth particle hydrodynamics, or the discrete element method are prominent examples as these simulation techniques themselves, as well as the scenarios they are applied to, are in the focus of current research of the corresponding application fields, e.g. physics, thermodynamics, biochemistry, material science and engineering. The sizes of the simulation scenarios, and as a consequence the sizes of the resulting data sets, steadily increased during the last years to close the gap between length scales accessible through experiments and length scales reachable by simulations. This is not only because the increased compute power of individual machines or the availability of relatively cheap compute clusters to be used on-site, but also because of significant improvements of the simulation algorithms themselves. Most of the available visualization tools are insufficiently optimized to cope with the data set sizes they have to face nowadays, as they often require the whole data set to be stored in main memory or exclusively use mesh-based rendering methods. For rendering particle-based data sets point-based ray casting has become the state-of-the-art approach and large data sets are typically addressed by different data-streaming and out-of-core techniques. This thesis investigates the performance bottlenecks of secondary storage and the data transfer between main memory and graphics hardware, as well as the impact of different compression techniques using spatial data structures and quantisation of coordinates, to optimize the foundation for such streaming techniques. Point-based ray casting is presented for different kinds of graphical primitives, like spheres, cylinders, compound glyphs, and polyhedral crystallites, extending the applicability of this rendering approach. To optimize the rendering performance the required calculations are reduced to the necessary minimum employing advanced culling techniques, allowing for interactive visualization of data sets with hundreds of millions of particles. A second and probably more important aspect when visualising large particle data sets remains: creating meaningful and useful visualizations. Even a system capable of rendering millions of particles will usually generate images that are prone to aliasing, visual clutter, and other effects hindering good perception and thus the understanding of the presented data. This thesis presents two approaches of advanced shading and lighting to remedy this issue. An image-space method to estimate normal vectors for the structure implicitly formed by the particles addresses the aliasing problem, while the perception of the global structure and depth of the data is enhanced by a specially adapted ambient occlusion technique approximating global illumination. For more efficient visualizations, relevant structures need to be derived from the original particle data. Such consolidated visualizations provide a better overview of the structure of the data sets. However, as they reduce the visual information, such representations must be created with care to be sure not to omit important data or introduce misleading artefacts from the applied methods. This thesis presents several examples, highlighting two aspects: spatial structures and representatives for the dynamics of the data. The examples of the first group range over molecular clusters, i.e. droplets in the context of thermodynamics nucleation simulations, dislocations and stacking faults from material science, and generic surface representations, similar to molecule surface descriptions, known from biochemistry. The dynamics of data are given by examples of the interaction of molecule clusters, the clustering of path lines of water-protein interactions and the tracking of expelled material in laser ablation simulations. To reliably avoid problems, like introducing artefacts or misleading presentations, with derived representations it is important to always involve experts from the corresponding application domain, because only those are able to judge usefulness and correctness of a visualization compared to the original data. Such close collaborations are most fruitful if the application domain expert can also be the actual user of the visualization tools, e.g. allowing to experiment with parameter settings.Die Analyse und im Besonderen die Exploration von großen Simulationsdatensätzen profitieren von Visualisierungen. Wenn es nicht möglich ist bekannte, charakteristische Kenngrößen zu berechnen, oder wenn die Wahrscheinlichkeit besteht, dass räumliche Faktoren eine wichtige Rolle spielen können, dann werden direkte visuelle Repräsentationen der Daten ein erster und wichtiger Schritt des Analyseprozesses. Dies gilt besonders für wissenschaftliche Simulationen, die neue Methoden nutzen oder neue Szenarien untersuchen, welche möglicherweise unbekannten Phänomene enthalten. Partikelbasierte Simulationsmethoden, wie die Molekulardynamik, Smooth-Particle-Hydrodynamik oder die Diskrete-Element-Methode, sind beliebte Beispiele, da sowohl ihre Simulationstechniken, als auch die durch sie untersuchten Szenarien Gegenstand aktueller Forschungen in den entsprechenden Gebieten sind, z. B. in der Physik, der Thermodynamik, Biochemie, den Material- und Ingenieurswissenschaften. Die Größen der Simulationsszenarien, und als Konsequenz die Größen der entstehenden Datensätze, sind in den letzten Jahren stetig gewachsen, um Lücke zwischen den durch reale Experimente und den durch Simulation erreichbaren Längenskalen zu schließen. Dies liegt nicht nur an der erhöhten Rechenleistung einzelner Maschinen oder der höheren Verfügbarkeit relativ billiger Rechencluster, welche vor Ort eingesetzt werden können, sondern auch an den signifikanten Verbesserungen der Simulationsalgorithmen. Die meisten verfügbaren Visualisierungswerkzeuge sind unzureichend optimiert um mit Datensätzen aktueller Größen umgehen zu können, da sie oft den gesamten Datensatz in den Hauptspeicher laden müssen oder ausschließlich dreiecksbasierte Rendering-Methoden einsetzen. Für partikelbasierte Datensätze hat sich Ray-Casting als gängige Methode etabliert und große Datensätze werden üblicherweise durch Streaming- und Out-of-Core-Methoden behandelt. In dieser Doktorarbeit wurden die Performanz-Engpässe beim Datentransfer, sowohl vom Sekundärspeicher, als auch zwischen Hauptspeicher und Graphikhardware untersucht. Auch die Einflüsse unterschiedlicher Kompressionstechniken, basierend auf räumlichen Datenstrukturen und Koordinatenquantisierung, welche die Grundlagen für Streaming-Techniken bilden, wurden geprüft. Punktbasiertes Ray-Casting wurde für unterschiedliche graphische Elemente, wie Kugeln, Zylinder, zusammengesetzte Glyphen und polyedrische Kristallite erweitert. In dem die notwendigen Berechnungen durch fortgeschrittene Culling-Techniken minimiert wurden, wurde die Darstellungsgeschwindigkeit optimiert, dass die interaktive Visualisierung von Datensätzen mit Hunderten von Millionen Partikel möglich wird. Ein zweiter und möglicherweise wichtigerer Aspekt der Visualisierung solch großer Partikeldatensätze bleibt allerdings dadurch unberührt: das Erzeugen ausdrucksstarker und nützlicher Visualisierungen. Selbst wenn ein System in der Lage ist mehrere Millionen Partikel darzustellen, leiden die entstehenden Bilder üblicherweise unter Problemen wie Aliasing und Visual Clutter, welche eine gute Wahrnehmung und das Verständnis der Strukturen der präsentierten Daten erschweren. In dieser Doktorarbeit werden zwei Ansätze für fortschrittliches Shading und Beleuchtungsberechnung präsentiert, um dieses Problem zu lösen. Das Problem des Aliasing wird durch ein Bildraumverfahren angegangen, welches die Normalen-Vektoren für implizit geformte Strukturen schätzt, während die Wahrnehmung der globalen Strukturen und der Tiefenkomplexität der Daten durch ein speziell angepasstes Ambient-Occlusion-Verfahren, welches globale Beleuchtung annähert, verbessert wird. Für effektive und effiziente Visualisierungen müssen wichtige, abgeleitete Strukturen der Daten extrahiert werden. Die so entstehenden, kompakten Visualisierungen vermitteln einen besseren Überblick über in den Daten enthaltene Strukturen. Da hierdurch jedoch die dargestellten Informationen reduziert werden, muss sichergestellt werden, dass keine wichtigen Daten verloren gehen und dass keine verfälschenden, künstlichen Daten durch die Methoden eingeführt werden. Zwei Arten abstrakter Darstellungen werden an mehreren Beispielen in dieser Doktorarbeit beschrieben: die Extraktion räumlicher Strukturen und Darstellungen der Dynamik der Daten. Die Beispiele der ersten Art reichen von Molekülcluster, Tröpfchen im Kontext thermodynamischer Nukleationssimulationen, Versetzungen und Stapelfehler im Kontext der Materialwissenschaften bis zu allgemeinen Oberflächenrepräsentationen, ähnlich den Moleküloberflächen in der Biochemie. Die Dynamik von Daten wird an den Beispielen von Molekülcluster-Interaktionen, dem Clustering von Molekülpfaden bei Wasser-Protein-Interaktionen, und dem Verfolgen ausgestoßenen Materials in Laser-Ablations-Simulationen untersucht und präsentiert

    Loose Capacity-Constrained Representatives for the Qualitative Visual Analysis in Molecular Dynamics

    No full text
    Molecular dynamics is a widely used simulation technique to investigate material properties and structural changes under external forces. The availability of more powerful clusters and algorithms continues to increase the spatial and temporal extents of the simulation domain. This poses a particular challenge for the visualization of the underlying processes which might consist of millions of particles and thousands of time steps. Some application domains have developed special visual metaphors to only represent the relevant information of such data sets but these approaches typically require detailed domain knowledge that might not always be available or applicable. We propose a general technique that replaces the huge amount of simulated particles by a smaller set of representatives that are used for the visualization instead. The representatives capture the characteristics of the underlying particle density and exhibit coherency over time. We introduce loose capacity-constrained Voronoi diagrams for the generation of these representatives by means of a GPU-friendly, parallel algorithm. This way we achieve visualizations that reflect the particle distribution and geometric structure of the original data very faithfully. We evaluate our approach using real-world data sets from the application domains of material science, thermodynamics and dynamical systems theory
    corecore