11 research outputs found

    Improving Efficiency for CUDA-based Volume Rendering by Combining Segmentation and Modified Sampling Strategies

    Get PDF
    The objective of this paper is to present a speed-up method to improve the rendering speed of ray casting at the same time obtaining high-quality images. Ray casting is the most commonly used volume rendering algorithm, and suitable for parallel processing. In order to improve the efficiency of parallel processing, the latest platform-Compute Unified Device Architecture (CUDA) is used. The speed-up method uses improved workload allocation and sampling strategies according to CUDA features. To implement this method, the optimal number of segments of each ray is dynamically selected based on the change of the corresponding visual angle, and each segment is processed by a distinct thread processor. In addition, for each segment, we apply different sampling quantity and density according to the distance weight. Rendering speed results show that our method achieves an average 70% improvement in terms of speed, and even 145% increase in some special cases, compared to conventional ray casting on Graphics Processing Unit (GPU). Speed-up ratio shows that this method can effectively improve the factors that influence efficiency of rendering. Excellent rendering performance makes this method contribute to real-time 3-D reconstruction

    Atomic detail visualization of photosynthetic membranes with GPU-accelerated ray tracing

    Get PDF
    The cellular process responsible for providing energy for most life on Earth, namely, photosynthetic light-harvesting, requires the cooperation of hundreds of proteins across an organelle, involving length and time scales spanning several orders of magnitude over quantum and classical regimes. Simulation and visualization of this fundamental energy conversion process pose many unique methodological and computational challenges. We present, in two accompanying movies, light-harvesting in the photosynthetic apparatus found in purple bacteria, the so-called chromatophore. The movies are the culmination of three decades of modeling efforts, featuring the collaboration of theoretical, experimental, and computational scientists. We describe the techniques that were used to build, simulate, analyze, and visualize the structures shown in the movies, and we highlight cases where scientific needs spurred the development of new parallel algorithms that efficiently harness GPU accelerators and petascale computers

    Interactive GPU-based generation of solvent-excluded surfaces

    Get PDF
    The solvent-excluded surface (SES) is a popular molecular representation that gives the boundary of the molecular volume with respect to a specific solvent. SESs depict which areas of a molecule are accessible by a specific solvent, which is represented as a spherical probe. Despite the popularity of SESs, their generation is still a compute-intensive process, which is often performed in a preprocessing stage prior to the actual rendering (except for small models). For dynamic data or varying probe radii, however, such a preprocessing is not feasible as it prevents interactive visual analysis. Thus, we present a novel approach for the on-the-fly generation of SESs, a highly parallelizable, grid-based algorithm where the SES is rendered using ray-marching. By exploiting modern GPUs, we are able to rapidly generate SESs directly within the mapping stage of the visualization pipeline. Our algorithm can be applied to large time-varying molecules and is scalable, as it can progressively refine the SES if GPU capabilities are insufficient. In this paper, we show how our algorithm is realized and how smooth transitions are achieved during progressive refinement. We further show visual results obtained from real-world data and discuss the performance obtained, which improves upon previous techniques in both the size of the molecules that can be handled and the resulting frame rate.Peer ReviewedPostprint (author's final draft

    Cross-reactivity of Haemophilus influenzae type a and b polysaccharides: molecular modeling and conjugate immunogenicity studies.

    Get PDF
    Haemophilus influenzae is a leading cause of meningitis disease and mortality, particularly in young children. Since the introduction of a licensed conjugate vaccine (targeting the outer capsular polysaccharide) against the most prevalent serotype, Haemophilus influenzae serotype b, the epidemiology of the disease has changed and Haemophilus influenzae serotype a is on the rise, especially in Indigenous North American populations. Here we apply molecular modeling to explore the preferred conformations of the serotype a and b capsular polysaccharides as well as a modified hydrolysis resistant serotype b polysaccharide. Although both serotype b and the modified serotype b have similar random coil behavior, our simulations reveal some differences in the polysaccharide conformations and surfaces which may impact antibody cross-reactivity between these two antigens. Importantly, we find significant conformational differences between the serotype a and b polysaccharides, indicating a potential lack of cross-reactivity that is corroborated by immunological data showing little recognition or killing between heterologous serotypes. These findings support the current development of a serotype a conjugate vaccine

    Mechanism of lignin inhibition of enzymatic biomass deconstruction

    Get PDF
    Background The conversion of plant biomass to ethanol via enzymatic cellulose hydrolysis offers a potentially sustainable route to biofuel production. However, the inhibition of enzymatic activity in pretreated biomass by lignin severely limits the efficiency of this process. Results By performing atomic-detail molecular dynamics simulation of a biomass model containing cellulose, lignin, and cellulases (TrCel7A), we elucidate detailed lignin inhibition mechanisms. We find that lignin binds preferentially both to the elements of cellulose to which the cellulases also preferentially bind (the hydrophobic faces) and also to the specific residues on the cellulose-binding module of the cellulase that are critical for cellulose binding of TrCel7A (Y466, Y492, and Y493). Conclusions Lignin thus binds exactly where for industrial purposes it is least desired, providing a simple explanation of why hydrolysis yields increase with lignin removal

    Continuum Mechanical Parameterisation of Cytoplasmic Dynein from Atomistic Simulation

    Get PDF
    Cytoplasmic dynein is responsible for intra-cellular transport in eukaryotic cells. Using Fluctuating Finite Element Analysis (FFEA), a novel algorithm that represents proteins as continuum viscoelastic solids subject to thermal noise, we are building computational tools to study the mechanics of these molecular machines. Here we present a methodology for obtaining the material parameters required to represent the flexibility of cytoplasmic dynein within FFEA from atomistic molecular dynamics (MD) simulations, and show this continuum representation is sufficient to capture the principal dynamic properties of the motor

    Animated surfaces in physically-based simulation

    Get PDF
    Physics-based animation has become a ubiquitous element in all application areas of computer animation, especially in the entertainment sector. Animation and feature films, video games, and advertisement contain visual effects using physically-based simulation that blend in seamlessly with animated or live-action productions. When simulating deformable materials and fluids, especially liquids, objects are usually represented by animated surfaces. The visual quality of these surfaces not only depends on the actual properties of the surface itself but also on its generation and relation to the underlying simulation. This thesis focuses on surfaces of cloth simulations and fluid simulations based on Smoothed Particle Hydrodynamics (SPH), and contributes to improving the creation of animations by specifying surface shapes, modeling contact of surfaces, and evaluating surface effects of fluids. In many applications, there is a reference given for a surface animation in terms of its shape. Matching a given reference with a simulation is a challenging task and similarity is often determined by visual inspection. The first part of this thesis presents a signature for cloth animations that captures characteristic shapes and their temporal evolution. It combines geometric features with physical properties to represent accurately the typical deformation behavior. The signature enables calculating similarities between animations and is applied to retrieve cloth animations from collections by example. Interactions between particle-based fluids and deformable objects are usually modeled by sampling the deformable objects with particles. When interacting with cloth, however, this would require resampling the surface at large planar deformations and the thickness of cloth would be bound to the particle size. This problem is addressed in this thesis by presenting a two-way coupling technique for cloth and fluids based on the simulation mesh of the textile. It allows robust contact handling and intuitive control of boundary conditions. Further, a solution for intersection-free fluid surface reconstruction at contact with thin flexible objects is presented. The visual quality of particle-based fluid animation highly depends on the properties of the reconstructed surface. An important aspect of the reconstruction method is that it accurately represents the underlying simulation. This thesis presents an evaluation of surfaces at interfaces of SPH simulations incorporating the connection to the simulation model. A typical approach in computer graphics is compared to surface reconstruction used in material sciences. The behavior of free surfaces in fluid animations is highly influenced by surface tension. This thesis presents an evaluation of three types of surface tension models in combination with different pressure force models for SPH to identify the individual characteristics of these models. Systematic tests using a set of benchmark scenes are performed to reveal strengths and weaknesses, and possible areas of applications.Physikalisch basierte Animationen sind ein allgegenwärtiger Teil in jeglichen Anwendungsbereichen der Computeranimation, insbesondere dem Unterhaltungssektor. Animations- und Spielfilme, Videospiele und Werbung enthalten visuelle Effekte unter Verwendung von physikalisch basierter Simulation, die sich nahtlos in Animations- oder Realfilme einfügen. Bei der Simulation von deformierbaren Materialien und Fluiden, insbesondere Flüssigkeiten, werden die Objekte gewöhnlich durch animierte Oberflächen dargestellt. Die visuelle Qualität dieser Oberflächen hängt nicht nur von den Eigenschaften der Fläche selbst ab, sondern auch von deren Erstellung und der Verbindung zu der zugrundeliegenden Simulation. Diese Dissertation widmet sich Oberflächen von Textil- und Fluidsimulationen mit der Methode der Smoothed Particle Hydrodynamics (SPH) und leistet einen Beitrag zur Verbesserung der Erstellung von Animationen durch die Beschreibung von Oberflächenformen, der Modellierung von Kontakt von Oberflächen und der Evaluierung von Oberflächeneffekten von Fluiden. In vielen Anwendungen gibt es eine Referenz für eine Oberflächenanimation, die ihre Form beschreibt. Das Abgleichen einer Referenz mit einer Simulation ist eine große Herausforderung und die Ähnlichkeit wird häufig visuell überprüft. Im ersten Teil der Dissertation wird eine Signatur für Textilanimationen vorgestellt, die charakteristische Formen und ihre zeitliche Veränderung erfasst. Sie ist eine Kombination aus geometrischen Merkmalen und physikalischen Eigenschaften, um das typische Deformationsverhalten genau zu repräsentieren. Die Signatur erlaubt es, Ähnlichkeiten zwischen Animationen zu berechnen, und wird angewendet, um Textilanimationen aus Kollektionen anhand eines Beispiels aufzufinden. Interaktionen zwischen partikelbasierten Fluiden und deformierbaren Objekten werden gewöhnlich durch das Abtasten des deformierbaren Objekts mit Partikeln modelliert. Bei der Interaktion mit Textilien würde dies jedoch ein neues Abtasten bei großen planaren Deformation erfordern und die Stärke des Textils wäre an die Partikelgröße gebunden. Mit diesem Problem befasst sich diese Dissertation und stellt eine Technik für die wechselseitige Kopplung zwischen Textilien und Fluiden vor, die auf dem Simulationsnetz des Textils beruht. Diese erlaubt eine robuste Kontaktbehandlung und intuitive Kontrolle von Randbedingungen. Des Weiteren wird ein Lösungsansatz für eine durchdringungsfreie Oberflächenrekonstruktion beim Kontakt mit dünnen flexiblen Objekten präsentiert. Die visuelle Qualität von partikelbasierten Fluidanimationen hängt stark von den Eigenschaften der rekonstruierten Oberfläche ab. Wichtig bei Rekonstruktionsmethoden ist, dass sie die zugrundeliegende Simulation genau repräsentieren. Die Dissertation präsentiert eine Evaluierung von Oberflächen an Grenzflächen, die den Zusammenhang zum Simulationsmodell miteinbezieht. Ein typischer Ansatz aus der Computergrafik wird mit der Oberflächenrekonstruktion in der Werkstoffkunde verglichen. Das Verhalten von freien Oberflächen in Fluidanimationen wird stark von der Oberflächenspannung beeinflusst. In dieser Dissertation wird eine Evaluierung von drei Oberflächenspannungsmodellen in Kombination mit verschiedenen Druckmodellen für SPH präsentiert, um die Charakteristika der jeweiligen Modelle zu identifizieren. Es werden systematische Tests mit Hilfe von Benchmark-Tests durchgeführt, um Stärken, Schwächen und mögliche Anwendungsbereiche deutlich zu machen

    Visualization challenges in distributed heterogeneous computing environments

    Get PDF
    Large-scale computing environments are important for many aspects of modern life. They drive scientific research in biology and physics, facilitate industrial rapid prototyping, and provide information relevant to everyday life such as weather forecasts. Their computational power grows steadily to provide faster response times and to satisfy the demand for higher complexity in simulation models as well as more details and higher resolutions in visualizations. For some years now, the prevailing trend for these large systems is the utilization of additional processors, like graphics processing units. These heterogeneous systems, that employ more than one kind of processor, are becoming increasingly widespread since they provide many benefits, like higher performance or increased energy efficiency. At the same time, they are more challenging and complex to use because the various processing units differ in their architecture and programming model. This heterogeneity is often addressed by abstraction but existing approaches often entail restrictions or are not universally applicable. As these systems also grow in size and complexity, they become more prone to errors and failures. Therefore, developers and users become more interested in resilience besides traditional aspects, like performance and usability. While fault tolerance is well researched in general, it is mostly dismissed in distributed visualization or not adapted to its special requirements. Finally, analysis and tuning of these systems and their software is required to assess their status and to improve their performance. The available tools and methods to capture and evaluate the necessary information are often isolated from the context or not designed for interactive use cases. These problems are amplified in heterogeneous computing environments, since more data is available and required for the analysis. Additionally, real-time feedback is required in distributed visualization to correlate user interactions to performance characteristics and to decide on the validity and correctness of the data and its visualization. This thesis presents contributions to all of these aspects. Two approaches to abstraction are explored for general purpose computing on graphics processing units and visualization in heterogeneous computing environments. The first approach hides details of different processing units and allows using them in a unified manner. The second approach employs per-pixel linked lists as a generic framework for compositing and simplifying order-independent transparency for distributed visualization. Traditional methods for fault tolerance in high performance computing systems are discussed in the context of distributed visualization. On this basis, strategies for fault-tolerant distributed visualization are derived and organized in a taxonomy. Example implementations of these strategies, their trade-offs, and resulting implications are discussed. For analysis, local graph exploration and tuning of volume visualization are evaluated. Challenges in dense graphs like visual clutter, ambiguity, and inclusion of additional attributes are tackled in node-link diagrams using a lens metaphor as well as supplementary views. An exploratory approach for performance analysis and tuning of parallel volume visualization on a large, high-resolution display is evaluated. This thesis takes a broader look at the issues of distributed visualization on large displays and heterogeneous computing environments for the first time. While the presented approaches all solve individual challenges and are successfully employed in this context, their joint utility form a solid basis for future research in this young field. In its entirety, this thesis presents building blocks for robust distributed visualization on current and future heterogeneous visualization environments.Große Rechenumgebungen sind für viele Aspekte des modernen Lebens wichtig. Sie treiben wissenschaftliche Forschung in Biologie und Physik, ermöglichen die rasche Entwicklung von Prototypen in der Industrie und stellen wichtige Informationen für das tägliche Leben, beispielsweise Wettervorhersagen, bereit. Ihre Rechenleistung steigt stetig, um Resultate schneller zu berechnen und dem Wunsch nach komplexeren Simulationsmodellen sowie höheren Auflösungen in der Visualisierung nachzukommen. Seit einigen Jahren ist die Nutzung von zusätzlichen Prozessoren, z.B. Grafikprozessoren, der vorherrschende Trend für diese Systeme. Diese heterogenen Systeme, welche mehr als eine Art von Prozessor verwenden, finden zunehmend mehr Verbreitung, da sie viele Vorzüge, wie höhere Leistung oder erhöhte Energieeffizienz, bieten. Gleichzeitig sind diese jedoch aufwendiger und komplexer in der Nutzung, da die verschiedenen Prozessoren sich in Architektur und Programmiermodel unterscheiden. Diese Heterogenität wird oft durch Abstraktion angegangen, aber bisherige Ansätze sind häufig nicht universal anwendbar oder bringen Einschränkungen mit sich. Diese Systeme werden zusätzlich anfälliger für Fehler und Ausfälle, da ihre Größe und Komplexität zunimmt. Entwickler sind daher neben traditionellen Aspekten, wie Leistung und Bedienbarkeit, zunehmend an Widerstandfähigkeit gegenüber Fehlern und Ausfällen interessiert. Obwohl Fehlertoleranz im Allgemeinen gut untersucht ist, wird diese in der verteilten Visualisierung oft ignoriert oder nicht auf die speziellen Umstände dieses Feldes angepasst. Analyse und Optimierung dieser Systeme und ihrer Software ist notwendig, um deren Zustand einzuschätzen und ihre Leistung zu verbessern. Die verfügbaren Werkzeuge und Methoden, um die erforderlichen Informationen zu sammeln und auszuwerten, sind oft vom Kontext entkoppelt oder nicht für interaktive Szenarien ausgelegt. Diese Probleme sind in heterogenen Rechenumgebungen verstärkt, da dort mehr Daten für die Analyse verfügbar und notwendig sind. Für verteilte Visualisierung ist zusätzlich Rückmeldung in Echtzeit notwendig, um Interaktionen der Benutzer mit Leistungscharakteristika zu korrelieren und um die Gültigkeit und Korrektheit der Daten und ihrer Visualisierung zu entscheiden. Diese Dissertation präsentiert Beiträge für all diese Aspekte. Zunächst werden zwei Ansätze zur Abstraktion im Kontext von generischen Berechnungen auf Grafikprozessoren und Visualisierung in heterogenen Umgebungen untersucht. Der erste Ansatz verbirgt Details verschiedener Prozessoren und ermöglicht deren Nutzung über einheitliche Schnittstellen. Der zweite Ansatz verwendet pro-Pixel verkettete Listen (per-pixel linked lists) zur Kombination von Pixelfarben und zur Vereinfachung von ordnungsunabhängiger Transparenz in verteilter Visualisierung. Übliche Fehlertoleranz-Methoden im Hochleistungsrechnen werden im Kontext der verteilten Visualisierung diskutiert. Auf dieser Grundlage werden Strategien für fehlertolerante verteilte Visualisierung abgeleitet und in einer Taxonomie organisiert. Beispielhafte Umsetzungen dieser Strategien, ihre Kompromisse und Zugeständnisse, und die daraus resultierenden Implikationen werden diskutiert. Zur Analyse werden lokale Exploration von Graphen und die Optimierung von Volumenvisualisierung untersucht. Herausforderungen in dichten Graphen wie visuelle Überladung, Ambiguität und Einbindung zusätzlicher Attribute werden in Knoten-Kanten Diagrammen mit einer Linsenmetapher sowie ergänzenden Ansichten der Daten angegangen. Ein explorativer Ansatz zur Leistungsanalyse und Optimierung paralleler Volumenvisualisierung auf einer großen, hochaufgelösten Anzeige wird untersucht. Diese Dissertation betrachtet zum ersten Mal Fragen der verteilten Visualisierung auf großen Anzeigen und heterogenen Rechenumgebungen in einem größeren Kontext. Während jeder vorgestellte Ansatz individuelle Herausforderungen löst und erfolgreich in diesem Zusammenhang eingesetzt wurde, bilden alle gemeinsam eine solide Basis für künftige Forschung in diesem jungen Feld. In ihrer Gesamtheit präsentiert diese Dissertation Bausteine für robuste verteilte Visualisierung auf aktuellen und künftigen heterogenen Visualisierungsumgebungen
    corecore