5 research outputs found

    Hardware and software improvements of volume splatting

    Get PDF
    This paper proposes different hardware-based acceleration of the three classical splatting strategies: emph{composite-every-sample}, emph{object-space sheet-buffer} and emph{image-space sheet-buffer}.Preprin

    Hardware-Assisted Point-Based Volume Rendering of Tetrahedral Meshes

    Get PDF

    Implementierung algorithmischer Optimierungen für Volume-Rendering in Hardware

    Full text link
    Diese Arbeit beschäftigt sich mit der Beschleunigung von Volumenvisualisierung. Bei der Volumenvisualisierung, auch englisch Volume-Rendering genannt, wird versucht, dreidimensionale Datensätze in einem anschaulichen zweidimensionalen Bild darzustellen. Da dies sehr hohe Ansprüche an Rechenleistung und Speicher stellt, ist es für einen interaktiven Umgang mit den Daten, zum Beispiel bei der Rotation eines gezeigten Objektes, notwendig, zur Beschleunigung spezielle Hardware-Systeme zu entwickeln. Es werden zuerst die wichtigsten Algorithmen für die Volumenvisualisierung vorgestellt und bereits existierende Volume-Rendering-Systeme erläutert. Hauptinhalt dieser Arbeit ist die Beschreibung einer neuartigen Architektur für ein Hardware-System zur Echtzeitvisualisierung dreidimensionaler Datensätze mit dem Ray-Casting-Algorithmus. Bei diesem Algorithmus wird von der Bildebene aus, für jeden Bildpunkt ein Sehstrahl durch das Volumen gelegt. Entlang des Strahlverlaufes wird das Volumen in regelmäßigen Abständen abgetastet und für jeden Abtastpunkt eine Reflexion zum Beobachter bestimmt. Auf dem Weg der Reflexionen zum Beobachter wird eine Absorption berücksichtigt und das Restlicht aller Reflexionen aufsummiert. Die Summe entspricht der Helligkeit und Farbe des Bildpunktes. Für diesen Algorithmus existieren zur Beschleunigung Optimierungstechniken, die zur Erzeugung eines Bildes, nur die unbedingt notwendigen Teile des Volumendatensatzes aus dem Hauptspeicher auslesen. Für die Echtzeitvisualisierung großer Datensätze ist deshalb eine Umsetzung der Optimierungstechniken in Hardware unbedingt notwendig. Durch sie wird allerdings ein wahlfreier Zugriff auf den Speicher notwendig und der Bearbeitungsablauf ist nicht mehr deterministisch, weshalb bisher existierende Hardware-System auf deren Umsetzung verzichten haben. In dieser Arbeit wird erstmals ein Verfahren vorgestellt, das diese Optimierungstechniken ohne Verluste in Hardware implementiert. Das Verfahren basiert auf der genauen Abstimmung dreier wesentlicher Teile: 1.Einem Pipeline-Prozessor zur parallelen Abarbeitung eines Teilbildes als Multithreading-Architektur. Multithreading bezieht sich hierbei auf den schnellen Wechsel zwischen parallel abzuarbeitenden Sehstrahlen. Hierdurch werden Verzögerungszeiten überbrückt, die bei der Berechnung der Optimierungstechniken und zwischen Adressierung und Datenauslesen des Volumenspeichers entstehen. 2.Einer optimal angepassten Speicherarchitektur, die in den Speicherbausteinen enthaltene Puffer als schnellen Zwischenspeicher (Cache) verwendet und räumlich benachbarte Volumendaten schneller abrufbar macht. 3.Einer Sortiereinrichtung, die Sehstrahlen bevorzugt bearbeitet, die bereits im Zwischenspeicher liegende Daten verwenden, um zeitraubende Seitenwechsel in den Speichern zu minimieren. Ziel war es, das System auf programmierbaren Logikbausteinen (FPGA) mit externem Hauptspeicher implementierbar zu machen, um es als Beschleunigerkarte in Standard-PCs verwenden zu können. Die Effizienz der Architektur wurde über eine C++-Simulation nachgewiesen, wogegen die Implementierbarkeit durch eine Hardware-nahe VHDL-Simulation mit anschließender Synthese überprüft wurde. Die einzelnen Aspekte der Architektur wurden auf mehreren Konferenzen vorgestellt und in der Zeitschrift IEEE Computer & Graphics veröffentlicht. Weiterhin wurde das Verfahren unter der Nummer WO9960527 beim Deutschen Patent- und Markenamt international angemeldet

    Numerical modelling and visualization of the evolution of extensional fault systems

    Get PDF
    The purpose of this work is split into two categories, the first was to analyse the application of real-time Physics Engine software libraries for use in calculating a geological numerical model. Second was the analysis of the applicability of glyph and implicit surface based visualization techniques to explore fault systems produced by the model. The current state of the art in Physics Engines was explored by redeveloping a Discrete Element Model to be calculated using NVIDIA's PhysX engine. Analyses regarding the suitability of the engine in terms of numerical accuracy and developmental capabilities is given, as well as the definition of a specialised and bespoke parallelisation technique. The use of various glyph based visualizations is explored to define a new standardised taxonomy for geological data and the MetaBall visualization technique was applied to reveal three dimensional fault structures as an implicit surface. Qualitative analysis was undertaken in the form of a user study, comprising of interviews with expert geologists. The processing pipeline used by many Physics Engines was found to be comparable to the design of Discrete Element Model software, however, aspects of their design, such as integration accuracy, limitation to single precision floating point and imposed limits on the scale of n-body problem means their suitability is restricted to specific modelling cases. Glyph and implicit surface based visualization have been shown to be an effective way to present a geological Discrete Element Model, with the majority of experts interviewed able to perceive the fault structures that it contained. Development of a new engine, or modification of one that exists in accordance with the findings of this thesis would result in a library extremely well suited to the problem of rigid-body simulation for the sciences.EThOS - Electronic Theses Online ServiceNERCGBUnited Kingdo

    Vol.8,No.3:1—21 Efficient Splatting Using Modern Graphics Hardware

    No full text
    Abstract. Interactive volume rendering for data set sizes larger than one million samples requires either dedicated hardware, such as three-dimensional texture mapping, or a sparse representation and rendering algorithm. Consumer graphics cards have seen a rapid explosion of performance and capabilities over the past few years. This paper presents a splatting algorithm for direct volume rendering that utilizes the new capabilities of vertex programs and the OpenGL imaging extensions. This paper presents three techniques: immediate mode rendering, vertex shader rendering, and point convolution rendering, to implement splatting on a PC equipped with an NVIDIA GeForce4 display card. Per-splat and per-voxel render time analysis is conducted for these techniques. The results show that vertex-shader rendering offers an order of magnitude speed-up over immediate mode rendering and that interactive volume rendering is becoming feasible on these consumer-level graphics cards for complex volumes with millions of voxels. 1
    corecore