10 research outputs found

    A Framework for Dynamic Terrain with Application in Off-road Ground Vehicle Simulations

    Get PDF
    The dissertation develops a framework for the visualization of dynamic terrains for use in interactive real-time 3D systems. Terrain visualization techniques may be classified as either static or dynamic. Static terrain solutions simulate rigid surface types exclusively; whereas dynamic solutions can also represent non-rigid surfaces. Systems that employ a static terrain approach lack realism due to their rigid nature. Disregarding the accurate representation of terrain surface interaction is rationalized because of the inherent difficulties associated with providing runtime dynamism. Nonetheless, dynamic terrain systems are a more correct solution because they allow the terrain database to be modified at run-time for the purpose of deforming the surface. Many established techniques in terrain visualization rely on invalid assumptions and weak computational models that hinder the use of dynamic terrain. Moreover, many existing techniques do not exploit the capabilities offered by current computer hardware. In this research, we present a component framework for terrain visualization that is useful in research, entertainment, and simulation systems. In addition, we present a novel method for deforming the terrain that can be used in real-time, interactive systems. The development of a component framework unifies disparate works under a single architecture. The high-level nature of the framework makes it flexible and adaptable for developing a variety of systems, independent of the static or dynamic nature of the solution. Currently, there are only a handful of documented deformation techniques and, in particular, none make explicit use of graphics hardware. The approach developed by this research offloads extra work to the graphics processing unit; in an effort to alleviate the overhead associated with deforming the terrain. Off-road ground vehicle simulation is used as an application domain to demonstrate the practical nature of the framework and the deformation technique. In order to realistically simulate terrain surface interactivity with the vehicle, the solution balances visual fidelity and speed. Accurately depicting terrain surface interactivity in off-road ground vehicle simulations improves visual realism; thereby, increasing the significance and worth of the application. Systems in academia, government, and commercial institutes can make use of the research findings to achieve the real-time display of interactive terrain surfaces

    A GPU-Based Level of Detail System for the Real-Time Simulation and Rendering of Large-Scale Granular Terrain

    Get PDF
    Real-time computer games and simulations often contain large virtual outdoor environments. Terrain forms an important part of these environments. This terrain may consist of various granular materials, such as sand, rubble and rocks. Previous approaches to rendering such terrains rely on simple textured geometry, with little to no support for dynamic interactions. Recently, particle-based granular terrain simulations have emerged as an alternative method for rendering granular terrain. These systems simulate granular materials by using particles to represent the individual granules, and exhibit realistic, physically correct interactions with dynamic objects. However, they are extremely computationally expensive, and thus may only feasibly be used to simulate small areas of terrain. In order to overcome this limitation, this thesis builds upon a previously created particle-based granular terrain simulation, by integrating it with a heightfield-based terrain system. In this way, we create a level of detail system for simulating large-scale granular terrain. The particle-based terrain system is used to represent areas of terrain around dynamic objects, whereas the heightfield-based terrain is used elsewhere. This allows large-scale granular terrain to be simulated in real-time, with physically correct dynamic interactions. This is made possible by a novel system, which allows for terrain to be converted from one representation to the other in real-time, while maintaining changes made to the particle-based system in the heightfield-based system. The system also allows for updates to particle-systems to be paused, creating the illusion that more particle systems are active than actually are. We show that the system is capable of simulating and rendering multiple particle-based simulations across a large-scale terrain, whilst maintaining real-time performance. However, the number of particles used, and thus the number of particle-based simulations which may be used, is limited by the computational resources of the GPU

    Real-time rendering of large surface-scanned range data natively on a GPU

    Get PDF
    This thesis presents research carried out for the visualisation of surface anatomy data stored as large range images such as those produced by stereo-photogrammetric, and other triangulation-based capture devices. As part of this research, I explored the use of points as a rendering primitive as opposed to polygons, and the use of range images as the native data representation. Using points as a display primitive as opposed to polygons required the creation of a pipeline that solved problems associated with point-based rendering. The problems inves tigated were scattered-data interpolation (a common problem with point-based rendering), multi-view rendering, multi-resolution representations, anti-aliasing, and hidden-point re- moval. In addition, an efficient real-time implementation on the GPU was carried out

    Multi-Frame Rate Rendering

    Get PDF
    Multi-frame rate rendering is a parallel rendering technique that renders interactive parts of a scene on one graphics card while the rest of the scene is rendered asynchronously on a second graphics card. The resulting color and depth images of both render processes are composited, by optical superposition or digital composition, and displayed. The results of a user study confirm that multi-frame rate rendering can significantly improve the interaction performance. Multi-frame rate rendering is naturally implemented on a graphics cluster. With the recent availability of multiple graphics cards in standalone systems the method can also be implemented on a single computer system where memory bandwidth is much higher compared to off-the-shelf networking technology. This decreases overall latency and further improves interactivity. Multi-frame rate rendering was also investigated on a single graphics processor by interleaving the rendering streams for the interactive elements and the rest of the scene. This approach enables the use of multi-frame rate rendering on low-end graphics systems such as laptops, mobile phones, and PDAs. Advanced multi-frame rate rendering techniques reduce the limitations of the basic approach. The interactive manipulation of light sources and their parameters affects the entire scene. A multi-GPU deferred shading method is presented that splits the rendering task into a rasterization and lighting pass and assigns the passes to the appropriate image generators such that light manipulations at high frame rates become possible. A parallel volume rendering technique allows the manipulation of objects inside a translucent volume at high frame rates. This approach is useful for example in medical applications, where small probes need to be positioned inside a computed-tomography image. Due to the asynchronous nature of multi-frame rate rendering artifacts may occur during migration of objects from the slow to the fast graphics card, and vice versa. Proper state management allows to almost completely avoid these artifacts. Multi-frame rate rendering significantly improves the interactive manipulation of objects and lighting effects. This leads to a considerable increase of the size for 3D scenes that can be manipulated compared to conventional methods.Multi-Frame Rate Rendering ist eine parallele Rendertechnik, die interaktive Teile einer Szene auf einer separaten Graphikkarte berechnet. Die Abbildung des Rests der Szene erfolgt asynchron auf einer anderen Graphikkarte. Die resultierenden Farb- und Tiefenbilder beider Darstellungsprozesse werden mittels optischer Überlagerung oder digitaler Komposition kombiniert und angezeigt. Die Ergebnisse einer Nutzerstudie zeigen, daß Multi-Frame Rate Rendering die Interaktion für große Szenen deutlich beschleunigt. Multi-Frame Rate Rendering ist üblicherweise auf einem Graphikcluster zu implementieren. Mit der Verfügbarkeit mehrerer Graphikkarten für Einzelsysteme kann Multi-Frame Rate Rendering auch für diese realisiert werden. Dies ist von Vorteil, da die Speicherbandbreite um ein Vielfaches höher ist als mit üblichen Netzwerktechnologien. Dadurch verringern sich Latenzen, was zu verbesserter Interaktivität führt. Multi-Frame Rate Rendering wurde auch auf Systemen mit einer Graphikkarte untersucht. Die Bildberechnung für den Rest der Szene muss dazu in kleine Portionen aufgeteilt werden. Die Darstellung erfolgt dann alternierend zu den interaktiven Elementen über mehrere Bilder verteilt. Dieser Ansatz erlaubt die Benutzung von Multi-Frame Rate Rendering auf einfachen Graphiksystemen wie Laptops, Mobiltelefonen and PDAs. Fortgeschrittene Multi-Frame Rate Rendering Techniken erweitern die Anwendbarkeit des Ansatzes erheblich. Die interaktive Manipulation von Lichtquellen beeinflußt die ganze Szene. Um diese Art der Interaktion zu unterstützen, wurde eine Multi-GPU Deferred Shading Methode entwickelt. Der Darstellungsvorgang wird dazu in einen Rasterisierungs- und Beleuchtungsschritt zerlegt, die parallel auf den entsprechenden Grafikkarten erfolgen können. Dadurch kann die Beleuchtung mit hohen Bildwiederholraten unabhängig von der geometrischen Komplexität der Szene erfolgen. Außerdem wurde eine parallele Darstellungstechnik für die interaktive Manipulation von Objekten in hochaufgelösten Volumendaten entwickelt. Dadurch lassen sich zum Beispiel virtuelle Instrumente in hochqualitativ dargestellten Computertomographieaufnahmen interaktiv positionieren. Aufgrund der inhärenten Asynchronität der beiden Darstellungsprozesse des Multi-Frame Rate Rendering Ansatzes können Artifakte während der Objektmigration zwischen den Graphikkarten auftreten. Eine intelligente Zustandsverwaltung in Kombination mit Prediktionstechniken kann diese Artifakte fast gänzlich verhindern, so dass Benutzer diese im allgemeinen nicht bemerken. Multi-Frame Rate Rendering beschleunigt die interaktive Manipulation von Objekten und Beleuchtungseffekten deutlich. Dadurch können deutlich umfangreichere virtuelle Szenarien bearbeitet werden als mit konventionellen Methoden

    Morphing arquitectĂłnico: transformaciones entre las casas usonianas de Frank Lloyd Wright

    Get PDF
    Esta tesis investiga sobre el proceso de transformación de la forma arquitectónica, analizando una técnica específica denominada morphing. La técnica del morphing se utiliza en los gráficos por ordenador para la transformación de la forma entre dos o más objetos dados. Desde un punto de vista técnico, se revisan y actualizan las metodologías y aplicaciones existentes, sus características específicas y sus incidencias sobre la arquitectura. Desde un punto de vista práctico, se utilizan una serie de modelos de las casas Usonianas de Frank Lloyd Wright, con el fin de experimentar la técnica y ver qué utilidades se pueden obtener a partir de su lógica de diseño. Como resultado de este análisis se obtiene una metodología genérica para el procedimiento de un morphing arquitectónico.This thesis investigates the transformation of architectural form, analyzing a specific technique called morphing. Morphing is a technique used in computer graphics to transform a form between two or more given objects. From a technical point of view, the existing techniques are reviewed and updated, as well as their specific characteristics and impact on architecture. From a practical point of view, some models of Usonian houses of Frank Lloyd Wright are used to experience the technique and see which utilities are available from his design logic. As a result of this analysis a generic methodology for the process of architectural morphing is obtained.Postprint (published version

    Adaptive Vereinfachung von Dreiecksnetzen in Echtzeit

    Get PDF
    Dreiecksnetze stellen in der Computergraphik eine häufig angewandte Repräsentation von 3-dimensionalen Objekten dar, indem die Objektoberfläche durch Dreiecke angenähert wird. Eine große Menge an Dreiecken erlaubt die Abbildung einer Vielzahl an Details, jedoch mit dem Nachteil eines hohen Berechnungsaufwandes bei der Bilderzeugung. Verfahren zur Reduktion der Dreieckszahl werden seit langem erforscht. Sie kommen zum Einsatz, um Annäherungen von polygonalen Modellen zu errechnen, die weniger Zeit für die Bilderzeugung in Anspruch nehmen. Unter Zuhilfenahme der Kapazitäten moderner Graphikprozessoren werden Algorithmen entwickelt, die eine Vereinfachung eines Dreiecksnetzes zur Laufzeit, also vor der Bilderzeugung, berechnen. In dieser Arbeit wird ein neuartiger, paralleler Ansatz zur Vereinfachung von Dreiecksnetzen präsentiert, der die notwendigen Operationen unter Berücksichtigung der Topologie und ohne Vorberechnung von Vereinfachungen ermittelt. Die Vereinfachungsoperatoren werden modifiziert, so dass eine große Menge von Operationen parallel auf einem Dreiecksnetz ausgeführt werden kann, ohne eine Kommunikation zwischen den individuellen Operationen zu erfordern und ohne Löcher und unerwünschte Faltungen auf der Oberfläche zu schaffen. Der hohe Grad an Parallelität der Operationen erlaubt eine effiziente Implementierung auf moderner Hardware, insbesondere die Ausnutzung moderner Graphikprozessoren, was zu einer starken Reduktion der Berechnungszeit führt. Unter diesen Aspekten ist der Einsatz in Echtzeit möglich und somit eine Vereinfachung, die Position und Blickwinkel des Betrachters in die Berechnungen einfließen lässt, um erkennbare Auswirkungen der Vereinfachung zu reduzieren. Potentielle Erweiterungen sind die Extraktion und Berücksichtigung von markanten Merkmalen eines Objekts und eine verbesserte Oberflächenanalyse bei der Auswahl von Vereinfachungsoperationen

    Adaptive Vereinfachung von Dreiecksnetzen in Echtzeit

    Get PDF
    Dreiecksnetze stellen in der Computergraphik eine häufig angewandte Repräsentation von 3-dimensionalen Objekten dar, indem die Objektoberfläche durch Dreiecke angenähert wird. Eine große Menge an Dreiecken erlaubt die Abbildung einer Vielzahl an Details, jedoch mit dem Nachteil eines hohen Berechnungsaufwandes bei der Bilderzeugung. Verfahren zur Reduktion der Dreieckszahl werden seit langem erforscht. Sie kommen zum Einsatz, um Annäherungen von polygonalen Modellen zu errechnen, die weniger Zeit für die Bilderzeugung in Anspruch nehmen. Unter Zuhilfenahme der Kapazitäten moderner Graphikprozessoren werden Algorithmen entwickelt, die eine Vereinfachung eines Dreiecksnetzes zur Laufzeit, also vor der Bilderzeugung, berechnen. In dieser Arbeit wird ein neuartiger, paralleler Ansatz zur Vereinfachung von Dreiecksnetzen präsentiert, der die notwendigen Operationen unter Berücksichtigung der Topologie und ohne Vorberechnung von Vereinfachungen ermittelt. Die Vereinfachungsoperatoren werden modifiziert, so dass eine große Menge von Operationen parallel auf einem Dreiecksnetz ausgeführt werden kann, ohne eine Kommunikation zwischen den individuellen Operationen zu erfordern und ohne Löcher und unerwünschte Faltungen auf der Oberfläche zu schaffen. Der hohe Grad an Parallelität der Operationen erlaubt eine effiziente Implementierung auf moderner Hardware, insbesondere die Ausnutzung moderner Graphikprozessoren, was zu einer starken Reduktion der Berechnungszeit führt. Unter diesen Aspekten ist der Einsatz in Echtzeit möglich und somit eine Vereinfachung, die Position und Blickwinkel des Betrachters in die Berechnungen einfließen lässt, um erkennbare Auswirkungen der Vereinfachung zu reduzieren. Potentielle Erweiterungen sind die Extraktion und Berücksichtigung von markanten Merkmalen eines Objekts und eine verbesserte Oberflächenanalyse bei der Auswahl von Vereinfachungsoperationen

    WICC 2016 : XVIII Workshop de Investigadores en Ciencias de la ComputaciĂłn

    Get PDF
    Actas del XVIII Workshop de Investigadores en Ciencias de la Computación (WICC 2016), realizado en la Universidad Nacional de Entre Ríos, el 14 y 15 de abril de 2016.Red de Universidades con Carreras en Informática (RedUNCI
    corecore