3,676 research outputs found

    Parallel cloth simulation using OpenMp and CUDA

    Get PDF
    The widespread availability of parallel computing architectures has lead to research regarding algorithms and techniques that best exploit available parallelism. In addition to the CPU parallelism available; the GPU has emerged as a parallel computational device. The goal of this study was to explore the combined use of CPU and GPU parallelism by developing a hybrid parallel CPU/GPU cloth simulation application. In order to evaluate the benefits of the hybrid approach, the application was first developed in sequential CPU form, followed by a parallel CPU form. The application uses Backward Euler implicit time integration to solve the differential equations of motion associated with the physical system. The Conjugate Gradient (CG) algorithm is used to determine the solution vector for the system of equations formed by the Backward Euler approach. The matrix/vector, vector/vector, and vector/scalar operations required by CG are handled by calls to BLAS level 1 and level 2 functions. In the sequential CPU and parallel CPU versions, the Intel Math Kernel Library implementation of BLAS is used. In the hybrid parallel CPU/GPU version, the Nvidia CUDA based BLAS implementation (CUBLAS) is used. In the parallel CPU and hybrid implementations, OpenMP directives are used to parallelize the force application loop that traverses the list of forces acting on the system. Runtimes were collected for each version of the application while simulating cloth meshes with particle resolutions of 20x20, 40x40, and 60x60. The performance of each version was compared at each mesh resolution. The level of performance degradation experienced when transitioning to the larger mesh sizes was also determined. The hybrid parallel CPU/GPU implementation yielded the highest frame rate for the 40x40 and 60x60 meshes. The parallel CPU implementation yielded the highest frame rate for the 20x20 mesh. The performance of the hybrid parallel CPU/GPU implementation degraded the least as it transitioned to the two larger mesh sizes. The results of this study will potentially lead to further research regarding the use of GPUs to perform the matrix/vector operations associated with the CG algorithm under more complex cloth simulation scenarios

    Automating the mean-field method for large dynamic gossip networks

    Get PDF
    We investigate an abstraction method, called mean- field method, for the performance evaluation of dynamic net- works with pairwise communication between nodes. It allows us to evaluate systems with very large numbers of nodes, that is, systems of a size where traditional performance evaluation methods fall short.\ud While the mean-field analysis is well-established in epidemics and for chemical reaction systems, it is rarely used for commu- nication networks because a mean-field model tends to abstract away the underlying topology.\ud To represent topological information, however, we extend the mean-field analysis with the concept of classes of states. At the abstraction level of classes we define the network topology by means of connectivity between nodes. This enables us to encode physical node positions and model dynamic networks by allowing nodes to change their class membership whenever they make a local state transition. Based on these extensions, we derive and implement algorithms for automating a mean-field based performance evaluation

    Virtual Reality Games for Motor Rehabilitation

    Get PDF
    This paper presents a fuzzy logic based method to track user satisfaction without the need for devices to monitor users physiological conditions. User satisfaction is the key to any product’s acceptance; computer applications and video games provide a unique opportunity to provide a tailored environment for each user to better suit their needs. We have implemented a non-adaptive fuzzy logic model of emotion, based on the emotional component of the Fuzzy Logic Adaptive Model of Emotion (FLAME) proposed by El-Nasr, to estimate player emotion in UnrealTournament 2004. In this paper we describe the implementation of this system and present the results of one of several play tests. Our research contradicts the current literature that suggests physiological measurements are needed. We show that it is possible to use a software only method to estimate user emotion

    Modeling Backscattering Behavior of Vulnerable Road Users Based on High-Resolution Radar Measurements

    Get PDF
    Bei der Weiterentwicklung der Technologie des autonomen Fahrens (AD) ist die Beschaffung zuverlĂ€ssiger dreidimensionaler Umgebungsinformationen eine unverzichtbare Aufgabe, um ein sicheres Fahren zu ermöglichen. Diese Herausforderung kann durch den Einsatz von Fahrzeugradaren zusammen mit optischen Sensoren, z. B. Kameras oder Lidars, bewĂ€ltigt werden, sei es in der Simulation oder in konventionellen Tests auf der Straße. Das Betriebsverhalten von Fahrzeugradaren kann in einer Over-the-Air (OTA) Vehicle-in-the-Loop (ViL) Umgebung genau bewertet werden. FĂŒr eine umfassende experimentelle Verifizierung der Fahrzeugradare muss jedoch die Umgebung, insbesondere die gefĂ€hrdeten Verkehrsteilnehmer (VRUs), möglichst realistisch modelliert werden. Moderne Radarsensoren sind in der Lage, hochaufgelöste Erkennungsinformationen von komplexen Verkehrszielen zu liefern, um diese zu verfolgen. Diese hochauflösenden Erkennungsdaten, die die reflektierten Signale von den Streupunkten (SPs) der VRUs enthalten, können zur Erzeugung von RĂŒckstreumodelle genutzt werden. DarĂŒber hinaus kann ein realistischeres RĂŒckstreumodell der VRUs, insbesondere von Menschen als FußgĂ€nger oder Radfahrer, durch die Modellierung der Bewegung ihrer ExtremitĂ€ten in Verkehrsszenarien erreicht werden. Die Voraussetzung fĂŒr die Erstellung eines solchen detaillierten Modells in verschiedenen Situationen sind der Radarquerschnitt (RCS) und die Doppler-Signaturen, die sich aus den menschlichen ExtremitĂ€ten in einer bewegten Situation ergeben. Diese Daten können durch die gesammelten Radardaten aus hochauflösenden RCS-Messungen im Radial- und Winkelbereich gewonnen werden, was durch die Analyse der Range-Doppler-Spezifikation der menschlichen ExtremitĂ€ten in verschiedenen Bewegungen möglich ist. Die entwickelten realistischen Radarmodelle können bei der Wellenausbreitung im Radarkanal, bei der Zielerkennung und -klassifizierung sowie bei Datentrainingsalgorithmen zur Validierung und Verifizierung der Kfz-Radarfunktionen eingesetzt werden. Anschließend kann mit dieser Bewertung die Sicherheit von fortschrittlichen Fahrerassistenzsystemen (ADAS) beurteilt werden. Daher wird in dieser Arbeit ein hochauflösendes RCS-Messverfahren vorgeschlagen, um die relevanten SPs verschiedener VRUs mit hoher radialer und winkelmĂ€ĂŸiger Auflösung zu bestimmen. Eine Gruppe unterschiedliche VRUs wird in statischen Situationen gemessen, und die notwendigen Signalverarbeitungsschritte, um die relevanten SPs mit den entsprechenden RCS-Werten zu extrahieren, werden im Detail beschrieben. WĂ€hrend der Analyse der gemessenen Daten wird ein Algorithmus entwickelt, um die physischen GrĂ¶ĂŸen der gemessenen Testpersonen aus dem extrahierten RĂŒckstreumodell zu schĂ€tzen und sie anhand ihrer GrĂ¶ĂŸe und Statur zu klassifizieren. ZusĂ€tzlich wird ein Dummy-Mensch vermessen, der eine vergleichbare GrĂ¶ĂŸe wie die vermessenen Probanden hat. Das extrahierte RĂŒckstreuverhalten einer beispielhaften VRU-Gruppe wird fĂŒr ihre verschiedenen Typen ausgewertet, um die Übereinstimmung zwischen virtuellen Validierungen und der RealitĂ€t aufzuzeigen und den Genauigkeitsgrad der Modelle sicherzustellen. In einem weiteren Schritt wird diese hochauflösende RCS-Messtechnik mit der Motion Capture Technologie kombiniert, um die ReflektivitĂ€t der SPs von den menschlichen Körperregionen in verschiedenen Bewegungen zu erfassen und die Radarsignaturen der menschlichen ExtremitĂ€ten genau zu schĂ€tzen. Spezielle Signalverarbeitungsschritte werden eingesetzt, um die Radarsignaturen aus den Messergebnissen des sich bewegenden Menschen zu extrahieren. Diese nachbearbeiteten Daten ermöglichen es der Technik, die zeitlich variierenden SPs an den ExtremitĂ€ten des menschlichen Körpers mit den entsprechenden RCS-Werten und Dopplersignaturen einzufĂŒhren. Das extrahierte RĂŒckstreumodell der VRUs enthĂ€lt eine Vielzahl von SPs. Daher wird ein Clustering-Algorithmus entwickelt, um die BerechnungskomplexitĂ€t bei Radarkanalsimulationen durch die EinfĂŒhrung einiger virtueller Streuzentren (SCs) zu minimieren. Jedes entwickelte virtuelle SCs hat seine eigene spezifische Streueigenschaft

    Jellyfish galaxies with the IllustrisTNG simulations: I. Gas-stripping phenomena in the full cosmological context

    Full text link
    We use IllustrisTNG, a suite of gravity and MHD simulations, to study the demographics and properties of jellyfish galaxies in the full cosmological context. By jellyfish galaxies, we mean satellites orbiting in massive groups and clusters that exhibit highly asymmetric distributions of gas and gas tails. We use the TNG100 run and select galaxies at redshifts z≀0.6z\le0.6 with stellar mass exceeding 109.5M⊙10^{9.5}{\rm M_\odot} and with host halo masses of 1013−1014.6 M⊙10^{13}-10^{14.6}\,{\rm M_\odot}. Among more than about 6000 (2600) galaxies with stars (and some gas), we identify 800 jellyfish galaxies by visually inspecting their gas and stellar mass maps in random projections. About 31%31\% of cluster satellites are found with signatures of ram-pressure stripping and gaseous tails stemming from the main luminous bodies. This is a lower limit, since the random orientation entails a loss of about 30%30\% of galaxies that in an optimal projection would otherwise be identified as jellyfish. The connection with ram-pressure stripping is further confirmed by a series of findings: jellyfish galaxies are more frequent at intermediate and large cluster-centric distances (r/R200c≳0.25r/R_{\rm 200c}\gtrsim 0.25); they move through the ICM with larger bulk velocities and Mach numbers than the general cluster population, typically orbiting supersonically and experiencing larger ram pressures. Furthermore, the gaseous tails usually extend in opposite directions to the galaxy trajectory, with no relation between tail orientation and the host's center. The frequency of jellyfish galaxies shows a very weak dependence on redshift (0≀z≀0.6)(0\le z\le0.6) but larger fractions of disturbed gaseous morphologies occur in more massive hosts and at smaller satellite masses. Finally, jellyfish galaxies are late infallers (<2.5−3< 2.5-3 Gyrs ago, at z=0z=0) and the emergence of gaseous tails correlates well with the presence of bow shocks in the ICM.Comment: 25 pages, 15 figures, Accepted for publication on MNRAS after minor revision

    Realistic Visualization of Animated Virtual Cloth

    Get PDF
    Photo-realistic rendering of real-world objects is a broad research area with applications in various different areas, such as computer generated films, entertainment, e-commerce and so on. Within photo-realistic rendering, the rendering of cloth is a subarea which involves many important aspects, ranging from material surface reflection properties and macroscopic self-shadowing to animation sequence generation and compression. In this thesis, besides an introduction to the topic plus a broad overview of related work, different methods to handle major aspects of cloth rendering are described. Material surface reflection properties play an important part to reproduce the look & feel of materials, that is, to identify a material only by looking at it. The BTF (bidirectional texture function), as a function of viewing and illumination direction, is an appropriate representation of reflection properties. It captures effects caused by the mesostructure of a surface, like roughness, self-shadowing, occlusion, inter-reflections, subsurface scattering and color bleeding. Unfortunately a BTF data set of a material consists of hundreds to thousands of images, which exceeds current memory size of personal computers by far. This work describes the first usable method to efficiently compress and decompress a BTF data for rendering at interactive to real-time frame rates. It is based on PCA (principal component analysis) of the BTF data set. While preserving the important visual aspects of the BTF, the achieved compression rates allow the storage of several different data sets in main memory of consumer hardware, while maintaining a high rendering quality. Correct handling of complex illumination conditions plays another key role for the realistic appearance of cloth. Therefore, an upgrade of the BTF compression and rendering algorithm is described, which allows the support of distant direct HDR (high-dynamic-range) illumination stored in environment maps. To further enhance the appearance, macroscopic self-shadowing has to be taken into account. For the visualization of folds and the life-like 3D impression, these kind of shadows are absolutely necessary. This work describes two methods to compute these shadows. The first is seamlessly integrated into the illumination part of the rendering algorithm and optimized for static meshes. Furthermore, another method is proposed, which allows the handling of dynamic objects. It uses hardware-accelerated occlusion queries for the visibility determination. In contrast to other algorithms, the presented algorithm, despite its simplicity, is fast and produces less artifacts than other methods. As a plus, it incorporates changeable distant direct high-dynamic-range illumination. The human perception system is the main target of any computer graphics application and can also be treated as part of the rendering pipeline. Therefore, optimization of the rendering itself can be achieved by analyzing human perception of certain visual aspects in the image. As a part of this thesis, an experiment is introduced that evaluates human shadow perception to speedup shadow rendering and provides optimization approaches. Another subarea of cloth visualization in computer graphics is the animation of the cloth and avatars for presentations. This work also describes two new methods for automatic generation and compression of animation sequences. The first method to generate completely new, customizable animation sequences, is based on the concept of finding similarities in animation frames of a given basis sequence. Identifying these similarities allows jumps within the basis sequence to generate endless new sequences. Transmission of any animated 3D data over bandwidth-limited channels, like extended networks or to less powerful clients requires efficient compression schemes. The second method included in this thesis in the animation field is a geometry data compression scheme. Similar to the BTF compression, it uses PCA in combination with clustering algorithms to segment similar moving parts of the animated objects to achieve high compression rates in combination with a very exact reconstruction quality.Realistische Visualisierung von animierter virtueller Kleidung Das photorealistisches Rendering realer GegenstĂ€nde ist ein weites Forschungsfeld und hat Anwendungen in vielen Bereichen. Dazu zĂ€hlen Computer generierte Filme (CGI), die Unterhaltungsindustrie und E-Commerce. Innerhalb dieses Forschungsbereiches ist das Rendern von photorealistischer Kleidung ein wichtiger Bestandteil. Hier reichen die wichtigen Aspekte, die es zu berĂŒcksichtigen gilt, von optischen Materialeigenschaften ĂŒber makroskopische Selbstabschattung bis zur Animationsgenerierung und -kompression. In dieser Arbeit wird, neben der EinfĂŒhrung in das Thema, ein weiter Überblick ĂŒber Ă€hnlich gelagerte Arbeiten gegeben. Der Schwerpunkt der Arbeit liegt auf den wichtigen Aspekten der virtuellen Kleidungsvisualisierung, die oben beschrieben wurden. Die optischen Reflektionseigenschaften von MaterialoberflĂ€chen spielen eine wichtige Rolle, um das so genannte look & feel von Materialien zu charakterisieren. Hierbei kann ein Material vom Nutzer identifiziert werden, ohne dass er es direkt anfassen muss. Die BTF (bidirektionale Texturfunktion)ist eine Funktion die abhĂ€ngig von der Blick- und Beleuchtungsrichtung ist. Daher ist sie eine angemessene ReprĂ€sentation von Reflektionseigenschaften. Sie enthĂ€lt Effekte wie Rauheit, Selbstabschattungen, Verdeckungen, Interreflektionen, Streuung und Farbbluten, die durch die Mesostruktur der OberflĂ€che hervorgerufen werden. Leider besteht ein BTF Datensatz eines Materials aus hunderten oder tausenden von Bildern und sprengt damit herkömmliche Hauptspeicher in Computern bei weitem. Diese Arbeit beschreibt die erste praktikable Methode, um BTF Daten effizient zu komprimieren, zu speichern und fĂŒr Echtzeitanwendungen zum Visualisieren wieder zu dekomprimieren. Die Methode basiert auf der Principal Component Analysis (PCA), die Daten nach Signifikanz ordnet. WĂ€hrend die PCA die entscheidenen visuellen Aspekte der BTF erhĂ€lt, können mit ihrer Hilfe Kompressionsraten erzielt werden, die es erlauben mehrere BTF Materialien im Hauptspeicher eines Consumer PC zu verwalten. Dies erlaubt ein High-Quality Rendering. Korrektes Verwenden von komplexen Beleuchtungssituationen spielt eine weitere, wichtige Rolle, um Kleidung realistisch erscheinen zu lassen. Daher wird zudem eine Erweiterung des BTF Kompressions- und Renderingalgorithmuses erlĂ€utert, die den Einsatz von High-Dynamic Range (HDR) Beleuchtung erlaubt, die in environment maps gespeichert wird. Um die realistische Erscheinung der Kleidung weiter zu unterstĂŒtzen, muss die makroskopische Selbstabschattung integriert werden. FĂŒr die Visualisierung von Falten und den lebensechten 3D Eindruck ist diese Art von Schatten absolut notwendig. Diese Arbeit beschreibt daher auch zwei Methoden, diese Schatten schnell und effizient zu berechnen. Die erste ist nahtlos in den Beleuchtungspart des obigen BTF Renderingalgorithmuses integriert und fĂŒr statische Geometrien optimiert. Die zweite Methode behandelt dynamische Objekte. Dazu werden hardwarebeschleunigte Occlusion Queries verwendet, um die Sichtbarkeitsberechnung durchzufĂŒhren. Diese Methode ist einerseits simpel und leicht zu implementieren, anderseits ist sie schnell und produziert weniger Artefakte, als vergleichbare Methoden. ZusĂ€tzlich ist die Verwendung von verĂ€nderbarer, entfernter HDR Beleuchtung integriert. Das menschliche Wahrnehmungssystem ist das eigentliche Ziel jeglicher Anwendung in der Computergrafik und kann daher selbst als Teil einer erweiterten Rendering Pipeline gesehen werden. Daher kann das Rendering selbst optimiert werden, wenn man die menschliche Wahrnehmung verschiedener visueller Aspekte der berechneten Bilder analysiert. Teil der vorliegenden Arbeit ist die Beschreibung eines Experimentes, das menschliche Schattenwahrnehmung untersucht, um das Rendern der Schatten zu beschleunigen. Ein weiteres Teilgebiet der Kleidungsvisualisierung in der Computergrafik ist die Animation der Kleidung und von Avataren fĂŒr PrĂ€sentationen. Diese Arbeit beschreibt zwei neue Methoden auf diesem Teilgebiet. Einmal ein Algorithmus, der fĂŒr die automatische Generierung neuer Animationssequenzen verwendet werden kann und zum anderen einen Kompressionsalgorithmus fĂŒr eben diese Sequenzen. Die automatische Generierung von völlig neuen, anpassbaren Animationen basiert auf dem Konzept der Ähnlichkeitssuche. Hierbei werden die einzelnen Schritte von gegebenen Basisanimationen auf Ähnlichkeiten hin untersucht, die zum Beispiel die Geschwindigkeiten einzelner Objektteile sein können. Die Identifizierung dieser Ähnlichkeiten erlaubt dann SprĂŒnge innerhalb der Basissequenz, die dazu benutzt werden können, endlose, neue Sequenzen zu erzeugen. Die Übertragung von animierten 3D Daten ĂŒber bandbreitenlimitierte KanĂ€le wie ausgedehnte Netzwerke, Mobilfunk oder zu sogenannten thin clients erfordert eine effiziente Komprimierung. Die zweite, in dieser Arbeit vorgestellte Methode, ist ein Kompressionsschema fĂŒr Geometriedaten. Ähnlich wie bei der Kompression von BTF Daten wird die PCA in Verbindung mit Clustering benutzt, um die animierte Geometrie zu analysieren und in sich Ă€hnlich bewegende Teile zu segmentieren. Diese erkannten Segmente lassen sich dann hoch komprimieren. Der Algorithmus arbeitet automatisch und erlaubt zudem eine sehr exakte RekonstruktionsqualitĂ€t nach der Dekomprimierung
    • 

    corecore