136 research outputs found
Painterly rendering techniques: A state-of-the-art review of current approaches
In this publication we will look at the different methods presented over the past few decades which attempt to recreate digital paintings. While previous surveys concentrate on the broader subject of non-photorealistic rendering, the focus of this paper is firmly placed on painterly rendering techniques. We compare different methods used to produce different output painting styles such as abstract, colour pencil, watercolour, oriental, oil and pastel. Whereas some methods demand a high level of interaction using a skilled artist, others require simple parameters provided by a user with little or no artistic experience. Many methods attempt to provide more automation with the use of varying forms of reference data. This reference data can range from still photographs, video, 3D polygonal meshes or even 3D point clouds. The techniques presented here endeavour to provide tools and styles that are not traditionally available to an artist. Copyright © 2012 John Wiley & Sons, Ltd
Resolution independent curved seams in clothing animation using a regular particle grid
We present a method for representing seams in clothing animation, and its application
in simulation level of detail. Specifically we consider cloth represented as a regular
grid of particles connected by spring-dampers, and a seam specified by a closed set
of parametric trim curves in the cloth domain.
Conventional cloth animation requires the tessellation of seams so that they are
handled uniformly by the dynamics process. Our goal is a seam definition which
does not constrain the attached clothing panels to be of the same resolution, or even
constant resolution, while not being a hindrance to the dynamics process. We also
apply our seams to cloth defined on a regular grid, as opposed to the irregular meshes
commonly used with seams.
The determination of particles interior to the cloth panel can be done using wellknown
graphics operations such as scan-conversion. Due to the particle-based nature
of the simulation, the dynamics approach combines easily with existing implicit and
explicit methods.
Finally, because the seams are resolution independent, the particle density per
clothing panel can be adjusted as desired. This gives rise to a simple application
of the given seams approach illustrating how it may be used for simulation level of
detail
Enhancing Mesh Deformation Realism: Dynamic Mesostructure Detailing and Procedural Microstructure Synthesis
Propomos uma solução para gerar dados de mapas de relevo dinĂąmicos para simular deformaçÔes em superfĂcies macias, com foco na pele humana. A solução incorpora a simulação de rugas ao nĂvel mesoestrutural e utiliza texturas procedurais para adicionar detalhes de microestrutura estĂĄticos. Oferece flexibilidade alĂ©m da pele humana, permitindo a geração de padrĂ”es que imitam deformaçÔes em outros materiais macios, como couro, durante a animação.
As soluçÔes existentes para simular rugas e pistas de deformação frequentemente dependem de hardware especializado, que Ă© dispendioso e de difĂcil acesso. AlĂ©m disso, depender exclusivamente de dados capturados limita a direção artĂstica e dificulta a adaptação a mudanças. Em contraste, a solução proposta permite a sĂntese dinĂąmica de texturas que se adaptam Ă s deformaçÔes subjacentes da malha de forma fisicamente plausĂvel.
Vårios métodos foram explorados para sintetizar rugas diretamente na geometria, mas sofrem de limitaçÔes como auto-interseçÔes e maiores requisitos de armazenamento. A intervenção manual de artistas na criação de mapas de rugas e mapas de tensão permite controle, mas pode ser limitada em deformaçÔes complexas ou onde maior realismo seja necessårio.
O nosso trabalho destaca o potencial dos métodos procedimentais para aprimorar a geração de padrÔes de deformação dinùmica, incluindo rugas, com maior controle criativo e sem depender de dados capturados. A incorporação de padrÔes procedimentais eståticos melhora o realismo, e a abordagem pode ser estendida além da pele para outros materiais macios.We propose a solution for generating dynamic heightmap data to simulate deformations for soft surfaces, with a focus on human skin. The solution incorporates mesostructure-level wrinkles and utilizes procedural textures to add static microstructure details. It offers flexibility beyond human skin, enabling the generation of patterns mimicking deformations in other soft materials, such as leater, during animation.
Existing solutions for simulating wrinkles and deformation cues often rely on specialized hardware, which is costly and not easily accessible. Moreover, relying solely on captured data limits artistic direction and hinders adaptability to changes. In contrast, our proposed solution provides dynamic texture synthesis that adapts to underlying mesh deformations.
Various methods have been explored to synthesize wrinkles directly to the geometry, but they suffer from limitations such as self-intersections and increased storage requirements. Manual intervention by artists using wrinkle maps and tension maps provides control but may be limited to the physics-based simulations.
Our research presents the potential of procedural methods to enhance the generation of dynamic deformation patterns, including wrinkles, with greater creative control and without reliance on captured data. Incorporating static procedural patterns improves realism, and the approach can be extended to other soft-materials beyond skin
New geometric algorithms and data structures for collision detection of dynamically deforming objects
Any virtual environment that supports interactions between virtual objects and/or a user and objects,
needs a collision detection system to handle all interactions in a physically correct or plausible way. A
collision detection system is needed to determine if objects are in contact or interpenetrates. These
interpenetrations are resolved by a collision handling system. Because of the fact, that in nearly all
simulations objects can interact with each other, collision detection is a fundamental technology, that
is needed in all these simulations, like physically based simulation, robotic path and motion planning,
virtual prototyping, and many more. Most virtual environments aim to represent the real-world as
realistic as possible and therefore, virtual environments getting more and more complex. Furthermore,
all models in a virtual environment should interact like real objects do, if forces are applied to the
objects. Nearly all real-world objects will deform or break down in its individual parts if forces are
acted upon the objects. Thus deformable objects are becoming more and more common in virtual
environments, which want to be as realistic as possible and thus, will present new challenges to the
collision detection system. The necessary collision detection computations can be very complex and this
has the effect, that the collision detection process is the performance bottleneck in most simulations.
Most rigid body collision detection approaches use a BVH as acceleration data structure. This
technique is perfectly suitable if the object does not change its shape. For a soft body an update step
is necessary to ensure that the underlying acceleration data structure is still valid after performing a
simulation step. This update step can be very time consuming, is often hard to implement and in most
cases will produce a degenerated BVH after some simulation steps, if the objects generally deform.
Therefore, the here presented collision detection approach works entirely without an acceleration data
structure and supports rigid and soft bodies. Furthermore, we can compute inter-object and intraobject
collisions of rigid and deformable objects consisting of many tens of thousands of triangles in a
few milliseconds. To realize this, a subdivision of the scene into parts using a fuzzy clustering approach
is applied. Based on that all further steps for each cluster can be performed in parallel and if desired,
distributed to different GPUs. Tests have been performed to judge the performance of our approach
against other state-of-the-art collision detection algorithms. Additionally, we integrated our approach
into Bullet, a commonly used physics engine, to evaluate our algorithm.
In order to make a fair comparison of different rigid body collision detection algorithms, we propose
a new collision detection Benchmarking Suite. Our Benchmarking Suite can evaluate both the performance
as well as the quality of the collision response. Therefore, the Benchmarking Suite is subdivided
into a Performance Benchmark and a Quality Benchmark. This approach needs to be extended to
support soft body collision detection algorithms in the future.Jede virtuelle Umgebung, welche eine Interaktion zwischen den virtuellen Objekten in der Szene
zulĂ€sst und/oder zwischen einem Benutzer und den Objekten, benötigt fĂŒr eine korrekte Behandlung der
Interaktionen eine Kollisionsdetektion. Nur dank der Kollisionsdetektion können BerĂŒhrungen zwischen
Objekten erkannt und mittels der Kollisionsbehandlung aufgelöst werden. Dies ist der Grund fĂŒr die weite
Verbreitung der Kollisionsdetektion in die verschiedensten Fachbereiche, wie der physikalisch basierten
Simulation, der Pfadplanung in der Robotik, dem virtuellen Prototyping und vielen weiteren. Auf Grund
des Bestrebens, die reale Umgebung in der virtuellen Welt so realistisch wie möglich nachzubilden,
steigt die KomplexitÀt der Szenen stetig. FortwÀhrend steigen die Anforderungen an die Objekte, sich
realistisch zu verhalten, sollten KrĂ€fte auf die einzelnen Objekte ausgeĂŒbt werden. Die meisten Objekte,
die uns in unserer realen Welt umgeben, Àndern ihre Form oder zerbrechen in ihre Einzelteile, wenn
KrÀfte auf sie einwirken. Daher kommen in realitÀtsnahen, virtuellen Umgebungen immer hÀufiger
deformierbare Objekte zum Einsatz, was neue Herausforderungen an die Kollisionsdetektion stellt. Die
hierfĂŒr Notwendigen, teils komplexen Berechnungen, fĂŒhren dazu, dass die Kollisionsdetektion hĂ€ufig
der Performance-Bottleneck in der jeweiligen Simulation darstellt.
Die meisten Kollisionsdetektionen fĂŒr starre Körper benutzen eine HĂŒllkörperhierarchie als Beschleunigungsdatenstruktur.
Diese Technik ist hervorragend geeignet, solange sich die Form des Objektes
nicht verÀndert. Im Fall von deformierbaren Objekten ist eine Aktualisierung der Datenstruktur nach
jedem Schritt der Simulation notwendig, damit diese weiterhin gĂŒltig ist. Dieser Aktualisierungsschritt
kann, je nach Hierarchie, sehr zeitaufwendig sein, ist in den meisten FĂ€llen schwer zu implementieren
und generiert nach vielen Schritten der Simulation hĂ€ufig eine entartete HĂŒllkörperhierarchie, sollte
sich das Objekt sehr stark verformen. Um dies zu vermeiden, verzichtet unsere Kollisionsdetektion vollstÀndig
auf eine Beschleunigungsdatenstruktur und unterstĂŒtzt sowohl rigide, wie auch deformierbare
Körper. Zugleich können wir Selbstkollisionen und Kollisionen zwischen starren und/oder deformierbaren
Objekten, bestehend aus vielen Zehntausenden Dreiecken, innerhalb von wenigen Millisekunden
berechnen. Um dies zu realisieren, unterteilen wir die gesamte Szene in einzelne Bereiche mittels eines
Fuzzy Clustering-Verfahrens. Dies ermöglicht es, dass alle Cluster unabhÀngig bearbeitet werden und
falls gewĂŒnscht, die Berechnungen fĂŒr die einzelnen Cluster auf verschiedene Grafikkarten verteilt werden
können. Um die LeistungsfÀhigkeit unseres Ansatzes vergleichen zu können, haben wir diesen gegen
aktuelle Verfahren fĂŒr die Kollisionsdetektion antreten lassen. Weiterhin haben wir unser Verfahren in
die Physik-Engine Bullet integriert, um das Verhalten in dynamischen Situationen zu evaluieren.
Um unterschiedliche Kollisionsdetektionsalgorithmen fĂŒr starre Körper korrekt und objektiv miteinander
vergleichen zu können, haben wir eine Benchmarking-Suite entwickelt. Unsere Benchmarking-
Suite kann sowohl die Geschwindigkeit, fĂŒr die Bestimmung, ob zwei Objekte sich durchdringen, wie
auch die QualitĂ€t der berechneten KrĂ€fte miteinander vergleichen. HierfĂŒr ist die Benchmarking-Suite
in den Performance Benchmark und den Quality Benchmark unterteilt worden. In der Zukunft wird
diese Benchmarking-Suite dahingehend erweitert, dass auch Kollisionsdetektionsalgorithmen fĂŒr deformierbare
Objekte unterstĂŒtzt werden
Applied Visualization in the Neurosciences and the Enhancement of Visualization through Computer Graphics
The complexity and size of measured and simulated data in many fields of science is increasing constantly. The technical evolution allows for capturing smaller features and more complex structures in the data. To make this data accessible by the scientists, efficient and specialized visualization techniques are required. Maximum efficiency and value for the user can only be achieved by adapting visualization to the specific application area and the specific requirements of the scientific field.
Part I: In the first part of my work, I address the visualization in the neurosciences. The neuroscience tries to understand the human brain; beginning at its smallest parts, up to its global infrastructure. To achieve this ambitious goal, the neuroscience uses a combination of three-dimensional data from a myriad of sources, like MRI, CT, or functional MRI. To handle this diversity of different data types and sources, the neuroscience need specialized and well evaluated visualization techniques.
As a start, I will introduce an extensive software called \"OpenWalnut\". It forms the common base for developing and using visualization techniques with our neuroscientific collaborators. Using OpenWalnut, standard and novel visualization approaches are available to the neuroscientific researchers too. Afterwards, I am introducing a very specialized method to illustrate the causal relation of brain areas, which was, prior to that, only representable via abstract graph models. I will finalize the first part of my work with an evaluation of several standard visualization techniques in the context of simulated electrical fields in the brain. The goal of this evaluation was clarify the advantages and disadvantages of the used visualization techniques to the neuroscientific community. We exemplified these, using clinically relevant scenarios.
Part II: Besides the data preprocessing, which plays a tremendous role in visualization, the final graphical representation of the data is essential to understand structure and features in the data. The graphical representation of data can be seen as the interface between the data and the human mind. The second part of my work is focused on the improvement of structural and spatial perception of visualization -- the improvement of the interface.
Unfortunately, visual improvements using computer graphics methods of the computer game industry is often seen sceptically. In the second part, I will show that such methods can be applied to existing visualization techniques to improve spatiality and to emphasize structural details in the data. I will use a computer graphics paradigm called \"screen space rendering\". Its advantage, amongst others, is its seamless applicability to nearly every visualization technique.
I will start with two methods that improve the perception of mesh-like structures on arbitrary surfaces. Those mesh structures represent second-order tensors and are generated by a method named \"TensorMesh\". Afterwards I show a novel approach to optimally shade line and point data renderings. With this technique it is possible for the first time to emphasize local details and global, spatial relations in dense line and point data.In vielen Bereichen der Wissenschaft nimmt die GröĂe und KomplexitĂ€t von gemessenen und simulierten Daten zu. Die technische Entwicklung erlaubt das Erfassen immer kleinerer Strukturen und komplexerer Sachverhalte. Um solche Daten dem Menschen zugĂ€nglich zu machen, benötigt man effiziente und spezialisierte Visualisierungswerkzeuge. Nur die Anpassung der Visualisierung auf ein Anwendungsgebiet und dessen Anforderungen erlaubt maximale Effizienz und Nutzen fĂŒr den Anwender.
Teil I: Im ersten Teil meiner Arbeit befasse ich mich mit der Visualisierung im Bereich der Neurowissenschaften. Ihr Ziel ist es, das menschliche Gehirn zu begreifen; von seinen kleinsten Teilen bis hin zu seiner Gesamtstruktur. Um dieses ehrgeizige Ziel zu erreichen nutzt die Neurowissenschaft vor allem kombinierte, dreidimensionale Daten aus vielzÀhligen Quellen, wie MRT, CT oder funktionalem MRT. Um mit dieser Vielfalt umgehen zu können, benötigt man in der Neurowissenschaft vor allem spezialisierte und evaluierte Visualisierungsmethoden.
ZunĂ€chst stelle ich ein umfangreiches Softwareprojekt namens \"OpenWalnut\" vor. Es bildet die gemeinsame Basis fĂŒr die Entwicklung und Nutzung von Visualisierungstechniken mit unseren neurowissenschaftlichen Kollaborationspartnern. Auf dieser Basis sind klassische und neu entwickelte Visualisierungen auch fĂŒr Neurowissenschaftler zugĂ€nglich. AnschlieĂend stelle ich ein spezialisiertes Visualisierungsverfahren vor, welches es ermöglicht, den kausalen Zusammenhang zwischen Gehirnarealen zu illustrieren. Das war vorher nur durch abstrakte Graphenmodelle möglich. Den ersten Teil der Arbeit schlieĂe ich mit einer Evaluation verschiedener Standardmethoden unter dem Blickwinkel simulierter elektrischer Felder im Gehirn ab. Das Ziel dieser Evaluation war es, der neurowissenschaftlichen Gemeinde die Vor- und Nachteile bestimmter Techniken zu verdeutlichen und anhand klinisch relevanter FĂ€lle zu erlĂ€utern.
Teil II: Neben der eigentlichen Datenvorverarbeitung, welche in der Visualisierung eine enorme Rolle spielt, ist die grafische Darstellung essenziell fĂŒr das VerstĂ€ndnis der Strukturen und Bestandteile in den Daten. Die grafische ReprĂ€sentation von Daten bildet die Schnittstelle zum Gehirn des Menschen. Der zweite Teile meiner Arbeit befasst sich mit der Verbesserung der strukturellen und rĂ€umlichen Wahrnehmung in Visualisierungsverfahren -- mit der Verbesserung der Schnittstelle.
Leider werden viele visuelle Verbesserungen durch Computergrafikmethoden der Spieleindustrie mit Argwohn beÀugt. Im zweiten Teil meiner Arbeit werde ich zeigen, dass solche Methoden in der Visualisierung angewendet werden können um den rÀumlichen Eindruck zu verbessern und Strukturen in den Daten hervorzuheben. Dazu nutze ich ein in der Computergrafik bekanntes Paradigma: das \"Screen Space Rendering\". Dieses Paradigma hat den Vorteil, dass es auf nahezu jede existierende Visualiserungsmethode als Nachbearbeitunsgschritt angewendet werden kann.
ZunĂ€chst fĂŒhre ich zwei Methoden ein, die die Wahrnehmung von gitterartigen Strukturen auf beliebigen OberflĂ€chen verbessern. Diese Gitter reprĂ€sentieren die Struktur von Tensoren zweiter Ordnung und wurden durch eine Methode namens \"TensorMesh\" erzeugt. AnschlieĂend zeige ich eine neuartige Technik fĂŒr die optimale Schattierung von Linien und Punktdaten. Mit dieser Technik ist es erstmals möglich sowohl lokale Details als auch globale rĂ€umliche ZusammenhĂ€nge in dichten Linien- und Punktdaten zu erfassen
Enhanced Virtuality: Increasing the Usability and Productivity of Virtual Environments
Mit stetig steigender Bildschirmauflösung, genauerem Tracking und fallenden Preisen stehen Virtual Reality (VR) Systeme kurz davor sich erfolgreich am Markt zu etablieren. Verschiedene Werkzeuge helfen Entwicklern bei der Erstellung komplexer Interaktionen mit mehreren Benutzern innerhalb adaptiver virtueller Umgebungen. Allerdings entstehen mit der Verbreitung der VR-Systeme auch zusĂ€tzliche Herausforderungen: Diverse EingabegerĂ€te mit ungewohnten Formen und Tastenlayouts verhindern eine intuitive Interaktion. DarĂŒber hinaus zwingt der eingeschrĂ€nkte Funktionsumfang bestehender Software die Nutzer dazu, auf herkömmliche PC- oder Touch-basierte Systeme zurĂŒckzugreifen. AuĂerdem birgt die Zusammenarbeit mit anderen Anwendern am gleichen Standort Herausforderungen hinsichtlich der Kalibrierung unterschiedlicher Trackingsysteme und der Kollisionsvermeidung. Beim entfernten Zusammenarbeiten wird die Interaktion durch Latenzzeiten und Verbindungsverluste zusĂ€tzlich beeinflusst. SchlieĂlich haben die Benutzer unterschiedliche Anforderungen an die Visualisierung von Inhalten, z.B. GröĂe, Ausrichtung, Farbe oder Kontrast, innerhalb der virtuellen Welten. Eine strikte Nachbildung von realen Umgebungen in VR verschenkt Potential und wird es nicht ermöglichen, die individuellen BedĂŒrfnisse der Benutzer zu berĂŒcksichtigen.
Um diese Probleme anzugehen, werden in der vorliegenden Arbeit Lösungen in den Bereichen Eingabe, Zusammenarbeit und Erweiterung von virtuellen Welten und Benutzern vorgestellt, die darauf abzielen, die Benutzerfreundlichkeit und ProduktivitĂ€t von VR zu erhöhen. ZunĂ€chst werden PC-basierte Hardware und Software in die virtuelle Welt ĂŒbertragen, um die Vertrautheit und den Funktionsumfang bestehender Anwendungen in VR zu erhalten. Virtuelle Stellvertreter von physischen GerĂ€ten, z.B. Tastatur und Tablet, und ein VR-Modus fĂŒr Anwendungen ermöglichen es dem Benutzer reale FĂ€higkeiten in die virtuelle Welt zu ĂŒbertragen. Des Weiteren wird ein Algorithmus vorgestellt, der die Kalibrierung mehrerer ko-lokaler VR-GerĂ€te mit hoher Genauigkeit und geringen Hardwareanforderungen und geringem Aufwand ermöglicht. Da VR-Headsets die reale Umgebung der Benutzer ausblenden, wird die Relevanz einer Ganzkörper-Avatar-Visualisierung fĂŒr die Kollisionsvermeidung und das entfernte Zusammenarbeiten nachgewiesen. DarĂŒber hinaus werden personalisierte rĂ€umliche oder zeitliche Modifikationen vorgestellt, die es erlauben, die Benutzerfreundlichkeit, Arbeitsleistung und soziale PrĂ€senz von Benutzern zu erhöhen. Diskrepanzen zwischen den virtuellen Welten, die durch persönliche Anpassungen entstehen, werden durch Methoden der Avatar-Umlenkung (engl. redirection) kompensiert. AbschlieĂend werden einige der Methoden und Erkenntnisse in eine beispielhafte Anwendung integriert, um deren praktische Anwendbarkeit zu verdeutlichen.
Die vorliegende Arbeit zeigt, dass virtuelle Umgebungen auf realen FĂ€higkeiten und Erfahrungen aufbauen können, um eine vertraute und einfache Interaktion und Zusammenarbeit von Benutzern zu gewĂ€hrleisten. DarĂŒber hinaus ermöglichen individuelle Erweiterungen des virtuellen Inhalts und der Avatare EinschrĂ€nkungen der realen Welt zu ĂŒberwinden und das Erlebnis von VR-Umgebungen zu steigern
Interdisciplinary Film & Digital Media 2015 APR Self-Study & Documents
UNM Interdisciplinary Film & Digital Media APR self-study report, review team report, response to review report, and initial action plan for Spring 2015, fulfilling requirements of the Higher Learning Commission. IFDM was absorbed by the Cinematic Arts Department following this review
- âŠ