5 research outputs found
Innovative Informatikanwendungen : Informatik 2003 ; 29. September - 2. Oktober 2003 in Frankfurt am Main
Tagungsprogramm INFORMATIK 2003 Innovative Informatikanwendungen. 33. Jahrestagung der Gesellschaft für Informatik e.V. (GI) 29. September bis 2. Oktober 2003 Frankfurt am Mai
LightSkin: Globale Echtzeitbeleuchtung für Virtual und Augmented Reality
In nature, each interaction of light is bound to a global context. Thus,
each observable natural light phenomenon is the result of global
illumination. It is based on manifold laws of absorption, reflection, and
refraction, which are mostly too complex to simulate given the real-time
constraints of interactive applications. Therefore, many interactive
applications do not support the simulation of those global illumination
phenomena yet, which results in unrealistic and synthetic-looking
renderings. This unrealistic rendering becomes especially a problem in the
context of virtual reality and augmented reality applications, where the
user should experience the simulation as realistic as possible. In this
thesis we present a novel approach called LightSkin that calculates global
illumination phenomena in real-time. The approach was especially developed
for virtual reality and augmented reality applications satisfying several
constraints coming along with those applications. As part of the approach
we introduce a novel interpolation scheme, which is capable to calculate
realistic indirect illumination results based on a few number of supporting
points, distributed on model surfaces. Each supporting point creates its
own proxy light sources, which are used to represent the whole indirect
illumination for this point in a compact manner. These proxy light sources
are then linearly interpolated to obtain dense results for the entire
visible scene. Due to an efficient implementation on GPU, the method is
very fast supporting complex and dynamic scenes. Based on the approach, it
is possible to simulate diffuse and glossy indirect reflections, soft
shadows, and multiple subsurface scattering phenomena without neglecting
filigree surface details. Furthermore, the method can be adapted to
augmented reality applications providing mutual global illumination effects
between dynamic real and virtual objects using an active RGB-D sensor
device. In contrast to existing interactive global illumination approaches,
our approach supports all kinds of animations, handling them more
efficient, not requiring extra calculations or leading to disturbing
temporal artifacts. This thesis contains all information needed to
understand, implement, and evaluate the novel LightSkin approach and also
provides a comprehensive overview of the related field of research.In der Natur ist jede Interaktion des Lichts mit Materie in einen globalen
Kontext eingebunden, weswegen alle natürlichen Beleuchtungsphänomene in
unserer Umwelt das Resultat globaler Beleuchtung sind. Diese basiert auf
der Anwendung mannigfaltiger Absorptions-, Reflexions- und
Brechungsgesetze, deren Simulation so komplex ist, dass interaktive
Anwendungen diese nicht in wenigen Millisekunden berechnen können. Deshalb
wurde bisher in vielen interaktiven Systemen auf die Abbildung von solchen
globalen Beleuchtungsphänomenen verzichtet, was jedoch zu einer
unrealistischen und synthetisch-wirkenden Darstellung führte. Diese
unrealistische Darstellung ist besonders für die Anwendungsfelder Virtual
Reality und Augmented Reality, bei denen der Nutzer eine möglichst
realitätsnahe Simulation erfahren soll, ein gewichtiger Nachteil. In dieser
Arbeit wird das LightSkin-Verfahren vorgestellt, das es erlaubt, globale
Beleuchtungsphänomene in einer Echtzeitanwendung darzustellen. Das
Verfahren wurde speziell für die Anwendungsfelder Virtual Reality und
Augmented Reality entwickelt und erfüllt spezifische Anforderungen, die
diese an eine Echtzeitanwendung stellen. Bei dem Verfahren wird das
indirekte Licht durch eine geringe Anzahl von Punktlichtquellen
(Proxy-Lichtquellen) repräsentiert, die für eine lose Menge von
Oberflächenpunkten (Caches) berechnet und anschließend über die komplette
sichtbare Szene interpoliert werden. Diese neue Form der Repräsentation der
indirekten Beleuchtung erlaubt eine effiziente Berechnung von diffusen und
glänzenden indirekten Reflexionen, die Abbildung von weichen Schatten und
die Simulation von Multiple-Subsurface-Scattering-Effekten in Echtzeit für
komplexe und voll dynamische Szenen. Ferner wird gezeigt, wie das Verfahren
modifiziert werden kann, um globale Lichtwechselwirkungen zwischen realen
und virtuellen Objekten in einer Augmented-Reality-Anwendung zu simulieren.
Im Gegensatz zu den meisten existierenden Echtzeitverfahren zur Simulation
von globalen Beleuchtungseffekten benötigt der hier vorgestellte Ansatz
keine aufwändigen zusätzlichen Berechnungen bei Animationen und erzeugt
darüber hinaus für diese keine visuellen Artefakte. Diese Arbeit enthält
alle Informationen, die zum Verständnis, zur Implementierung und zur
Evaluation des LightSkin-Verfahrens benötigt werden und gibt darüber hinaus
einen umfassenden Über- blick über das Forschungsfeld
The delta radiance field
The wide availability of mobile devices capable of computing high fidelity graphics in real-time has sparked a renewed interest in the development and research of Augmented Reality applications. Within the large spectrum of mixed real and virtual elements one specific area is dedicated to produce realistic augmentations with the aim of presenting virtual copies of real existing objects or soon to be produced products. Surprisingly though, the current state of this area leaves much to be desired: Augmenting objects in current systems are often presented without any reconstructed lighting whatsoever and therefore transfer an impression of being glued over a camera image rather than augmenting reality. In light of the advances in the movie industry, which has handled cases of mixed realities from one extreme end to another, it is a legitimate question to ask why such advances did not fully reflect onto Augmented Reality simulations as well.
Generally understood to be real-time applications which reconstruct the spatial relation of real world elements and virtual objects, Augmented Reality has to deal with several uncertainties. Among them, unknown illumination and real scene conditions are the most important. Any kind of reconstruction of real world properties in an ad-hoc manner must likewise be incorporated into an algorithm responsible for shading virtual objects and transferring virtual light to real surfaces in an ad-hoc fashion. The immersiveness of an Augmented Reality simulation is, next to its realism and accuracy, primarily dependent on its responsiveness. Any computation affecting the final image must be computed in real-time. This condition rules out many of the methods used for movie production.
The remaining real-time options face three problems: The shading of virtual surfaces under real natural illumination, the relighting of real surfaces according to the change in illumination due to the introduction of a new object into a scene, and the believable global interaction of real and virtual light. This dissertation presents contributions to answer the problems at hand.
Current state-of-the-art methods build on Differential Rendering techniques to fuse global illumination algorithms into AR environments. This simple approach has a computationally costly downside, which limits the options for believable light transfer even further. This dissertation explores new shading and relighting algorithms built on a mathematical foundation replacing Differential Rendering. The result not only presents a more efficient competitor to the current state-of-the-art in global illumination relighting, but also advances the field with the ability to simulate effects which have not been demonstrated by contemporary publications until now
Telematik im Gesundheitswesen
Der Umbau des deutschen Gesundheitswesens gehört neben der Renten- und Arbeitsmarktreform zu den aktuellen sozialpolitischen Großprojekten. Über einen längeren Transformationszeitraum wird er bei Politik, Wirtschaft und Bürgern enorme Veränderungen erzwingen. Beschleunigt durch diesen Veränderungsdruck wird auch das Gesundheitswesen durch die neuen Informations- und Kommunikationstechnologien mehr und mehr beeinflusst und neu strukturiert. Dadurch entstehen weitere, auch für breitere Bevölkerungsschichten neue Impulse für die technische, wirtschaftliche und gesellschaftliche Weiterentwicklung zur Informations- und Wissensgesellschaft. Gesundheitstelematische Technologien sind bereits weit verbreitet. Vom Einsatz dieser Technologien werden sowohl Qualitätsverbesserungen erwartet als auch spürbare finanzielle Entlastungen. Um dieses innovative Potential koordiniert, effizient und produktiv zu gestalten, müssen noch verbesserte strukturelle, juristische und ökonomische Rahmenbedingungen geschaffen und wichtige Schlüsselanwendungen gefördert werden. Dazu bedarf es vor allem des politischen Willens. Die Akzeptanz der Telematik im Gesundheitswesen muss bei allen Beteiligten systematisch weiter entwickelt werden. Angesichts des notwendigen Paradigmenwechsels im deutschen Gesundheitswesen möchte die vorliegende Diplomarbeit einen Beitrag zum Einsatz, zu den aktuellen Möglichkeiten, den Chancen und Risiken der Telematik im Gesundheitssystem leisten
Visuelle Verfahren für ortsbezogene Dienste
Durch die rasante Entwicklung und Verbreitung mobiler Endgeräte, wie z.B. Smartphones, Tablets und Wearables, ist die Anzahl ortsbezogener Dienste in den letzten Jahren enorm angestiegen.
Die Positionsbestimmung des Nutzers ist für solche Dienste zwingend notwendig. Funkbasierte Verfahren wie zum Beispiel GPS oder WLAN ermöglichen die Lokalisierung des Nutzers.
Trotz der hohen Genauigkeit und der stetigen Weiterentwicklung der Verfahren haben diese Technologien ihre Grenzen und stehen nicht immer zur Verfügung, weshalb andere Lösungen unterstützend oder als Alternative zum Einsatz kommen müssen.
Optische Sensoren, speziell Kamerasensoren oder sogenannte Actioncams, bieten hierfür eine Alternative an.
Die Kombination aus hochauflösenden Kameras und der Leistungsfähigkeit mobiler Endgeräte bietet die Möglichkeit Methoden zur Positionsbestimmung und Aktivitätserkennung zu realisieren.
Obwohl bereits heute einige visuelle Verfahren für ortsbezogene Dienste genutzt werden, steckt die Entwicklung auf diesem Gebiet immer noch in den Kinderschuhen.
Daher werden in der vorliegenden Arbeit neuartige und erweiterte visuelle Verfahren zur Positionsbestimmung und Aktivitätserkennung vorgestellt, welche rein auf der Kamera mobiler Endgeräte basierend umgesetzt werden.
Dafür werden markante visuelle Merkmale aus Bildsequenzen extrahiert und für die Bestimmung der relativen und absoluten Position verwendet.
Zusätzlich werden die selben markanten Merkmale zur Bestimmung der aktuellen Aktivität eines Nutzers genutzt.
In der vorliegenden Arbeit wird ein Verfahren zum effizienten Vergleich von Bildinformationen vorgestellt.
Dazu wird ein Prozess entwickelt, der aus mehreren Vergleichsstufen besteht.
Ähnlich wie bei einem Siebverfahren werden dabei stufenweise falsche Bilder aussortiert.
Ziel ist es, ein Verfahren zu entwickeln, das fotografierte Bildsequenzen von Objekten oder ganzen Standorten in kürzester Zeit eindeutig wieder erkennen kann.
Anschließend werden drei neue Erweiterungen für ein visuelles Positionierungssystem, namens MoViPS, vorgestellt.
Diese Erweiterungen sollen das System für einen Echtzeitbetrieb nutzbar machen.
Zwei Erweiterungen verkürzen allgemein die Antwortzeit und machen gleichzeitig den gesamten Prozess effizienter und robuster.
Die dritte Erweiterung verbessert das bestehende Positionskorrekturverfahren aus MoViPS.
Im letzten Teil dieser Arbeit wird ein Verfahren der visuellen Odometrie vorgestellt, das auf Basis eines Kamerasensors funktioniert, der aus der Ego-Perspektive einer Person aufzeichnet.
Anders als bekannte State-of-the-Art-Verfahren basiert das Verfahren auf einem visuellen Schrittzähler und einem visuellen Kompass. Zusätzlich wird eine visuelle Aktivitätserkennung vorgestellt.
Mit Hilfe der Eigenschaften markanter Merkmale, die aus einer Bildsequenz extrahiert werden, können Schritte sowie Aktivitäten erkannt werden.
Die Beiträge der vorliegenden Arbeit liefern somit wichtige Grundbausteine für die Entwicklung und Erweiterung visueller Positionierungssysteme. Sie bieten zusätzlich visuelle Verfahren für ortsbezogene Dienste an, die die einfache Position und Aktivitäten eines Nutzers bestimmen können.Due to rapid development and wide distribution of mobile devices, such as Smartphones, tablets and wearables, the number of location-based services has increased enormously in recent years.
For such services the position of a user is mandatory. Therefore wireless technologies and systems like e.g. GPS or WiFi are used for location determination.
Despite high accuracy and continuous development these systems come with limitations like restricted availability. In order to compensate these restrictions, other technologies like optical sensors, especially camera sensors or so-called Actioncams are used as alternative or supportive systems.
The combination of high-resolution cameras and the performance of mobile devices allow position determination and activity analysis.
Although location-based services already make use of visual methods, development in this field is still in its infancy.
This dissertation presents novel and advanced visual methods for localization determination and activity analysis based on mobile device cameras.
Prominent visual features extracted from image sequences provide the basis for this kind of relative and absolute positioning and actvity determination.
This work reveals a method for efficient comparison of image information.
For this purpose a process is developed, which consists of several comparison steps to remove false images similary to a sieve filter.
The aim is to develop a method that can clearly recognize photographed image sequences of objects or entire locations in a very short time.
Subsequently three new extensions for a visual positioning system, called MoVIPS, are presented.
Two of these extensions in general reduce response time and increase process efficiency and robustness.
The third extension improves the existing positions correction method of MoVIPS.
The last part of this work presents a camera sensor based method of visual odometry which records from first person perspective.
Unlike known state-of-the-art methods, this method uses visual step counting and a visual compass.
In addition, a visual activity detection is presented.
Using the properties of prominent visual features that are extracted from an image sequence, steps and activities can be detected.
The contributions of this work provides important foundations for the development and expansion of visual positioning systems.
They also offer a visual method for location-based services that can determine the simple position and activities of a user