5 research outputs found

    Innovative Informatikanwendungen : Informatik 2003 ; 29. September - 2. Oktober 2003 in Frankfurt am Main

    Get PDF
    Tagungsprogramm INFORMATIK 2003 Innovative Informatikanwendungen. 33. Jahrestagung der Gesellschaft für Informatik e.V. (GI) 29. September bis 2. Oktober 2003 Frankfurt am Mai

    LightSkin: Globale Echtzeitbeleuchtung für Virtual und Augmented Reality

    Get PDF
    In nature, each interaction of light is bound to a global context. Thus, each observable natural light phenomenon is the result of global illumination. It is based on manifold laws of absorption, reflection, and refraction, which are mostly too complex to simulate given the real-time constraints of interactive applications. Therefore, many interactive applications do not support the simulation of those global illumination phenomena yet, which results in unrealistic and synthetic-looking renderings. This unrealistic rendering becomes especially a problem in the context of virtual reality and augmented reality applications, where the user should experience the simulation as realistic as possible. In this thesis we present a novel approach called LightSkin that calculates global illumination phenomena in real-time. The approach was especially developed for virtual reality and augmented reality applications satisfying several constraints coming along with those applications. As part of the approach we introduce a novel interpolation scheme, which is capable to calculate realistic indirect illumination results based on a few number of supporting points, distributed on model surfaces. Each supporting point creates its own proxy light sources, which are used to represent the whole indirect illumination for this point in a compact manner. These proxy light sources are then linearly interpolated to obtain dense results for the entire visible scene. Due to an efficient implementation on GPU, the method is very fast supporting complex and dynamic scenes. Based on the approach, it is possible to simulate diffuse and glossy indirect reflections, soft shadows, and multiple subsurface scattering phenomena without neglecting filigree surface details. Furthermore, the method can be adapted to augmented reality applications providing mutual global illumination effects between dynamic real and virtual objects using an active RGB-D sensor device. In contrast to existing interactive global illumination approaches, our approach supports all kinds of animations, handling them more efficient, not requiring extra calculations or leading to disturbing temporal artifacts. This thesis contains all information needed to understand, implement, and evaluate the novel LightSkin approach and also provides a comprehensive overview of the related field of research.In der Natur ist jede Interaktion des Lichts mit Materie in einen globalen Kontext eingebunden, weswegen alle natürlichen Beleuchtungsphänomene in unserer Umwelt das Resultat globaler Beleuchtung sind. Diese basiert auf der Anwendung mannigfaltiger Absorptions-, Reflexions- und Brechungsgesetze, deren Simulation so komplex ist, dass interaktive Anwendungen diese nicht in wenigen Millisekunden berechnen können. Deshalb wurde bisher in vielen interaktiven Systemen auf die Abbildung von solchen globalen Beleuchtungsphänomenen verzichtet, was jedoch zu einer unrealistischen und synthetisch-wirkenden Darstellung führte. Diese unrealistische Darstellung ist besonders für die Anwendungsfelder Virtual Reality und Augmented Reality, bei denen der Nutzer eine möglichst realitätsnahe Simulation erfahren soll, ein gewichtiger Nachteil. In dieser Arbeit wird das LightSkin-Verfahren vorgestellt, das es erlaubt, globale Beleuchtungsphänomene in einer Echtzeitanwendung darzustellen. Das Verfahren wurde speziell für die Anwendungsfelder Virtual Reality und Augmented Reality entwickelt und erfüllt spezifische Anforderungen, die diese an eine Echtzeitanwendung stellen. Bei dem Verfahren wird das indirekte Licht durch eine geringe Anzahl von Punktlichtquellen (Proxy-Lichtquellen) repräsentiert, die für eine lose Menge von Oberflächenpunkten (Caches) berechnet und anschließend über die komplette sichtbare Szene interpoliert werden. Diese neue Form der Repräsentation der indirekten Beleuchtung erlaubt eine effiziente Berechnung von diffusen und glänzenden indirekten Reflexionen, die Abbildung von weichen Schatten und die Simulation von Multiple-Subsurface-Scattering-Effekten in Echtzeit für komplexe und voll dynamische Szenen. Ferner wird gezeigt, wie das Verfahren modifiziert werden kann, um globale Lichtwechselwirkungen zwischen realen und virtuellen Objekten in einer Augmented-Reality-Anwendung zu simulieren. Im Gegensatz zu den meisten existierenden Echtzeitverfahren zur Simulation von globalen Beleuchtungseffekten benötigt der hier vorgestellte Ansatz keine aufwändigen zusätzlichen Berechnungen bei Animationen und erzeugt darüber hinaus für diese keine visuellen Artefakte. Diese Arbeit enthält alle Informationen, die zum Verständnis, zur Implementierung und zur Evaluation des LightSkin-Verfahrens benötigt werden und gibt darüber hinaus einen umfassenden Über- blick über das Forschungsfeld

    The delta radiance field

    Get PDF
    The wide availability of mobile devices capable of computing high fidelity graphics in real-time has sparked a renewed interest in the development and research of Augmented Reality applications. Within the large spectrum of mixed real and virtual elements one specific area is dedicated to produce realistic augmentations with the aim of presenting virtual copies of real existing objects or soon to be produced products. Surprisingly though, the current state of this area leaves much to be desired: Augmenting objects in current systems are often presented without any reconstructed lighting whatsoever and therefore transfer an impression of being glued over a camera image rather than augmenting reality. In light of the advances in the movie industry, which has handled cases of mixed realities from one extreme end to another, it is a legitimate question to ask why such advances did not fully reflect onto Augmented Reality simulations as well. Generally understood to be real-time applications which reconstruct the spatial relation of real world elements and virtual objects, Augmented Reality has to deal with several uncertainties. Among them, unknown illumination and real scene conditions are the most important. Any kind of reconstruction of real world properties in an ad-hoc manner must likewise be incorporated into an algorithm responsible for shading virtual objects and transferring virtual light to real surfaces in an ad-hoc fashion. The immersiveness of an Augmented Reality simulation is, next to its realism and accuracy, primarily dependent on its responsiveness. Any computation affecting the final image must be computed in real-time. This condition rules out many of the methods used for movie production. The remaining real-time options face three problems: The shading of virtual surfaces under real natural illumination, the relighting of real surfaces according to the change in illumination due to the introduction of a new object into a scene, and the believable global interaction of real and virtual light. This dissertation presents contributions to answer the problems at hand. Current state-of-the-art methods build on Differential Rendering techniques to fuse global illumination algorithms into AR environments. This simple approach has a computationally costly downside, which limits the options for believable light transfer even further. This dissertation explores new shading and relighting algorithms built on a mathematical foundation replacing Differential Rendering. The result not only presents a more efficient competitor to the current state-of-the-art in global illumination relighting, but also advances the field with the ability to simulate effects which have not been demonstrated by contemporary publications until now

    Telematik im Gesundheitswesen

    Get PDF
    Der Umbau des deutschen Gesundheitswesens gehört neben der Renten- und Arbeitsmarktreform zu den aktuellen sozialpolitischen Großprojekten. Über einen längeren Transformationszeitraum wird er bei Politik, Wirtschaft und Bürgern enorme Veränderungen erzwingen. Beschleunigt durch diesen Veränderungsdruck wird auch das Gesundheitswesen durch die neuen Informations- und Kommunikationstechnologien mehr und mehr beeinflusst und neu strukturiert. Dadurch entstehen weitere, auch für breitere Bevölkerungsschichten neue Impulse für die technische, wirtschaftliche und gesellschaftliche Weiterentwicklung zur Informations- und Wissensgesellschaft. Gesundheitstelematische Technologien sind bereits weit verbreitet. Vom Einsatz dieser Technologien werden sowohl Qualitätsverbesserungen erwartet als auch spürbare finanzielle Entlastungen. Um dieses innovative Potential koordiniert, effizient und produktiv zu gestalten, müssen noch verbesserte strukturelle, juristische und ökonomische Rahmenbedingungen geschaffen und wichtige Schlüsselanwendungen gefördert werden. Dazu bedarf es vor allem des politischen Willens. Die Akzeptanz der Telematik im Gesundheitswesen muss bei allen Beteiligten systematisch weiter entwickelt werden. Angesichts des notwendigen Paradigmenwechsels im deutschen Gesundheitswesen möchte die vorliegende Diplomarbeit einen Beitrag zum Einsatz, zu den aktuellen Möglichkeiten, den Chancen und Risiken der Telematik im Gesundheitssystem leisten

    Visuelle Verfahren für ortsbezogene Dienste

    Get PDF
    Durch die rasante Entwicklung und Verbreitung mobiler Endgeräte, wie z.B. Smartphones, Tablets und Wearables, ist die Anzahl ortsbezogener Dienste in den letzten Jahren enorm angestiegen. Die Positionsbestimmung des Nutzers ist für solche Dienste zwingend notwendig. Funkbasierte Verfahren wie zum Beispiel GPS oder WLAN ermöglichen die Lokalisierung des Nutzers. Trotz der hohen Genauigkeit und der stetigen Weiterentwicklung der Verfahren haben diese Technologien ihre Grenzen und stehen nicht immer zur Verfügung, weshalb andere Lösungen unterstützend oder als Alternative zum Einsatz kommen müssen. Optische Sensoren, speziell Kamerasensoren oder sogenannte Actioncams, bieten hierfür eine Alternative an. Die Kombination aus hochauflösenden Kameras und der Leistungsfähigkeit mobiler Endgeräte bietet die Möglichkeit Methoden zur Positionsbestimmung und Aktivitätserkennung zu realisieren. Obwohl bereits heute einige visuelle Verfahren für ortsbezogene Dienste genutzt werden, steckt die Entwicklung auf diesem Gebiet immer noch in den Kinderschuhen. Daher werden in der vorliegenden Arbeit neuartige und erweiterte visuelle Verfahren zur Positionsbestimmung und Aktivitätserkennung vorgestellt, welche rein auf der Kamera mobiler Endgeräte basierend umgesetzt werden. Dafür werden markante visuelle Merkmale aus Bildsequenzen extrahiert und für die Bestimmung der relativen und absoluten Position verwendet. Zusätzlich werden die selben markanten Merkmale zur Bestimmung der aktuellen Aktivität eines Nutzers genutzt. In der vorliegenden Arbeit wird ein Verfahren zum effizienten Vergleich von Bildinformationen vorgestellt. Dazu wird ein Prozess entwickelt, der aus mehreren Vergleichsstufen besteht. Ähnlich wie bei einem Siebverfahren werden dabei stufenweise falsche Bilder aussortiert. Ziel ist es, ein Verfahren zu entwickeln, das fotografierte Bildsequenzen von Objekten oder ganzen Standorten in kürzester Zeit eindeutig wieder erkennen kann. Anschließend werden drei neue Erweiterungen für ein visuelles Positionierungssystem, namens MoViPS, vorgestellt. Diese Erweiterungen sollen das System für einen Echtzeitbetrieb nutzbar machen. Zwei Erweiterungen verkürzen allgemein die Antwortzeit und machen gleichzeitig den gesamten Prozess effizienter und robuster. Die dritte Erweiterung verbessert das bestehende Positionskorrekturverfahren aus MoViPS. Im letzten Teil dieser Arbeit wird ein Verfahren der visuellen Odometrie vorgestellt, das auf Basis eines Kamerasensors funktioniert, der aus der Ego-Perspektive einer Person aufzeichnet. Anders als bekannte State-of-the-Art-Verfahren basiert das Verfahren auf einem visuellen Schrittzähler und einem visuellen Kompass. Zusätzlich wird eine visuelle Aktivitätserkennung vorgestellt. Mit Hilfe der Eigenschaften markanter Merkmale, die aus einer Bildsequenz extrahiert werden, können Schritte sowie Aktivitäten erkannt werden. Die Beiträge der vorliegenden Arbeit liefern somit wichtige Grundbausteine für die Entwicklung und Erweiterung visueller Positionierungssysteme. Sie bieten zusätzlich visuelle Verfahren für ortsbezogene Dienste an, die die einfache Position und Aktivitäten eines Nutzers bestimmen können.Due to rapid development and wide distribution of mobile devices, such as Smartphones, tablets and wearables, the number of location-based services has increased enormously in recent years. For such services the position of a user is mandatory. Therefore wireless technologies and systems like e.g. GPS or WiFi are used for location determination. Despite high accuracy and continuous development these systems come with limitations like restricted availability. In order to compensate these restrictions, other technologies like optical sensors, especially camera sensors or so-called Actioncams are used as alternative or supportive systems. The combination of high-resolution cameras and the performance of mobile devices allow position determination and activity analysis. Although location-based services already make use of visual methods, development in this field is still in its infancy. This dissertation presents novel and advanced visual methods for localization determination and activity analysis based on mobile device cameras. Prominent visual features extracted from image sequences provide the basis for this kind of relative and absolute positioning and actvity determination. This work reveals a method for efficient comparison of image information. For this purpose a process is developed, which consists of several comparison steps to remove false images similary to a sieve filter. The aim is to develop a method that can clearly recognize photographed image sequences of objects or entire locations in a very short time. Subsequently three new extensions for a visual positioning system, called MoVIPS, are presented. Two of these extensions in general reduce response time and increase process efficiency and robustness. The third extension improves the existing positions correction method of MoVIPS. The last part of this work presents a camera sensor based method of visual odometry which records from first person perspective. Unlike known state-of-the-art methods, this method uses visual step counting and a visual compass. In addition, a visual activity detection is presented. Using the properties of prominent visual features that are extracted from an image sequence, steps and activities can be detected. The contributions of this work provides important foundations for the development and expansion of visual positioning systems. They also offer a visual method for location-based services that can determine the simple position and activities of a user
    corecore