8 research outputs found

    Interaktionstechniken fĂŒr mobile Augmented-Reality-Anwendungen basierend auf Blick- und Handbewegungen

    Get PDF
    Intuitive interaction techniques are essential for mobile augmented reality systems. For implicit interaction, this work presents techniques for automatic eye movement analysis and visualization. In the context of explicit interaction, a fusion of optical flow, skin color segmentation, and a hand pose estimator is presented along with a tracking method for localization and pose estimation of a hand in monocular color images

    Interaktionstechniken fĂŒr mobile Augmented-Reality-Anwendungen basierend auf Blick- und Handbewegungen

    Get PDF
    Visuelle Augmented Reality hat das Potential, die Art und Weise, wie der Mensch mit Maschinen kommuniziert, grundlegend zu verĂ€ndern. Grundvoraussetzung dafĂŒr sind angenehm zu tragende binokulare AR-Brillen mit einem großen Sichtfeld fĂŒr visuelle Einblendungen mit hohem Kontrast, so dass virtuelle Elemente als Teil der realen Umgebung dargestellt und wahrgenommen werden können. Gleichzeitig bedĂŒrfen derartige AR-Systeme einer intuitiven Interaktion mit ihrem Benutzer, um akzeptiert zu werden. Blick und Handgesten bilden neben Sprache die Interaktionstechniken der Wahl, um mit virtuellen Elementen zu interagieren. Die vorliegende Arbeit beschĂ€ftigt sich mit der Analyse des Blickes fĂŒr eine implizite unbewusste Interaktion und mit der Erfassung von Handgesten fĂŒr die explizite Interaktion in mobilen Anwendungen. Es wird eines der ersten Verfahren zur vollautomatischen echtzeitfĂ€higen Blickbewegungsanalyse in dreidimensionalen Umgebungen anhand eines Beispiels aus dem Museumskontext vorgestellt. DafĂŒr wurde eine 3D-Blickpunktberechnung und eine darauf aufsetzende echtzeitfĂ€hige Blickanalyse von 3D-Blickpfaden realisiert, als dies mit anderen BlickmessgerĂ€ten inklusive zugehöriger Software nicht möglich war. ZusĂ€tzlich wird das Verfahren Projected Gaussians fĂŒr die Darstellung dreidimensionalen Blickverhaltens vorgestellt, das in Echtzeit realistische Visualisierung von Heatmaps in dreidimensionalen Umgebungen erzeugt. Dieses Verfahren ist das weltweit einzige, das die visuelle SchĂ€rfe des menschlichen Blickes in die Szene projiziert und damit nah am physikalischen Prozess der Wahrnehmung bleibt. Kein zuvor vorgestelltes Verfahren berĂŒcksichtigte Verdeckungen oder ermöglichte eine von der Polygonstruktur unabhĂ€ngige EinfĂ€rbung von OberflĂ€chen. Sowohl das Verfahren zur vollautomatischen Blickanalyse als auch Projected Gaussians wird anhand eines Beispiels auf echte Blickdaten angewendet und die Ergebnisse dieser Analyse werden prĂ€sentiert. FĂŒr die explizite Interaktion mit den HĂ€nden beschĂ€ftigt sich diese Arbeit mit dem ersten Schritt der Handgestenerkennung in monokularen Farbbildern: der Handregionsbestimmung. Bei dieser wird die Region der Hand in einem Kamerabild ermittelt. Die entwickelten Verfahren fusionieren auf unterschiedliche Weise optischen Fluss und Segmentierungen von Hautfarbe. Des Weiteren nutzen sie Objektklassifikatoren und HandposenschĂ€tzer fĂŒr eine optimierte Handregionsbestimmung. Letztere wird anschließend mit einem öffentlich verfĂŒgbaren 2D-HandposenschĂ€tzer fusioniert. Diese Fusion ĂŒbertrifft bei der 2D-PosenschĂ€tzung und geringen erlaubten Abweichungen auf dem öffentlichen Datensatz EgoDexter den aktuellen Stand der Technik der HandposenschĂ€tzung, obwohl zugehörige Verfahren trotz monokularen Eingabedaten ihre SchĂ€tzungen im dreidimensionalen Raum durchfĂŒhren. Die Ergebnisse zeigen bei aktuellen 3D-HandposenschĂ€tzern fĂŒr monokulare Eingabebilder ein Defizit bei der Wiederverwendung vorheriger HandposenschĂ€tzungen. Das hier vorgestellte Verfahren zur Handregionsbestimmung kann mit jedem HandposenschĂ€tzer kombiniert werden

    Interaktionstechniken fĂŒr mobile Augmented-Reality-Anwendungen basierend auf Blick- und Handbewegungen

    Get PDF
    Intuitive interaction techniques are essential for mobile augmented reality systems. For implicit interaction, this work presents techniques for automatic eye movement analysis and visualization. In the context of explicit interaction, a fusion of optical flow, skin color segmentation, and a hand pose estimator is presented along with a tracking method for localization and pose estimation of a hand in monocular color images

    Intuitive Interaktion durch videobasierte Gestenerkennung

    Get PDF
    Hinter der Forschung an videobasierter Handgestenerkennung steht die Vision, Interaktion zwischen Mensch und Computer losgelöst von klassischen EingabegerĂ€ten wie Maus und Tastatur zu realisieren. Das Ziel dieser Arbeit ist die Entwicklung von echtzeitfĂ€higen Verfahren, die eine robuste und fehlerarme Erkennung menschlicher Handgesten realisieren und so die Bedienung eines Computersystems auch fĂŒr technisch unerfahrene Anwender nutzbar machen. In dieser Arbeit werden vier Verfahren entwickelt, die unterschiedliche Arten der Interaktion durch videobasierte Handgestenerkennung realisieren.The vision behind research on video based hand gesture recognition is to realise a new kind of interaction between humans and computer beyond the classical input devices such as mouse and keyboard. The aim of this thesis is to develop new video based realtime algorithms, which enable a robust and accurate recognition of human hand gestures and allow interaction with the computer even for technically unversed users. In this thesis four different algorithms are developed that can be used for intuitive interaction purposes depending on the demands and needs of different scenario applications

    Multi-User 3D Augmented Reality Anwendung fĂŒr die gemeinsame Interaktion mit virtuellen 3D Objekten

    Get PDF
    This thesis covers the development of a network supported multi user augmented reality application for mobile devices. A presenter can load 3D models dynamically, display them on an augmented reality 2D tracker and is capable of manipulating certain single objects. These manipulations are already well-defined in advance through the hierarchy of the 3D object. Executable manipulations are translation, rotation, scaling and the change of materials. Any number of spectators can follow the presentation with their own device from a point of view of individual choice. If the data of the model is not present on their own device it will automatically be transferred from the presenter via network. Thoughts that were made in advance are described, followed by the details of implementation and the occured problems as well as chosen solutions. With the prototype a user study was conducted to define guidelines for the choice of different kinds of lighting for certain applications. The choice is between static, dynamic and combined lighting. Additionally the general usability of the app is evaluated in the study

    Multi-User 3D Augmented Reality Anwendung fĂŒr die gemeinsame Interaktion mit virtuellen 3D Objekten

    Get PDF
    This thesis covers the development of a network supported multi user augmented reality application for mobile devices. A presenter can load 3D models dynamically, display them on an augmented reality 2D tracker and is capable of manipulating certain single objects. These manipulations are already well-defined in advance through the hierarchy of the 3D object. Executable manipulations are translation, rotation, scaling and the change of materials. Any number of spectators can follow the presentation with their own device from a point of view of individual choice. If the data of the model is not present on their own device it will automatically be transferred from the presenter via network. Thoughts that were made in advance are described, followed by the details of implementation and the occured problems as well as chosen solutions. With the prototype a user study was conducted to define guidelines for the choice of different kinds of lighting for certain applications. The choice is between static, dynamic and combined lighting. Additionally the general usability of the app is evaluated in the study

    Hand gesture spotting and recognition using HMMs and CRFs in color image sequences

    Get PDF
    Magdeburg, Univ., Fak. fĂŒr Elektrotechnik und Informationstechnik, Diss., 2010von Mahmoud Othman Selim Mahmoud Elmezai
    corecore