343 research outputs found

    Multimodale Interaktion in Multi-Display-Umgebungen

    Get PDF
    Interaktive Umgebungen entwickeln sich mehr und mehr weg von EinzelarbeitsplÀtzen, hin zu Multi-Display-/Multi-User-Umgebungen. Diese stellen neue Anforderungen an EingabegerÀte und Interaktionstechniken. Im Rahmen dieser Arbeit werden neue AnsÀtze zur Interaktion auf Basis von Handgesten und Blick als neuartige EingabemodalitÀten entwickelt und untersucht

    Multimodale Interaktion in Multi-Display-Umgebungen

    Get PDF
    Interaktive Umgebungen entwickeln sich mehr und mehr weg von EinzelarbeitsplÀtzen, hin zu Multi-Display-/Multi-User-Umgebungen. Diese stellen neue Anforderungen an EingabegerÀte und Interaktionstechniken. Im Rahmen dieser Arbeit werden neue AnsÀtze zur Interaktion auf Basis von Handgesten und Blick als neuartige EingabemodalitÀten entwickelt und untersucht

    Interaktive Verhaltenssteuerung fĂŒr Robot Companions

    Get PDF
    Kleinehagenbrock M. Interaktive Verhaltenssteuerung fĂŒr Robot Companions. Bielefeld (Germany): Bielefeld University; 2004.Das Bestreben in der Robotikforschung, Roboter zu entwickeln, die dem Menschen gewisse Dienste erweisen, ist nach wie vor ungebrochen. Dabei konzentriert sich die aktuelle Entwicklung zunehmend auf den Privatgebrauch: Es ist das Ziel, persönliche Roboter zu entwickeln, die in Zukunft mit Menschen, einem Kameraden Ă€hnlich, das Zuhause teilen können. Damit Menschen geneigt sind, sich einen solchen Robot Companion zuzulegen, muss er nĂŒtzlich und einfach zugĂ€nglich sein. Somit sind einerseits FĂ€higkeiten, wie z.B. "Tisch abrĂ€umen" und "Blumen gießen", zu realisieren. Andererseits sind die wenigsten Menschen Experten fĂŒr Robotik. Daher sollte der Roboter intuitiv bedienbar sein, so dass ein natĂŒrlicher Umgang zwischen Mensch und Robot Companion entsteht. Folglich muss der Roboter Dialoge in natĂŒrlicher Sprache fĂŒhren können und Zeigegesten erkennen. Da solche Interaktionen in Privatwohnungen stattfinden, kann der Roboter weder die Umgebung noch alle dort denkbaren GegenstĂ€nde im Voraus kennen. Somit muss er dieses Wissen erlernen, um es in weiteren Interaktionen nutzen zu können. Um diese Herausforderungen zu lösen, war es ein Ziel dieser Arbeit, eine Software-Architektur fĂŒr Robot Companions zu entwickeln. Das Konzept der Architektur sollte möglichst flexibel und erweiterbar sein, um diverse InteraktionsfĂ€higkeiten integrieren zu können. Als weiteres Ziel sollte die Basis zur Interaktion mit Menschen geschaffen werden. Dazu wurde ein neuartiges multimodales Personen-Tracking entwickelt, das mit weiteren Interaktionsmodulen in der realisierten Architektur zu integrieren war. Das entwickelte Personen-Tracking ist multimodal, da es Daten von drei verschiedenen Sensorsystemen verarbeitet, um vor dem Roboter anwesende Personen robust zu verfolgen. Zur Sensordatenfusion wurde das "Multimodale Anchoring" entwickelt. Dieser neuartige Ansatz erlaubt es, gleichzeitig mehrere Personen anhand ihrer Gesichter, Oberkörper, Stimmen und Beine zu verfolgen, und sie auch voneinander zu unterscheiden. Somit kann eine Person bevorzugt betrachtet werden, indem die Sensoren auf sie gerichtet werden. Durch zugehörige Experimente wird die LeistungsfĂ€higkeit des multimodalen Verfahrens belegt. Neben dem Personen-Tracking werden jeweils eine Aufmerksamkeitssteuerung fĂŒr Personen und Objekte und eine Dialogsteuerung vorgestellt. Diese Module sind im Rahmen anderer Promotionsvorhaben entwickelt worden und es galt, sie ebenfalls im Gesamtsystem zu integrieren. Die Aufmerksamkeitssteuerung fĂŒr Personen setzt auf dem Personen-Tracking auf und bestimmt den Interaktionspartner des Roboters. Zur sprachlichen Kommunikation mit dem Benutzer ist die Dialogsteuerung verantwortlich. FĂŒr das Erfassen von zu lernenden GegenstĂ€nden dient die Aufmerksamkeitssteuerung fĂŒr Objekte, die sprachliche und gestische Informationen kombiniert. Zur Entwicklung der Software-Architektur wurden Architekturen bestehender Robotersysteme untersucht und funktionale und strukturelle Anforderungen an einen Robot Companion formuliert. Das daraus entwickelte Architekturkonzept ist eine besonders flexible Drei-Ebenen-Architektur, die zur Koordination des Systems einen zentralen "Execution Supervisor" (ESV) besitzt und per XML kommuniziert. Der ESV empfĂ€ngt von angebundenen Modulen Nachrichten, die Aktionen auslösen, wie z.B. das Weiterleiten von Daten an andere Module und das Rekonfigurieren des Systems. Dieses Konzept wurde schließlich fĂŒr den Roboter BIRON umgesetzt. Dabei wurde der ESV so implementiert, dass er Ă€ußerst generisch ist: Um ihn zu modifizieren, muss nur eine Konfigurationsdatei angepasst werden, die ebenfalls in XML spezifiziert ist. Die Kommunikation basiert dabei auf dem "XML enabled Communication Framework" und ist somit Ă€ußerst transparent. Außerdem wurden Benutzerexperimente mit BIRON durchgefĂŒhrt, wobei dessen InteraktionsfĂ€higkeiten als recht natĂŒrlich eingestuft wurden. Da fĂŒr eine flĂŒssige Interaktion das System nicht zu langsam reagieren darf, wurden auch gewisse Zeitmessungen vorgenommen. Diese zeigen, dass der Zeitaufwand, der durch die Architektur verursacht wird, im Vergleich zu den Berechnungen der integrierten Module gering ist und somit eine flĂŒssige Interaktion erlaubt. Das System wurde außerdem auf der IST 2004 in Den Haag prĂ€sentiert, wo zwei BIRONs an drei Tagen insgesamt 24 Stunden lang erfolgreich prĂ€sentiert wurden. Folglich bietet das prĂ€sentierte Architekturkonzept eine hervorragende Basis zur Entwicklung von Robot Companions. Durch die Integration der vorgestellten Modulen ergibt sich bereits ein grundlegendes System zur natĂŒrlichen Mensch-Roboter-Interaktion. Da es auf Erweiterbarkeit ausgelegt ist, können andere FunktionalitĂ€ten einfach hinzugefĂŒgt werden. Diese GenerizitĂ€t wird insbesondere durch XML ermöglicht. XML wird zur Konfiguration des ESV und zur Kommunikation mit den angebundenen Modulen verwendet. Nur so kann das bereits umfangreiche System auch in Zukunft noch umfangreich erweitert werden

    Augmented Reality (AR)

    Get PDF
    Die vorliegende Diplomarbeit beschĂ€ftigt sich mit dem Thema Augmented Reality (AR) — der erweiterten RealitĂ€t, und Smartphones. AR ist eine Variation der Virtual Reality (VR). Sie erlaubt es, die reale Umgebung mit virtuellen Informationen und Objekten zu ĂŒberlagern und damit die Wahrnehmung des Users zu bereichern bzw. zu erweitern. Der Definition her, kann AR auf alle menschlichen Sinne angewendet werden. Diese Arbeit beschrĂ€nkt sich auf Wahrnehmungen, die mit Hilfe von SichtgerĂ€ten und Displays visualisiert werden. Die Arbeit gliedert sich in zwei Teile. Im ersten Teil wird der Fokus auf die AR gerichtet: nĂ€mlich auf die einzelnen Komponenten, wie z. B. die Darstellungsmöglichkeiten, das Tracking und die Registrierung sowie die Interaktion, die fĂŒr ein AR-System benötigt werden. Zuletzt erfolgt noch ein Blick auf Einsatzbereiche von AR sowie eine Klassifizierung von AR-Systemen in Indoor- und Outdoor-Systeme. Der zweite Teil der Diplomarbeit geht der Frage nach, wie AR fĂŒr ein breites Publikum zugĂ€nglich gemacht werden kann. Der Schwerpunkt liegt hier bei mobilen GerĂ€ten — sogenannten Handheld Devices. Durch die Entwicklung und EinfĂŒhrung der Smartphones und auf Grund ihrer weiten Verbreitung, bieten sich diese "Alleskönner" als eine hervorragende Plattform zur Verwirklichung von AR-Anwendungen im kommerziellen Sinne, an. Die mittlerweile standardmĂ€ĂŸig eingebauten Sensoren in einem Smartphone, wie z. B. ein GPS-EmpfĂ€nger, ein digitaler Kompass, Beschleunigungssensoren usw., sind die technischen Grundvoraussetzungen dafĂŒr. DarĂŒber hinaus wird auf das Zusammenspiel der einzelnen Sensoren eingegangen. Ein Abschnitt dieser Arbeit geht konkret auf kommerzielle AR-Applikationen auf Smartphones ein. Das Augenmerk wird hier auf die sogenannten AR-Browser gelenkt, und es werden die drei wichtigsten Vertreter vorgestellt und beschrieben. DarĂŒber hinaus werden die StĂ€rken und SchwĂ€chen von AR-Browsern diskutiert. Zuletzt erfolgt noch ein kurzer Ausblick in die Zukunft von AR-Applikationen auf Smartphones.The topic of this diploma thesis is augmented reality (AR) and smartphones. AR is a variation of virtual reality (VR), enabling us to overlay the real environment with virtual information and objects, and therefore enrich or extend the user’s perception. By definition, AR can be applied to all human senses. In this paper the main focus is exclusively directed towards visual perception, which can be visualized by means of displays. The thesis is divided into two parts. The first one deals with the several components of AR such as displays, tracking techniques and registration, as well as interaction techniques that are needed for an AR system. Finally, the different fields of application of AR are examined and a classification of AR systems into indoor and outdoor systems is carried out. The second part of the diploma thesis analyzes the question, how AR can be made accessible to a broader public. Here the emphasis is on mobile devices, so called handheld devices. Due to the rapid development and the massive distribution of smartphones, these "all-rounders" offer a perfect platform for the commercial implementation of AR applications. Different sensors such as a gps-receiver, a digital compass, accelerometers etc., which are standard features for each and every smartphone nowadays, are the required technical preconditions. Furthermore, the interaction of individual sensors is examined. Beside that, also concrete commercial AR applications on smartphones are described in a further chapter of the thesis. Hereby the research focuses on the so called AR browsers and the respective three main browsers are presented. Additionally, the strengths and weaknesses of AR browsers are discussed, and finally, we reveal a brief foreshadowing of the future perspectives of AR applications on smartphones

    Foundations and applications of human-machine interaction

    Get PDF
    Zugleich gedruckt erschienen im UniversitĂ€tsverlag der TU Berlin unter der ISBN 978-3-7983-2624-8.Der vorliegende Abstractband zur 10 Berliner Werkstatt MMS gibt einen Einblick in die aktuelle Forschung im Bereich der Mensch-Maschine-Interaktion. Einen besonderen Fokus stellt das Wechselspiel von Grundlagenforschung und anwendungsbezogener Forschung dar, was sich im breiten Themenspektrum widerspiegelt, welches von theoretischen und methodischen Betrachtungen bis hin zu anwendungsnahen Fragestellungen reicht. Dabei finden Inhalte aus allen Phasen des Forschungsprozesses Beachtung, sodass auch im Rahmen der 10. Berliner Werkstatt MMS wieder sowohl neue Untersuchungskonzepte als auch abschließende Befunde diskutiert werden. Zentrale Themengebiete sind u. a. Fahrer-Fahrzeug Interaktion, Assistenzsysteme, User Experience, Usability, Ubiquitous Computing, Mixed & Virtual Reality, Robotics & Automation, Wahrnehmungsspezifika sowie Psychophysiologie und Beanspruchung in der Mensch-Maschine-Interaktion.The abstracts of the 10th Berlin Workshop Human-Machine Systems provide an insight into the current research in the field of human-machine interaction. The main focus lies on the interplay between basic and applied research, which is reflected in the wide range of subjects: from theoretical and methodological issues to application oriented considerations. Again all stages of the research process are represented in the contributions of the 10th Berlin Workshop HMS. This means new research concepts as well as final results are subject of this volume. Central topics include driver-vehicle interaction, assistance systems, user experience, usability, ubiquitous computing, mixed and virtual reality, robotics & automation, perception specifics, as well as psychophysiology and workload in human-machine interaction

    Gleichzeitigkeit in der Interaktion

    Get PDF
    By taking a conversation-analytical approach, this study uses mobile eye tracking and audiovisual recordings of theater rehearsals to examine how people who are interacting with each other simultaneously coordinate relevant activities. Of special significance is the structural compatibility of the modes of participation in the co-relevant activities, as different methods of coordination are used depending on the degree of (in-)compatibility

    Interessengetriebene audiovisuelle Szenenexploration

    Get PDF
    An ever-increasing integration of technology in our daily life took place over the last years. Humanoid robots like other autonomous systems are becoming increasingly relevant. For these systems it is essential to perceive their current environment at the required level of detail. Therefore, this publication introduces the interest-driven audiovisual scene exploration based on multimodal saliency, knowledge-driven curiosity and other aspects, which achieve an important scientific contribution

    TeleprÀsente Bewegung und haptische Interaktion in ausgedehnten entfernten Umgebungen

    Get PDF
    Das hier vorgestellte System zur weitrĂ€umigen TeleprĂ€senz erlaubt wirklichkeitsnahe Exploration und Manipulation in ausgedehnten entfernten Umgebungen. Durch immersive Schnittstelle versetzt sich der menschliche Benutzer an die Stelle eines mobilen Teleoperators. WeitrĂ€umige Bewegung durch natĂŒrliches Gehen wird durch das substantiell erweiterte Verfahren der Bewegungskompression ermöglicht. FĂŒr die haptische Interaktion wird eine speziell entwickelte haptische Schnittstelle vorgestellt

    TeleprÀsente Bewegung und haptische Interaktion in ausgedehnten entfernten Umgebungen

    Get PDF
    Das hier vorgestellte System zur weitrĂ€umigen TeleprĂ€senz erlaubt wirklichkeitsnahe Exploration und Manipulation in ausgedehnten entfernten Umgebungen. Durch immersive Schnittstelle versetzt sich der menschliche Benutzer an die Stelle eines mobilen Teleoperators. WeitrĂ€umige Bewegung durch natĂŒrliches Gehen wird durch das substantiell erweiterte Verfahren der Bewegungskompression ermöglicht. FĂŒr die haptische Interaktion wird eine speziell entwickelte haptische Schnittstelle vorgestellt
    • 

    corecore