12,395 research outputs found

    Bidirektionale Interaktion von Mensch und Roboter beim Bewegungslernen - Visuelle Wahrnehmung von Roboterbewegungen

    Get PDF
    In den vergangenen Jahrzehnten haben sich die Arbeitsbereiche von Menschen und Robotern zunehmend gegenseitig durchdrungen. Interaktionen zwischen Mensch und Roboter sind in vielen Lebensbereichen, z. B. Industrie, Medizin, Rehabilitation und Sport gegenwärtig. Während Roboter bisher vorwiegend starr programmiert wurden, hat sich in den letzten Jahren ein Paradigmenwechsel hin zu einer anpassungsfähigen, lernenden Programmierung vollzogen. Basierend auf diesem neuen Ansatz der Programmierung tritt eine direkte, teils physische Interaktion zwischen Mensch und Roboter zunehmend in den Fokus der Entwicklung und eröffnet ein bisher ungeahntes Potential zur Weiterentwicklung der Mensch-Roboter-Interaktion. Die Beziehung von Mensch und Roboter ist von vielen, teils extremen Unterschieden zwischen den beiden Systemen gekennzeichnet (Verfügbare Sensorik, Anzahl der Freiheitsgrade, Anzahl der Muskeln/Aktuatoren sowie Integrationsgrad von Sensorik und Aktuatorik). Diese Unterschiede erweisen sich für die beiden Systeme in einem isolierten Bewegungslernprozess teils als Vor- und teils als Nachteil. Der Frage, wie sich die Vorteile der beiden Systeme in einem gemeinsamen bidirektionalen Bewegungslernprozess optimal kombinieren lassen, geht das Projekt Bidirectional Interaction between Human and Robot when learning movements nach. Im Rahmen dieses interdisziplinären Forschungsprojektes sollen die Erkenntnisse aus den Bereichen der Sportwissenschaft und der Informatik kombiniert und die wissenschaftliche Basis für ein verbessertes Mensch-Roboter-Training gelegt werden. Das Projekt unterteilt sich dabei in vier Teilbereiche: die bidirektionale Interaktion zweier Menschen, die unidirektionale Interaktion von Mensch und Roboter (zwei Richtungen) sowie die bidirektionale Interaktion von Mensch und Roboter. In dieser Dissertation werden drei Artikel zu der beschriebenen Thematik vorgestellt. Der erste Artikel beschreibt Ziele und Struktur des Forschungsprojekts sowie drei exemplarische Studien zu den ersten drei Teilbereichen des Projekts. Aufbauend auf den Erkenntnissen einer der vorgestellten Studien zur Bedeutung der Beobachtungsperspektive beim Bewegungslernen, fokussieren die beiden darauf folgenden Artikel die visuelle Wahrnehmung von Roboterbewegungen durch den Menschen. Der Beschreibung des Projekts in Zielen und Struktur schließt sich im Artikel I die Vorstellung von drei exemplarischen Untersuchungen an. Die erste Studie betrachtet die bidirektionale Interaktion in Mensch-Mensch-Dyaden. Sie verifiziert einen prototypischen, dyadischen Bewegungslernprozess und identifiziert relevante Themen, die auf Mensch-Roboter-Dyaden übertragen werden können. Zur unidirektionalen Interaktion zwischen Mensch und Roboter werden zwei Studien vorgestellt. Im Bereich des Lernens eines Roboters von einem Menschen wird eine iterative Feedbackstrategie eines Roboters beschrieben. Eine Untersuchung zur Bedeutung der Beobachtungsperspektive beim Bewegungslernen von Mensch und Roboter bearbeitet den Bereich des unidirektionalen Lernens eines Mensches von einem Roboter. Basierend auf dieser Untersuchung ergeben sich die Fragestellungen, die in den folgenden beiden Artikeln untersucht werden. Während viele Studien die Wahrnehmung von biologischen Bewegungen untersucht haben, befassen sich nur wenige Ansätze mit der Wahrnehmung von nichtbiologischen Roboterbewegungen. Um diese Lücke zu schließen, werden im Artikel II zwei aufeinander aufbauende Studien zur Wahrnehmung von Roboterputtbewegungen durch den Menschen vorgestellt. Es konnte gezeigt werden, dass eine Leistungsvorhersage der gezeigten Roboterputtbewegungen nur bei Sichtbarkeit der vollständigen Bewegung möglich sind. Insbesondere die Ausschwungphase scheint eine Vielzahl an räumlich-zeitlichen Informationen bereit zu stellen, die einen großen Einfluss auf die Leistungsvorhersage besitzen. Aufbauend auf den bisher gewonnenen Erkenntnissen wird im Artikel III eine Studie vorgestellt, die versucht, die für die Ableitung von räumlich-zeitlichen Informationen wichtigen Bewegungselemente zu identifizieren. Im Rahmen der vorgestellten Untersuchung wurden die gezeigten Roboterputtbewegungen teilweise manipuliert. Wichtige Bewegungselemente, z. B. Roboter, Schläger oder Ball, wurden ausgeblendet. Zusammenfassend betrachtet diese Dissertation die visuelle Wahrnehmung von Roboterbewegungen durch den Menschen am Beispiel der Puttbewegung im Golf. Der Hauptbeitrag dieser Arbeit sind Erkenntnisse, die in einen bidirektionalen Bewegungslernprozess von Mensch-Roboter-Dyaden überführt werden können. Aus der Arbeit ergeben sich weiterführende Forschungsansätze und Fragestellungen, die eine hohe Relevanz für die Weiterentwicklung der Interaktion von Mensch und Roboter besitzen

    Motion Planning and Feedback Control of Simulated Robots in Multi-Contact Scenarios

    Get PDF
    Diese Dissertation präsentiert eine optimale steuerungsbasierte Architektur für die Bewegungsplanung und Rückkopplungssteuerung simulierter Roboter in Multikontaktszenarien. Bewegungsplanung und -steuerung sind grundlegende Bausteine für die Erstellung wirklich autonomer Roboter. Während in diesen Bereichen enorme Fortschritte für Manipulatoren mit festem Sockel und Radrobotern in den letzten Jahren erzielt wurden, besteht das Problem der Bewegungsplanung und -steuerung für Roboter mit Armen und Beinen immer noch ein ungelöstes Problem, das die Notwendigkeit effizienterer und robusterer Algorithmen belegt. In diesem Zusammenhang wird in dieser Dissertation eine Architektur vorgeschlagen, mit der zwei Hauptherausforderungen angegangen werden sollen, nämlich die effiziente Planung von Kontaktsequenzen und Ganzkörperbewegungen für Floating-Base-Roboter sowie deren erfolgreiche Ausführung mit Rückkopplungsregelungsstrategien, die Umgebungsunsicherheiten bewältigen könne

    Der Aufbau sozialer Beziehungen mit einem Roboter. Eine Beobachtungsstudie im Feld

    Get PDF
    Roboter nehmen in letzter Zeit vermehrt Einzug in verschiedene Lebensbereiche. Es werden nicht nur Haushaltsroboter, die staubsaugen, oder Roboter, die vorrangig Entertainment-Zwecken dienen, angeboten, sondern in einigen Altenheimen werden Roboter bereits eingesetzt, um Senioren Gesellschaft zu leisten. Vor diesem Hintergrund untersucht die Studie als Teil des EU Forschungsprojektes SERA (Social Engagement with Robots and Agents), ob und inwiefern soziale Beziehungen zu Robotern aufgebaut werden. In einer Beobachtungsstudie und einem anschließenden qualitativen Interview wurden drei weibliche Teilnehmer (zwischen 50 und 65 Jahren) über eine Woche in der Interaktion mit einem Nabaztag beobachtet. Dieser Roboter in Hasenform wurde für die Studie so programmiert, dass er mit den Untersuchungsteilnehmerinnen Dialoge rund um das Thema Gesundheit und Fitness führen konnte. Der Roboter nutzte Sprachoutput, der Input von Seiten der Teilnehmerinnen wurde über Ja/Nein Knöpfe vorgenommen. Mit einer Webcam wurden 66 Interaktionen aufgezeichnet. Die kategorienbasierte Auswertung der Transkripte zeigte z.B., dass der Nabaztag häufig natürlich-sprachlich adressiert wurde und ihm beispielsweise alltägliches Verhalten erklärt wurde, obwohl die Probandinnen wussten, dass der Roboter sie nicht verstehen kann, da eine Interaktion nur über die Knöpfe möglich war. Die Ergebnisse zeigen, dass durchaus Beziehungen aufgebaut werden und lassen Schlüsse über die soziale Natur des Menschen zu

    Empathische Reaktionen gegenüber einem Roboter

    Get PDF
    Es ist bereits bekannt, dass Menschen soziale Reaktionen auf Computer und artifizielle Wesen wie virtuelle Agenten zeigen. Auch für die Mensch-Roboter-Interaktion konnten erste Studien zeigen, dass Menschen Verhalten zeigen, das man lediglich in der Mensch-Mensch-Kommunikation erwarten würde. Ob auch empathische Reaktionen gegenüber Robotern gezeigt werden, wurde bislang nicht untersucht. In einem 2x2 laborexperimentellen Design betrachteten die Probanden (N=40) zwei Filme, in denen ein Spielzeugroboter in Dinosaurierform entweder gequält oder gestreichelt wird (Treatmentfaktor 1, within subjects). Der einen Hälfte der Probanden wurde der Roboter vorab vorgestellt und 10 Minuten zum Kennenlernen überlassen, während der anderen Hälfte der Probanden der Roboter vollkommen fremd war (Treatment Faktor 2, between subjects). Nach jedem Video wurde das emotionale Befinden mit Hilfe der PANAS erhoben und die Probanden füllten am Ende einen Fragebogen zur Bewertung des Roboters aus. Nach der Rezeption des Videos, in dem der Roboter gequält wird, fühlten die Probanden sich signifikant schlechter (F(1/39)=26,946; p=.000). Die Bedingungsvariation der vorherigen Interaktion zeigte jedoch keinen Einfluss auf das emotionale Befinden nach der Rezeption des Videos oder die empfundene Empathie. Somit konnte gezeigt werden, dass eine negative Behandlung eines Roboters das eigene Empfinden beeinflusst, dass eine kurzzeitige Interaktion mit dem Roboter das Mitleiden aber nicht verstärkt

    Secure indoor navigation and operation of mobile robots

    Get PDF
    In future work environments, robots will navigate and work side by side to humans. This raises big challenges related to the safety of these robots. In this Dissertation, three tasks have been realized: 1) implementing a localization and navigation system based on StarGazer sensor and Kalman filter; 2) realizing a human-robot interaction system using Kinect sensor and BPNN and SVM models to define the gestures and 3) a new collision avoidance system is realized. The system works on generating the collision-free paths based on the interaction between the human and the robot.In zukünftigen Arbeitsumgebungen werden Roboter navigieren nebeneinander an Menschen. Das wirft Herausforderungen im Zusammenhang mit der Sicherheit dieser Roboter auf. In dieser Dissertation drei Aufgaben realisiert: 1. Implementierung eines Lokalisierungs und Navigationssystem basierend auf Kalman Filter: 2. Realisierung eines Mensch-Roboter-Interaktionssystem mit Kinect und AI zur Definition der Gesten und 3. ein neues Kollisionsvermeidungssystem wird realisiert. Das System arbeitet an der Erzeugung der kollisionsfreien Pfade, die auf der Wechselwirkung zwischen dem Menschen und dem Roboter basieren

    Verstärkungslernen mit realen Robotern

    Get PDF
    RoboCup ist eine jährlich stattfindende Veranstaltung für fußballspielende Roboter. Dessen Ziel ist die Förderung der Künstlichen Intelligenz und Robotik durch Wettbewerbe und Informationsaustausch. Die FU Berlin beteiligt sich mit ihren FU-Fighters seit 1998 in der Small-Size Liga und seit 2001 auch in der Mid-Size Liga. Die Software zur Steuerung der Roboter ist ein komplexes System, bestehend aus vielen Komponenten, wie zum Beispiel Bildverarbeitung, Verhaltenssteuerung, Kommunikation und Mikrocontroller-Programmierung. Lernverfahren könnten an mehreren Stellen im System die aufwändige Programmierung vereinfachen und die Gesamtleistung optimieren. Im folgenden werden drei Ansätze vorgestellt, die benutzt wurden, um reale Roboter lernen zu lassen. In Kapitel 3 geht es um Lernverfahren, die von anderen RoboCup Teams eingesetzt werden. Kapitel 4 beschreibt eingesetzte und geplante Anwendungen von Lernmethoden bei den FU-Fighters

    An Ontology-Based Expert System for the Systematic Design of Humanoid Robots

    Get PDF
    Die Entwicklung humanoider Roboter ist eine zeitaufwendige, komplexe und herausfordernde Aufgabe. Daher stellt diese Thesis einen neuen, systematischen Ansatz vor, der es erlaubt, Expertenwissen zum Entwurf humanoider Roboter zu konservieren, um damit zukünftige Entwicklungen zu unterstützen. Der Ansatz kann in drei aufeinanderfolgende Schritte unterteilt werden. Im ersten Schritt wird Wissen zum Entwurf humanoider Roboter durch die Entwicklung von Roboterkomponenten und die Analyse verwandter Arbeiten gewonnen. Dieses Wissen wird im zweiten Schritt formalisiert und in Form einer ontologischen Wissensbasis gespeichert. Im letzten Schritt wird diese Wissensbasis von einem Expertensystem verwendet, um Lösungsvorschläge zum Entwurf von Roboterkomponenten auf Grundlage von Benutzeranforderungen zu generieren. Der Ansatz wird anhand von Fallstudien zu Komponenten des humanoiden Roboters ARMAR-6 evaluiert: Sensor-Aktor-Controller-Einheiten für Robotergelenke und Roboterhände

    Efficiently learning metric and topological maps with autonomous service robots

    Get PDF
    Models of the environment are needed for a wide range of robotic applications, from search and rescue to automated vacuum cleaning. Learning maps has therefore been a major research focus in the robotics community over the last decades. In general, one distinguishes between metric and topological maps. Metric maps model the environment based on grids or geometric representations whereas topological maps model the structure of the environment using a graph. The contribution of this paper is an approach that learns a metric as well as a topological map based on laser range data obtained with a mobile robot. Our approach consists of two steps. First, the robot solves the simultaneous localization and mapping problem using an efficient probabilistic filtering technique. In a second step, it acquires semantic information about the environment using machine learning techniques. This semantic information allows the robot to distinguish between different types of places like, e. g., corridors or rooms. This enables the robot to construct annotated metric as well as topological maps of the environment. All techniques have been implemented and thoroughly tested using real mobile robot in a variety of environments
    corecore