4 research outputs found

    Toward a Framework for Levels of Robot Autonomy in Human-Robot Interaction

    Get PDF
    Autonomy is a critical construct related to human-robot interaction (HRI) and varies widely across robot platforms. Levels of robot autonomy (LORA), ranging from teleoperation to fully autonomous systems, influence the way in which humans and robots interact with one another. Thus, there is a need to understand HRI by identifying variables that influence—and are influenced by—robot autonomy. Our overarching goal is to develop a framework for LORA in HRI. To reach this goal, our framework draws links between HRI and human-automation interaction, a field with a long history of studying and understanding human-related variables. The construct of autonomy is reviewed and redefined within the context of HRI. Additionally, this framework proposes a process for determining a robot’s autonomy level by categorizing autonomy along a 10-point taxonomy. The framework is intended to be treated as a guideline for determining autonomy, categorizing the LORA along a qualitative taxonomy and considering HRI variables (e.g., acceptance, situation awareness, reliability) that may be influenced by the LOR

    Evaluating Human-robot Implicit Communication Through Human-human Implicit Communication

    Get PDF
    Human-Robot Interaction (HRI) research is examining ways to make human-robot (HR) communication more natural. Incorporating natural communication techniques is expected to make HR communication seamless and more natural for humans. Humans naturally incorporate implicit levels of communication, and including implicit communication in HR communication should provide tremendous benefit. The aim for this work was to evaluate a model for humanrobot implicit communication. Specifically, the primary goal for this research was to determine whether humans can assign meanings to implicit cues received from autonomous robots as they do for identical implicit cues received from humans. An experiment was designed to allow participants to assign meanings to identical, implicit cues (pursuing, retreating, investigating, hiding, patrolling) received from humans and robots. Participants were tasked to view random video clips of both entity types, label the implicit cue, and assign a level of confidence in their chosen answer. Physiological data was tracked during the experiment using an electroencephalogram and eye-tracker. Participants answered workload and stress measure questionnaires following each scenario. Results revealed that participants were significantly more accurate with human cues (84%) than with robot cues (82%), however participants were highly accurate, above 80%, for both entity types. Despite the high accuracy for both types, participants remained significantly more confident in answers for humans (6.1) than for robots (5.9) on a confidence scale of 1 - 7. Subjective measures showed no significant differences for stress or mental workload across entities. Physiological measures were not significant for the engagement index across v entity, but robots resulted in significantly higher levels of cognitive workload for participants via the index of cognitive activity. The results of this study revealed that participants are more confident interpreting human implicit cues than identical cues received from a robot. However, the accuracy of interpreting both entities remained high. Participants showed no significant difference in interpreting different cues across entity as well. Therefore, much of the ability of interpreting an implicit cue resides in the actual cue rather than the entity. Proper training should boost confidence as humans begin to work alongside autonomous robots as teammates, and it is possible to train humans to recognize cues based on the movement, regardless of the entity demonstrating the movement

    Interface de contrôle automatisé d’un système de caméras robotisées pour la télétraumatologie

    Get PDF
    De nos jours, la télémédecine est appliquée universellement dans plusieurs domaines de la médecine comme la radiologie, la pathologie et la psychiatrie. Depuis 2004, le Centre hospitalier universitaire de Sherbrooke (CHUS), la Faculté de médecine et des sciences de la santé et la Faculté de génie de l’Université de Sherbrooke développent un système des caméras robotisées permettant à un traumatologue d’interagir à distance avec un médecin intervenant en salle d’urgence, dans un contexte de télétraumatologie. Ce système demande au traumatologue de contrôler et de positionner les caméras tout en observant l’intervention. Afin qu’il puisse se concentrer le plus possible sur l’intervention chirurgicale au lieu de s’attarder au contrôle du système, une assistance de positionnement des caméras s’avérerait utile. L’objectif de ce projet est de concevoir une interface qui permet de positionner automatiquement les caméras robotisées tout en laissant la possibilité à l’opérateur de les déplacer directement au besoin. Pour ce faire, l’interface de contrôle automatisé utilise des algorithmes de traitement d’images permettant le suivi d’éléments visuels, la détection d’obstructions dans la scène observée et l’approximation de coordonnées tridimensionnelles d’un point dans l’image. Elle exploite deux modes de contrôle : l’opérateur sélectionne une zone d’intérêt directement dans la vue vidéo, ou identifie une région d’intérêt qui est suivie automatiquement par le système, et qui permet au besoin que les deux bras regardent simultanément le dit objet de deux points de vue différents. Avec la détection d’obstructions, l’interface est en mesure de repositionner automatiquement les caméras pour garder la vue sur la zone ou la région d’intérêt. Des tests pré-cliniques menés au Laboratoire de robotique intelligente, interactive et interdisciplinaire de l’Université de Sherbrooke permettent d’évaluer l’efficacité et la pertinence de l’interface de contrôle automatisé. Malgré certaines limitations inhérentes à la rapidité de traitement des commandes de positionnement des caméras intégrées au système, l’analyse des résultats suggère que l’interface de contrôle automatisé est conviviale et diminue la charge cognitive des opérateurs. La performance avec l’interface de contrôle automatisé permettant la sélection de la zone d’intérêt est plus élevée que l’interface de contrôle nonautomatisé (dite manuel, demandant le positionnement manuel des bras robotisés et des caméras), tandis que la performance de l’interface de contrôle automatisé permettant de sélectionner et de suivre une région d’intérêt simultanément par les deux caméras est moins élevée que l’interface de contrôle manuel
    corecore