1 research outputs found

    Muecas: a multi-sensor robotic head for affective human robot interaction and imitation

    Get PDF
    Este art铆culo presenta una cabeza rob贸tica humanoide multi-sensor para la interacci贸n del robot humano. El dise帽o de la cabeza rob贸tica, Muecas, se basa en la investigaci贸n en curso sobre los mecanismos de percepci贸n e imitaci贸n de las expresiones y emociones humanas. Estos mecanismos permiten la interacci贸n directa entre el robot y su compa帽ero humano a trav茅s de las diferentes modalidades del lenguaje natural: habla, lenguaje corporal y expresiones faciales. La cabeza rob贸tica tiene 12 grados de libertad, en una configuraci贸n de tipo humano, incluyendo ojos, cejas, boca y cuello, y ha sido dise帽ada y construida totalmente por IADeX (Ingenier铆a, Automatizaci贸n y Dise帽o de Extremadura) y RoboLab. Se proporciona una descripci贸n detallada de su cinem谩tica junto con el dise帽o de los controladores m谩s complejos. Muecas puede ser controlado directamente por FACS (Sistema de Codificaci贸n de Acci贸n Facial), el est谩ndar de facto para reconocimiento y s铆ntesis de expresi贸n facial. Esta caracter铆stica facilita su uso por parte de plataformas de terceros y fomenta el desarrollo de la imitaci贸n y de los sistemas basados en objetivos. Los sistemas de imitaci贸n aprenden del usuario, mientras que los basados en objetivos utilizan t茅cnicas de planificaci贸n para conducir al usuario hacia un estado final deseado. Para mostrar la flexibilidad y fiabilidad de la cabeza rob贸tica, se presenta una arquitectura de software capaz de detectar, reconocer, clasificar y generar expresiones faciales en tiempo real utilizando FACS. Este sistema se ha implementado utilizando la estructura rob贸tica, RoboComp, que proporciona acceso independiente al hardware a los sensores en la cabeza. Finalmente, se presentan resultados experimentales que muestran el funcionamiento en tiempo real de todo el sistema, incluyendo el reconocimiento y la imitaci贸n de las expresiones faciales humanas.This paper presents a multi-sensor humanoid robotic head for human robot interaction. The design of the robotic head, Muecas, is based on ongoing research on the mechanisms of perception and imitation of human expressions and emotions. These mechanisms allow direct interaction between the robot and its human companion through the different natural language modalities: speech, body language and facial expressions. The robotic head has 12 degrees of freedom, in a human-like configuration, including eyes, eyebrows, mouth and neck, and has been designed and built entirely by IADeX (Engineering, Automation and Design of Extremadura) and RoboLab. A detailed description of its kinematics is provided along with the design of the most complex controllers. Muecas can be directly controlled by FACS (Facial Action Coding System), the de facto standard for facial expression recognition and synthesis. This feature facilitates its use by third party platforms and encourages the development of imitation and of goal-based systems. Imitation systems learn from the user, while goal-based ones use planning techniques to drive the user towards a final desired state. To show the flexibility and reliability of the robotic head, the paper presents a software architecture that is able to detect, recognize, classify and generate facial expressions in real time using FACS. This system has been implemented using the robotics framework, RoboComp, which provides hardware-independent access to the sensors in the head. Finally, the paper presents experimental results showing the real-time functioning of the whole system, including recognition and imitation of human facial expressions.Trabajo financiado por: Ministerio de Ciencia e Innovaci贸n. Proyecto TIN2012-38079-C03-1 Gobierno de Extremadura. Proyecto GR10144peerReviewe
    corecore