1 research outputs found

    Prédiction multi-modale à l'aide d'apprentissage PRObabiliste de Mouvement Primitives

    Get PDF
    International audienceThis paper proposes a method for multi-modal prediction of intention based on a probabilistic description of movement primitives and goals. We target dyadic interaction between a human and a robot in a collaborative scenario. The robot acquires multi-modal models of collaborative action primitives containing gaze cues from the human partner and kinetic information about the manipulation primitives of its arm. We show that if the partner guides the robot with the gaze cue, the robot recognizes the intended action primitive even in the case of ambiguous actions. Furthermore, this prior knowledge acquired by gaze greatly improves the prediction of the future intended trajectory during a physical interaction. Results with the humanoid iCub are presented and discussed.Dans ce papier, nous proposons une méthode de prédiction multi-modale de l'intention basé sur une description probabiliste de primitives de mouvements et de buts. On s'interesse ici à un scénario d'interaction collaborative entre un humain et un robot. Le robot modelise l'action collaborative de manière multi-modale, à l'aide de primitives contenant des informations visuelles (orientation du regard du partenaire) ainsi que des informations sur la dynamique de ses propre bras. Nous montrons dans cette étude que si le partenaire guide le robot en utilisant son regard, le robot reconnait l'action attendu par le partenaire et ce, même dans le cas où les mouvements sont ambigus. Nous montrons aussi qu'en guidant le début du mouvement du robot physiquement , le robot peut même afiner sa trajectoire pour respecter encore mieux la volonté de son partenaire. Finalement, en utilisant les deux modalités, le robot peut utiliser l'information visuelle comme un a-priori sur l'action a effectuer, ce qui permet d'améliorer la reconnaissance de la trajectoire attendue lors d'interaction physique
    corecore