3 research outputs found

    Real-Time Stereo Visual SLAM in Large-Scale Environments Based on SIFT Fingerprints

    No full text

    Gestion de mémoire pour la détection de fermeture de boucle pour la cartographie temps réel par un robot mobile

    Get PDF
    Pour permettre Ă  un robot autonome de faire des tĂąches complexes, il est important qu'il puisse cartographier son environnement pour s'y localiser. À long terme, pour corriger sa carte globale, il est nĂ©cessaire qu'il dĂ©tecte les endroits dĂ©jĂ  visitĂ©s. C'est une des caractĂ©ristiques les plus importantes en localisation et cartographie simultanĂ©e (SLAM), mais aussi sa principale limitation. La charge de calcul augmente en fonction de la taille de l'environnement, et alors les algorithmes n'arrivent plus Ă  s'exĂ©cuter en temps rĂ©el. Pour rĂ©soudre cette problĂ©matique, l'objectif est de dĂ©velopper un nouvel algorithme de dĂ©tection en temps rĂ©el d'endroits dĂ©jĂ  visitĂ©s, et qui fonctionne peu importe la taille de l'environnement. La dĂ©tection de fermetures de boucle, c'est-Ă -dire la reconnaissance des endroits dĂ©jĂ  visitĂ©s, est rĂ©alisĂ©e par un algorithme probabiliste robuste d'Ă©valuation de la similitude entre les images acquises par une camĂ©ra Ă  intervalles rĂ©guliers. Pour gĂ©rer efficacement la charge de calcul de cet algorithme, la mĂ©moire du robot est divisĂ©e en mĂ©moires Ă  long terme (base de donnĂ©es), Ă  court terme et de travail (mĂ©moires vives). La mĂ©moire de travail garde les images les plus caractĂ©ristiques de l'environnement afin de respecter la contrainte d'exĂ©cution temps rĂ©el. Lorsque la contrainte de temps rĂ©el est atteinte, les images des endroits vus les moins souvent depuis longtemps sont transfĂ©rĂ©es de la mĂ©moire de travail Ă  la mĂ©moire Ă  long terme. Ces images transfĂ©rĂ©es peuvent ĂȘtre rĂ©cupĂ©rĂ©es de la mĂ©moire Ă  long terme Ă  la mĂ©moire de travail lorsqu'une image voisine dans la mĂ©moire de travail reçoit une haute probabilitĂ© que le robot soit dĂ©jĂ  passĂ© par cet endroit, augmentant ainsi la capacitĂ© de dĂ©tecter des endroits dĂ©jĂ  visitĂ©s avec les prochaines images acquises. Le systĂšme a Ă©tĂ© testĂ© avec des donnĂ©es prĂ©alablement prises sur le campus de l'UniversitĂ© de Sherbrooke afin d'Ă©valuer sa performance sur de longues distances, ainsi qu'avec quatre autres ensembles de donnĂ©es standards afin d'Ă©valuer sa capacitĂ© d'adaptation avec diffĂ©rents environnements. Les rĂ©sultats suggĂšrent que l'algorithme atteint les objectifs fixĂ©s et permet d'obtenir des performances supĂ©rieures que les approches existantes. Ce nouvel algorithme de dĂ©tection de fermeture de boucle peut ĂȘtre utilisĂ© directement comme une technique de SLAM topologique ou en parallĂšle avec une technique de SLAM existante afin de dĂ©tecter les endroits dĂ©jĂ  visitĂ©s par un robot autonome. Lors d'une dĂ©tection de boucle, la carte globale peut alors ĂȘtre corrigĂ©e en utilisant la nouvelle contrainte crĂ©Ă©e entre le nouveau et l'ancien endroit semblable

    Human robot interaction in a crowded environment

    No full text
    Human Robot Interaction (HRI) is the primary means of establishing natural and affective communication between humans and robots. HRI enables robots to act in a way similar to humans in order to assist in activities that are considered to be laborious, unsafe, or repetitive. Vision based human robot interaction is a major component of HRI, with which visual information is used to interpret how human interaction takes place. Common tasks of HRI include finding pre-trained static or dynamic gestures in an image, which involves localising different key parts of the human body such as the face and hands. This information is subsequently used to extract different gestures. After the initial detection process, the robot is required to comprehend the underlying meaning of these gestures [3]. Thus far, most gesture recognition systems can only detect gestures and identify a person in relatively static environments. This is not realistic for practical applications as difficulties may arise from people‟s movements and changing illumination conditions. Another issue to consider is that of identifying the commanding person in a crowded scene, which is important for interpreting the navigation commands. To this end, it is necessary to associate the gesture to the correct person and automatic reasoning is required to extract the most probable location of the person who has initiated the gesture. In this thesis, we have proposed a practical framework for addressing the above issues. It attempts to achieve a coarse level understanding about a given environment before engaging in active communication. This includes recognizing human robot interaction, where a person has the intention to communicate with the robot. In this regard, it is necessary to differentiate if people present are engaged with each other or their surrounding environment. The basic task is to detect and reason about the environmental context and different interactions so as to respond accordingly. For example, if individuals are engaged in conversation, the robot should realize it is best not to disturb or, if an individual is receptive to the robot‟s interaction, it may approach the person. Finally, if the user is moving in the environment, it can analyse further to understand if any help can be offered in assisting this user. The method proposed in this thesis combines multiple visual cues in a Bayesian framework to identify people in a scene and determine potential intentions. For improving system performance, contextual feedback is used, which allows the Bayesian network to evolve and adjust itself according to the surrounding environment. The results achieved demonstrate the effectiveness of the technique in dealing with human-robot interaction in a relatively crowded environment [7]
    corecore