4 research outputs found

    Contributions to Real-time Metric Localisation with Wearable Vision Systems

    Get PDF
    Under the rapid development of electronics and computer science in the last years, cameras have becomeomnipresent nowadays, to such extent that almost everybody is able to carry one at all times embedded intotheir cellular phone. What makes cameras specially appealing for us is their ability to quickly capture a lot ofinformation of the environment encoded in one image or video, allowing us to immortalize special moments inour life or share reliable visual information of the environment with other persons. However, while the task ofextracting the information from an image may by trivial for us, in the case of computers complex algorithmswith a high computational burden are required to transform a raw image into useful information. In this sense, the same rapid development in computer science that allowed the widespread of cameras has enabled also the possibility of real-time application of previously practically infeasible algorithms.Among the current fields of research in the computer vision community, this thesis is specially concerned inmetric localisation and mapping algorithms. These algorithms are a key component in many practical applications such as robot navigation, augmented reality or reconstructing 3D models of the environment.The goal of this thesis is to delve into visual localisation and mapping from vision, paying special attentionto conventional and unconventional cameras which can be easily worn or handled by a human. In this thesis Icontribute in the following aspects of the visual odometry and SLAM (Simultaneous Localisation and Mapping)pipeline:- Generalised Monocular SLAM for catadioptric central cameras- Resolution of the scale problem in monocular vision- Dense RGB-D odometry- Robust place recognition- Pose-graph optimisatio

    Cartographie, localisation et planification simultaneĢes ā€˜en ligneā€™, aĢ€ long terme et aĢ€ grande eĢchelle pour robot mobile

    Get PDF
    Pour eĢ‚tre en mesure de naviguer dans des endroits inconnus et non structureĢs, un robot doit pouvoir cartographier lā€™environnement afin de sā€™y localiser. Ce probleĢ€me est connu sous le nom de cartographie et localisation simultaneĢes (ou SLAM pour Simultaneous Localization and Mapping). Une fois la carte de lā€™environnement creĢeĢe, des taĢ‚ches requeĢrant un deĢplacement dā€™un endroit connu aĢ€ un autre peuvent ainsi eĢ‚tre planifieĢes. La charge de calcul du SLAM est deĢpendante de la grandeur de la carte. Un robot a une puissance de calcul embarqueĢe limiteĢe pour arriver aĢ€ traiter lā€™information ā€˜en ligneā€™, cā€™est-aĢ€-dire aĢ€ bord du robot avec un temps de traitement des donneĢes moins long que le temps dā€™acquisition des donneĢes ou le temps maximal permis de mise aĢ€ jour de la carte. La navigation du robot tout en faisant le SLAM est donc limiteĢe par la taille de lā€™environnement aĢ€ cartographier. Pour reĢsoudre cette probleĢmatique, lā€™objectif est de deĢvelopper un algorithme de SPLAM (Simultaneous Planning Localization and Mapping) permettant la navigation peu importe la taille de lā€™environment. Pour geĢrer efficacement la charge de calcul de cet algorithme, la meĢmoire du robot est diviseĢe en une meĢmoire de travail et une meĢmoire aĢ€ long terme. Lorsque la contrainte de traitement ā€˜en ligneā€™ est atteinte, les endroits vus les moins souvent et qui ne sont pas utiles pour la navigation sont transfeĢreĢes de la meĢmoire de travail aĢ€ la meĢmoire aĢ€ long terme. Les endroits transfeĢreĢs dans la meĢmoire aĢ€ long terme ne sont plus utiliseĢs pour la navigation. Cependant, ces endroits transfeĢreĢs peuvent eĢ‚tre reĢcupeĢreĢes de la meĢmoire aĢ€ long terme aĢ€ la meĢmoire de travail lorsque le le robot sā€™approche dā€™un endroit voisin encore dans la meĢmoire de travail. Le robot peut ainsi se rappeler increĢmentalement dā€™une partie de lā€™environment a priori oublieĢe afin de pouvoir sā€™y localiser pour le suivi de trajectoire. Lā€™algorithme, nommeĢ RTAB-Map, a eĢteĢ testeĢ sur le robot AZIMUT-3 dans une premieĢ€re expeĢrience de cartographie sur cinq sessions indeĢpendantes, afin dā€™eĢvaluer la capaciteĢ du systeĢ€me aĢ€ fusionner plusieurs cartes ā€˜en ligneā€™. La seconde expeĢrience, avec le meĢ‚me robot utiliseĢ lors de onze sessions totalisant 8 heures de deĢplacement, a permis dā€™eĢvaluer la capaciteĢ du robot de naviguer de facĢ§on autonome tout en faisant du SLAM et planifier des trajectoires continuellement sur une longue peĢriode en respectant la contrainte de traitement ā€˜en ligneā€™ . Enfin, RTAB-Map est compareĢ aĢ€ dā€™autres systeĢ€mes de SLAM sur quatre ensembles de donneĢes populaires pour des applications de voiture autonome (KITTI), balayage aĢ€ la main avec une cameĢra RGB-D (TUM RGB-D), de drone (EuRoC) et de navigation inteĢrieur avec un robot PR2 (MIT Stata Center). Les reĢsultats montrent que RTAB-Map peut eĢ‚tre utiliseĢ sur de longue peĢriode de temps en navigation autonome tout en respectant la contrainte de traitement ā€˜en ligneā€™ et avec une qualiteĢ de carte comparable aux approches de lā€™eĢtat de lā€™art en SLAM visuel et avec teĢleĢmeĢ€tre laser. ll en reĢsulte dā€™un logiciel libre deĢployeĢ dans une multitude dā€™applications allant des robots mobiles inteĢrieurs peu couĢ‚teux aux voitures autonomes, en passant par les drones et la modeĢlisation 3D de lā€™inteĢrieur dā€™une maison

    RGB-D Odometry and SLAM

    Full text link
    The emergence of modern RGB-D sensors had a significant impact in many application fields, including robotics, augmented reality (AR) and 3D scanning. They are low-cost, low-power and low-size alternatives to traditional range sensors such as LiDAR. Moreover, unlike RGB cameras, RGB-D sensors provide the additional depth information that removes the need of frame-by-frame triangulation for 3D scene reconstruction. These merits have made them very popular in mobile robotics and AR, where it is of great interest to estimate ego-motion and 3D scene structure. Such spatial understanding can enable robots to navigate autonomously without collisions and allow users to insert virtual entities consistent with the image stream. In this chapter, we review common formulations of odometry and Simultaneous Localization and Mapping (known by its acronym SLAM) using RGB-D stream input. The two topics are closely related, as the former aims to track the incremental camera motion with respect to a local map of the scene, and the latter to jointly estimate the camera trajectory and the global map with consistency. In both cases, the standard approaches minimize a cost function using nonlinear optimization techniques. This chapter consists of three main parts: In the first part, we introduce the basic concept of odometry and SLAM and motivate the use of RGB-D sensors. We also give mathematical preliminaries relevant to most odometry and SLAM algorithms. In the second part, we detail the three main components of SLAM systems: camera pose tracking, scene mapping and loop closing. For each component, we describe different approaches proposed in the literature. In the final part, we provide a brief discussion on advanced research topics with the references to the state-of-the-art.Comment: This is the pre-submission version of the manuscript that was later edited and published as a chapter in RGB-D Image Analysis and Processin
    corecore