4 research outputs found
Contributions to Real-time Metric Localisation with Wearable Vision Systems
Under the rapid development of electronics and computer science in the last years, cameras have becomeomnipresent nowadays, to such extent that almost everybody is able to carry one at all times embedded intotheir cellular phone. What makes cameras specially appealing for us is their ability to quickly capture a lot ofinformation of the environment encoded in one image or video, allowing us to immortalize special moments inour life or share reliable visual information of the environment with other persons. However, while the task ofextracting the information from an image may by trivial for us, in the case of computers complex algorithmswith a high computational burden are required to transform a raw image into useful information. In this sense, the same rapid development in computer science that allowed the widespread of cameras has enabled also the possibility of real-time application of previously practically infeasible algorithms.Among the current fields of research in the computer vision community, this thesis is specially concerned inmetric localisation and mapping algorithms. These algorithms are a key component in many practical applications such as robot navigation, augmented reality or reconstructing 3D models of the environment.The goal of this thesis is to delve into visual localisation and mapping from vision, paying special attentionto conventional and unconventional cameras which can be easily worn or handled by a human. In this thesis Icontribute in the following aspects of the visual odometry and SLAM (Simultaneous Localisation and Mapping)pipeline:- Generalised Monocular SLAM for catadioptric central cameras- Resolution of the scale problem in monocular vision- Dense RGB-D odometry- Robust place recognition- Pose-graph optimisatio
Cartographie, localisation et planification simultaneĢes āen ligneā, aĢ long terme et aĢ grande eĢchelle pour robot mobile
Pour eĢtre en mesure de naviguer dans des endroits inconnus et non structureĢs, un robot doit pouvoir cartographier lāenvironnement afin de sāy localiser. Ce probleĢme est connu sous le nom de cartographie et localisation simultaneĢes (ou SLAM pour Simultaneous Localization and Mapping). Une fois la carte de lāenvironnement creĢeĢe, des taĢches requeĢrant un deĢplacement dāun endroit connu aĢ un autre peuvent ainsi eĢtre planifieĢes. La charge de calcul du SLAM est deĢpendante de la grandeur de la carte. Un robot a une puissance de calcul embarqueĢe limiteĢe pour arriver aĢ traiter lāinformation āen ligneā, cāest-aĢ-dire aĢ bord du robot avec un temps de traitement des donneĢes moins long que le temps dāacquisition des donneĢes ou le temps maximal permis de mise aĢ jour de la carte. La navigation du robot tout en faisant le SLAM est donc limiteĢe par la taille de lāenvironnement aĢ cartographier.
Pour reĢsoudre cette probleĢmatique, lāobjectif est de deĢvelopper un algorithme de SPLAM (Simultaneous Planning Localization and Mapping) permettant la navigation peu importe la taille de lāenvironment. Pour geĢrer efficacement la charge de calcul de cet algorithme, la meĢmoire du robot est diviseĢe en une meĢmoire de travail et une meĢmoire aĢ long terme. Lorsque la contrainte de traitement āen ligneā est atteinte, les endroits vus les moins souvent et qui ne sont pas utiles pour la navigation sont transfeĢreĢes de la meĢmoire de travail aĢ la meĢmoire aĢ long terme. Les endroits transfeĢreĢs dans la meĢmoire aĢ long terme ne sont plus utiliseĢs pour la navigation. Cependant, ces endroits transfeĢreĢs peuvent eĢtre reĢcupeĢreĢes de la meĢmoire aĢ long terme aĢ la meĢmoire de travail lorsque le le robot sāapproche dāun endroit voisin encore dans la meĢmoire de travail. Le robot peut ainsi se rappeler increĢmentalement dāune partie de lāenvironment a priori oublieĢe afin de pouvoir sāy localiser pour le suivi de trajectoire.
Lāalgorithme, nommeĢ RTAB-Map, a eĢteĢ testeĢ sur le robot AZIMUT-3 dans une premieĢre expeĢrience de cartographie sur cinq sessions indeĢpendantes, afin dāeĢvaluer la capaciteĢ du systeĢme aĢ fusionner plusieurs cartes āen ligneā. La seconde expeĢrience, avec le meĢme robot utiliseĢ lors de onze sessions totalisant 8 heures de deĢplacement, a permis dāeĢvaluer la capaciteĢ du robot de naviguer de facĢ§on autonome tout en faisant du SLAM et planifier des trajectoires continuellement sur une longue peĢriode en respectant la contrainte de traitement āen ligneā . Enfin, RTAB-Map est compareĢ aĢ dāautres systeĢmes de SLAM sur quatre ensembles de donneĢes populaires pour des applications de voiture autonome (KITTI), balayage aĢ la main avec une cameĢra RGB-D (TUM RGB-D), de drone (EuRoC) et de navigation inteĢrieur avec un robot PR2 (MIT Stata Center).
Les reĢsultats montrent que RTAB-Map peut eĢtre utiliseĢ sur de longue peĢriode de temps en navigation autonome tout en respectant la contrainte de traitement āen ligneā et avec une qualiteĢ de carte comparable aux approches de lāeĢtat de lāart en SLAM visuel et avec teĢleĢmeĢtre laser. ll en reĢsulte dāun logiciel libre deĢployeĢ dans une multitude dāapplications allant des robots mobiles inteĢrieurs peu couĢteux aux voitures autonomes, en passant par les drones et la modeĢlisation 3D de lāinteĢrieur dāune maison
RGB-D Odometry and SLAM
The emergence of modern RGB-D sensors had a significant impact in many
application fields, including robotics, augmented reality (AR) and 3D scanning.
They are low-cost, low-power and low-size alternatives to traditional range
sensors such as LiDAR. Moreover, unlike RGB cameras, RGB-D sensors provide the
additional depth information that removes the need of frame-by-frame
triangulation for 3D scene reconstruction. These merits have made them very
popular in mobile robotics and AR, where it is of great interest to estimate
ego-motion and 3D scene structure. Such spatial understanding can enable robots
to navigate autonomously without collisions and allow users to insert virtual
entities consistent with the image stream. In this chapter, we review common
formulations of odometry and Simultaneous Localization and Mapping (known by
its acronym SLAM) using RGB-D stream input. The two topics are closely related,
as the former aims to track the incremental camera motion with respect to a
local map of the scene, and the latter to jointly estimate the camera
trajectory and the global map with consistency. In both cases, the standard
approaches minimize a cost function using nonlinear optimization techniques.
This chapter consists of three main parts: In the first part, we introduce the
basic concept of odometry and SLAM and motivate the use of RGB-D sensors. We
also give mathematical preliminaries relevant to most odometry and SLAM
algorithms. In the second part, we detail the three main components of SLAM
systems: camera pose tracking, scene mapping and loop closing. For each
component, we describe different approaches proposed in the literature. In the
final part, we provide a brief discussion on advanced research topics with the
references to the state-of-the-art.Comment: This is the pre-submission version of the manuscript that was later
edited and published as a chapter in RGB-D Image Analysis and Processin