16 research outputs found

    SupSLAM: A Robust Visual Inertial SLAM System Using SuperPoint for Unmanned Aerial Vehicles

    Full text link

    The simultaneous localization and mapping (SLAM):An overview

    Get PDF
    Positioning is a need for many applications related to mapping and navigation either in civilian or military domains. The significant developments in satellite-based techniques, sensors, telecommunications, computer hardware and software, image processing, etc. positively influenced to solve the positioning problem efficiently and instantaneously. Accordingly, the mentioned development empowered the applications and advancement of autonomous navigation. One of the most interesting developed positioning techniques is what is called in robotics as the Simultaneous Localization and Mapping SLAM. The SLAM problem solution has witnessed a quick improvement in the last decades either using active sensors like the RAdio Detection And Ranging (Radar) and Light Detection and Ranging (LiDAR) or passive sensors like cameras. Definitely, positioning and mapping is one of the main tasks for Geomatics engineers, and therefore it's of high importance for them to understand the SLAM topic which is not easy because of the huge documentation and algorithms available and the various SLAM solutions in terms of the mathematical models, complexity, the sensors used, and the type of applications. In this paper, a clear and simplified explanation is introduced about SLAM from a Geomatical viewpoint avoiding going into the complicated algorithmic details behind the presented techniques. In this way, a general overview of SLAM is presented showing the relationship between its different components and stages like the core part of the front-end and back-end and their relation to the SLAM paradigm. Furthermore, we explain the major mathematical techniques of filtering and pose graph optimization either using visual or LiDAR SLAM and introduce a summary of the deep learning efficient contribution to the SLAM problem. Finally, we address examples of some existing practical applications of SLAM in our reality

    SLAM VISUAL 3D usando Optimización de Grafo de Poses 3D Visual SLAM using Pose Graph Optimization

    Get PDF
    En los próximos años, los robots móviles serán más y más comunes en nuestra vida cotidiana, llegando a áreas como educación, salud o asistir a humanos en tareas del día a día. Para efectuar estas tareas de forma autónoma los robots deben ser capaces de reconocer su entorno de trabajo (es decir, construir un mapa) y ser capaces de localizarse dentro de ellos. Estos dos problemas deben resolverse simultáneamente, un paradigma clave en robótica llamado SLAM (Simultaneous localization and mapping), el cual es un importante área de investigación hoy en día. Este trabajo de fin de grado desarrolla un sistema SLAM usando optimización de grafo de poses, que logra una solución de la secuencia de poses (posición y orientación) del robot en el plano (2D). Este tipo de sistemas se denominan Full SLAM, ya que se estiman la trayectoria completa del robot. Observaciones del entorno son dadas por un par de cámaras estéreo calibradas montadas en el robot desde donde se obtienen las coordenadas 3D de los landmarks. Por esto, el proceso se denomina SLAM Visual. Un objetivo adicional de este proyecto es implementar el sistema de SLAM Visual de manera que pueda ser usada de forma ilustrativa y educacional en clases relacionadas con la Visión por Computador y la Robótica, con la intención de mostrar cómo estos campos que están de moda pueden trabajar juntos. Para ello, técnicas de visión por computador son aplicadas a las imágenes estéreo obtenidas por el robot móvil para extraer keypoints de las imágenes, establecer correspondencias fiables entre ellos y triangular los pares correspondientes para obtener landmarks 3D en el espacio. Además de la implementación del sistema de SLAM Visual con las características previamente mencionadas, este proyecto también proporciona un modelo virtual del entorno, haciendo uso de la librería Unity 3D, donde robots móviles equipados con cámaras RGB pueden ser simulados para generar datasets para ser usados por el sistema

    Autonomous mobility for an electronic wheelchair

    Get PDF
    Despite the rapid development of medical technologies the health sector does not yet offer any universal remedy for people suffering from permanent impairment of motor functions. Individuals depending on the range of disability require rehabilitation and help to perform the ALDs (activities of daily living). To aid people affected by the impairment and relieve from some duties the ones responsible for helping them the electronic wheelchair was developed. One of the functions of the electronic wheelchair is supposed to be autonomous navigation with speech recognition. The main objective of this project was to extend the existing electronic wheelchair solution with all necessary equipment and software necessary to make the autonomous navigation possible. As a result, a versatile system was created capable of mapping the working space and navigating in both known and unknown dynamic environments. The system allows dynamic obstacle detection and avoidance, basic recovery behaviors and accepts navigation goals provided by speech recognition.A pesar del rápido desarrollo de las tecnologías médicas el sector de la salud todavía no ofrece ningún remedio universal para las personas sufriendo de falta de control motor. Dependiente del rango de discapacidad las personas requieren rehabilitación y ayuda para realizar AC (actividades cotidianas). Para ayudar a las personas afectadas por discapacidad y relevar de algunos deberes la gente que los soporta se desarrolló la silla de ruedas electrónica. Una de las funciones de ya mencionada silla de ruedas debería ser la navegación autónoma con reconocimiento de voz. Entonces el objetivo principal de este proyecto fue extender la solución existente con todo el hardware y software necesarios para que la navegación autónoma sea posible. El proyecto resultado en creación de un sistema versátil capaz de mapear el espacio de trabajo y navegar en entornos también conocidos y desconocidos. El sistema permite detección y evitación dinámica de obstáculos, soporta comportamientos básicos de recuperación y acepta objetivos de navegación proporcionados por el software de reconocimiento de voz

    S3LAM: Structured Scene SLAM

    Get PDF
    International audienceWe propose a new SLAM system that uses the semantic segmentation of objects and structures in the scene. Semantic information is relevant as it contains high level information which may make SLAM more accurate and robust. Our contribution is twofold: i) A new SLAM system based on ORB-SLAM2 that creates a semantic map made of clusters of points corresponding to objects instances and structures in the scene. ii) A modification of the classical Bundle Adjustment formulation to constrain each cluster using geometrical priors, which improves both camera localization and reconstruction and enables a better understanding of the scene. We evaluate our approach on sequences from several public datasets and show that it improves camera pose estimation with respect to state of the art

    TwistSLAM: Constrained SLAM in Dynamic Environment

    Get PDF
    International audienceClassical visual simultaneous localization and mapping (SLAM) algorithms usually assume the environment to be rigid. This assumption limits the applicability of those algorithms as they are unable to accurately estimate the camera poses and world structure in real life scenes containing moving objects (e.g. cars, bikes, pedestrians, etc.). To tackle this issue, we propose TwistSLAM: a semantic, dynamic and stereo SLAM system that can track dynamic objects in the environment. Our algorithm creates clusters of points according to their semantic class. Thanks to the definition of inter-cluster constraints modeled by mechanical joints (function of the semantic class), a novel constrained bundle adjustment is then able to jointly estimate both poses and velocities of moving objects along with the classical world structure and camera trajectory. We evaluate our approach on several sequences from the public KITTI dataset and demonstrate quantitatively that it improves camera and object tracking compared to state-of-the-art approaches

    Real-Time Accurate Visual SLAM with Place Recognition

    Get PDF
    El problema de localización y construcción simultánea de mapas (del inglés Simultaneous Localization and Mapping, abreviado SLAM) consiste en localizar un sensor en un mapa que se construye en línea. La tecnología de SLAM hace posible la localización de un robot en un entorno desconocido para él, procesando la información de sus sensores de a bordo y por tanto sin depender de infraestructuras externas. Un mapa permite localizarse en todo momento sin acumular deriva, a diferencia de una odometría donde se integran movimientos incrementales. Este tipo de tecnología es crítica para la navegación de robots de servicio y vehículos autónomos, o para la localización del usuario en aplicaciones de realidad aumentada o virtual. La principal contribución de esta tesis es ORB-SLAM, un sistema de SLAM monocular basado en características que trabaja en tiempo real en ambientes pequeños y grandes, de interior y exterior. El sistema es robusto a elementos dinámicos en la escena, permite cerrar bucles y relocalizar la cámara incluso si el punto de vista ha cambiado significativamente, e incluye un método de inicialización completamente automático. ORB-SLAM es actualmente la solución más completa, precisa y fiable de SLAM monocular empleando una cámara como único sensor. El sistema, estando basado en características y ajuste de haces, ha demostrado una precisión y robustez sin precedentes en secuencias públicas estándar.Adicionalmente se ha extendido ORB-SLAM para reconstruir el entorno de forma semi-densa. Nuestra solución desacopla la reconstrucción semi-densa de la estimación de la trayectoria de la cámara, lo que resulta en un sistema que combina la precisión y robustez del SLAM basado en características con las reconstrucciones más completas de los métodos directos. Además se ha extendido la solución monocular para aprovechar la información de cámaras estéreo, RGB-D y sensores inerciales, obteniendo precisiones superiores a otras soluciones del estado del arte. Con el fin de contribuir a la comunidad científica, hemos hecho libre el código de una implementación de nuestra solución de SLAM para cámaras monoculares, estéreo y RGB-D, siendo la primera solución de código libre capaz de funcionar con estos tres tipos de cámara. Bibliografía:R. Mur-Artal and J. D. Tardós.Fast Relocalisation and Loop Closing in Keyframe-Based SLAM.IEEE International Conference on Robotics and Automation (ICRA). Hong Kong, China, June 2014.R. Mur-Artal and J. D. Tardós.ORB-SLAM: Tracking and Mapping Recognizable Features.RSS Workshop on Multi VIew Geometry in RObotics (MVIGRO). Berkeley, USA, July 2014. R. Mur-Artal and J. D. Tardós.Probabilistic Semi-Dense Mapping from Highly Accurate Feature-Based Monocular SLAM.Robotics: Science and Systems (RSS). Rome, Italy, July 2015.R. Mur-Artal, J. M. M. Montiel and J. D. Tardós.ORB-SLAM: A Versatile and Accurate Monocular SLAM System.IEEE Transactions on Robotics, vol. 31, no. 5, pp. 1147-1163, October 2015.(2015 IEEE Transactions on Robotics Best Paper Award).R. Mur-Artal, and J. D. Tardós.Visual-Inertial Monocular SLAM with Map Reuse.IEEE Robotics and Automation Letters, vol. 2, no. 2, pp. 796-803, April 2017. (to be presented at ICRA 17).R.Mur-Artal, and J. D. Tardós. ORB-SLAM2: an Open-Source SLAM System for Monocular, Stereo and RGB-D Cameras.ArXiv preprint arXiv:1610.06475, 2016. (under Review).<br /

    Parallel Tracking and Mapping for Manipulation Applications with Golem Krang

    Get PDF
    Implementing a simultaneous localization and mapping system and an image semantic segmentation method on a mobile manipulation. The application of the SLAM is working towards navigating among obstacles in unknown environments. The object detection method will be integrated for future manipulation tasks such as grasping. This work will be demonstrated on a real robotics hardware system in the lab.Outgoin
    corecore