6 research outputs found

    ATLAS: a framework for large scale automated mapping and localization

    Get PDF
    Thesis (Ph. D.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2004.Includes bibliographical references (p. 203-207).This thesis describes a scalable robotic navigation system that builds a map of the robot's environment on the fly. This problem is also known as Simultaneous Localization and Mapping (SLAM). The SLAM problem has as inputs the control of the robot's motion and sensor measurements to features in the environment. The desired output is the path traversed by the robot (localization) and a representation of the sensed environment (mapping). The principal contribution of this thesis is the introduction of a framework, termed Atlas, that alleviates the computational restrictions of previous approaches to SLAM when mapping extended environments. The Atlas framework partitions the SLAM problem into a graph of submaps, each with its own coordinate system. Furthermore, the framework facilitates the modularity of sensors, map representations, and local navigation algorithms by encapsulating the implementation specific algorithms into an abstracted module. The challenge of loop closing is handled with a module that matches submaps and a verification procedure that trades latency in loop closing with a lower chance of incorrect loop detections inherent with symmetric environments. The framework is demonstrated with several datasets that map large indoor and urban outdoor environments using a variety of sensors: a laser scanner, sonar rangers, and omni-directional video.by Michael Carsten Bosse.Ph.D

    Towards Palm-Size Autonomous Helicopters

    Get PDF
    muFly EU project started in 2006 with the idea to build an autonomous micro helicopter, comparable in size and weight to a small bird. Several scientific and technological objectives were identified. This spanned from system-level integration, high efficiency micro-actuation, highly integrated micro vision sensors and IMUs and also low processing power navigation algorithms. This paper shows how most of these objectives were reached, describing the approach and the role of each partner during the whole project. The paper describes also the technological developments achieved like the 80g, 17 cm micro robotic-helicopter, the 8g omnidirectional and steady-state laser scanner, the uIMU, the highly efficient micro motors, the high power-density fuel-cell and the successful graph-based navigation algorithm

    Modeling the environment with egocentric vision systems

    Get PDF
    Cada vez m谩s sistemas aut贸nomos, ya sean robots o sistemas de asistencia, est谩n presentes en nuestro d铆a a d铆a. Este tipo de sistemas interact煤an y se relacionan con su entorno y para ello necesitan un modelo de dicho entorno. En funci贸n de las tareas que deben realizar, la informaci贸n o el detalle necesario del modelo var铆a. Desde detallados modelos 3D para sistemas de navegaci贸n aut贸nomos, a modelos sem谩nticos que incluyen informaci贸n importante para el usuario como el tipo de 谩rea o qu茅 objetos est谩n presentes. La creaci贸n de estos modelos se realiza a trav茅s de las lecturas de los distintos sensores disponibles en el sistema. Actualmente, gracias a su peque帽o tama帽o, bajo precio y la gran informaci贸n que son capaces de capturar, las c谩maras son sensores incluidos en todos los sistemas aut贸nomos. El objetivo de esta tesis es el desarrollar y estudiar nuevos m茅todos para la creaci贸n de modelos del entorno a distintos niveles sem谩nticos y con distintos niveles de precisi贸n. Dos puntos importantes caracterizan el trabajo desarrollado en esta tesis: - El uso de c谩maras con punto de vista egoc茅ntrico o en primera persona ya sea en un robot o en un sistema portado por el usuario (wearable). En este tipo de sistemas, las c谩maras son solidarias al sistema m贸vil sobre el que van montadas. En los 煤ltimos a帽os han aparecido muchos sistemas de visi贸n wearables, utilizados para multitud de aplicaciones, desde ocio hasta asistencia de personas. - El uso de sistemas de visi贸n omnidireccional, que se distinguen por su gran campo de visi贸n, incluyendo mucha m谩s informaci贸n en cada imagen que las c谩mara convencionales. Sin embargo plantean nuevas dificultades debido a distorsiones y modelos de proyecci贸n m谩s complejos. Esta tesis estudia distintos tipos de modelos del entorno: - Modelos m茅tricos: el objetivo de estos modelos es crear representaciones detalladas del entorno en las que localizar con precisi贸n el sistema aut贸nomo. 脡sta tesis se centra en la adaptaci贸n de estos modelos al uso de visi贸n omnidireccional, lo que permite capturar m谩s informaci贸n en cada imagen y mejorar los resultados en la localizaci贸n. - Modelos topol贸gicos: estos modelos estructuran el entorno en nodos conectados por arcos. Esta representaci贸n tiene menos precisi贸n que la m茅trica, sin embargo, presenta un nivel de abstracci贸n mayor y puede modelar el entorno con m谩s riqueza. %, por ejemplo incluyendo el tipo de 谩rea de cada nodo, la localizaci贸n de objetos importantes o el tipo de conexi贸n entre los distintos nodos. Esta tesis se centra en la creaci贸n de modelos topol贸gicos con informaci贸n adicional sobre el tipo de 谩rea de cada nodo y conexi贸n (pasillo, habitaci贸n, puertas, escaleras...). - Modelos sem谩nticos: este trabajo tambi茅n contribuye en la creaci贸n de nuevos modelos sem谩nticos, m谩s enfocados a la creaci贸n de modelos para aplicaciones en las que el sistema interact煤a o asiste a una persona. Este tipo de modelos representan el entorno a trav茅s de conceptos cercanos a los usados por las personas. En particular, esta tesis desarrolla t茅cnicas para obtener y propagar informaci贸n sem谩ntica del entorno en secuencias de im谩gen

    Localizaci贸n y mapeado simult谩neos en rob贸tica mediante visi贸n omnidireccional

    Get PDF
    Algoritmos de localizaci贸n y SLAM para c谩maras omnidireccionales que utilizan como balizas las luces del entorno, capaces de operar en tiempo real y bajo oclusiones frecuentes y severas

    Bearing-Only SLAM with an Omnicam Robust Selection of SIFT Features for Service Robots

    No full text
    corecore