12 research outputs found

    Stereo Parallel Tracking and Mapping for Robot Localization

    Get PDF
    This paper describes a visual SLAM system based on stereo cameras and focused on real-time localization for mobile robots. To achieve this, it heavily exploits the parallel nature of the SLAM problem, separating the time-constrained pose estimation from less pressing matters such as map building and refinement tasks. On the other hand, the stereo setting allows to reconstruct a metric 3D map for each frame of stereo images, improving the accuracy of the mapping process with respect to monocular SLAM and avoiding the well-known bootstrapping problem. Also, the real scale of the environment is an essential feature for robots which have to interact with their surrounding workspace. A series of experiments, on-line on a robot as well as off-line with public datasets, are performed to validate the accuracy and real-time performance of the developed method

    Simplifying UAV-Based Photogrammetry in Forestry: How to Generate Accurate Digital Terrain Model and Assess Flight Mission Settings

    Get PDF
    In forestry, aerial photogrammetry by means of Unmanned Aerial Systems (UAS) could bridge the gap between detailed fieldwork and broad-range satellite imagery-based analysis. How-ever, optical sensors are only poorly capable of penetrating the tree canopy, causing raw image-based point clouds unable to reliably collect and classify ground points in woodlands, which is essential for further data processing. In this work, we propose a novel method to overcome this issue and generate accurate a Digital Terrain Model (DTM) in forested environments by processing the point cloud. We also developed a highly realistic custom simulator that allows controlled experimentation with repeatability guaranteed. With this tool, we performed an exhaustive evaluation of the survey and sensor settings and their impact on the 3D reconstruction. Overall, we found that a high frontal overlap (95%), a nadir camera angle (90◦), and low flight altitudes (less than 100 m) results in the best configuration for forest environments. We validated the presented method for DTM generation in a simulated and real-world survey missions with both fixed-wing and multicopter UAS, showing how the problem of structural forest parameters estimation can be better addressed. Finally, we applied our method for automatic detection of selective logging.Fil: Pessacg, Facundo Hugo. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Gómez Fernández, Francisco Roberto. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Nitsche, Matias Alejandro. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Chamorro, Nicolás. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Torrella, Sebastián Andrés. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Ecología, Genética y Evolución de Buenos Aires. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Ecología, Genética y Evolución de Buenos Aires; ArgentinaFil: Ginzburg, Rubén Gabriel. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Ecología, Genética y Evolución de Buenos Aires. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Ecología, Genética y Evolución de Buenos Aires; ArgentinaFil: de Cristóforis, Pablo. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; Argentin

    Image features for visual teach-and-repeat navigation in changing environments

    Get PDF
    We present an evaluation of standard image features in the context of long-term visual teach-and-repeat navigation of mobile robots, where the environment exhibits significant changes in appearance caused by seasonal weather variations and daily illumination changes. We argue that for long-term autonomous navigation, the viewpoint-, scale- and rotation- invariance of the standard feature extractors is less important than their robustness to the mid- and long-term environment appearance changes. Therefore, we focus our evaluation on the robustness of image registration to variable lighting and naturally-occurring seasonal changes. We combine detection and description components of different image extractors and evaluate their performance on five datasets collected by mobile vehicles in three different outdoor environments over the course of one year. Moreover, we propose a trainable feature descriptor based on a combination of evolutionary algorithms and Binary Robust Independent Elementary Features, which we call GRIEF (Generated BRIEF). In terms of robustness to seasonal changes, the most promising results were achieved by the SpG/CNN and the STAR/GRIEF feature, which was slightly less robust, but faster to calculate

    Miradas desde la historia social y la historia intelectual: América Latina en sus culturas: de los procesos independistas a la globalización

    Get PDF
    Fil: Benito Moya, Silvano G. A. Universidad Católica de Córdoba. Facultad de Filosofía y Humanidades; Argentina.Fil: Universidad Católica de Córdoba. Facultad de Filosofía y Humanidades; Argentina

    Vision-based mobile robot system for monocular navigation in indoor/outdoor environments

    No full text
    Uno de los desafíos actuales de la robótica móvil es alcanzar el mayor grado de autonomía, es decir, lograr que un robot desarrolle sus tareas sin la necesidad de un operador humano. El objetivo principal de este trabajo es el desarrollo de un nuevo sistema de navegación autónomo basado en visión para robot móviles en entornos interiores/exteriores. El sistema propuesto utiliza sólo una cámara y sensores de odometría, no depende de ningún sistema de localización externo o infraestructura similar. Además, es capaz de tratar con variaciones en el ambiente (por ejemplo, cambios de iluminación o estaciones del año) y satisface las restricciones para guiar al robot en tiempo real. Para alcanzar el objetivo de este trabajo, se propone un enfoque híbrido que hace uso de dos técnicas de navegación visual: una basada en segmentación de imágenes y otra basada en marcas visuales. Para representar el ambiente se construye un mapa topológico que puede ser interpretado como un grafo, donde las aristas corresponden a caminos navegables y los nodos a espacios abiertos. Para recorrer los caminos (aristas) se desarrolló un método original basado en segmentación y para navegar por los espacios abiertos (nodos) se realizó una mejora y adaptación de un método basado en marcas visuales. Se evaluaron diversos algoritmos de extracción de características distintivas de las imágenes para determinar cuál representa la mejor solución para el caso de la navegación basada en marcas visuales, en términos de performance y repetibilidad. El sistema desarrollado es robusto y no requiere de la calibración de los sensores. La convergencia del método de navegación se ha demostrado tanto desde el punto de vista teórico como práctico. Su complejidad computacional es independiente del tamaño del entorno. Para validar el método realizamos experiencias tanto con sets de datos como con el robot móvil ExaBot, que se presenta como parte de este trabajo. Los resultados obtenidos demuestran la viabilidad del enfoque híbrido para abordar el problema de la navegación basa en visión en entornos complejos interiores/exteriores.One of the current challenges of mobile robotics is to achieve complete autonomy, i.e. to develop a robot that can carry out its tasks without the need of a human operator. The main goal of this work is to develop a new vision-based mobile robot system for autonomous navigation in indoor/outdoor environments. The proposed system uses only a camera and odometry sensors, it does not rely on any external localization system or other similar infrastructure. Moreover, it can deal with real environmental changing conditions (illumination, seasons) and satisfies motion control constraints to guide the robot in real time. To achieve the goal of this work, a hybrid method is proposed that uses both segmentation-based and landmark-base navigation techniques. To represent the environment, a topological map is built. This map can be interpreted as a graph, where the edges represent navigable paths and the nodes open areas. A novel segmentation-based navigation method is presented to follow paths (edges) and a modifed landmark-based navigation method is used to traverse open areas (nodes). A variety of image features extraction algorithms were evaluated to conclude which one is the best solution for landmark-based navigation in terms of performance and repeatability. The developed system is robust and does not require sensor calibration. The convergence of the navigation method was proved from theoretical and practical viewpoints. Its computational complexity is independent of the environment size. To validate the method we perform experiments both with data sets and with the mobile robot ExaBot, which is presented as part of this work. The results demonstrate the feasibility of the hybrid approach to address the problem of vision based navigation in indoor/outdoor environments.Fil:De Cristóforis, Pablo. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina

    Estimativa da covariância ICP para a localização de um robô diferencial usando Odometria e varredura a laser

    Get PDF
    In this work we present a probabilistic method to solve the localization problem of a differential robot. The Extended Kalman Filter (EKF) is used to merge the information obtained from ICP (Iterative Closest Point) laser measurement records with the odometry information provided by encoders. To use EKF it is necessary to estimate the covariance of each information source, however the ICP algorithm does not return the associated covariance. This paper describes a way to calculate this covariance. The results obtained show that the sensor fusion method results in a more accurate estimation of the robot's pose compared to the estimations obtained through odometry and ICP individually.En este trabajo se presenta un método probabilístico para resolver el problema de la localización de un robot diferencial. Se usa el Filtro Extendido de Kalman (EKF) para fusionar la información obtenida por registraciones de mediciones láser mediante ICP (IterativeClosest Point) con la información de odometría provista por encoders. Para utilizar EKF es necesario estimar la covarianza de cada fuente de información, sin embargo el algoritmo ICP no devuelve la covarianza asociada. En este artículo se describe una forma de calcular esta covarianza. Los resultados obtenidos muestran que el método de fusión de sensores resulta en una estimación más precisa de la pose del robot en comparación con las estimaciones que se podrían obtener mediante odometría e ICP individualmente.Neste trabalho apresentamos um método probabilístico para resolver o problema da localização de um robô diferencial. O Extended Kalman Filter (EKF) é usado para mesclar as informações obtidas pelos registros de medição a laser pelo ICP (IterativeClosest Point) com as informações de odometria fornecidas pelos codificadores. Para usar o EKF é necessário estimar a covariância de cada fonte de informação, porém o algoritmo ICP não retorna a covariância associada. Este artigo descreve uma maneira de calcular essa covariância. Os resultados obtidos mostram que o método de fusão de sensores resulta em uma estimativa mais precisa da postura do robô em relação às estimativas que poderiam ser obtidas por odometria e ICP individualmente

    Real-time monocular image-based path detection

    Get PDF
    In this work, we present a new real-time imagebased monocular path detection method. It does not require camera calibration and works on semi-structured outdoor paths. The core of the method is based on segmenting images and classifying each super-pixel to infer a contour of navigable space. This method allows a mobile robot equipped with a monocular camera to follow different naturally delimited paths. The contour shape can be used to calculate the forward and steering speed of the robot. To achieve real-time computation necessary for on-board execution in mobile robots, the image segmentation is implemented on a low-power embedded GPU. The validity of our approach has been verified with an image dataset of various outdoor paths as well as with a real mobile robot.Fil: de Cristóforis, Pablo. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Nitsche, Matias Alejandro. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Krajník, Tomáš. Czech Technical University in Prague; República ChecaFil: Mejail, Marta Estela. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentin

    Efficient on-board Stereo SLAM through constrained-covisibility strategies

    No full text
    Visual SLAM is a computationally expensive task, with a complexity that grows unbounded as the size of the explored area increases. This becomes an issue when targeting embedded applications such as on-board localization on Micro Aerial Vehicles (MAVs), where real-time execution is mandatory and computational resources are a limiting factor. The herein proposed method introduces a covisibility-graph based map representation which allows a visual SLAM system to execute with a complexity that does not depend on the size of the map. The proposed structure allows to efficiently select locally relevant portions of the map to be optimized in such a way that the results resemble performing a full optimization on the whole trajectory. We build on S-PTAM (Stereo Parallel Tracking and Mapping), yielding an accurate and robust stereo SLAM system capable to work in real-time under limited hardware constraints such as those present in MAVs. The developed SLAM system in assessed using the EuRoC dataset. Results show that covisibility-graph based map culling allows the SLAM system to run in real-time even on a low-resource embedded computer. The impact of each SLAM task on the overall system performance is analyzed in detail and the SLAM system is compared with state-of-the-art methods to validate the presented approach.Fil: Castro, Gastón Ignacio. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Nitsche, Matias Alejandro. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Pire, Taihú Aguará Nahuel. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: Fischer, Thomas. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; ArgentinaFil: de Cristóforis, Pablo. Consejo Nacional de Investigaciones Científicas y Técnicas. Oficina de Coordinación Administrativa Ciudad Universitaria. Instituto de Investigación en Ciencias de la Computación. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Instituto de Investigación en Ciencias de la Computación; Argentin

    Hybrid vision-based navigation for mobile robots in mixed indoor/outdoor environments

    Get PDF
    In this paper we present a vision-based navigation system for mobile robots equipped with a single, off-the-shelf camera in mixed indoor/outdoor environments. A hybrid approach is proposed, based on the teach-and-replay technique, which combines a path-following and a feature-based navigation algorithm. We describe the navigation algorithms and show that both of them correct the robot's lateral displacement from the intended path. After that, we claim that even though neither of the methods explicitly estimates the robot position, the heading corrections themselves keep the robot position error bound. We show that combination of the methods outperforms the pure feature-based approach in terms of localization precision and that this combination reduces map size and simplifies the learning phase. Experiments in mixed indoor/outdoor environments were carried out with a wheeled and a tracked mobile robots in order to demonstrate the validity and the benefits of the hybrid approach.Fil: de Cristóforis, Pablo. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Nitsche, Matias Alejandro. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Krajník, Tomáš. Czech Technical University In Prague; República ChecaFil: Pire, Taihú Aguará Nahuel. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Mejail, Marta Estela. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; Argentin

    A Behavior-based approach for educational robotics activities

    Get PDF
    Educational robotics proposes the use of robots as a teaching resource that enables inexperienced students to approach topics in fields unrelated to robotics. In recent years, these activities have grown substantially in elementary and secondary school classrooms and also in outreach experiences to interest students in science, technology, engineering, and math (STEM) undergraduate programs. A key problem in educational robotics is providing a satisfactory, adequate, easy-to-use interface between an inexpert public and the robots. This paper presents a behavior-based application for programming robots and the design of robotic-centered courses and other outreach activities. Evaluation data show that over 90% of students find it easy to use. These activities are part of a comprehensive outreach program conducted by the Exact and Natural Science Faculty of the University of Buenos Aires, Argentina (FCEN-UBA). Statistical data show that since 2009 over 35% of new students at the FCEN-UBA have participated in some outreach activity, suggesting their significant impact on student enrollment in STEM-related programs.Fil: de Cristóforis, Pablo. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Pedre, Sol. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Nitsche, Matias Alejandro. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Fischer, Thomas. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Pessacg, Facundo Hugo. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentina. Consejo Nacional de Investigaciones Científicas y Técnicas; ArgentinaFil: Di Pietro, Carlos. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales. Departamento de Computación; Argentin
    corecore