11 research outputs found

    Monte Carlo localization for teach-and-repeat feature-based navigation

    Get PDF
    This work presents a combination of a teach-and-replay visual navigation and Monte Carlo localization methods. It improves a reliable teach-and-replay navigation method by replacing its dependency on precise dead-reckoning by introducing Monte Carlo localization to determine robot position along the learned path. In consequence, the navigation method becomes robust to dead-reckoning errors, can be started from at any point in the map and can deal with the `kidnapped robot' problem. Furthermore, the robot is localized with MCL only along the taught path, i.e. in one dimension, which does not require a high number of particles and significantly reduces the computational cost. Thus, the combination of MCL and teach-and-replay navigation mitigates the disadvantages of both methods. The method was tested using a P3-AT ground robot and a Parrot AR.Drone aerial robot over a long indoor corridor. Experiments show the validity of the approach and establish a solid base for continuing this work

    A practical multirobot localization system

    Get PDF
    We present a fast and precise vision-based software intended for multiple robot localization. The core component of the software is a novel and efficient algorithm for black and white pattern detection. The method is robust to variable lighting conditions, achieves sub-pixel precision and its computational complexity is independent of the processed image size. With off-the-shelf computational equipment and low-cost cameras, the core algorithm is able to process hundreds of images per second while tracking hundreds of objects with a millimeter precision. In addition, we present the method's mathematical model, which allows to estimate the expected localization precision, area of coverage, and processing speed from the camera's intrinsic parameters and hardware's processing capacity. The correctness of the presented model and performance of the algorithm in real-world conditions is verified in several experiments. Apart from the method description, we also make its source code public at \emph{http://purl.org/robotics/whycon}; so, it can be used as an enabling technology for various mobile robotic problems

    Appearance-based teach and repeat navigation method for unmanned aerial vehicles

    No full text
    En esta tesis se presenta un método basado en la técnica de Aprendizaje y Repetición (teach & repeat o TnR) para la navegación autónoma de Vehículos Aéreos No Tripulados (VANTs). Bajo esta técnica se distinguen dos fases: una de aprendizaje (teach) y otra de navegación autónoma (repeat). Durante la etapa de aprendizaje, el VANT es guiado manualmente a través del entorno, definiendo así un camino a repetir. Luego, el VANT puede ser ubicado en cualquier punto del camino (generalmente, al comienzo del mismo) e iniciar la etapa de navegación autónoma. En esta segunda fase el sistema opera a lazo cerrado controlando el VANT con el objetivo de repetir en forma precisa y robusta el camino previamente aprendido. Como principal sensado se utiliza un sistema de visión monocular, en conjunción con sensores que permitan estimar a corto plazo el desplazamiento del robot respecto del entorno, tales como sensores inerciales y de flujo óptico. El principal objetivo de este trabajo es el de proponer un método de navegación tipo T&R que pueda ser ejecutado en tiempo real y a bordo del mismo vehículo, sin depender de una estación terrena a la cual se delegue parte del procesamiento o de un sistema de localización externa (como por ejemplo GPS, en ambientes exteriores) o de captura de movimiento (como por ejemplo ViCon, en ambientes interiores). En otras palabras, se busca un sistema completamente autónomo. Para ello, se propone el uso de un enfoque basado en apariencias (o appearance-based, del inglés), que permite resolver el problema de la localización del vehículo respecto del mapa en forma cualitativa y que es computacionalmente eficiente, lo que permite su ejecución en hardware disponible a bordo del vehículo. La solución propuesta se diferencia del típico esquema de Localización y Mapeo Simultáneo (Simultaneous Localization and Mapping o SLAM) mediante el cual se estima la pose del robot (y la de los objetos del entorno) en forma absoluta con respecto a un sistema de coordenadas global. Bajo dicho esquema, como consecuencia, el error en la estimación de la pose se acumula en forma no acotada, limitando su utilización en el contexto de una navegación a largo plazo, a menos que se realicen correcciones globales en forma periódica (detección y cierre de ciclos). Esto impone el uso de técnicas computacionalmente costosas, lo cual dificulta su ejecución en tiempo real sobre hardware que pueda ser llevado a bordo de un robot aéreo. En contraste, bajo el enfoque propuesto en esta tesis, la localización se resuelve en forma relativa a un sistema de coordenadas local cercano al vehículo (es decir, una referencia sobre el camino) que es determinado mediante un esquema de filtro de partículas (Localización de Monte Carlo). Esto se logra comparando la apariencia del entorno entre la etapa de aprendizaje y la de navegación, mediante el empleo de características visuales salientes (image features) detectadas en dichas etapas. Finalmente, utilizando una ley de control simple, se logra guiar al robot sobre el camino, a partir de reducir la diferencia entre la posición aparente de los objetos del entorno entre ambas etapas, producto del desplazamiento y diferencias de orientacion del robot respecto del mismo. Como parte del desarrollo del trabajo de tesis, se presenta tanto la formulación y descripción del método como el diseño y construcción de una plataforma VANT, sobre la cual se realizaron los experimentos de navegación. Asimismo, se exhiben experimentos tanto con plataformas aéreas en entornos simulados como sobre plataformas terrestres, dado que el método es aplicable también a los mismos. Con los resultados obtenidos se demuestra la factibilidad y precisión de los métodos de localización y navegación propuestos, ejecutando en hardware a bordo de un robot aéreo en tiempo-real. Así, con esta tesis se presenta un aporte al estado del arte en lo que refiere a temas de navegación autónoma basada en visión, particularmente (pero no exclusivamente) para el caso de robots aéreos.This thesis presents a method based on the Teach & Repeat (TnR) technique for the autonomous navigation of Unmanned Aerial Vehicles (UAVs). With this technique, two phases can be distinguished: a learning phase (teach) and an autonomous navigation (repeat) phase. During the learning stage, the UAV is manually guided through the environment, thus defining a path to repeat. Then, the UAV can be positioned in any point of the path (usually at the beginning of it) and the autonomous navigation phase can be started. In this second phase the system operates in closed-loop controlling the UAV in order to accurately and robustly repeat the previously learned path. Monocular vision is used as the main sensing system in conjunction with other sensors used to obtained short-term estimates of the movement of the robot with respect to the environment, such as inertial and optical flow sensors. The main goal of this work is to propose a T&R navigation method that can be run in real-time and on-board the same vehicle, without relying on a ground control-station to which part of the processing is delegated or on external localization (for example GPS, in outdoor environments) or motion capture (such as VICON, for indoor settings) systems. In other words, a completely autonomous system is sought. To this end, an appearance-based approach is employed, which allows to solve the localization problem with respect to the map qualitatively and computationally efficient, which in turns allows its execution on hardware available on-board the vehicle. The proposed solution scheme differs from the typical Simultaneous Localization and Mapping (SLAM) approach under which the pose of the robot (and the objects in the environment) are estimated in absolute terms with respect to a global coordinate system. Under SLAM, therefore, the error in the pose estimation accumulates in unbounded form, limiting its use in the context of long-term navigation unless global corrections are made periodically (loop detection and closure). This imposes the use of computationally expensive techniques, which hinders its execution in real time on hardware that can be carried on-board an aerial robot. In contrast, under the approach proposed in this thesis, the localization is solved relative to a local coordinate system near the vehicle (i.e. a reference over the path) which is determined by a particle-filter scheme (Monte Carlo Localization or MCL). This is accomplished by comparing the appearance of the environment between the learning and navigation stages through the use of salient visual features detected in said steps. Finally, using a simple control law, the robot is effectively guided over the path, by means of reducing the difference in the apparent position of objects in the environment between the two stages, caused by the vehicle’s displacement with respect to the path. As part of the development of the thesis, both the formulation and description of the method, and the design and construction of a UAV platform, on which navigation experiments were conducted, are presented. Moreover, experiments using aerial platforms in simulated environments and using terrestrial platforms are also presented, given that the proposed method is also applicable to the latter. With the obtained results the feasibility and precision of the proposed localization and navigation methods are demonstrated, while executing on-board an aerial robot and in real-time. Thus, this thesis represents a contribution to the state of the art when it comes to the problem of vision-based autonomous navigation, particularly (but not exclusively) for the case of aerial robots.Fil:Nitsche, Matías Alejandro. Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales; Argentina

    Estimativa da covariância ICP para a localização de um robô diferencial usando Odometria e varredura a laser

    Get PDF
    In this work we present a probabilistic method to solve the localization problem of a differential robot. The Extended Kalman Filter (EKF) is used to merge the information obtained from ICP (Iterative Closest Point) laser measurement records with the odometry information provided by encoders. To use EKF it is necessary to estimate the covariance of each information source, however the ICP algorithm does not return the associated covariance. This paper describes a way to calculate this covariance. The results obtained show that the sensor fusion method results in a more accurate estimation of the robot's pose compared to the estimations obtained through odometry and ICP individually.En este trabajo se presenta un método probabilístico para resolver el problema de la localización de un robot diferencial. Se usa el Filtro Extendido de Kalman (EKF) para fusionar la información obtenida por registraciones de mediciones láser mediante ICP (IterativeClosest Point) con la información de odometría provista por encoders. Para utilizar EKF es necesario estimar la covarianza de cada fuente de información, sin embargo el algoritmo ICP no devuelve la covarianza asociada. En este artículo se describe una forma de calcular esta covarianza. Los resultados obtenidos muestran que el método de fusión de sensores resulta en una estimación más precisa de la pose del robot en comparación con las estimaciones que se podrían obtener mediante odometría e ICP individualmente.Neste trabalho apresentamos um método probabilístico para resolver o problema da localização de um robô diferencial. O Extended Kalman Filter (EKF) é usado para mesclar as informações obtidas pelos registros de medição a laser pelo ICP (IterativeClosest Point) com as informações de odometria fornecidas pelos codificadores. Para usar o EKF é necessário estimar a covariância de cada fonte de informação, porém o algoritmo ICP não retorna a covariância associada. Este artigo descreve uma maneira de calcular essa covariância. Os resultados obtidos mostram que o método de fusão de sensores resulta em uma estimativa mais precisa da postura do robô em relação às estimativas que poderiam ser obtidas por odometria e ICP individualmente

    Accelerating DFT calculations using the Graphical Processor Unit

    No full text
    Abstract In this work we show how GPGPU, or General Processing on the Graphical Processor Unit, can be useful on scientific computing. In particular, we applied this technology to electronic structure calculations performed at the density functional theory (DFT) level. We started from an existing chemistry simulation program, and selectively replaced portions of it with GPU-oriented code. In energy calculations over fixed geometries, we achieved speedups of up to approximately five times, compared to the CPU version

    Burnout en médicos residentes de especialidades y subespecialidades: estudio de prevalencia y variables asociadas en un centro universitario

    No full text
    Introducción: El burnout es un síndrome caracterizado por agotamiento emocional, despersonalización y bajo sentido de logro personal. Los médicos residentes de especialidad y subespecialidad constituyen una población de riesgo por la alta carga laboral y la interferencia con su vida personal. Nuestro objetivo fue evaluar la prevalencia de burnout y su asociación con variables sociodemográficas, en residentes de especialidad y subespecialidad dela Pontificia Universidad Católica de Chile (PUC). Métodos: Se realizó una encuesta electrónica a los residentes de especialidad y subespecialidad de la PUC, que incluyó el “Inventario de Burnout de Maslach” (22 preguntas divididas en 3 dimensiones). Se sumaron los puntos de cada dimensión y se clasificó a los residentes en riesgo de burnout al presentar altos índices de agotamiento emocional y/o despersonalización. El análisis estadístico incluyó un análisis univariado y multivariado. Resultados: 415 encuestas fueron contestadas (tasa de respuesta 86%). El 38,3% de los residentes cumplió criterios de burnout, con un 41,9% en residentes de especialidad y 24,1% en residentes de subespecialidad. En el análisis por subgrupos, la mayor prevalencia se encontró en especialidades quirúrgicas (55,3%). Los residentes extranjeros, los programas de especialidad (comparados con subespecialidad) y los programas de especialidades quirúrgicas se asociaron de manera independiente a burnout (OR 3,8 IC95% 1,4-10,5, p=0,01; OR 2,3 IC95% 1,3-4,1, p<0,01 y OR 1,7 IC95% 1,1-2,7; p=0,02, respectivamente). La carga laboral horaria no se asoció de manera independiente a burnout (p=0,19). Conclusión: Los residentes de especialidad y subespecialidad presentan una alta prevalencia de burnout. Adicionalmente, ser extranjero, el pertenecer a un programa de especialidad y los programas de especialidades quirúrgicas se asocian de manera independiente a burnout
    corecore