6 research outputs found

    INDOOR LOCALIZATION AND TRACKING: METHODS, TECHNOLOGIES AND RESEARCH CHALLENGES

    Get PDF
    The paper presents a comprehensive survey of contemporary methods, technologies and systems for localization and tracking of moving objects in indoor environment and gives their comparison according to various criteria, such as accuracy, privacy, scalability and type of location data. Some representative examples of indoor LBS applications available on the market are presented that are based on reviewed localization technologies. The prominent research directions in this domain are categorized and discussed

    Visual SLAM and scale estimation from omnidirectional wearable vision

    Get PDF
    La resoluci贸n del problema de Localizaci贸n y Mapeado Simult谩neos (SLAM) con sistemas de visi贸n permite reconstruir un mapa del entorno a partir de medidas extra铆das de im谩genes y, al mismo tiempo, estimar la trayectoria u odometr铆a visual de la c谩mara. En los 煤ltimo a帽os el SLAM visual ha sido uno de los problemas m谩s tratados en el campo de la visi贸n por computador y ha sido abordado tanto con sistemas est茅reo como monoculares. Los sistemas est茅reo tienen la caracter铆stica de que conocida la distancia entre las c谩maras se pueden triangular los puntos observados y por lo tanto, es posible obtener una estimaci贸n tridimensional completa de la posici贸n de los mismos. Por el contrario, los sistemas monoculares, al no poderse medir la profundidad a partir de una sola imagen, permiten solamente una reconstrucci贸n tridimensional con una ambig眉edad en la escala. Adem谩s, como es frecuente en la resoluci贸n del problema de SLAM, el uso de filtros probabil铆sticos que procesan las im谩genes de forma secuencial, da lugar a otro problema m谩s alla de una ambig眉edad de escala. Se trata de la existencia de una deriva en la escala que hace que esta no sea constate durante en toda la reconstrucci贸n, y que da lugar a una deformaci贸n gradual en la reconstrucci贸n final a medida que el mapa crece. Dado el inter茅s en el uso de dichos sensores por su bajo coste, su universalidad y su facilidad de calibraci贸n existen varios trabajos que proponen resolver dicho problema; bien utilizando otros sensores de bajo coste como IMUs, o sensores de odometr铆a disponibles en los veh铆culos con ruedas; bien sin necesidad de sensores adicionales a partir de alg煤n tipo de medida conocida a priori como la distancia de la c谩mara al suelo o al eje de rotaci贸n del veh铆culo. De entre los trabajos mencionados, la mayor铆a se centran en c谩maras acopladas a veh铆culos con ruedas. Las t茅cnicas descritas en los mismos son dificilmente aplicables a una c谩mara llevada por una persona, debido en primer lugar a la imposibilidad de obtener medidas de odometr铆a, y en segundo lugar, por el modelo m谩s complejo de movimiento. En este TFM se recoge y se amplia el trabajo presentado en el art铆culo ``Full Scaled 3D Visual Odometry From a Single Wearable Omnidirectional Camera'' enviado y aceptado para su publicaci贸n en el pr贸ximo ``IEEE International Conference on Intelligent Robots and Sytems (IROS)''. En 茅l se presenta un algoritmo para estimar la escala real de la odometr铆a visual de una persona a partir de la estimaci贸n SLAM obtenida con una c谩mara omnidireccional catadi贸ptrica portable y sin necesidad de usar sensores adicionales. La informaci贸n a priori para la estimaci贸n en la escala viene dada por una ley emp铆rica que relaciona directamente la velocidad al caminar con la frecuencia de paso o, dicho de otra forma equivalente, define la longitud de zancada como una funci贸n de la frecuencia de paso. Dicha ley est谩 justificada en una tendencia de la persona a elegir una frecuencia de paso que minimiza el coste metab贸lico para una velocidad dada. La trayectoria obtenida por SLAM se divide en secciones, calcul谩ndose un factor de escala en cada secci贸n. Para estimar dicho factor de escala, en primer lugar se estima la frecuencia de paso mediante an谩lisis espectral de la se帽al correspondiente a la componente zz de los estados de la c谩mara de la secci贸n actual. En segundo lugar se calcula la velocidad de paso mediante la relaci贸n emp铆rica descrita anteriormente. Esta medida de velocidad real, as铆 como el promedio de la velocidad absoluta de los estados contenidos en la secci贸n, se incluyen dentro de un filtro de part铆culas para el c谩lculo final del factor de escala. Dicho factor de escala se aplica a la correspondiente secci贸n mediante una f贸rmula recursiva que asegura la continuidad en posici贸n y velocidad. Sobre este algoritmo b谩sico se han introducido mejoras para disminuir el retraso entre la actualizaci贸n de secciones de la trayectoria, as铆 como para ser capaces de descartar medidas err贸neas de la frecuencia de paso y detectar zonas o situaciones, como la presencia de escaleras, donde el modelo emp铆rico utilizado para estimar la velocidad de paso no ser铆a aplicable. Adem谩s, dado que inicialmente se implement贸 el algoritmo en MATLAB, aplic谩ndose offline a la estimaci贸n de trayectoria completa desde la aplicaci贸n SLAM, se ha realizado tambi茅n su implementaci贸n en C++ como un m贸dulo dentro de esta aplicaci贸n para trabajar en tiempo real conjuntamente con el algoritmo de SLAM principal. Los experimentos se han llevado a cabo con secuencias tomadas tanto en exteriores como en interiores dentro del Campus R铆o Ebro de la Universida dde Zaragoza. En ellos se compara la estimaci贸n de la trayectoria a escala real obtenida mediante nuestro m茅todo con el Ground Truth obtenido de las im谩genes por sat茅lite de Google Maps. Los resultados de los experimentos muestran que se llega a alcanzar un error medio de hasta menos de 2 metros a lo largo de recorridos de 232 metros. Adem谩s se aprecia como es capaz de corregir una deriva de escala considerable en la estimaci贸n inicial de la trayectoria sin escalar. El trabajo realizado en el presente TFM utiliza el realizado durante mi Proyecto de Fin de Carrera, "Localizaci贸n por Visi贸n Omnidireccional para Asistencia Personal", con una beca de Iniciaci贸n a la Investigaci贸n del I3A y defendido en septiembre de 2011. En dicho proyecto se adapt贸 una completa aplicaci贸n C++ de SLAM en tiempo real con c谩maras convencionales para ser usada con c谩maras omnidireccionales de tipo catadi贸ptrico. Para ello se realizaron modificaciones sobre dos aspectos b谩sicos: el modelo de proyecci贸n y las transformaciones aplicadas a los descriptores de los puntos caracter铆sticos. Fruto de ese trabajo se realiz贸 una publicaci贸n, "Adapting a Real-Time Monocular Visual SLAM from Conventional to Omnidirectional Cameras" en el ``11th OMNIVIS'' celebrado dentro del ICCV 2011

    Modeling the environment with egocentric vision systems

    Get PDF
    Cada vez m谩s sistemas aut贸nomos, ya sean robots o sistemas de asistencia, est谩n presentes en nuestro d铆a a d铆a. Este tipo de sistemas interact煤an y se relacionan con su entorno y para ello necesitan un modelo de dicho entorno. En funci贸n de las tareas que deben realizar, la informaci贸n o el detalle necesario del modelo var铆a. Desde detallados modelos 3D para sistemas de navegaci贸n aut贸nomos, a modelos sem谩nticos que incluyen informaci贸n importante para el usuario como el tipo de 谩rea o qu茅 objetos est谩n presentes. La creaci贸n de estos modelos se realiza a trav茅s de las lecturas de los distintos sensores disponibles en el sistema. Actualmente, gracias a su peque帽o tama帽o, bajo precio y la gran informaci贸n que son capaces de capturar, las c谩maras son sensores incluidos en todos los sistemas aut贸nomos. El objetivo de esta tesis es el desarrollar y estudiar nuevos m茅todos para la creaci贸n de modelos del entorno a distintos niveles sem谩nticos y con distintos niveles de precisi贸n. Dos puntos importantes caracterizan el trabajo desarrollado en esta tesis: - El uso de c谩maras con punto de vista egoc茅ntrico o en primera persona ya sea en un robot o en un sistema portado por el usuario (wearable). En este tipo de sistemas, las c谩maras son solidarias al sistema m贸vil sobre el que van montadas. En los 煤ltimos a帽os han aparecido muchos sistemas de visi贸n wearables, utilizados para multitud de aplicaciones, desde ocio hasta asistencia de personas. - El uso de sistemas de visi贸n omnidireccional, que se distinguen por su gran campo de visi贸n, incluyendo mucha m谩s informaci贸n en cada imagen que las c谩mara convencionales. Sin embargo plantean nuevas dificultades debido a distorsiones y modelos de proyecci贸n m谩s complejos. Esta tesis estudia distintos tipos de modelos del entorno: - Modelos m茅tricos: el objetivo de estos modelos es crear representaciones detalladas del entorno en las que localizar con precisi贸n el sistema aut贸nomo. 脡sta tesis se centra en la adaptaci贸n de estos modelos al uso de visi贸n omnidireccional, lo que permite capturar m谩s informaci贸n en cada imagen y mejorar los resultados en la localizaci贸n. - Modelos topol贸gicos: estos modelos estructuran el entorno en nodos conectados por arcos. Esta representaci贸n tiene menos precisi贸n que la m茅trica, sin embargo, presenta un nivel de abstracci贸n mayor y puede modelar el entorno con m谩s riqueza. %, por ejemplo incluyendo el tipo de 谩rea de cada nodo, la localizaci贸n de objetos importantes o el tipo de conexi贸n entre los distintos nodos. Esta tesis se centra en la creaci贸n de modelos topol贸gicos con informaci贸n adicional sobre el tipo de 谩rea de cada nodo y conexi贸n (pasillo, habitaci贸n, puertas, escaleras...). - Modelos sem谩nticos: este trabajo tambi茅n contribuye en la creaci贸n de nuevos modelos sem谩nticos, m谩s enfocados a la creaci贸n de modelos para aplicaciones en las que el sistema interact煤a o asiste a una persona. Este tipo de modelos representan el entorno a trav茅s de conceptos cercanos a los usados por las personas. En particular, esta tesis desarrolla t茅cnicas para obtener y propagar informaci贸n sem谩ntica del entorno en secuencias de im谩gen

    Wearable omnidirectional vision system for personal localization and guidance

    No full text
    Autonomous navigation and recognition of the environment are fundamental abilities for people extensively studied in computer vision and robotics fields. Expansion of low cost wearable sensing provides interesting opportunities for assistance systems that augment people navigation and recognition capabilities. This work presents our wearable omnidirectional vision system and a novel twophase localization approach running on it. It runs stateof-the-art real time visual odometry adapted to catadioptric images augmented with topological-semantic information. The presented approach benefits from using wearable sensors to improve visual odometry results with true scaled solution. The wide field of view of catadioptric vision system used makes features last longer in the field of view and allows more compact location representation which facilitates topological place recognition. Experiments in this paper show promising ego-localization results in realistic settings, providing good true scaled visual odometry estimation and recognition of indoor regions. 1

    Localizaci贸n y mapeado simult谩neos en rob贸tica mediante visi贸n omnidireccional

    Get PDF
    Algoritmos de localizaci贸n y SLAM para c谩maras omnidireccionales que utilizan como balizas las luces del entorno, capaces de operar en tiempo real y bajo oclusiones frecuentes y severas
    corecore