2 research outputs found

    Estrategia de localizaci贸n cooperativa para sistemas multirobot

    Get PDF
    La localizaci贸n cooperativa es ampliamente utilizada debido a que ofrece la oportunidad de que cada robot virtualmente extienda el rango de acci贸n de sus propios sensores hacia 谩reas del entorno inalcanzables en un instante de tiempo, lugares de los que no se tendr铆a conocimiento si no es por las observaciones compartidas por parte de otros miembros del sistema cooperativo. El hecho de compartir la informaci贸n permite aprovechar la redundancia que ofrece un sistema cooperativo, para reducir la incertidumbre generada al estimar las posiciones de cada uno de los miembros cooperantes, todo lo anterior, gracias a que se cuenta con un canal de comunicaci贸n que permite llevar a cabo todas las comunicaciones inter-robots. Sin embargo, debido a la dependencia de un canal para la comunicaci贸n de todos los robots, se debe trabajar con un l铆mite de informaci贸n para que de esa manera no se sature el ancho de banda del sistema, adem谩s, se debe tener en cuenta que la informaci贸n que se transmite entre robots, tiene un error impl铆cito, indicando que la certeza de la informaci贸n no est谩 garantizada. Es as铆 como en este documento se propone usar informaci贸n exteroceptiva, utilizando marcas en el entorno, para que un grupo de robots comparta sus observaciones referentes a las marcas, y de esa manera determinen con una incertidumbre impl铆cita la localizaci贸n del resto de sus compa帽eros, aplicando m茅todos estad铆sticos para reducir dicha incertidumbre y mejorando la confiabilidad del sistema. El sistema ser谩 validado utilizando la herramienta software Player/Stage, simulando escenarios que permitan determinar si la incertidumbre asociada a la localizaci贸n por detecci贸n de marcas puede ser reducida.PregradoINGENIERO(A) EN ELECTR脫NIC

    Segmentaci贸n y posicionamiento 3D de robots m贸viles en espacios inteligentes mediante redes de c谩maras fijas

    Get PDF
    La presente tesis doctoral surge con el objetivo de realizar contribuciones para la segmentaci贸n, identificaci贸n y posicionamiento 3D de m煤ltiples robots m贸viles. Para ello se utiliza un conjunto de c谩maras calibradas y sincronizadas entre s铆, que se encuentran ubicadas en posiciones fijas del espacio en que se mueven los robots (espacio inteligente). No se contar谩 con ning煤n conocimiento a priori de la estructura de los robots m贸viles ni marcas artificiales a bordo de los mismos. Tanto para la segmentaci贸n de movimiento como para la estimaci贸n de la posici贸n 3D de los robots m贸viles se propone una soluci贸n basada en la minimizaci贸n de una funci贸n objetivo, que incorpora informaci贸n de todas las c谩maras disponibles en el espacio inteligente. Esta funci贸n objetivo depende de tres grupos de variables: los contornos que definen la segmentaci贸n sobre el plano imagen, los par谩metros de movimiento 3D (componentes de la velocidad lineal y angular en el sistema de referencia global) y profundidad de cada punto de la escena al plano imagen. Debido a que la funci贸n objetivo depende de tres grupos de variables, para su minimizaci贸n se emplea un algoritmo greedy, iterativo, entre etapas. En cada una de estas etapas dos de los grupos de variables se suponen conocidos, y se resuelve la ecuaci贸n para obtener el restante. De forma previa a la minimizaci贸n se realiza la inicializaci贸n tanto de las curvas que definen los contornos de la segmentaci贸n como de la profundidad de cada punto perteneciente a los robots. Adem谩s se requiere la estimaci贸n del n煤mero de robots presentes en la escena. Partiendo de que las c谩maras se encuentran en posiciones fijas del espacio inteligente, la inicializaci贸n de las curvas se lleva a cabo comparando cada imagen de entrada con un modelo de fondo obtenido previamente. Tanto para el modelado de fondo, como para la comparaci贸n de las im谩genes de entrada con el mismo se emplea el An谩lisis de Componentes Principales Generalizado (GPCA). Respecto a la profundidad se emplea Visual Hull 3D (VH3D) para relacionar la informaci贸n de todas las c谩maras disponibles, obteniendo un contorno aproximado de los robots m贸viles en 3D. Esta reconstrucci贸n de los robots proporciona una buena aproximaci贸n de la profundidad inicial de todos los puntos pertenecientes a los robots. Por otro lado, el uso de una versi贸n extendida de la t茅cnica de clasificaci贸n k-medias permite obtener una estimaci贸n del n煤mero de robots presentes en la escena. Tras la segmentaci贸n de movimiento y la estimaci贸n de la posici贸n 3D de todos los objetos m贸viles presentes en la escena, se procede a la identificaci贸n de los robots m贸viles. Esta identificaci贸n es posible debido a que los robots m贸viles son agentes controlados por el espacio inteligente, de forma que se cuenta con informaci贸n acerca de las medidas de los sensores odom茅tricos a bordo de los mismos. Para el seguimiento se propone el uso de un filtro de part铆culas extendido con proceso de clasificaci贸n (XPFCP). La elecci贸n de este estimador se debe a que, dado su car谩cter multimodal, permite el seguimiento de un n煤mero variable de elementos (robots m贸viles) empleando para ello un 煤nico estimador, sin necesidad de incrementar el vector de estado. Los resultados obtenidos a la salido del XPFCP son una buena estimaci贸n de la posici贸n de los robots m贸viles en un instante posterior, por lo que esta informaci贸n se realimenta a la etapa de inicializaci贸n de variables, permitiendo reducir el tiempo de procesamiento consumido por la misma. Las diferentes soluciones propuestas a lo largo de la tesis han sido validadas de forma experimental utilizando para ello diferentes secuencias de im谩genes (con presencia de diferentes robots, personas, diversos objetos, cambios de iluminaci贸n, etc.) adquiridas en el espacio inteligente del Departamento de Electr贸nica de la Universidad de Alcal谩 (ISPACE-UAH)
    corecore