5 research outputs found

    Contributions to Intelligent Scene Understanding of Unstructured Environments from 3D lidar sensors

    Get PDF
    Además, la viabilidad de este enfoque es evaluado mediante la implementación de cuatro tipos de clasificadores de aprendizaje supervisado encontrados en métodos de procesamiento de escenas: red neuronal, máquina de vectores de soporte, procesos gaussianos, y modelos de mezcla gaussiana. La segmentación de objetos es un paso más allá hacia el entendimiento de escena, donde conjuntos de puntos 3D correspondientes al suelo y otros objetos de la escena son aislados. La tesis propone nuevas contribuciones a la segmentación de nubes de puntos basados en mapas de vóxeles caracterizados geométricamente. En concreto, la metodología propuesta se compone de dos pasos: primero, una segmentación del suelo especialmente diseñado para entornos naturales; y segundo, el posterior aislamiento de objetos individuales. Además, el método de segmentación del suelo es integrado en una nueva técnica de mapa de navegabilidad basado en cuadrícula de ocupación el cuál puede ser apropiado para robots móviles en entornos naturales. El diseño y desarrollo de un nuevo y asequible sensor lidar 3D de alta resolución también se ha propuesto en la tesis. Los nuevos MBLs, tales como los desarrollados por Velodyne, están siendo cada vez más un tipo de sensor 3D asequible y popular que ofrece alto ratio de datos en un campo de visión vertical (FOV) limitado. El diseño propuesto consiste en una plataforma giratoria que mejora la resolución y el FOV vertical de un Velodyne VLP-16 de 16 haces. Además, los complejos patrones de escaneo producidos por configuraciones de MBL que rotan se analizan tanto en simulaciones de esfera hueca como en escáneres reales en entornos representativos. Fecha de Lectura de Tesis: 11 de julio 2018.Ingeniería de Sistemas y Automática Resumen tesis: Los sensores lidar 3D son una tecnología clave para navegación, localización, mapeo y entendimiento de escenas en vehículos no tripulados y robots móviles. Esta tecnología, que provee nubes de puntos densas, puede ser especialmente adecuada para nuevas aplicaciones en entornos naturales o desestructurados, tales como búsqueda y rescate, exploración planetaria, agricultura, o exploración fuera de carretera. Esto es un desafío como área de investigación que incluye disciplinas que van desde el diseño de sensor a la inteligencia artificial o el aprendizaje automático (machine learning). En este contexto, esta tesis propone contribuciones al entendimiento inteligente de escenas en entornos desestructurados basado en medidas 3D de distancia a nivel del suelo. En concreto, las contribuciones principales incluyen nuevas metodologías para la clasificación de características espaciales, segmentación de objetos, y evaluación de navegabilidad en entornos naturales y urbanos, y también el diseño y desarrollo de un nuevo lidar rotatorio multi-haz (MBL). La clasificación de características espaciales es muy relevante porque es extensamente requerida como un paso fundamental previo a los problemas de entendimiento de alto nivel de una escena. Las contribuciones de la tesis en este respecto tratan de mejorar la eficacia, tanto en carga computacional como en precisión, de clasificación de aprendizaje supervisado de características de forma espacial (forma tubular, plana o difusa) obtenida mediante el análisis de componentes principales (PCA). Esto se ha conseguido proponiendo un concepto eficiente de vecindario basado en vóxel en una contribución original que define los procedimientos de aprendizaje “offline” y clasificación “online” a la vez que cinco definiciones alternativas de vectores de características basados en PCA

    Desarrollo e integración de un conjunto de sensores para la navegación autónoma de un UGV (Vehículo terrestre no tripulado) perteneciente a la plataforma robótica ARGOS

    Full text link
    En este proyecto se ha llevado a cabo el desarrollo e integración de un sistema de sensores para la navegación autónoma de un vehículo terrestre no tripulado. Para lograr dicho propósito es necesaria la realización de un estudio acerca de las tecnologías disponibles, así como de los diferentes sensores existentes. Una vez realizado este estudio, es necesario imponer unos requisitos mínimos que deben ser cumplidos para comenzar a filtrar aquellos sensores que son más apropiados para el proyecto. Posteriormente, se cogen aquellos sensores que cumplen con dichos requisitos mínimos y se les evalúa según unos criterios deseables para la elección del sistema más apropiado. Llegados a este punto, se elige un sistema sensorial que, bajo ciertas especificaciones, es capaz de amoldarse perfectamente al objetivo de este proyecto. Dicho sistema está formado por un sensor láser 2D y una plataforma de giro que rotará apropiadamente el sensor para conseguir captar información 3D del entorno que rodea al vehículo. Elegido ya el sistema sensorial, se pasa a elaborar simulaciones en Matlab acerca de su funcionamiento, para averiguar si el resultado es el esperado. Dichas simulaciones se centran principalmente en la búsqueda de una configuración óptima de velocidad de giro para el sistema. Tras varias situaciones analizadas en profundidad, se llega a la conclusión de que no existe una única velocidad de giro, sino que esta es dependiente del propósito que se tenga, de la velocidad del vehículo y de la densidad de puntos que se desee obtener. Una vez alcanzado tales conclusiones y con el total convencimiento del teórico buen funcionamiento de la idea desarrollada, se procede a la construcción del sistema sensorial. Mientras dicho sistema es construido, se procede al desarrollo de algoritmos en lenguaje C++ y ROS para la recepción, procesamiento y análisis de los datos suministrados por el sistema. Todo el procesamiento y exposición de resultados debe lograrse en tiempo real y con la mayor densidad de puntos posible, de modo que permita minimizar el error o la existencia de zonas desconocidas. El correcto funcionamiento de esta programación es verificado con el simulador Gazebo, que ofrece una gran cantidad de posibilidades de análisis. Una vez logrado que el sistema procese y represente la información obtenida en tiempo real con un coste computacional bajo, se procede a ejecutar dicha algoritmia con el sistema sensorial construido. Tras la realización de pruebas de todo el sistema en entornos controlados y estáticos, en los que se muestran los mapas 3D y 2D generados y analizados, se procede a la instalación del sistema sensorial en el vehículo y al análisis final del sistema completo. Los resultados son esperanzadores y dejan la puerta abierta a la posibilidad de incorporar algoritmos de navegabilidad.This project is based on the development and integration of a set of sensors for the autonomous navigation of an unmanned ground vehicle. To achieve this target is necessary to make a studio about available technologies oriented to it and to be able to find different sensors in each area technological. After this, some minimum requirements are established so every studied sensor must exceed them. Thank to this requirements, less sensors are available to achieve this target. Later, a new set of desirable additional requirements is created, so the best sensor can be chosen and the sensorial system can be made for this proposal. The system is based on the fabrication of a rotating laser system, as an improvement of an off-the-shelf laser scanner, capable of generating 3D maps from the surrounding. Before starting to make the sensorial system, some studies have been conducted to assess the resulting measurement data. Patterns, density and minimum detection studies have been done. The optimal rotational speed of the sensors system will be that one that is higher than the required threshold on each instance, and it must be the immediately higher, because improvements have not been detected at higher rotation speeds. While the sensorial system is made, the ROS and C++ software is developed. This software must process and analyze data provided by the system. All this processing has to be in real time, with a high point cloud and low computational cost. The correct operation of this software is verified by Gazebo simulations, which provide a lot of study possibilities. After testing all system in controlled and static environments, which results and maps can be checked, the complete installation of sensorial system is made, so a final version is offered. The test results are shown in this project, which are promising. Therefore, navigation algorithm can be created from this system
    corecore