181 research outputs found

    Presentación Número 4

    Full text link

    Presentación Número 5

    Full text link

    Presentación Número 2

    Full text link

    Programación didáctica dela signatura de Tecnología 4º ESO

    Get PDF
    Máster Universitario en Formación del Profesorado de ESO, Bachillerato, Formación Profesional y Enseñanza de Idiomas. Especialidad en Tecnología (M090

    Detección del entorno 360º de un vehículo autónomo mediante LIDAR aplicando técnicas Deep Learning

    Get PDF
    Este trabajo analiza el estado del arte en detección y seguimiento de múltiples objetos dinámicos (DAMOT) en el entorno de un vehículo autónomo mediante técnicas basadas en deep learning, evaluando el rendimiento de diferentes metodologías y estableciendo un pipeline funcional con la solución óptima. Los diferentes objetos que se encuentran en la escena son detectados a partir de una nube de puntos proporcionada por un sensor LIDAR, obteniendo una alta tasa de acierto con elevada precisión de localización 3D. Para ello, se evalúan diferentes redes neuronales sobre la base de datos KITTI [1] con el objetivo de obtener datos cuantitativos de su desempeño. Posteriormente, se estudian diferentes procedimientos de seguimiento de los objetos detectados basados en técnicas tradicionales y deep learning, siendo capaz de identificar unívocamente cada objeto con el propósito de seguir su trayectoria. Al igual que en la etapa de detección, se extraen datos cuantitativos a través del análisis en la base de datos KITTI y la herramienta de evaluación 3D MOT desarrollada por AB3DMOT [2]. Una vez identificadas las técnicas de detección y seguimiento óptimas se aplicarán sobre diversas escenas urbanas obtenidas mediante el simulador de conducción CARLA [3] y la base de datos KITTI, analizando cualitativamente el funcionamiento sobre sensores de conducción autónoma tanto simulados como reales. Finalmente, se implementará el pipeline óptimo en un sistema embebido Nvidia Jetson AGX Xavier sobre el vehículo eléctrico autónomo en desarrollo para el proyecto Techs4AgeCar, obteniendo un análisis cuantitativo del sistema en tiempo real.This work studies the state-of-the-art detection and multi-object tracking (DAMOT) techniques into autonomous vehicles surroundings based on deep learning, analyzing the performance achieved by different methods and developing a functional pipeline with the optimal configuration. Dynamic objects in scene are detected from a tridimensional LIDAR point cloud, obtaining a high success rate along with a precise 3D localization. To do so, different neural networks are evaluated on KITTI dataset with the aim of setting a comparison based on quantitative results. On a second stage, several multi-object tracking approaches based on both traditional techniques and deep learning are applied, being able to uniquely identify each object in scene and follow its trajectory. Similarly to detection phase, quantitative results are obtained from KITTI dataset and 3D MOT evaluation tool provided by AB3DMOT. When optimal detection and tracking techniques are identified they will be applied on several urban scenes obtained in CARLA driving simulator and KITTI tracking subset, analyzing the qualitative performance over simulated and real autonomous driving sensors. Finally, an optimal DAMOT pipeline will be implemented on an embedded system on developing autonomous electric vehicle for Techs4AgeCar project, performing a quantitative analysis on a real-time application.Máster Universitario en Ingeniería Industrial (M141

    Conducción autónoma de un vehículo en un simulador mediante CNN

    Get PDF
    Este trabajo elabora una comparativa entre distintos modelos de Redes Neuronales Convolucionales (CNN - Convolutional Neural Network), comprobando su desempeño a la hora de controlar de forma autónoma un vehículo en un entorno simulado. Para ello se obtienen datos de conducción de dicho entorno mediante conducción manual como valor verdadero (ground-truth), se elaboran distintos modelos de red neuronal con diversos niveles de complejidad y se entrenan con los datos previamente obtenidos usando técnicas de aprendizaje profundo fin a fin (End-to-End). Una vez entrenadas dichas redes se ponen a prueba en el simulador de conducción, comprobando la capacidad de mantener el vehículo próximo al centro del carril y su ángulo de cabeceo. Las redes neuronales serán evaluadas en función a dichos parámetros. Finalmente, se extraerán conclusiones del funcionamiento de los distintos modelos en base a los parámetros indicados con el objeto de encontrar la CNN óptima para la aplicación desarrollada.This work makes a comparison between different Convolutional Neural Network models, testing its performance when it leads a self-driving car in a simulated environment. To do so, driving data has been obtained manually driving the simulator as ground truth and different network models with diverse complexity levels has been created and trained with the data previously obtained using end-to-end deep learning techniques. Once this CNNs are trained, they are tested in the driving simulator, checking their ability of keeping the car near to the center of the road and its heading error. The neural networks will be evaluated according to these parameters. Finally, conclusions will be drawn about the performance of the different models according to the parameters mentioned before in order to find the optimum CNN for the developed application.Grado en Ingeniería en Electrónica y Automática Industria

    Lesiones contusas ante impactos no penetrantes sobre la protección balística

    Get PDF
    [ES]El cambio de materiales en las protecciones balísticas ha evolucionado con las épocas consiguiéndose protecciones cada vez más cómodas y livianas, en donde se ha sustituido la rigidez que presentaban las más antiguas por la capacidad de deformación para absorber la energía de los proyectiles en las más modernas, y el patrón lesivo de los proyectiles que impactaban sobre ellos, también se ha modificado. Con este trabajo se pretende dar visibilidad sobre las lesiones contusas producidas por parte de proyectiles que no llegan a atravesar estas protecciones (chaleco antibalas), para ello se ha procedido a realizar una revisión bibliográfica narrativa, en la que ha procedido a estudiar la información relacionada con este tipo de lesiones principalmente en el ámbito civil/policial, consultando las bases de datos PUBMED, GOOGLE SCHOLAR, MEDIGRAPHIC, ScienceDirect y accediendo a los diversos artículos científico-sanitarios que sobre la materia existían, casi exclusivamente en lengua inglesa. Para ello se recurrió a la búsqueda de los términos propios de este tipo de lesiones contusas o lesiones balísticas no penetrantes. Además se recurrió a diversas entrevistas con personal cualificado relacionado con este tema. Como conclusión podemos encontrar que estamos ante un tipo lesivo que produce heridas y daños característicos, y que necesitan una mayor difusión para un mejor tratamiento sanitario al ser conocedores de su existencia, con un mecanismo de producción que genera diversas ondas de choque o presión que se producen cuando un proyectil es detenido por un chaleco antibalas sin llegar a atravesarlo, y que darán lugar a lesiones de muy diversa consideración, ya sea en el punto de impacto o de forma indirecta en otras partes de nuestro cuerpo motivadas por la transferencia de energía que se produce ante estos hechos

    Honey fraud detection based on sugar syrup adulterations by HPLC-UV fingerprinting and chemometrics

    Full text link
    In recent years, honey-producing sector has faced the increasing presence of adulterated honeys, implying greateconomic losses and questioning the quality of this highly appreciated product by the society. Due to the highsugar content of honey, sugar syrups are among its most common adulterants, being also the most difficult todetect even with isotope ratio techniques depending on the origin of the sugar syrup plant source. In this work, ahoney authentication method based on HPLC-UV fingerprinting was developed, exhibiting a 100% classificationrate of honey samples against a great variety of sugar syrups (agave, corn, fiber, maple, rice, sugar cane andglucose) by partial least squares-discriminant analysis (PLS-DA). In addition, the detection and level quantitationof adulteration using syrups as adulterants (down to 15%) was accomplished by partial least squares (PLS)regression with low prediction errors by both internal and external validation (values below 12.8% and 19.7%,respectively

    Autonomous vehicle control in CARLA Challenge

    Get PDF
    Congreso Campus FIT 2020. 24-26 junio 2020, onlineThe introduction of Autonomous Vehicles (AVs) in a realistic urban environment is an ambitious objective. AV validation on real scenarios involving actual objects such as cars or pedestrians in a wide range of traffic cases would escalate the cost and could generate hazardous situations. Consequently, autonomous driving simulators are quickly evolving to cover the gap to achieve a fully autonomous driving architecture validation. Most used 3D simulators in self-driving cars field are V-REP (Rohmer, E., 2013) and Gazebo (KOENIG, N. and HOWARD, A., 2004), due to an easy integration with ROS (QUIGLEY, 2009) platform to increase the interoperability with other systems. Those simulators provide accurate motion information (more appropriate for easier scenes like robotic arms) but not a realistic appearance and not allowing real-time systems, not being able to recreate complex traffic scenes. CARLA (DOSOVITSKIY, A., 2017) open-source AV simulator is designed to be able to train and validate control and perception algorithms in complex traffic scenarios with hyper-realistic environments. CARLA simulator allows to easily modify on-board sensors such as cameras or LiDAR, weather conditions and also the traffic scene to perform specific traffic cases. In Summer 2019, CARLA launched its driving challenge to allow everyone to test their own control techniques under the same traffic scenarios, scoring its performance regarding traffic rules. In this paper, the Robesafe researching group approach will be explained, detailing vehicle motion control and object detection adapted from Smart Elderly Car (GÓMEZ-HUÉLAMO, C., 2019) that lead the group to reach the 4th place in Track 3 challenge, where HD Map, Waypoints and environmental sensors data (LiDAR, RGB cameras and GPS) were provided.Ministerio de Ciencia, Innovación y UniversidadesComunidad de Madri
    corecore