Repositorio Institucional de CIMAT
Not a member yet
    1133 research outputs found

    TRAJECTORY FORECASTING FOR AUTONOMOUS VEHICLES

    Get PDF
    The following work is focused on the area of Trajectory Forecasting for autonomous driving vehicles. This problem has been tackled from different perspectives and for different contexts. Here, we focus on the prediction of trajectories for driving agents. The problem has two main dimensions that are relevant to accurately model it and obtain good results: the temporal dimension and the spatial dimension. Sequence-to-sequence models have been massively used to model the temporal dimension of the problem as we can see with models based on LSTM networks. In more recent approaches, Transformers attention mechanisms have been explored, after the incredible results they achieved on the NLP field. To model the spatial relationships among agents, graph neural networks have been proposed in several works. However, mechanisms like the one from the Transformer have not been widely explored to also model the spatial dimension of the problem, and we carried out that task as the main contribution of our work. We propose a model based on the Transformer architecture to tackle both, the temporal and spatial dimensions of the problem. We use two Transformer Encoders at two dimensions of the problem, the spatial and the temporal dimensions. The model receives as input a scene with all the neighbors present in it at specific time steps and outputs the prediction of all the trajectories for each agent in the scene, which means we are doing the joint prediction of all the agents rather than predicting the trajectory for each agent by itself. This allows us to take into consideration spatial relations in the sequence. The model works in the following way. The first Transformer along with a handcrafted CNN modules are used to extract spatial features. In this case the input is constructed in a way that we expect the first encoder to process spatial relations between the agents present in a scene. Those spatial features are then used as input for what we call a Temporal Transformer, because it works at the temporal dimension of the problem. This is achieved by doing a transposition of the temporal and spatial dimension of the output of the first encoder. The decoder then receives the output of the second encoder as a traditional Transformer model. The model is trained in an auto-regressive manner as the AgentFormer model~\cite{agentFormer} because it showed significant improvements over the more classical Teacher Forcing approach. We worked with two datasets to train and tes

    Agrupamiento semi-supervisado conrestricciones a nivel instancias mediantealgoritmos evolutivos

    Get PDF
    Existe una gran variedad de problemas en el mundo real en los que se desea aprender un modelo de clasificación a partir de un conjunto de datos, pero las etiquetas de clase con las que se dispone no son suficientes. El agrupamiento es una alternativa para aprender a partir de datos no etiquetados y, recientemente, se ha mostrado que produce mejores agrupamientos cuando es retroalimentado con información parcial del conjunto de datos, la cual puede ser representada en forma de restricciones. Este tipo de agrupamiento se le conoce como agrupamiento semi-supervisado con restricciones. El agrupamiento con restricciones es un problema desafiante, ya que su solución no sólo implica explorar el espacio de búsqueda de manera eficiente, sino que también debe asegurar que las particiones resultantes sean factibles. Diversos métodos del estado del arte se han propuesto para dar solución al problema de agrupamiento haciendo uso de restricciones a nivel de instancias. No obstante, estos métodos en general asumen que se conoce el número de grupos que contiene el conjunto de datos, lo cual es típicamente desconocido en problemas reales. Esta tesis propone MOECC: Multi-Objective Evolutionary Constrained Clustering. MOECC formula el problema de agrupamiento como un problema multi-objetivo, considerando la compacidad y la conectividad de los grupos como los objetivos a optimizar. Además, adapta un mecanismo basado en epsilon-restringido para el manejo de las restricciones a nivel instancias. MOECC implementa operadores de cruza y mutación especialmente diseñados para agrupamiento e incorpora una estrategia para ayudar a escoger de manera automática el número de grupos. La eficacia de MOECC es comparada con COP-K-Medias, LCVQE, RDPM y ME-MOEA/D. El estudio experimental considera conjuntos de datos de referencia y se evalúa el desempeño considerando diferentes niveles de restricciones. Los resultados experimentales dan evidencia que MOECC es capaz de encontrar agrupamientos de manera eficaz y eficiente en comparación con los métodos de referencia

    DETECCION DE NEUMONIA-COVID EN DATOS DE TOMOGRAFIA COMPUTACIONAL MEDIANTE TECNICAS DE APRENDIZAJE PROFUNDO

    Get PDF
    La pandemia causada por el coronavirus 2019, más conocida como COVID-19, sigue teniendo un fuerte impacto en los pacientes y sistemas de atención médica a nivel mundial. En la lucha contra esta nueva enfermedad, existe la urgente necesidad de herramientas que faciliten a los expertos un diagnóstico eficiente para identificar pacientes infectados con COVID-19. Las tomografías computarizadas proporcionan imágenes detalladas de los pulmones y ayudan a los radiólogos a diagnosticar COVID-19. Sin embargo, el análisis de tomografías computarizadas (CTs, por sus siglas en inglés), rebanada a rebanada, demanda demasiado tiempo por los especialistas y puede provocar retrasos en los hospitales. Los métodos de inteligencia artificial podrían ayudar a los radiólogos a detectar de forma rápida y precisa la infección por COVID-19 a partir de estas exploraciones. En esta tesis se propone un diagnóstico automatizado de la infección por COVID-19 a partir de CTs de los pacientes mediante la técnica de aprendizaje profundo. El modelo propuesto, EffCOV-B0, utiliza tomografías computarizadas de tórax para clasificar volúmenes CT de pacientes entre quienes padecen COVID-19 y sanos. Para mejorar la precisión de la detección, las CTs se preprocesaron empleando segmentación e interpolación. El esquema propuesto se basa en la red neuronal convolucional (CNN) EfficientNet B0 que actualmente ha superado en precisión, eficiencia y reducción de parámetros a varios modelos CNN existentes. Mostramos que el modelo de aprendizaje profundo propuesto logra una exactitud del 94.05%94.05\%, valor F1 de 94.05%94.05\% y AUC del 97.5%97.5\%, para detectar COVID-19 en CTs

    IMPROVEMENT DIRECTION MAPPING METHOD FO RMULTI-OBJECTIVE LOCAL SEARCH OPTIMIZATION

    Get PDF
    Multi-objective Local Search Algorithms (MOLSAs) is an emergent specialization of Multi-Objective Optimization. Unlike Multi-Objective Evolutionary Algorithms (MOEAs), which are global optimization algorithms that apply stochastic operators in order to compute a set of non-dominated solutions, MOLSAs require local operators to further improve the non-dominated front by displacing each solution independently, applying local information. Line search MOLSAs compute directions in the search domain using first-order and second-order information. Several proposals introduced different strategies to calculate search directions within their corresponding descent cone, compound by all the directions that improve all objective functions. However, the main features of the non-dominated solution front, such as convergence toward the true non-dominated front, distribution of the solutions, and their spread on the objective space, are loosely controlled. The framework and the mathematical development of a novel MOLSA are introduced in this thesis. The Improvement Directions Mapping (IDM) is a line search MOLSA that proposes improvement directions in the objective space and transforms them to search directions in the variable space. The proposal presents a proper control from the aforementioned features of the non-dominated front. The method is decoupled into two tasks: 1) The computation of the improvement directions in the objective space; 2) the transformation function that relates the objective space and the variable space. This work delves into the independent study of each task, presenting their main features, advantages, and issues; on which research lines are being suggested, while proposing novel methodologies, attending to alleviate such predicaments. Experiments show the ability of the IDM as a stand-alone algorithm, shedding light on the behavior of the IDM under various combinations of improvement direction and transformation tensors, encouraging the coupling with different global search engines. The flexibility of the IDM to be coupled with different MOEAs presents the proposed method as an attractive scheme to steer the stochastic search indirectly. The last contribution of this work is the application of the IDM within the reproductive operator of a multi-objective estimation of distribution algorithm. The search direction from a particular solution, taken from the IDM method, is used to orientate a local probability distribution towards the Pareto f

    GAME BASED DEEP REINFORCEMENT LEARNING FOR TARGET TRACKING

    Get PDF
    This work proposes a methodology for solving the tracking problem under classic visibility in the 2D Euclidean space for a pair of omnidirectional antagonistic players, a pursuer and an evader. The methodology starts proposing motion policies for the players in a discrete state-space applying optimal motion planning in a pursuit-evasion game. The first approach in the continuous state-space consists of two neural networks, one per each player, acting as motion policies whose entries are states in the environment and outputs are the actions to perform. The policies are trained from the behaviour in the discrete state-space. Finally, we implement an improvement for the pursuer motion policy using deep reinforcement learning (DRL) considering a fixed trajectory for the evader. In all these cases, the action-space is discrete. A DRL approach from scratch is compared to a initialized DRL approach, using the weights in the neural network trained from the optimal motion planning, and a DRL approach using a master policy (the same neural network trained from the optimal motion planning) which generates transitions in training for a pursuer in two proposed environments. Results show that a simple initialization is enough to achieve favorable outcomes in a simple environment while the use of a master policy is preferred in a more complex one

    REDUCCION DE SESGO EN MATRICES DE COVARIANZA Y SUS EFECTOS EN PORTAFOLIOS DE ALTA DIMENSIONALIDAD

    Get PDF
    La presente tesis se enfoca en el problema de la construcción de portafolios de inversión. Los portafolios de inversión dependen de los estimadores de covarianza para determinar su riesgo. En esta tesis se busca construir estimadores más cercanos al valor de la matriz de covarianza poblacional. Se hace uso de métodos de reducción de sesgo en valores propios de la teoría de matrices aleatorias. Con los nuevos estimadores de covarianza se construyen gráficas de frontera eficiente y se calculan métricas para evaluar el desempeño de los conjuntos de datos. Se utilizaron cuatro métodos, los cuales son la técnica de recorte, la técnica de Tracy-Widom (TW), el método de contracción lineal y el método de contracción no lineal, a través de la función QuEST. Se construyen los portafolios a partir de las estimaciones de la matriz de covarianza. En particular, los modelos de portafolios a utilizar son el modelo Markowitz, también llamado de media-varianza, y la paridad de riesgo jerárquica. Los datos sintéticos que se usan en este trabajo son de origen sintético y empírico. Los datos se generaron con números aleatorios independientes a partir de una distribución gaussiana con media cero y varianza igual a uno. Los datos empíricos son portafolios compuestos de acciones y dos portafolios heterogéneos de distinta composición, los cuales incluyen acciones, mercancías, criptomonedas e indicadores financieros. Se observó que que al aplicar las técnicas de recorte, TW y contracción no lineal se mejoró la estimación del riesgo subyacente del portafolio. También se observó que con el método de contracción lineal no se lograron los resultados esperados

    ADVANCES IN BAYESIAN UNCERTAINTY QUANTIFICATION

    Get PDF
    Inverse problems (IPs) appear in many science and mathematics branches, mainly in situations where quantities of interest are different from those we can measure; model parameter values must be esti-mated from the observed data. Bayesian approach to IPs or recently known as Bayesian uncertainty quantification (UQ), is becoming ever more popular to approach these kinds of problems. The posterior distribution of the unknown parameters quantifies the uncertainty of these parameters' possible values consistent with the observed data. However, explicit analytic forms are usually not available for the posterior distributions, so sampling approaches such as the Markov chain Monte Carlo are required to characterize it. These methods involve repeated forward map (FM) solutions to evaluate the likelihood function. We usually do not have an analytical or computationally precise implementation of the FM and necessarily involves a numerical approximation, leading to a numerical/approximate posterior distribution. Thus, the numerical solution of the FM will introduce some numerical error in the posterior distribution. In this thesis, a bound on the relative error (RE), in posterior expectations for some functional, is found. This is later used to justify a bound in the error of the numerical method used to approximate the FM for Bayesian UQ problems. Moreover, our contribution is a numerical method to compute the after-the-fact (i.e., a posteriori) error estimates of the numerical solution of a class of semilinear evolution partial differential equations and show the potential applicability of the result previously obtained for bounding the RE in posterior statistics for Bayesian UQ problems. Several numerical examples are presented to demonstrate the efficiency of the proposed algorithms. We also present a Bayesian approach to infer a fault displacement from geodetic data in a slow slip event (SSE). Our physical model of the slip process reduces to a multiple linear regression subject to constraints. Assuming a Gaussian model for the geodetic data and considering a multivariate truncated normal (MTN) prior distribution for the unknown fault slip, the resulting posterior distribution is also MTN. Regarding the posterior, we propose an ad hoc algorithm based on Optimal Directional Gibbs that allows us to efficiently sample from the resulting high-dimensional posterior distribution without supercomputing resources. As a by-product of our approach, we are able to estima

    INDICES DE CLASIFICACION PARA CONDICIONES DIABETICAS BASADO EN ANALISIS DE DATOS DE LA PRUEBA ORAL DE TOLERANCIA A LA GLUCOSA

    Get PDF
    La prueba oral de tolerancia a la glucosa (OGTT) se usa para el diagnóstico de las condiciones diabéticas (alteración de glucosa en ayuno, intolerancia a los carbohidratos y diabetes mellitus tipo 2) siguiendo los criterios que establece la Asociación Americana de diabetes (ADA). En esta prueba se toma una muestra de sangre después de estar en ayunas durante la noche, luego se ingiere una cantidad de glucosa y se mide la concentración de glucosa cada 30 minutos durante dos horas. Con los datos de concentración de glucosa se han propuesto distintas técnicas de diagnóstico y modelos matemáticos que explican la interacción de glucosa - insulina para extraer información que sirve para profundizar en la comprensión de la enfermedad. En este trabajo se propone una metodología para construir una herramienta de clasificación que sirve para determinar el estado diabético de un paciente utilizando los datos de la OGTT y el modelo de Ackerman que explica la dinámica de glucosa e insulina. Esta herramienta se construye con dos parámetros inferidos del modelo: la concentración máxima de glucosa y la tasa media de eliminación de glucosa. La propuesta surge del análisis de datos de la prueba OGTT recogidos en el Hospital General de México, empezando con una prueba de concepto en una población de tamaño reducido y luego pasando a una población altamente heterogénea de tamaño significativo. Los principales resultados de la metodología que se propone en la tesis son: las distribuciones a priori en el método de estimación bayesiana, un método para la estimación del MAP basado en el método de kerneles de aproximación de densidades, un criterio de validez del modelo de Ackerman, el uso de un clasificador lineal con el método de máquinas de soporte vectorial y la propuesta de un índice de identificabilidad práctica que indica que tanto se puede confiar en la predicción de la clasificación de un dato

    REDES DE INFERENCIA DE CONTROLES PARA LA PLANIFICACION DE MOVIMIENTOS EN SISTEMAS DINAMICOS

    Get PDF
    El campo de estudio que compete a esta tesis es referente a la conjunción que existe entre el área de la planificación de movimientos basada en muestreo y redes neuronales profundas. Particularmente se hace uso de la versión asintóticamente óptima del planificador Stable Sparse Rapidly-Exploring Random Tree (SST*) para generar trayectorias asintóticamente-mínimas en tiempo, considerando sistemas con restricciones de movimiento (sistemas no holonómicos) y distintos órdenes en la dinámica de los modelos. Los estados intermedios que componen a las trayectorias obtenidas por el planificador SST*, en conjunto con los controles que las generaron, conforman las entradas y salidas, respectivamente, del conjunto de entrenamiento para una nueva variante de la red MPNet. Esto contrasta con otros trabajos de planificación para sistemas con restricciones diferenciales en los que se proponen redes neuronales que infieren estados que sirven como guía para que otro método complementario genere los controles que respeten la dinámica del sistema. El método propuesto utiliza una red neuronal para inferir directamente los controles del sistema (más un tiempo de aplicación de los mismos), acelerando el tiempo de generación de trayectorias hasta en tres órdenes de magnitud con respecto a otros métodos basados en aprendizaje, esto sin mencionar que también se obtiene un tiempo de cómputo significativamente menor al método SST*. Finalmente, se estudia el desempeño que tiene esta variante de la red MPNet al ser entrenada con trayectorias cuyos estados iniciales se encuentran dentro de una vecindad, y como se generaliza el proceso de planificación al considerar estados iniciales de otros vecindarios

    Detección de obstáculos, visión monocular, flujo óptico, redes neuronales convolucionales.

    No full text
    En el trabajo de esta tesis presentamos dos tipos de algoritmos basados en el estado del arte para la detección de obstáculos con visión monocular en la navegación de un robot humanoide. El primer grupo de algoritmos utiliza el cálculo del flujo óptico entre dos imágenes consecutivas para segmentar las regiones de una imagen que son relacionadas a los obstáculos. Actualmente este tipo de métodos realiza la detección de obstáculos etiquetando cada píxel de la imagen. La solución que proponemos plantea utilizar solo un conjunto de puntos clave para mejorar el tiempo de computo, así como incluir un segundo criterio de clasificación robusta. Además implementamos una metodología de evaluación cuantitativa de estos algoritmos. Como resultado de la evaluación, apuntamos al mejor método de selección de puntos clave y criterio de detección robusta, señalando las mejores condiciones del entorno para la detección de obstáculos con flujo óptico. En segundo lugar exploramos los algoritmos de aprendizaje profundo, específicamente la arquitectura multitareas de detección de obstáculos y estimación de profundidad. Del mismo modo plantemos algunas modificaciones utilizadas en otros modelos de localización y clasificación de objetos. Finalmente, incluimos información del entorno para robustecer ante cambios de parámetros propios de la cámara. Para llevar a cabo la evaluación de esta arquitectura sobre la navegación humanoide adquirimos una base de datos de imágenes sintéticas desde un entorno de simulación. En conclusión, exponemos un modelo de detección de obstáculos y estimación de profundidad modificado para mejorar el rendimiento sobre la localización de los obstáculos y proponemos una manera de incluir información del entorno del robot humanoide para robustecer la estimación de profundidad ante variaciones de parámetros como la focal

    832

    full texts

    1,133

    metadata records
    Updated in last 30 days.
    Repositorio Institucional de CIMAT is based in Mexico
    Access Repository Dashboard
    Do you manage Open Research Online? Become a CORE Member to access insider analytics, issue reports and manage access to outputs from your repository in the CORE Repository Dashboard! 👇