49 research outputs found

    Aceleración de algoritmos de estimación de movimiento mediante OpenCL

    Get PDF
    El flujo óptico y la estimación de movimiento es área de conocimiento muy importante usado en otros campos del conocimiento como el de la seguridad o el de la bioinformática. En estos sectores, se demandan aplicaciones de flujo óptico que realicen actividades muy importantes con tiempos de ejecución lo más bajos posibles, llegando a tiempo real si es posible. Debido a la gran complejidad de cálculos que siguen a este tipo de algoritmos como se observará en la sección de resultados, la aceleración de estos es una parte vital para dar soporte y conseguir ese tiempo real tan buscado. Por lo que planteamos como objetivo para este TFG la aceleración de este tipo de algoritmos mediante diversos tipos de aceleradores usando OpenCL y de paso demostrar que OpenCL es una buena herramienta que permite códigos paralelizados con un gran Speedup a la par que funcionar en toda una diversa gama de dispositivos tan distintos como un GPU y una FPGA. Para lo anteriormente mencionado trataremos de desarrollar un código para cada algoritmo y optimizarlo de forma no especifica a una plataforma para posteriormente ejecutarlo sobre las diversas plataformas y medir tiempos y error para cada algoritmo. Para el desarrollo de este proyecto partimos de la teoría de dos algoritmos ya existentes: Lucas&Kanade monoescala y el Horn&Schunck. Además, usaremos estímulos para estos algoritmos muy aceptados por la comunidad como pueden ser el RubberWhale o los Grove, los cuales nos ayudarán a establecer la corrección de estos algoritmos y analizar su precisión, dando así un estudio referencia para saber cual escoger

    Adaptación de algoritmos de aprendizaje automático para su ejecución sobre GPUs

    Full text link
    [ES] El objetivo de este proyecto es la implementación y posterior análisis de un algoritmo de Aprendizaje Automático, el algoritmo Expectation-Maximization (EM), usando Gaussian Mixtures. Para ello se implementará una versión de CPU en C++ y una versión de GPU en C++ usando CUDA para paralelizar su ejecución. Se analizarán las diferencias de rendimiento y de implementación de ambas versiones. En el marco teórico se explicará el contexto del algoritmo EM así como CUDA.[EN] The main objective of this Project is the implemetantion and next analysis of a Machine Learning algorithm, the Expectation-Maximization (EM) algorithm, using Gaussian Mixtures. For this, a version of CPU in C++ and another version of GPU in C++ using CUDA will be developed to parallelize their execution. Different performance and implemetation of both versions will be analyzed. CUDA and EM will be explained in the context of the theorical frameworkNavarro Ponce, R. (2016). Adaptación de algoritmos de aprendizaje automático para su ejecución sobre GPUs. http://hdl.handle.net/10251/70988.TFG

    Técnicas de altas prestaciones para métodos de iluminación global

    Get PDF
    [Resumen] El gran interés en los métodos de iluminación global se debe a sus múltiples aplicaciones y al realismo de sus imágenes resultantes. La investigación presentada en esta memoria se centra en mejorar computacionalmente el algoritmo de radiosidad, planteando estrategias tanto para métodos determinísticos como estocásticos. Respecto de los métodos determinísticos, se expondrán nuestras implementaciones en un sistema distribuido del algoritmo de radiosidad progresiva, utilizando el paradigma de paso de mensajes. Estas implementaciones están basadas en la división de la escena de una manera uniforme o no uniforme. Además, se usa la técnica de las máscaras de visibilidad para el cálculo de visibilidad entre elementos de distintos subescenas. También se demuestra que estas metodologías pueden reducir el tiempo de ejecución secuencial. Relativo a las soluciones estocásticas, presentamos dos implementaciones del método de relajación estocástica de Monte Carlo para radiosidad: en un sistema distribuido y en una Graphics Processing Unit (GPU). La primera se basa en tres técnicas: partición de la escena, empaquetamiento de rayos y determinación distribuida del fin de iteración. En la implementación GPU, además de la partición de la escena se empleó la simplificación de la malla de elementos y una organización eficiente de la ejecución de las tareas.[Resumo] O grande interese nos métodos de iluminación global débese ás súas múltiples aplicacións e ao realismo das súas imaxes resultantes. A investigación presentada nesta memoria céntrase en mellorar computacionalmente o algoritmo de radiosidade, formulando estratexias tanto para métodos determinísticos como estocásticos. Respecto dos métodos determinísticos, exporanse as nosas implementacións nun sistema distribuído do algoritmo de radiosidade progresiva, utilizando o paradigma de paso de mensaxes. Estas implementacións están baseadas na división da escena dunha maneira uniforme ou non uniforme. Ademais, úsase a técnica das máscaras de visibilidade para o cálculo de visibilidade entre elementos de distintas subescenas. Tamén se demostra que estas metodoloxías poden reducir o tempo de execución secuencial. Relativo as solucións estocásticas, presentamos dúas implementacións do método de relaxación estocástica de Monte Carlo para radiosidade: nun sistema distribuído e nunha Graphics Processing Unit (GPU). A primeira baséase en tres técnicas: partición da escena, empaquetamento de raios e determinación distribuída do fin de iteración. Na implementación GPU, ademais da partición da escena empregouse a simplificación da malla de elementos e unha organización eficiente da execución das tarefas.[Abstract] The great interest in global illumination methods is due to their multiple applications and the realism of the resulting images. The research presented in the present thesis focuses on computationally improving the radiosity algorithm, proposing strategies for both deterministic and stochastic approaches. For deterministic approaches, our implementations of the progressive radiosity algorithm will be demonstrated in a distributed system , using the message passing paradigm. These implementations are based on the partitioning of the scene in a uniform or non uniform manner. Furthermore, the technique of visibility masks is employed to calculate the visibility between elements in different subscenes. It is also shown that these methods are capable of reducing the sequential execution time. With regard to stochastic solutions, we present two implementations of the stochastic relaxation method for Monte Carlo radiosity: in a distributed system and in a Graphics Processing Unit (GPU). The first is based on three techniques: partition of the scene, ray packing strategy and distributed testing of the end of each iteration. In the GPU implementation, as well as the partition of the scene a simplified mesh of the elements was used along with an efficient thread scheduling

    Cuantificación de la incertidumbre en flujos geofísicos mediante el uso de esquemas de volúmenes finitos Monte Carlo multi-nivel

    Get PDF
    Fecha de lectura de Tesis Doctoral: 13 julio 2018.Esta tesis doctoral se presenta como compendio de publicaciones fruto de años de investigación, y en ella se exponen los fundamentos teóricos necesarios para llevar a cabo la cuantificación de la incertidumbre en flujos geofísicos. Se presenta, en primer lugar, el marco teórico utilizado para el desarrollo de los esquemas numéricos para los problemas de simulación de tsunamis y el modelo de Ripa de 1 capa. Se describe el marco general de los esquemas path-conservative y su uso para la discretización de sistemas hiperbólicos no conservativos además de su extensión a alto orden. Se presta especial atención a los esquemas denominados PVM, y, en particular, al esquema IFCP del que se demuestra su estabilidad lineal, y a los resolvedores de Riemann simples. A continuación se lleva a cabo la implementación de algoritmos de tipo MLMC (Monte Carlo multi-nivel) que permiten incorporar incertidumbre en la simulación de tsunamis generados por avalanchas, combinando la técnica MLMC con el método d volúmenes finitos camino-conservativo IFCP de primer y segundo orden. Finalmente se describen los sistemas de ecuaciones en derivadas parciales usados para la simulación de tsunamis generados por terremotos y avalanchas y el modelo de Ripa, para el que se desarrolla un resolvedor de tipo HLLC. Los artículos que conforman esta tesis llevan por títulos: Multi-level Monte Carlo finite volume method for shallow water equations with uncertain parameters applied to landslides-generated tsunamis, Uncertainty quantification in tsunami modeling using Multi-level Monte Carlo finite volume method y A HLLC scheme for Ripa model

    Estrategia de generación de mapas de densidad para el conteo de multitudes en piscifactorías del Mediterráneo

    Get PDF
    Aunque la pesca de captura seguirá siendo importante, la acuicultura ya ha demostrado que cumple un papel esencial en la seguridad alimentaria mundial. Este proyecto se aborda en piscifactorías, donde uno de los grandes problemas consiste en determinar la cantidad de comida necesaria para alimentar a los peces en la jaula. Este trabajo se enfoca en el conteo de multitudes de especímenes de dorada en piscifactorías del Mediterráneo. Para ello, se ha planteado la hipótesis de que es más relevante el relieve de la imagen que su geometría para estimar los mapas de densidad en el fondo marino con alta oclusión y condiciones adversas de iluminación. Además, se plantea que se logra mayor eficacia con la presencia de cardúmenes durante el conteo por estimación de mapas de densidad. En escenarios de esta naturaleza (granjas flotantes en el mar) es imposible tener imágenes reales etiquetadas de una forma correcta para entrenar de forma supervisada los algoritmos. Por este motivo se plantea el problema científico de cómo construir un corpus de datos válido para el conteo de multitudes de doradas en piscifactorías, mediante el método de estimación de mapas de densidad. En la propuesta de solución se han generado imágenes sintéticas usando el entorno Unity simulando el movimiento real de los peces ante la presencia de alimentos usando la heurística de la familia de algoritmos de optimización Artificial Fish Swarm Algorithm. Con el conjunto de datos generado se ha intentado resolver el problema del conteo por medio de tres métodos distintos: Adaptación de Dominio, Transferencia de Imagen a Imagen y Transferencia de Estilo. Todos ellos bajo una adaptación de la red VGG-16 para extraer características con las imágenes sintéticas, la VGG-19 durante la transferencia de estilo y CycleGan para la transferencia de imagen a imagen. Se ha incluido un estudio comparativo entre ellos, que arrojan algunas conclusiones. Los resultados generados son prometedores en la actual etapa de ejecución del proyecto. Se han obtenido valores de conteo con niveles adecuados de eficacia en varias pruebas, aunque se puede refinar los modelos aumentando el tamaño del corpus generado

    Uso de arquitecturas MIC para la aceleración de soluciones numéricas en electromagnetismo

    Get PDF
    La mejora en la eficiencia de recursos computacionales para la resolución de problemas electromagnéticos es un tema complejo y de gran interés. La aparición en la última década de GPUs y tarjetas coprocesadoras Xeon Phi en las listas de los supercomputadores con mayor rendimiento, ha llevado a los investigadores a tratar de sacar el máximo provecho de estas nuevas tecnologías. El objetivo principal de esta Tesis es mejorar la eficiencia del método MoM (Method of Moments) mediante la paralelización de algunos de sus algoritmos en procesadores con arquitectura Intel MIC (Many Integrated Core). Para ello, se realiza el modelado de un problema electromagnético mediante la metodología SIE-MoM (Surface Integral Equation-Method of Moments), y se desarrollan nuevos algoritmos para su ejecución en tarjetas coprocesadoras Intel Xeon Phi. Los resultados obtenidos tras evaluar los tiempos de computación comparativamente entre las tarjetas Intel Xeon Phi y las CPUs Intel Xeon, indican que la arquitectura Intel MIC podría resultar adecuada en simulaciones electromagnéticas como complemento a CPUs.Improving the efficiency of computational resources for solving electromagnetic problems is a complex subject of great interest. The growth of GPUs (Graphics Processing Unit) and Xeon Phi coprocessor boards on the lists of top-performing supercomputers over the past decade has led researchers to try to make the most of these new technologies. The main objective of this Thesis is to improve the efficiency of the MoM method by parallelizing some of its algorithms on processors with Intel MIC (Many Integrated Core) architecture. For this purpose, the modeling of an electromagnetic problem is carried out using the SIE-MoM (Surface Integral Equation-Method of Moments) methodology, and new algorithms are developed for their execution on Intel Xeon Phi coprocessor cards. The results obtained after evaluating computation time compared between Intel Xeon Phi cards and Intel Xeon CPUs, indicate that the Intel MIC architecture could be suitable in electromagnetic simulations as a complement to CPUs

    Tomografía óptica difusa mediante la técnica de reconstrucción algebraica (ART) – análisis de la anatomía de los dedos de la mano

    Get PDF
    La tomografía óptica difusa (DOT) es una técnica basada en la interacción de la luz con tejidos biológicos que registra múltiples proyecciones para producir imágenes tomográficas. Esta técnica es aplicada en el estudio del transporte de oxígeno a los tejidos, utilizando radiación no ionizante. A diferencia de la Tomografía Axial Computarizada (TAC), que mide la atenuación por absorción de los Rayos X después de atravesar el tejido, un dispositivo DOT debe considerar adicionalmente la dispersión debido a las bajas intensidades de luz y al uso de longitudes de onda ubicadas en el infrarrojo (IR), lo que produce un problema matemático mal condicionado. Una manera de evitar el cálculo de los coeficientes de dispersión y absorción es a través de calibraciones empíricas a partir de la información obtenida de múltiples sujetos de control, con la que es posible identificar la atenuación de la luz causada por características propias de los tejidos. En este trabajo se realizó el diseño y la construcción de un sistema DOT usando un sensor de pulsioximetria. Este tipo de sensor tiene un proceso de calibración para garantizar la toma de saturación de oxígeno y el pulso de forma confiable. Se obtuvieron resultados que demuestran que el sistema es capaz de reconstruir cortes transversales de objetos tridimensionales pequeños a través de la absorción y transmisión de la luz. Adicionalmente, se cuantificó la respuesta del sistema ante diferentes materiales opacos y traslucidos, así como la resolución del sistema en la identificación de objetos cercanos. El presente proyecto ha permitido introducir una nueva línea de acción en el programa de Ingeniería Física y en el grupo de investigación BIOIF de la Universidad Tecnológica de Pereira, con miras a la creación de nuevas aplicaciones tecnológicas en medicina y en las ciencias de la vida

    Radioterapia adaptada a los movimientos fisiológicos. Incertidumbres asociadas

    Get PDF
    Los movimientos del paciente, de órganos y tumores son la nueva frontera tecnológica para los tratamientos de radioterapia. Con el creciente uso de la radioterapia externa altamente conformada, se ha logrado reducir el tumor mediante la reducción de las incertidumbres geométricas durante el curso del tratamiento. Contabilizando las incertidumbres en la intrafracción (dentro de la misma fracción de tratamiento) e interfracción (entre dos fracciones distintas, generalmente consecutivas, i.e. dos días de tratamiento distintos) asociadas al posicionamiento del paciente, movimientos tumorales (incluidos los movimientos de pulmón e hígado con la respiración) y los cambios entre las 5 y 7 semanas de tratamiento que se producen en el contorno de los pacientes y tumores en forma y volumen, requieren de un enfoque, es decir tratamientos de radioterapia guiada por la imagen (Image Guided Radio Therapy o IGRT). Dentro de la IGRT encontramos la Radioterapia adaptada (Adaptative Radio Therapy o ART), que consiste en la "replanificación" y algunas veces en la optimización de la técnica durante el curso del tratamiento cuando clínicamente es relevante. La Radioterapia Adaptada tiene asociada una complejidad técnica que deriva en un alto coste económico que implica la adaptación o compra de equipos e incremento en el coste de personal para la reoptimización de los tratamientos. No obstante y a pesar que la Radioterapia Adaptada se encuentra en las primeras etapas de desarrollo demuestra tener un enorme potencial para optimizar los tratamientos de radioterapia externa. El objetivo de esta investigación es adaptar y preparar una herramienta para introducir la Radioterapia Adaptada offline para el tratamiento del cáncer de próstata. Con este objetivo y para centrar el estado del arte actual, se ha realizado una revisión de las incertidumbres debidas al posicionamiento de los pacientes y al movimiento de los órganos en general y la repercusión del uso de diferentes tipos de algoritmos de cálculo en las incertidumbres, repercutiendo en la subdosificación o sobredosificación tanto del PTV como de los tejidos sanos (Capítulos 2, 3). En el presente trabajo se comparan el comportamiento entre algoritmos que utilizan diferentes aproximaciones diferentes, Preciso (PCRT3D de Técnicas Radiofísicas) y Monte Carlo (IPLAN de Brainlab) que implicaría la menor incertidumbre asociada como se demuestra en el caso del tratamiento de una delgada pared costal (Capítulo 4). Como se demuestra en este trabajo el problema de Monte Carlo reside en la necesidad de utilizar una baja varianza de cálculo para así reducir la incertidumbre con la contrapartida de aumentar el tiempo de cálculo (Capítulo 4). No obstante el aumento de los tiempos de cálculo puede reducirse con la paralelización de los cálculos mediante GPU (Graphic Processing Unit) (Capítulo 5), hecho que se ha realizado en la presente tesis, en colaboración con el Departamento de Sistemas Informáticos de la ESII de la Universidad de Castilla-La Mancha en Albacete, implementando este sistema con un sistema de planificación de código libre desarrollado por la Universidad de North Carolina y conocido con el nombre de PLUNC (Capítulo 5). Dicho software es el que se ha escogido, al tener sus fuentes disponibles y abiertas para el uso en investigación, para poner en marcha un sistema offline de radioterapia adaptada (Capítulo 6). En el Capítulo 6, también, se exponen los resultados de las variaciones entre los histogramas dosis-volumen cuando se considera la variación de la posición del paciente (setup), los movimientos fisiológicos y la suma de ambos frente a un tratamiento sin considerar ninguna de estas posibilidades. Para finalizar el presente trabajo se abordan una serie de conclusiones, ideas y propuestas imperativas en el desarrollo futuro de la Radioterapia Adaptada online y offline

    Evaluación de algoritmos de sustracción de fondo para conteo de personas

    Get PDF
    La sustracción de fondo es una herramienta útil en el campo de la manipulación y análisis de videos, esta nos ofrece una técnica para separar los objetos en movimiento de los objetos estáticos, es ampliamente usado por herramientas como el Kinect, el conteo de personas, el tracking, entre otras. En este documento se consigna la implementación de tres algoritmos, utilizados en sustracción de fondo para conteo de personas, y una posterior comparación bajo unos parámetros, se utilizara el lenguaje Python con la librería opencv, la lectura del video puede realizarse por medio de archivos o directamente desde la cámara web, a continuación se transforma a escala de grises para facilitar su procesamiento y manipulación, por último, por medio de las técnicas que se introducirán en capítulos posteriores, se aplica la sustracción de fondo y los diferentes tipos de pruebas para determinar las mejores condiciones de trabajo y según unos criterios definidos, comparar los algoritmos entre sí. Las condiciones de operación consisten en tener una cámara estática, una iluminación de poca variabilidad, una resolución mínima de 950x540 píxeles, en los clips utilizados se evitan objetos que puedan influir en el resultado como autos en movimiento, motos, lluvia entre otros. Los algoritmos fueron probados con 10 videos en diferentes condiciones bajo la misma resolución, obteniendo así resultados para la evaluación de desempeño y concluyendo cuál de los 3 se comporta mejor bajo que parámetros. En general el trabajo desarrollado reúne diversas técnicas de procesamiento de video, sustracción de fondo, así como algoritmos propios orientados a un fin específico, pero que pueden ser utilizados para el desarrollo de otros proyectos afines o que incluyan el procesamiento de video.PregradoINGENIERO(A) DE SISTEMA

    Actas de las XIV Jornadas de Ingeniería Telemática (JITEL 2019) Zaragoza (España) 22-24 de octubre de 2019

    Get PDF
    En esta ocasión, es la ciudad de Zaragoza la encargada de servir de anfitriona a las XIV Jornadas de Ingeniería Telemática (JITEL 2019), que se celebrarán del 22 al 24 de octubre de 2019. Las Jornadas de Ingeniería Telemática (JITEL), organizadas por la Asociación de Telemática (ATEL), constituyen un foro propicio de reunión, debate y divulgación para los grupos que imparten docencia e investigan en temas relacionados con las redes y los servicios telemáticos. Con la organización de este evento se pretende fomentar, por un lado el intercambio de experiencias y resultados, además de la comunicación y cooperación entre los grupos de investigación que trabajan en temas relacionados con la telemática. En paralelo a las tradicionales sesiones que caracterizan los congresos científicos, se desea potenciar actividades más abiertas, que estimulen el intercambio de ideas entre los investigadores experimentados y los noveles, así como la creación de vínculos y puntos de encuentro entre los diferentes grupos o equipos de investigación. Para ello, además de invitar a personas relevantes en los campos correspondientes, se van a incluir sesiones de presentación y debate de las líneas y proyectos activos de los mencionados equipos
    corecore