56 research outputs found

    Predicción de trayectorias de aeronaves empleando algoritmos de Deep Learning

    Get PDF
    A día de hoy, el avión es el medio de transporte más utilizado del mundo. Miles de aviones sobrevuelan cada día los cielos de todo el mundo. Es por esto, que pueden surgir conflictos entre las diferentes aeronaves, cuando están en sus respectivas rutas hacia sus aeropuertos de destino. Sin embargo, es posible predecir y anticipar estos posibles problemas, gracias a la aplicación de algoritmos de Aprendizaje Profundo. Los datos que se han tomado para realizar el estudio pertenecen a un cuadrante hecho alrededor del Aeropuerto Adolfo Suárez Madrid-Barajas. El conjunto de datos pertenece a un total de 100 vuelos, en un periodo de tiempo de 10 días, del 1 de enero de 2020 al 10 de enero de 2020. Mediante dicha serie de datos de posición (latitud, longitud, y tiempo), que son recogidos mediante el sistema ADS-B (Automatic Dependent Surveillance- Broadcast), es posible crear unas matrices en las cuales se representa la trayectoria de la aeronave. Después, se puede entrenar un modelo, que estará formado por Redes Neuronales Convolucionales y LSTM (Long Short-Term Memory), el cual será capaz de predecir la próxima posición de la aeronave. En consecuencia, se podrán evitar posibles conflictos entre aeronaves, mejorando la seguridad de los aviones, además de mejorar los tiempos de llegada, ya que los aviones no tendrían cambios significativos en sus respectivos rumbos. Por otro lado se ahorraría combustible, y a su vez, sería mejor para el medio ambiente. Después de haber entrenado el modelo, se comprueba que éste predice satisfactoriamente las trayectorias de las aeronaves. Por otro lado, la metodología que se ha utilizado para llevar a cabo el proyecto ha sido UVagile, una metodología ágil, desarrollada para el ámbito académico. El proyecto se ha dividido en 5 sprints de aproximadamente la misma duración cada uno. Al final de cada sprint se ha entregado un incremento. Al final del último sprint, se ha entregado el incremento final.Grado en Ingeniería Informática de Servicios y Aplicacione

    Implementación de redes neuronales en plataformas hardware para su aplicación en ingeniería eléctrica

    Get PDF
    Revisión bibliográfica del funcionamiento de las redes neuronales y los tipos de redes. Análisis de su aplicación en ingeniería eléctrica. Comparación de las diferentes plataformas hardware para implementar redes neuronales. Implementación software de dos redes neuronales en Arduino y Raspberry Pi

    Simulación de la degeneración del nervio óptico en enfermos esclerosis múltiple. Metodología para la predicción de la evolución de la enfermedad

    Get PDF
    La esclerosis múltiple (EM) es una enfermedad neurodegenerativa que suele afectar a sujetos adultos jóvenes. Esta enfermedad tiene varios efectos sobre el ser humano entre los que se incluye la desmielinización (la mielina es una sustancia que facilita la transmisión de los impulsos nerviosos) de las fibras del sistema nervioso central (SNC) y la pérdida axonal. Estos efectos están relacionados con el desarrollo de la discapacidad funcional. Además, la atrofia cerebral puede aparecer en fases tempranas de la enfermedad y su avance ser rápido. Por estas razones es de vital importancia tener un mejor conocimiento de la evolución de la patología a la hora de aplicar tratamientos eficaces que intenten frenar la velocidad de avance de la enfermedad, tratando de retardar los efectos neurodegenerativos y discapacitantes de la misma. En este contexto, el Trabajo de Fin de Máster (TFM) se realiza con el fin de contribuir a mejorar el conocimiento actual sobre esta patología, y más concretamente se centra en el estudio de nuevos métodos para predecir la progresión a corto y medio plazo de la enfermedad en cada paciente. Para ello, se realiza un análisis de la retina como biomarcador en la EM. Ésta forma parte del sistema nervioso, afectado por la enfermedad, y además, en diversos estudios bibliográficos se encuentran evidencias de la alteración del grosor de la retina en pacientes que sufren la patología. Para llevar a cabo el análisis, se estudian los datos obtenidos por el Servicio de Neuro-Oftalmología del Hospital Universitario Miguel Servet de Zaragoza a través de una prueba no-invasiva llamada OCT (Optic Coherence Tomography). La OCT nos proporciona datos del grosor de las capas de la retina discriminando entre diferentes capas y zonas de la misma. En primer lugar, se realiza un tratamiento previo a las bases de datos proporcionadas por el Hospital para determinar los datos más relevantes, normalizar las bases de datos y poder realizar un estudio estadístico con las mismas. En segundo lugar, se realizan varios modelos de predicción mediante el entrenamiento y validación de 5 algoritmos de clasificación y aprendizaje supervisado: las redes recurrentes (LSTM, del inglés Long Sort-Term Memory), las máquinas de soporte vectorial (SVM, del inglés Support Vector Machine), el modelo Naïve Bayes, el algoritmo k-vecinos más cercanos (k-NN, del inglés k-nearest neighbours) y los árboles de clasificación. Se utilizan las librerías de aprendizaje automático implementadas en Matlab y para cada uno de los algoritmos se realiza una optimización de los diferentes parámetros que influyen en su capacidad de predicción con el objetivo de minimizar el error cometido en el diagnóstico. Por último, y en base a los resultados obtenidos, se compara la capacidad de los algoritmos en la clasificación de los pacientes, además se muestra el valor diagnóstico de los diferentes modelos de predicción implementados mediante la representación de curvas ROC (Receiver Operating Characteristic) que permiten seleccionar uno de los modelos desarrollados como el mejor, siendo éste el que tiene mayor valor diagnóstico para la patología. A modo de conclusión, se valora la retina como biomarcador en la EM y se sugiere la inclusión de ésta a través de la prueba OCT y un modelo desarrollado mediante algoritmos de predicción. Esto ayudará a los neurólogos a decidir y clasificar un paciente con esclerosis múltiple, comenzando un tratamiento acorde con su progresión y ayudando a frenar el avance de la enfermedad, a mejorar la calidad de vida de los pacientes y a mejorar la gestión de los recursos del sistema sanitario

    Sistema de pronóstico de la demanda de productos farmacéuticos basado en redes neuronales

    Get PDF
    La supervivencia en los negocios altamente competitivos de hoy requiere una visión precisa de la demanda para poner en marcha los planes de producción, inventario, distribución y compra dentro de las empresas; el sector farmacéutico no es la excepción, ues los efectos de las temporadas, promociones, cambios de precios, publicidad, productos con bajo o alto nivel de movimiento y datos atípicos en general afectan en la determinación de la misma. En este contexto, pronosticar por arriba de la demanda tiene entre sus consecuencias el excesivo inventario de fármacos, obsolescencia o caducidad, y por otro lado, pronosticar por debajo de la demanda tiene como consecuencia la pérdida de las ventas y un posible incremento en los costos. Por lo mencionado, el tema se centra en el desarrollo de un sistema que usa las técnicas de redes neuronales artificiales para el pronóstico de la demanda de productos. En este trabajo se propone el uso de una red neuronal (Perceptrón multicapa) para el pronóstico de la demanda de productos farmacéuticos, la cual realizará su fase de aprendizaje con el algoritmo backpropagation que brinda una taza de error de 3.57% en el mejor caso encontrado; su implementación se desarrollará bajo la tecnología de MATLAB para la construcción de la red neuronal y del lenguaje JAVA para el diseño de la interfaz gráfica de usuario. Palabras clave: Pronóstico de la demanda, Backpropagation, sector farmacéutico.--- The survival in the highly competitive business of today needs a precise vision of the demand to put in march the plans of production, inventory, distribution and buy inside the companies; the pharmaceutical sector is not the exception, so he effects of the seasons, promotions, changes of prices, trends, products with under or high level of movement and atypical information affects in the determination of the same one. In this context, to predict overhead of the demand it as between his consequences the overstock of medicaments, obsolescence or caducity, and on the other hand, to predict below the demand has as consequence the loss of sales and the possible increase in the costs. For the mentioned, the topic centres on the development of a system that uses the technologies of Artificial Neura Networks and of the diffuse logic for the forecast of the demand of products. This paper proposes the use of a neural network (multilayer perceptron) for the prediction of demand for pharmaceuticals, which will hold its learning phase with the backpropagation algorithm that provides an error rate of 3.57%; its implementation will under MATLAB technology for building the neural network and the JAVA language for the design of the graphical user interface. Keywords: Demand forecasting, Backpropagation, Pharmaceutical sector.Tesi

    Detección de Escenas de Violencia con Modelos Deep Learning

    Full text link
    Este Trabajo de Fin de Grado propone desarrollar un sistema de detección automática de escenas violentas. En primer lugar, se realiza un estudio del estado del arte examinando las distintas herramientas técnicas disponibles para el análisis de vídeo, concentrando este trabajo en el empleo de técnicas de aprendizaje automático, en concreto el aprendizaje profundo (deep learning). Se compararán distintos modelos convolucionales profundos con el objetivo de entender las ventajas y desventajas de estas técnicas de análisis y su aplicación en el caso de reconocimiento de escenas de violencia. Se usan modelos tanto totalmente desarrollados como modelos basados en transferencia de aprendizaje (transfer learning) con el objetivo de mejorar la calidad de la red entrenada. Se procede a perfeccionar estos modelos con técnicas que se apoyan en otros campos de aprendizaje profundo para mejorar su capacidad, y por último se somete a examen el modelo en juegos de datos (Datasets) públicos como: MoviesFight y HockeyFight, con el objetivo de medir su tasa de acierto y entendimiento cualitativo del modelo. Por último, se revisan futuras perspectivas de investigación que surgen a partir de las conclusiones de este trabajo

    Técnicas avanzadas de aprendizaje profundo para la detección y análisis de tos en pacientes respiratorios

    Get PDF
    Antecedentes: La tos es un mecanismo de defensa y expulsión del aparato respiratorio que provoca una respuesta refleja y sonora. En la actualidad, el análisis de la tos como marcador sintomático del avance de una enfermedad se apoya en instrumentos poco adecuados para el seguimiento en escenarios de la vida real. Algunos solo se han evaluado en ambientes silenciosos y controlados, otros se diseñaron para resolver un problema más general que la detección de la tos o se enfocan en una población muy concreta. Asimismo, algunos enfoques no se han concebido con la eficiencia requerida para operar en un smartphone. Por estos motivos, los métodos de análisis de audio empleados en estos dispositivos no son capaces de manejar ambientes ruidosos, como el caso de un paciente que use su smartphone en el bolsillo como dispositivo de captura de datos. Objetivo: Este Trabajo de Fin de Máster (TFM) tiene como propósito emplear técnicas de aprendizaje profundo (Deep Learning) para diseñar un sistema de “audición máquina” (Machine Hearing) que procese espectrogramas de señales acústicas y los clasifique de acuerdo a su contenido. Específicamente, se pretende reconocer los espectrogramas que contienen tos y los que no, y además clasificar cada tos a partir de sus propiedades espectrales según la enfermedad respiratorias asociada a la tos o el tipo de tos. Métodos: Para llevar a cabo el proyecto, adquirimos 36866 señales de audio contaminadas por ruido de 20 pacientes respiratorios con distintas afecciones. La mitad de estas señales correspondieron a episodios de tos, mientras que la otra mitad no contenía ningún sonido de tos. Estas señales de audio se someten a un preprocesamiento en tres etapas. Primero, las señales de audio originales (señales de tos y no tos) se segmentan para que cada segmento dure un segundo. En segundo lugar, se transforman las señales 1D temporales en imágenes (señales 2D) mediante tres métodos. Los dos primeros métodos transforman cada clip de audio, que son señales de tiempo (1D), en señales de tiempo-frecuencia (imágenes 2D) realizando un espectrograma logarítmico o un espectrograma de mel. El tercer método aplica a los audios la técnica de ventanas deslizadas cambiando la forma del vector y transformándolo en una matriz. Posteriormente, los datos se normalizan para poder alimentar a una red neuronal recurrente convolucional (C-LSTM). La red neuronal convolucional (Convolutional Neural Network, CNN) extrae características de los espectrogramas de audio automáticamente para identificar “patrones” espectrales o temporales. Luego, se alimenta a una red neuronal recurrente de memoria a corto plazo (Long Short-Term Memory, LSTM), que predice el frame actual haciendo referencia a los frames adyacentes. De esta manera, primero detecta si el clip de audio contiene tos o no, y en caso afirmativo, procedemos a realizar un análisis posterior con el objetivo de detectar el tipo de tos o la enfermedad subyacente. Resultados: El sistema de audiodetección de tos que obtuvo una especificidad mas alta presenta sensibilidad del 86,23% y una especificidad del 93,90 %. Por otro lado, el método de clasificación de tos que obtuvo la mayor exactitud fue el que discriminó entre tos de pacientes con COVID-19 y tos de pacientes que tiene síntomas pero sin diagnóstico de COVID-19, que obtuvo un 58,21 %. Conclusiones: Los resultados de este TFM abren la posibilidad de crear un dispositivo cómodo y no invasivo, con una mínima interferencia en las actividades cotidianas, capaz de detectar con carácter temprano enfermedades respiratorias, beneficiando a pacientes, profesionales sanitarios y sistemas nacionales de salud.Background: Coughing is a defense mechanism and expulsion mechanism of the respiratory system that causes a reflexive and audible response. Currently, the analysis of cough as a symptomatic marker of disease progression relies on instruments that are poorly suited for monitoring in real-life scenarios. Some have only been evaluated in quiet and controlled environments, while others were designed to solve a problem more general than cough detection or focus on a very specific population. Additionally, some approaches have not been conceived with the required efficiency to operate on a smartphone. For these reasons, the audio analysis methods used in these devices are not capable of handling noisy environments, such as the case of a patient using their smartphone in their pocket as a data capture device. Objective: The purpose of this Master’s Thesis is to employ deep learning techniques to design a “machine hearing” system that processes spectrograms of acoustic signals and classifies them according to their content. Specifically, the aim is to recognize spectrograms that contain coughing and those that do not, as well as classify the disease associated with each cough based on their spectral properties. Methods: To carry out the project, audio signals contaminated with noise from twenty patients with various respiratory conditions were used, along with 18,433 audio signals recorded during cough episodes and 18,433 audio signals recorded during non-cough episodes. These audio signals undergo preprocessing in three stages. First, the original audio signals (cough and non-cough signals) are segmented to have a duration of one second each. Secondly, the temporal 1D signals are transformed into images (2D signals) using three methods. The first two methods transform each audio, which are time-domain signals, into time-frequency signals by performing a logarithmic spectrogram or a mel spectrogram. The third method applies sliding windows to the audios, changing the vector shape and transforming it into a matrix. Subsequently, the data is normalized to feed into a Convolutional Long Short-Term Memory (C-LSTM) neural network. The Convolutional Neural Network (CNN) automatically extracts features from the audio spectrograms to identify spectral or temporal “patterns”. Finally, the processed data is fed into a Long Short-Term Memory (LSTM) recurrent neural network, which predicts the current frame by referencing adjacent frames. In this way, it first detects if the audio contains a cough or not, and if it does, it proceeds to diagnose the respiratory disease. Results: The audio detection system for coughs that achieved the highest specificity had a sensitivity of 86.23% and a specificity of 93.90 %. On the other hand, the cough classification method with the highest accuracy was the one that discriminated between coughs from COVID-19 patients and coughs from patients with symptoms but without a COVID-19 diagnosis, which achieved 58.21 %. Conclusions: The results of this Master’s Thesis open up the possibility of creating a comfortable and noninvasive device with minimal interference in daily activities, capable of early detecting respiratory diseases, benefiting patients, healthcare professionals, and national health systems.Departamento de Teoría de la Señal y Comunicaciones e Ingeniería TelemáticaMáster en Ingeniería de Telecomunicació

    Implementación de un módulo para el entrenamiento y evaluación de redes neuronales mediante GPUs

    Full text link
    El objetivo de este trabajo ha sido la mejora de la implementación de un toolkit de entrenamiento y evaluación de redes neuronales ya existente, incluyendo una versión en lenguaje CUDA para ser ejecutada en GPUs. El toolkit de partida utilizado en este proyecto se denomina "April" (acrónimo de "A Pattern Recognizer In Lua") y ha sido desarrollado con los lenguajes C++ y Lua por los directores de este proyecto final de carrera y permite entrenar redes neuronales artificiales de tipo feedforward utilizando el algoritmo de retropropagación del gradiente. El uso de bibliotecas de cálculo matricial, como la biblioteca MKL de Intel, junto al uso del modo de entrenamiento conocido como "bunch" permite acelerar de manera sustancial las etapas de evaluación y entrenamiento de estas redes, lo cual resulta casi imprescindible en la práctica cuando los experimentos reales requieren periodos de tiempo que van de varios días a varias semanas de CPU. A pesar de las características del toolkit original, resulta muy convenientePalacios Corella, A. (2012). Implementación de un módulo para el entrenamiento y evaluación de redes neuronales mediante GPUs. http://hdl.handle.net/10251/17385.Archivo delegad

    Redes neuronales para predicción de contaminación del aire en Carabayllo-Lima

    Get PDF
    En el presente trabajo se desarrolla un modelo de pronóstico capaz de predecir (con múltiples etapas adelantadas) el comportamiento de las variables de contaminación ambiental de material particulado PM2.5 mediante el uso de los datos de concentraciones de contaminantes de material particulado (PM2.5 y PM10) y químicos (CO, SO2, NO) producidos en la estación automatizada de calidad de aire de Carabayllo. El modelo ha sido entrenado, con datos reales de la estación automatizada de calidad de aire del distrito de Carabayllo en el intervalo de 2 años, sobre tres diferentes algoritmos de retropropagación y dos modelos de neuronas en una única capa oculta para hallar parámetros de un modelo óptimo de predicción. Experimentalmente se probaron 6 modelos de redes sobre un rango de número de neuronas. La red optimizada fue aplicada sobre un grupo de 72 datos de prueba obteniendo resultados del modelo con un error porcentual medio de -0.1089% lo cual indica un pronóstico preciso para el caso de estudio. Un aporte de esta investigación es la demostración de que el modelo basado en redes neuronales artificiales es capaz de pronosticar variables de contaminación ambiental de material particulado con buena precisión y en una forma sencilla. Asimismo, el modelo se puede adaptar tanto para pronosticar otros contaminantes del aire (químicos o material particulado) como para datos generados en otras estaciones automatizadas de calidad de aire

    Traducción automática de conjuntos de datos para la construcción de sistemas de pregunta/respuesta mediante aprendizaje automático

    Full text link
    [ES] Los sistemas de pregunta/respuesta contruidos mediante técnicas de aprendizaje automático requieren de conjuntos de datos. A día de hoy, se cuenta con dichos conjuntos en idiomas muy hablados como el inglés o el chino, pero no para idiomas más locales como pude ser el euskera. El objetivo de este trabajo es, partiendo de conjuntos de datos en inglés, crear sus respectivas versiones en castellano, euskera y catalán. Una vez creados estos conjuntos empleando técnicas de traducción automática, se procede a entrenar el modelo predictivo de pregunta/respuesta para cada idioma. Hay que tener en cuenta no solo aquellos modelos entrenados con un solo idioma, sino aquellos que emplean métodos multilingües, ya que actualmente estos últimos tienen bastante peso en el estado del arte del procesamiento del lenguaje natural y, específicamente, en las tareas de pregunta/respuesta.[EN] Building Question / answer systems by using machine learning techniques require data sets. Nowadays, these sets are available in highly spoken languages such as English or Chinese, but not for regional languages such as Basque. The aim of this work is to create datasets in Spanish, Basque and Catalan from the English version. After creating these sets by Machine Translation techniques, we will proceed to train the predictive QA model for each language. We must take into account that we can train models using just one or multiple languages. We are taking into consideration multilingual models due to their importance in the NLP state of  the art and, specifically, in QA tasks.[CA] Les tasques d’aprenentatge automàtic basades en sistemes de pregunta/resposta requereixen de conjunts de dades per entrenar models predictius. Actualment, es compta amb aquests conjunts en idiomes molt parlats com l’anglès o el xinès, però no per a idiomes més locals com pot ser el basc. L’objectiu d’aquest treball és, partint de conjunts de dades en anglès, crear les seves respectives versions en castellà, basc i català. Una vegada que estiguin creats aquests conjunts emprant tècniques de traducció automàtica, es procedeix a entrenar el model predictiu de pregunta/resposta per a cada idioma. Cal tenir en compte no només aquells models entrenats amb un sol idioma, sinó aquells que fan servir mètodes multilingües (Per exemple, entrenament en un idioma i validació en un altre), ja que actualment aquests últims tenen prou pes en l’estat de l’art del processament del llenguatge natural i, específicament, en les tasques de pregunta/resposta.López Ramírez, JA. (2020). Traducción automática de conjuntos de datos para la construcción de sistemas de pregunta/respuesta mediante aprendizaje automático. http://hdl.handle.net/10251/151719TFG

    Diseño y simulación de un Sistema de Tracking basado en redes neuronales para mantener la máxima eficiencia de paneles solares

    Get PDF
    This research work focuses on the use of artificial neural networks (ANN) as a promising tool to improve the efficiency and stability of solar photovoltaic systems. Although photovoltaic systems harness a clean and renewable energy source, they face challenges due to variations in solar radiation, temperature and environmental conditions. These factors cause fluctuations in the output current and voltage of the solar panels, affecting the power generated. To address this problem, it is necessary to implement control strategies that maximize power extraction from the photovoltaic field. The main focus of this work is the maximum power point (MPP), which represents the optimal power transfer point on the current-voltage (I-V) characteristic curve of a solar panel. The challenge lies in adapting to changing conditions and achieving accurate monitoring of the MPP to improve system efficiency. Although there are different proposed tracking algorithms, they have shown limitations in terms of tracking rates and steady-state oscillations. To overcome these deficiencies, the applications of ANNs in the design of control algorithms are explored. ANNs stand out for their high dynamic response and ability to adapt to non-linear conditions. However, obtaining accurate training data for the controller is one of the main challenges. In this study, important variables such as solar radiation, temperature and optimal voltage are considered as inputs to the controller.Este trabajo de investigación se centra en el uso de redes neuronales artificiales (RNA) como una herramienta prometedora para mejorar la eficiencia y estabilidad de los sistemas solares fotovoltaicos. Aunque los sistemas fotovoltaicos aprovechan una fuente de energía limpia y renovable, enfrentan desafíos debido a las variaciones en la radiación solar, temperatura y condiciones ambientales. Estos factores ocasionan fluctuaciones en la corriente y tensión de salida de los paneles solares, afectando la potencia generada. Para abordar este problema, se requiere implementar estrategias de control que maximicen la extracción de potencia del campo fotovoltaico. El enfoque principal de este trabajo es el punto de máxima potencia (MPP), que representa el punto óptimo de transferencia de potencia en la curva de características corriente-voltaje (I-V) de un panel solar. El desafío radica en adaptarse a las condiciones cambiantes y lograr un seguimiento preciso del MPP para mejorar la eficiencia del sistema. Aunque existen diferentes algoritmos de seguimiento propuestos, han mostrado limitaciones en términos de tasas de seguimiento y oscilaciones en estado estacionario. Para superar estas deficiencias, se exploran las aplicaciones de las RNA en el diseño de algoritmos de control. Las RNA se destacan por su alta respuesta dinámica y capacidad para adaptarse a condiciones no lineales. Sin embargo, obtener datos precisos de entrenamiento para el controlador es uno de los principales desafíos. En este estudio, se consideran variables importantes como radiación solar, temperatura y voltaje óptimo como entradas para el controlador
    corecore