5 research outputs found

    Sistemas Complejos: Estudio de modelos para la distribución del dinero

    Get PDF
    El presente trabajo estudia modelos sobre la distribución del dinero entre la población y los diferentes factores que le afectan. Se recopilan para ello algunos trabajos esenciales sobre la materia desarrollados tanto por matemáticos como por físicos y se respaldan con simulaciones numéricas que corroboran lo mencionado. Todo ello intentando seguir un orden cronológico que nos permite ver el desarrollo del campo que nos concierne, la econofísica. Tras una breve introducción histórica introduciremos un primer modelo básico, el cual analizaremos de formas distintas, para luego comenzar a introducir modificaciones sobre este. De esta manera, conseguiremos modelizar situaciones más concretas de la vida cotidiana o incluso introducir la posibilidad de préstamos de dinero entre la población. Cabe destacar que de las tres principales distribuciones sobre las que se centra la econofísica, dinero, salarios y riqueza, únicamente nos centraremos en la primera y pese a que parece que hacen referencia a elementos similares, no todos los resultados válidos para un tipo de distribuciones son válidos para otros. De esta forma, los resultados aquí recogidos no deben ser extrapolados a las otras distribuciones sin justificación previa. La mayoría de los cálculos se desarrollarán en el propio trabajo para facilitar su seguimiento, salvo en ciertos casos en los que el desarrollo completo de los cálculos distraería al lector del hilo principal de la demostración. Las simulaciones se han obtenido mediante programación en C++ y no se han incluido los programas por el caracter informal de estos

    Optimización de la producción de concentrados de plaquetas en bancos de sangre

    Get PDF
    En esta memoria se presenta un problema real de gestión de inventarios propuesto por el Banco de Sangre y Tejidos de Aragón. En concreto se trata de proponer estrategias óptimas para la producción de concentrados de plaquetas que proceden de donaciones voluntarias. Partiendo de un trabajo realizado por miembros de la Universidad de País Vasco en colaboración con un profesor de esta universidad, decidimos extenderlo al caso del Banco de Sangre y Tejidos de Aragón. Tras una reunión con miembros de dicha institución, las diferencias en el sistema de producción con respecto a lo anteriormente estudiado nos obligan a realizar una recapitulación sobre distintas formas de resolución en la literatura. Puesto que diariamente se transfunden un considerable número de unidades de este producto que cuenta con un corto periodo de caducidad de entre 5 y 7 días. Este importante condicionante temporal, junto con el elevado coste económico de procesamiento, alrededor de 300 euros / unidad, hace recomendable el planteamiento de una metodología matemática de optimización. Inicialmente el problema matemático presenta algunas dificultades como el tamaño de las bases de datos y la incertidumbre sobre la demanda diaria de concentrados, que se puede representar como una variable aleatoria. Del análisis exploratorio de los datos se deduce cierta estacionalidad en la serie temporal de unidades transfundidas y un comportamiento que se aproxima a una variable aleatoria normal en la demanda de cada uno de los 7 días de la semana. Estas características facilitan la utilización de técnicas estudiadas en algunas asignaturas del Máster en Modelización e Investigación Matemática, Estadística y Computación, como Series Temporales y Modelización Estadística. Por otra parte el problema propio de optimización de inventarios puede ser planteado mediante técnicas propuestas en las asignaturas de Modelos de Logística y Técnicas de Computación Evolutiva y Algoritmos Bioinspirados. Dicha optimización tratará de encontrar una estrategia óptima para la producción. Para validar dicha estrategia se utilizarán tanto datos reales como simulaciones. Dichas simulaciones, así como la resolución con el algoritmo bioinspirado se programará en R. Todo el estudio será recogido en una herramienta Excel que se entregará al Banco de Sangre y Tejidos de Aragón para que pueda servir de apoyo a la hora de la toma de decisiones en la producción

    Big data and machine learning to improve european grapevine moth (Lobesia botrana) predictions

    Get PDF
    Machine Learning (ML) techniques can be used to convert Big Data into valuable information for agri-environmental applications, such as predictive pest modeling. Lobesia botrana (Denis & Schiffermüller) 1775 (Lepidoptera: Tortricidae) is one of the main pests of grapevine, causing high productivity losses in some vineyards worldwide. This work focuses on the optimization of the Touzeau model, a classical correlation model between temperature and L. botrana development using data-driven models. Data collected from field observations were combined with 30 GB of registered weather data updated every 30 min to train the ML models and make predictions on this pest’s flights, as well as to assess the accuracy of both Touzeau and ML models. The results obtained highlight a much higher F1 score of the ML models in comparison with the Touzeau model. The best-performing model was an artificial neural network of four layers, which considered several variables together and not only the temperature, taking advantage of the ability of ML models to find relationships in nonlinear systems. Despite the room for improvement of artificial intelligence-based models, the process and results presented herein highlight the benefits of ML applied to agricultural pest management strategies

    A clinical decision web to predict ICU admission or death for patients hospitalised with Covid-19 using machine learning algorithms

    Get PDF
    The purpose of the study was to build a predictive model for estimating the risk of ICU admission or mortality among patients hospitalized with COVID-19 and provide a user-friendly tool to assist clinicians in the decision-making process. The study cohort comprised 3623 patients with confirmed COVID-19 who were hospitalized in the SALUD hospital network of Aragon (Spain), which includes 23 hospitals, between February 2020 and January 2021, a period that includes several pandemic waves. Up to 165 variables were analysed, including demographics, comorbidity, chronic drugs, vital signs, and laboratory data. To build the predictive models, different techniques and machine learning (ML) algorithms were explored: multilayer perceptron, random forest, and extreme gradient boosting (XGBoost). A reduction dimensionality procedure was used to minimize the features to 20, ensuring feasible use of the tool in practice. Our model was validated both internally and externally. We also assessed its calibration and provide an analysis of the optimal cut-off points depending on the metric to be optimized. The best performing algorithm was XGBoost. The final model achieved good discrimination for the external validation set (AUC = 0.821, 95% CI 0.787–0.854) and accurate calibration (slope = 1, intercept = −0.12). A cut-off of 0.4 provides a sensitivity and specificity of 0.71 and 0.78, respectively. In conclusion, we built a risk prediction model from a large amount of data from several pandemic waves, which had good calibration and discrimination ability. We also created a user-friendly web application that can aid rapid decision-making in clinical practice

    Changes in severity, mortality, and virus genome among a Spanish cohort of patients hospitalized with SARS-CoV-2

    Get PDF
    Comparing pandemic waves could aid in understanding the evolution of COVID-19. The objective of the present study was to compare the characteristics and outcomes of patients hospitalized for COVID-19 in different pandemic waves in terms of severity and mortality. We performed an observational retrospective cohort study of 5,220 patients hospitalized with SARS-CoV-2 infection from February to September 2020 in Aragon, Spain. We compared ICU admissions and 30-day mortality, clinical characteristics, and risk factors of the first and second waves of COVID-19. The SARS-CoV-2 genome was also analyzed in 236 samples. Patients in the first wave (n¿=¿2,547) were older (median age 74 years [IQR 60–86] vs. 70 years [53–85]; p¿<¿0.001) and had worse clinical and analytical parameters related to severe COVID-19 than patients in the second wave (n¿=¿2,673). The probability of ICU admission at 30 days was 16% and 10% (p¿<¿0.001) and the cumulative 30-day mortality rates 38% and 32% in the first and second wave, respectively (p¿=¿0.007). Survival differences were observed among patients aged 60 to 80 years. We also found some variability among death risk factors and the viral genome between waves. Therefore, the two analyzed COVID-19 pandemic waves were different in terms of disease severity and mortality
    corecore