2,694 research outputs found

    Introducción a la simulación

    Get PDF
    Traballo Fin de Grao en Matemáticas. Curso 2021-2022La simulación estadística nos permite estudiar sistemas del mundo real a partir de modelos que imiten sus características y que puedan ser implementados en un ordenador. En este trabajo, haremos una introducción a diferentes técnicas que se emplean en simulación. Empezaremos haciendo un repaso de los conceptos básicos de probabilidad y estadística que vamos a necesitar conocer. A continuación, hablaremos sobre los números pseudoaleatorios y sobre cómo se puede contrastar su validez para ser empleados en simulación. Veremos también algunos métodos que podemos utilizar para generar valores de distintas variables aleatorias, que serán fundamentales para construir los modelos de los sistemas reales. Finalmente, presentaremos un par de ejemplos en los que vamos a simular sistemas de la vida real, poniendo en práctica las ideas que veremos a lo largo del trabajoStatistical simulation allows us to study real world systems using models that imitate their characteristics and that can be implemented on a computer. In this work, we will give an introduction to different techniques used in simulation. We will start by reviewing the basic concepts of probability and statistics that we will need to know. Then, we will talk about pseudorandom numbers and how to test their validity in order to be used in simulation. We will also see some methods we can use to generate values of different random variables, which will be fundamental to build the models of real systems. Finally, we will present a couple of examples in which we will simulate real life systems, putting into practice the ideas that we will see throughout the wor

    Contribución al estudio de las técnicas de simulación de canales ópticos no guiados en interiores aplicadas al diseño de receptores en diversidad angular

    Get PDF
    Los sistemas de comunicación de datos no guiados representan un sector de rápido crecimiento e importancia en el conjunto de la industria de las comunicaciones. En los últimos años, múltiples trabajos han permitido avanzar en el diseño de este tipo de sistemas, entre ellos, caben destacar los avances debidos a la aparición de algoritmos y modelos desarrollados para estudiar la programación de la radiación IR en interiores. En este trabajo, se presenta un algoritmo de simulación y varios modelos que permiten estimar la respuesta al impulso del canal IR en interiores para diferentes tipos de enlaces. La herramienta de simulación desarrollada (algoritmo y modelos), se ha aplicado al estudio de receptores convencionales usando diversidad angular. Hasta este momento, se han propuesto varios métodos para determinar la respuesta al impulso del canal, pero todos comparten el mismo problema, el gran esfuerzo computacional que requieren, especialmente cuando se desea alta resolución temporal. Para salvar este inconveniente, se ha desarrollado un algoritmo basado en la técnica de trazado de rayos y en el método de Monte Carlo. Al tratarse de un método estadístico, la solución que aporta es aproximada. Por este motivo, también se presenta una expresión analítica que permite estimar el grado de confianza estadística de las respuestas obtenidas. En lo que se refiere a los modelos, en contraste a los trabajos realizados anteriormente, se ha aproximado el patrón de reflexión de las superficies mediante el modelo de Phong. Este adquiere gran importancia cuando existen reflectores con un patrón altamente especular. Además, se presenta un modelo que permite simular el sistema óptico formado por una lente, con simetría axial, y un emisor localizado en su plano focal. El procedimiento seguido para ello, posibilita aproximar el patrón de radiación de cualquier emisor con simetría axial

    Estocástica: finanzas y riesgo. Volumen 6, número 1 (enero-junio, 2016)-

    Get PDF
    1 archivo PDF (114 páginas). EFR61"En este número presentamos dos metodologías, con distintas aplicaciones y variantes, que son ampliamente usadas en el sistema financiero. Por un lado, la métrica del Valor en Riesgo, VaR, que desde la última década del siglo pasado empezó a usarse de manera generalizada para cuantificar el riesgo, y cuya importancia ha crecido al ser adoptada como indicador de éste por los reguladores a nivel internacional. Por otra parte, se encuentra la teoría de cópulas, la cual tiene como una de sus principales aplicaciones en las finanzas, la medición de la dependencia entre distintas variables, debido a que, dada una distribución multivariada arbitraria, ésta puede descomponerse en sus marginales y en su estructura de dependencia. A principios de este siglo, el concepto de cópula se utilizó en los modelos VaR con distribuciones gaussianas y t-student para modelar dependencias sectoriales. Y a partir de entonces, tanto los modelos VaR como la teoría de cópulas, con sus distintas variantes, han sido utilizadas extensivamente.

    ESTIMACIÓN DE KAPLAN MEIER BOOTSTRAP DE LA CURVA DE SUPERVIVENCIA

    Get PDF
    In this work the function of survival is estimated by means of the non-parametric method known like the Kaplan Meier Bootstrap estimator, under the assumption of asymptotical normality

    Modelos de elección discreta logit y datos sintéticos generados con el algoritmo rose aplicados a valorar un bien público

    Get PDF
    Universidad Nacional Agraria La Molina. Escuela de Posgrado. Maestría en Estadística AplicadaEl proceso de estimación del valor económico de un bien público, como son los servicios ambientales o la defensa nacional, se basa en la teoría del bienestar. Uno de los métodos de valoración económica más conocidos es denominado valoración contingente. En su aplicación, los encuestados responden una pregunta sobre su disposición a pagar (DAP), que refleja la máxima cantidad de dinero que un individuo pagaría por obtener un bien público. Este valor se estima usando un modelo de regresión logística binaria. Sin embargo, esta técnica tiene una seria limitación relacionada con la posibilidad de obtener sesgo hipotético, debido a la falta de honestidad en las respuestas, lo que produce un desbalance en las observaciones de los grupos definidos por la variable dependiente que indica la respuesta a la propuesta de realizar un pago por el acceso a un bien público. Este desequilibrio produce problemas en las etapas de estimación y evaluación de la precisión del modelo de clasificación. Se utilizaron datos de valoración contingente del Bosque Reservado de la Universidad Nacional Agraria de la Selva (BRUNAS), ubicado a 1,5 km de la localidad de Tingo María en Huánuco, para los cuales se calculó la DAP utilizando diferentes modelos, con el objetivo de valorar un bien público mediante modelos de regresión logística binaria estimados con grupos balanceados utilizando el algoritmo ROSE. En el primer modelo se aplicó un método de selección de variables mediante el Criterio de Información de Akaike (AIC), teniendo en cuenta el conjunto de datos original con grupos no balanceados. El segundo modelo se estimó luego de aplicar el algoritmo ROSE, que permite obtener datos sintéticos para equilibrar los grupos y tener aproximadamente la misma cantidad de respuestas negativas y positivas. Después de aplicar el algoritmo ROSE, el modelo obtenido logró una estimación más realista de la DAP y de su error estándar lo que resultó en intervalos de confianza con menor amplitud en comparación con el modelo inicial.The process of estimating the economic value of a public good, such as environmental services or national defense, is based on welfare theory. One of the best-known methods of economic valuation is called contingent valuation. In their application, respondents answer a question about their willingness to pay (WTP), which reflects the maximum amount of money an individual would pay to obtain a public good. This value is estimated using a binary logistic regression model. However, this technique has a serious limitation related to the possibility of hypothetical bias, due to the lack of honesty in the answers, which produces an imbalance in the observations of the groups defined by the dependent variable that indicates the response to the proposal to make a payment for access to a public good. This imbalance causes problems in the estimation and evaluation stages of the accuracy of the classification model. This study used contingent valuation data from the Reserved Forest of the Universidad Nacional Agraria de la Selva (BRUNAS), located 1.5 km from the town of Tingo María in Huánuco, for which WTP was calculated using different models, with the aim of valuing a public good using binary logistic regression models estimated with balanced groups using the ROSE algorithm. In the first model, a variable selection method using the Akaike Information Criterion (AIC) was applied, considering the original data set with unbalanced groups. The second model was estimated after applying the ROSE algorithm, which allows synthetic data to balance the groups and has approximately the same number of negative and positive responses. After applying the ROSE algorithm, the obtained model achieved a more realistic estimate of the DAP and its standard error, resulting in confidence intervals with less amplitude than the initial model

    Segmentation of extra-axial brain tumors in magnetic resonance imaging using active contours

    Get PDF
    Este Trabajo Fin de Grado consiste en la detección de contornos de tumores cerebrales extra-axiales en imágenes obtenidas por Resonancia Magnética usando técnicas de contornos activos. Los contornos activos(Snakes) son técnicas sofisticadas de detección de formas que se basan en el reajuste de una curva inicial deformable a partir de la minimización de energías externas e internas del contorno. En primer lugar, se realiza una introducción del problema describiendo la parte biológica sobre tumores cerebrales y la obtención de imágenes por Resonancia Magnética, así como su procesamiento y segmentación. Posteriormente, se explica la base teórica y matemática de los contornos activos, el conjunto de métodos que son fundamentales para la comprensión y desarrollo de la implementación del algoritmo llevada a cabo en este trabajo. Finalmente se procede a evaluar el problema, la implementación del método en Matlab y los resultados obtenidos de forma que se puede observar como el algoritmo ofrece los resultados deseados y se demuestra la fiabilidad del estudio a partir de la curva ROC

    FORT: una herramienta de regresión borrosa

    Get PDF
    El uso de las técnicas de regresión sobre las observaciones experimentales ha permitido el estudio de numerosos fenómenos en diversos campos de la ciencia, y muy especialmente en las ciencias sociales. Dichas técnicas requieren de un número suficiente de observaciones “precisas”, exactas y fiables. Sin embargo, no siempre es posible obtener el conjunto de observaciones necesario, o éstas contienen algún tipo de imperfección en los datos, debido a la imprecisión o vaguedad de los mismos. En cualquier caso, con suficientes datos o no, con imperfecciones o no, los modelos obtenidos deberían proveer de capacidades predictivas y descriptivas [JCr02]. Las actuales herramientas, o las más fácilmente accesibles, tienen limitado el uso de modelos y difícilmente usan las técnicas de la teoría de conjuntos borrosos. Se propone en este trabajo una herramienta abierta de regresión que admita el uso de cualquier modelo de curva independientemente de su naturaleza. Además, esta herramienta permitirá el uso de diferentes formas de borrosidad y por su diseño permitiría cualquier modelo propuesto por el usuario si éste prevee que éstos tienen características que sean suficientemente predictivas y descriptivas. Esta primera aproximación de una herramienta abierta de regresión se realiza un estudio sobre diferentes modelos paramétricos simbólicos, usados comúnmente en la práctica en disciplinas tan heterogéneas como pueden ser la Ingeniería del Software, la Economía o en cualquier campo en donde puedan aparecer imprecisiones en la información. [ABSTRACT] The use of regression techniques in experimental observations has led to the study of numerous phenomena in various fields of science, especially in social science. These techniques require a sufficient number of “precise”, exact and reliable observations. However, it is not always possible to obtain all the necessary group of observations or these have some failings, as a result of inexact or vague data. Nevertheless, having more or less data, with or without failings, the obtained paradigms should provide predictive and descriptive capacities. The current tools or those more accessible have limited paradigm application and hardly use the techniques relating the fuzzy sets theory. In this first approach to an open regression tool, a study has been carried out of the different parametric, symbolic paradigms, commonly used in the practice of such diverse disciplines as Software Engineering, Economy or any other field where information imprecision can appear

    Development of new blood perfusion estimators based on Power Doppler ultrasound scans

    Get PDF
    Català: El projecte que es presenta a continuació s'ha realitzat en col·laboració amb el grup dínvestigació fetal i perinatal IDIBAPS, i està enmarcat dins de m'àmbi de processament dímatge. Es treballarà amb imatges fetals, concretament amb imatges ecogràfiques de Potència Doppler. Lóbjectiu del projeste es analitzar si es possible obtenir nous estimadors de la perfusió sanguínia. Des de láparició de lécografia, el fetus ha passat a ser un pacient, de forma que malalties que en el passat només es podien detectar en el nounat ara es poden diagnosticar, estudiar i inclús tractar al fetus, produït una millora de la qualitat de vida del fetus durant el període postnatal i prenatal. De totes les malalties que pot patir un fetus, existeixen dos tipus concrets en les quals pateix alteracions en la perfusió sanguínia (intercanvi dáliments entre la sang i els teixits), anèmia i creixement intrauterí restringit. Obtenir una mesura directa de la perfusió sanguínia no es un procediment senzill ni viable en humans, ja que es realitza mitjançant una tècnica invasiva. La obtenció de la quantitat de flux sanguini en una regió determinada es va plantejar com alternativa a la mesura directa de la perfusió sanguínia i es va demostrar que ambdues mesures estan relacionades, per tant, la mesura del flux sanguíni resulta de gran interés. Amb l'objectiu de determinar la quantitat de flux en una regió determinada es va dissenyar la tècnica coneguda com Fracció de sang en moviment (FMBV) basada en l'estudi de les imatges ecogràfiques de Potencia Doppler, sent aquesta tècnica la estàndard actual. Amb la intenció de determinar si es possible obtenir nous estimadors de flux sanguini, en el present projecte es realitzarà un anàlisis exhaustiu de les imatges ecogràfiques Doppler i de la tècnica estàndard. S'estudiarà la composició de la sang, el comportament fisiològic i els principis físics del seu moviment, amb l'objectiu de definir un model teòric dúna zona vascularitzada, és a dir, modelar el comportament de la sang en una regió determinada. Una vegada modelat el comportament de la sang es dissenyaran diferents tècniques de processament dímatge, concretament quatre, que tindran com a objectiu adaptar la informació continguda en la imatge al model teòric postulat. Aquestes tècniques s'han desenvolupat tenint en compte tant la informació de potència en la imatge de Potència Doppler, relacionada amb la quantitat de sang en moviment, com en la estructura dels vasos sanguinis. A partir de la informació extreta es definiran els nous estimadors de flux. El comportament dels estimadors de flux proposats ha sigut comparat amb léstimació obtinguda mitjançant la tècnica estàndard (FMBV) i la quantitat de glòbuls vermells en la sang. Degut a que els grups d'anàlisi son reduïts, els resultats obtinguts son orientatius, però assenyalen que és possible obtenir nous estimadors de flux i, per tant, de la perfusió sanguínia.Castellano: El proyecto que se presenta a continuación se ha realizado en colaboración con el grupo de investigación fetal y perinatal IDIBAPS, y está enmarcado en el ámbito de procesado de imagen. Se va a trabajar con imágenes fetales, concretamente con imágenes ecográficas de Potencia Doppler. Siendo el objetivo del proyecto analizar si es posible obtener nuevos estimadores de la perfusión sanguínea. Desde la aparición de la ecográfia el feto ha pasado a ser un paciente, de forma que enfermedades que en el pasado que solamente se podían detectar en un recien nacido ahora se pueden diagnosticar, estudiar e incluso tratar en el feto, produciendo una mejora de la calidad de vida del feto durante el periodo posnatal y prenatal. De todas las enfermedades que puede sufrir un feto, existen dos tipos concretos de enfermedades en las cuales el feto sufre alteraciones en la perfusión sanguínea (intercambio de alimentos entre la sangre y los tejidos), anemia y crecimiento intrauterino restringuido. Obtener una medida directa de la perfusión sanguínea no es un procedimiento sencillo ni viable en humanos, ya que se realiza mediante una técnica invasiva. La obtención de la cantidad de flujo sanguíneo en una región determinada se planteo como alternativa a la medida directa a la perfusión sanguínea y se demostró que ambas medidas están relacionadas, por lo tanto, medir el flujo sanguíneo resulta de gran interés. Con el objetivo de determinar la cantidad de flujo en una región determinada se diseñó la técnica conocida como Fracción de sangre en moviento (FMBV) basada en el estudio de las imágenes ecográficas de Potencia Doppler, siendo esta técnica el estándar actual. Con la intención de determinar si es posible obtener nuevos estimadores de flujo sanguíneo, en el presente proyecto se va a realizar un análisis exahustivo de las imágenes ecográficas Doppler y de la técnica estándar. Se estudiará la composición de la sangre, su comportamiento fisiológico y los principios físicos de su movimiento, con tal de poder denir un modelo teórico de una zona vascularizada, es decir, modelar el comportamiento de la sangre en una región determinada. Una vez modelado el comportamiento de la sangre se diseñarán diferentes técnicas de procesado de imagen, concretamente cuatro, que tendrán como objetivo adaptar la información contenida en cada imagen al modelo teórico postulado. Estas técnicas se han diseñado teniendo en cuenta tanto la información de potencia en la imagen de Potencia Doppler, relacionada con la cantidad de sangre en movimiento, como la estructura de los vasos sanguíneos. A partir de la información extraida se definirán nuevos estimadores de flujo. El comportamiento de los estimadores de flujo propuestos ha sido comparado con la estimación obtenida mediante la técnica estándard (FMBV) y la cantidad de glóbulos rojos en la sangre. Debido a que los grupos de análisis son reducidos, los resultados obtenidos son orientativos, pero indican que es posible obtener nuevos estimadores de flujo, y por lo tanto de la perfusión sanguínea. Este proyecto ha servido para corroborar que a partir de las imágenes ecográficas de Potencia Doppler se pueden obtener diferentes estEnglish: The project about to be presented has been carried out in collaboration with the fetal and perinatal research group IDIBAPS, and falls within the image processing area. The work has been undertaken using fetal images, particularly with Power Doppler ultrasound scans, in order to analyze the possibility of obtaining new blood perfusion estimators. Since the apparition of ultrasound scans, fetuses have become patients, so illnesses which in the past were only detectable when infants were already born can now be diagnosed, studied and even treated in fetuses, improving their quality of life in the prenatal and postnatal periods. Of all illnesses fetuses can suffer, there are two types in which their blood perfusion (the exchange of oxygen and nutrients between blood and tissues) is altered: anemia and intrauterine growth restriction. Obtaining a direct measurement of blood perfusion is neither simple nor viable, as it is done through an invasive procedure. Finding the amount of blood flow in a particular region was set out as an alternative to the direct measurement of blood perfusion, and a relationship between them was proven, therefore, to measure blood flow is of great interest. Aiming at the measurement of the amount of flow in a particular region, a technique known as fractional moving blood volume (FMBV) was designed, and has become the standard one. With the intention of determining whether it is possible to obtain new blood flow estimators, an exhaustive analysis of Doppler ultrasound scans and the standard technique will be executed. Blood composition, its physiological behavior and the physical principles of its movement will be studied in order to define a theoretical model of a vascularized area, that is, to model the behavior of blood in a specific region. Once blood behavior is modeled, four different image processing techniques will be analysed, aiming at the adaptation of the information contained in each image to the postulated theoretical model. These techniques will be designed taking into account both the power information within images, related to the amount of moving blood, and the structure of blood vessels. Based on the extracted information new blood flow estimators will be defined. The behaviour of the proposed blood flow estimators will be compared to the estimation obtained through the standard technique (FMBV) and the amount of red corpuscles in blood. Since the analysis groups are limited, the results are preliminary, but indicate that it is possible to obtain new blood flow estimators, and therefore to estimate blood perfusion. This project has corroborated that new blood estimators can be defined based on Power Doppler ultrasound scans, giving way to new lines of research

    UNA INTRODUCCIÓN AL VALOR EN RIESGO: TEORÍA Y APLICACIONES

    Get PDF
    El primer capítulo de la presente tesina incluirá conceptos y definiciones de Álgebra Lineal. Las variables aleatorias frecuentemente se definen como polinomios lineales de vectores aleatorios, en este sentido, es relevante mencionar conceptos tales como las características de vectores y las operaciones de matrices. Para llegar a una simplificación del portafolio, se utilizan modelos matemáticos por lo cual, se hará mención del concepto de gradientes, los cuales aproximan funciones utilizando polinomios. También en este capítulo se presentará el método de mínimos cuadrados cuyo objetivo es ajustar una función a un conjunto de datos y obtener el valor de parámetros. Para abordar procedimientos tales como la transformación cuadrática y el modelo Monte Carlo para la estimación del VaR, se menciona el concepto de factorización de la matriz de Cholesky. En el segundo capítulo se describirá la teoría de probabilidad que se aplica al utilizar los modelos de estimación del VaR, además se presentarán definiciones que servirán de soporte para abordar temas de estadística y series de tiempo. En este sentido, se incluyen las definiciones de variable aleatoria, funciones de densidad de probabilidad y funciones de distribución acumulada. También se describen los momentos empíricos y medidas de dispersión. Asimismo, se mencionan las funciones de probabilidad y de distribución de un vector aleatorio, así como la definición de correlación. Además, se describe uno de los conceptos centrales en la teoría de probabilidad, la cual es la independencia entre variables. En este capítulo se detallan algunas de las principales distribuciones de probabilidad utilizadas en el análisis de las series financieras y se describen teoremas importantes de la teoría de probabilidad. En el tercer capítulo se describen conceptos de estadística y series de tiempo, los cuales soportan los procedimientos de inferencia para la estimación del VaR. En primer lugar, se hace mención de las propiedades que comúnmente presentan las series financieras y de las pruebas que se llevan a cabo para poder trabajar con las series de tiempo. También se presentan los modelos estándar de series de tiempo y se describen los procesos ARCH, GARCH y EWMA que modelan la volatilidad cambiante en el tiempo. Una vez descritos las definiciones de Álgebra Lineal, Probabilidad, Estadística y Series de Tiempo se tendrán las herramientas para el entendimiento de los modelos para estimar el VaR. En este sentido, en el cuarto capítulo de la presente tesina, se presenta la definición de VaR, los distintos modelos VaR y se hace mención de los métodos de 11 validación del VaR. Para complementar el entendimiento de los modelos se describirán algunos ejemplos de estos modelos aplicados a series financieras con datos históricos. Debido a que toda la teoría descrita en los próximos capítulos puede ser encontrada en diversos libros y monografías, no se incluyen todas las pruebas para los resultados expuestos en este trabajo pues el desarrollo de cada uno de estos sale del alcance de la presente tesina. Dentro del presente texto se hará uso de la siguiente notación: v.a. variable aleatoria i.i.d. independiente e idénticamente distribuidas f.d. Función de distribución f.p.d. Función de densidad de probabilida

    Detección de patologías en señales de voz mediante HMM empleando entrenamiento discriminativo

    Get PDF
    En esta tesis se presenta una metodología orientada a mejorar la identificación de patologías en señales de voz. El problema puede ser abordado desde diferentes enfoques, concentrándose en tareas o etapas específicas que deben ser desarrolladas durante elproceso del diseño de un sistema de reconocimiento de patrones. Para clasificar datos que se desarrollan a lo largo de un argumento como el tiempo entre otras técnicas, es de amplio conocimiento el uso de modelos ocultos de Markov. Al emplear un sistema de clasificación basado en modelos ocultos de Markov, necesariamente se debe resolver el problema de entrenamiento, que implica el ajuste de los parámetros del modelo mediante la optimización de una función objetivo. La forma y características de dicha función viene determinado por el criterio de entrenamiento que puede ser generativo o discriminativo, donde las técnicas de entrenamiento discriminativo se consideran mucho más adecuadas en la solución de problemas como el que se ha puesto en consideración. Por lo tanto abordando la filosofía de entrenamiento discriminativo se propone emplear un criterio de entrenamiento que no solo esté enfocado minimizar la probabilidad del error o generar fronteras de decisión adecuadas, si no también en la optimización de una medida de desempeño mucho más general que el error de clasificación, para tal fin se sugiere el empleo de una función de costo que se relacione indirectamente con el área que encierra una curva de desempeño mediante una distancia entre modelos de clases. En particular se propone emplear la distancia de Mahalanobis como función objetivo, y como medida de desempeño el area de la curva ROC, complementando esto con una técnica de selección y/o extracción de características relativamente simple. Los resultados experimentales se presentan sobre dos bases de datos de patologías de voz y muestran que la metodología propuesta permite mejorar el desempeño de un sistema de clasificación, incluso cuando la dimensión del espacio de entrenamiento se ha reducido significativamente.Maestrí
    corecore