654 research outputs found

    Partition-based distributionally robust optimization via optimal transport with order cone constraints

    Get PDF
    In this paper we wish to tackle stochastic programs affected by ambiguity about the probability law that governs their uncertain parameters. Using optimal transport theory, we construct an ambiguity set that exploits the knowledge about the distribution of the uncertain parameters, which is provided by: (1) sample data and (2) a-priori information on the order among the probabilities that the true data-generating distribution assigns to some regions of its support set. This type of order is enforced by means of order cone constraints and can encode a wide range of information on the shape of the probability distribution of the uncertain parameters such as information related to monotonicity or multi-modality. We seek decisions that are distributionally robust. In a number of practical cases, the resulting distributionally robust optimization (DRO) problem can be reformulated as a finite convex problem where the a-priori information translates into linear constraints. In addition, our method inherits the finite-sample performance guarantees of the Wasserstein-metric-based DRO approach proposed by Mohajerin Esfahani and Kuhn (Math Program 171(1–2):115–166. https://doi.org/10.1007/s10107-017-1172-1, 2018), while generalizing this and other popular DRO approaches. Finally, we have designed numerical experiments to analyze the performance of our approach with the newsvendor problem and the problem of a strategic firm competing à la Cournot in a market.This research has received funding from the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation programme (Grant Agreement No. 755705). This work was also supported in part by the Spanish Ministry of Economy, Industry and Competitiveness and the European Regional Development Fund (ERDF) through Project ENE2017-83775-P

    Data-driven distributionally robust optimization with Wasserstein metric, moment conditions and robust constraints

    Get PDF
    We consider optimization problems where the information on the uncertain parameters reduces to a finite data sample. Using the Wasserstein metric, a ball in the space of probability distributions centered at the empirical distribution is constructed. The goal is to solve a minimization problem subject to the worst-case distribution within this Wasserstein ball. Moreover, we consider moment constraints in order to add a priori information about the random phenomena. In addition, we not only consider moment constraints but also take into account robust classical constraints. These constraints serve to hedge decisions against realizations of random variables for which we do not have distributional information other than their support set. With these assumptions we need to solve a data-driven distributionally robust optimization problem with several types of constraints. We show that strong duality holds under mild assumptions, and the distributionally robust optimization problems overWasserstein balls with moment constraints and robust classical constraints can in fact be reformulated as tractable finite programs. Finally, a taxonomy of the tractable finite programs is shown under di erent assumptions about the objective function, the constraints and the support set of the random variables.European Research Council University of Málaga. Campus de Excelencia Internacional Andalucía Tech

    Distributionally robust stochastic programs with side information based on trimmings

    Get PDF
    We consider stochastic programs conditional on some covariate information, where the only knowledge of the possible relationship between the uncertain parameters and the covariates is reduced to a finite data sample of their joint distribution. By exploiting the close link between the notion of trimmings of a probability measure and the partial mass transportation problem, we construct a data-driven Distributionally Robust Optimization (DRO) framework to hedge the decision against the intrinsic error in the process of inferring conditional information from limited joint data. We show that our approach is computationally as tractable as the standard (without side information) Wasserstein-metric-based DRO and enjoys performance guarantees. Furthermore, our DRO framework can be conveniently used to address data-driven decision-making problems under contaminated samples. Finally, the theoretical results are illustrated using a single-item newsvendor problem and a portfolio allocation problem with side information.Open Access funding provided by Universidad de Málaga / CBUA thanks to the CRUE-CSIC agreement with Springer Nature. This research has received funding from the European Research Council (ERC) under the European Union’s Horizon 2020 research and innovation programme (Grant agreement No. 755705). This work was also supported in part by the Spanish Ministry of Science and Innovation (AEI/10.13039/501100011033) through project PID2020-115460GB-I00 and in part by the Junta de Andalucía through the research project P20_00153. Finally, the authors thankfully acknowledge the computer resources, technical expertise, and assistance provided by the SCBI (Supercomputing and Bioinformatics) center of the University of Málaga

    Actividad ansiolítica del extracto etanólico de las hojas de thymus vulgaris (tomillo) en rattus novergicus

    Get PDF
    Determinar si el extracto etanólico de las hojas del Thymus vulgaris presenta un efecto ansiolítico en Rattus novergicus (ratas Wistar) Se realizó un estudio aplicativo y experimental. Se clasificaron a las ratas albinas en 5 grupos de acuerdo a la sustancia administrada, recibiendo tres de ellos extracto etanólico de las hojas del Thymus vulgaris en diferentes dosis, el cuarto grupo, clonazepam y el quinto grupo agua estéril como placebo, teniendo un total de 50 ratas. Se encontró que el extracto etanólico de las hojas de Thymus vulgaris no presenta efecto ansiolítico estadísticamente significativo en Rattus novergicus (p>0,05), además se halló que el efecto ansiolítico de las hojas del Thymus vulgaris no es directamente proporcional a su dosis de administración. El extracto etanólico de las hojas del Thymus vulgaris no presenta un efecto ansiolítico significativo en Rattus novergicus.Determinate if the ethanolic extract of the leaves of Thymus vulgaris has an anxiolytic effect in Rattus novergicus (Wistar rats) An application and experimental study was carried out. The white rats were classified into 5 groups according to the substance administered, receiving three of them ethanolic extract from the leaves of Thymus vulgaris in different doses, the fourth group, clonazepam and the fifth, sterile water as a placebo, having a total of 50 rats. It was found that the ethanolic extract of the leaves of Thymus vulgaris doesn´t present an anxiolytic effect statistically significant in Rattus novergicus (p> 0.05), furthermore it was found that the anxiolytic effect of the leaves of Thymus vulgaris is not directly proportional to its administration dose. The ethanolic extract of the leaves of Thymus vulgaris doesn´t present a significant anxiolytic effect in Rattus novergicus.Tesi

    Reestructuración de los planes de financiación e inversión para la viabilidad y sustentación de la empresa de palma africana Europalma CIA. LTDA

    Get PDF
    The content of this research study is based on the analysis of the financial situation of the african palm harvesting company Europalma Cía. Ltda. The work is based on the study using financial indexes, the historic financial situation, and the history of the african palm plantation located at Valle del Sade. Likewise this work will provide projections and the establishment of a financing plan to determine future viability and future profitability.El contenido de este trabajo de investigación es un estudio de la situación financiera de la empresa productora de palma africana EUROPALMA Cía. Ltda. El trabajo se basa en el análisis historial financiero de la empresa mediante índices financieros y la historia de la plantación ubicada en el Valle del Sade. Así mismo el trabajo cuenta con proyecciones y el establecimiento de un plan de financiamiento a futuro para determinar viabilidad y rentabilidad futura de la empresa

    El control de constitucionalidad frente a la actividad legislativa en Colombia durante segundo período de gobierno de Álvaro Uribe Vélez. Inexequibilidad de normas sobre seguridad democrática, crecimiento económico y generación de empleo e incremento de la eficacia y transparencia del Estado

    Get PDF
    Esta investigación tuvo como objetivo general el análisis descriptivo de las sentencias proferidas en ejercicio del control de constitucionalidad de la actividad legislativa ordinaria desarrollada durante el segundo período presidencial de Álvaro Uribe Vélez, comprendido entre el 7 de agosto de 2006 y el 7 de agosto de 2010, con el fin de obtener datos necesarios para que, posteriormente, en el proyecto institucional “el control de constitucionalidad frente a la actividad legislativa en Colombia”, se realice un análisis comparativo en relación con los resultados arrojados por el control de constitucionalidad ejercido a la actividad legislativa desarrollada en los otros períodos presidenciales ocurridos durante la vigencia de la Constitución Política de 1991 (desde el 4 de julio de 1991, hasta el segundo período presidencial de Álvaro Uribe Vélez, períodos presidenciales de: Cesar Gaviria Trujillo, Ernesto Samper Pizano, Andrés Pastrana Arango y primer período de Álvaro Uribe Vélez). El problema de investigación formulado en el megaproyecto (proyecto institucional) del cual hace parte este trabajo de investigaicón fue el siguiente: “¿Cuáles han sido los resultados arrojados por el control de constitucionalidad efectuado al ejercicio de la actividad legislativa desarrollada a partir de la entrada en vigencia de la Constitución de 1991, durante los periodos presidenciales de Cesar Gaviria Trujillo, Ernesto Samper Pizano, Andrés Pastrana Arango y Álvaro Uribe Vélez?” El objetivo general planteado en el megaproyecto fue: “Comparar los resultados arrojados por el control de constitucionalidad efectuado al ejercicio de la actividad legislativa desarrollada a partir de la entrada en vigencia de la Constitución de 1991, durante los periodos presidenciales de Cesar Gaviria Trujillo, Ernesto Samper Pizano, Andrés Pastrana Arango y Álvaro Uribe Vélez”

    Resolución de problemas de clasificación con datos incompletos mediante redes autoasociativas profundas

    Get PDF
    [SPA] Hoy en día, prácticamente todas las aplicaciones en la industria explotan su información histórica para tomar decisiones y de esta forma realizar predicciones, optimizar procesos o simplemente monitorizar activos. Las técnicas de procesado de datos han sido ampliamente estudiadas durante los últimos años debido, entre otras cosas, al crecimiento de aplicaciones basadas en inteligencia artificial. Además, la presencia de valores desconocidos en un conjunto de datos es uno de los problemas más comunes en estas aplicaciones reales. Ésta es una de las razones por las que en la literatura se han propuesto muchas técnicas basadas en aprendizaje máquina que abordan esta tarea. En la primera parte de este trabajo, se explota la gran capacidad de representación de los Stacked Denoising Autoencoders (SDAE) para obtener un nuevo método de imputación basado en dos ideas diferentes: borrado y compensación. El primer método ha demostrado mejorar los resultados en imputación borrando artificialmente algunas características y usándolas como etiquetas en el entrenamiento de la red. Sin embargo, aunque el borrado es realmente eficiente, puede causar un desbalanceo entre la distribución de los datos de entrenamiento y test. Para solucionar esto, se propone un método de compensación basado en una ligera modificación de la función de error a optimizar. Se realizan experimentos sobre varios conjuntos de datos y se demuestra que el borrado y la compensación no sólo suponen mejoras en imputación en comparación con otras técnicas clásicas, sino también en clasificación. Después, se propone proporcionar más información a un clasificador SDAE para mejorar su rendimiento. Más específicamente, se usa la salida de un clasificador auxiliar para extender la entrada de estas máquinas, y llevar un entrenamiento capa a capa considerando la reconstrucción de la entrada y las etiquetas al mismo tiempo usando una combinación convexa. Esta red es llamada Complete MSDAE (CMSDAE). Se realizan también experimentos para apoyar la efectividad del modelo, demostrando que las máquinas resultantes ofrecen mejores resultados que los métodos estándares en todos los casos, así como reducen la sensibilidad del diseño de parámetros. Finalmente, una vez demostrado que los mencionados clasificadores CMSDAEs ofrecen unos resultados de clasificación que son mejores que los de los propios MSDAEs, se ha investigado si los CMSDAEs pueden mejorar los mecanismos de imputación de los mismos. En la parte final de este trabajo, se consideran dos métodos diferentes de imputación con CMSDAEs. La primera resulta ser un método directo en el que la salida del CMSDAE es simplemente la etiqueta del conjunto. El segundo mecanismo surge a partir de la presencia de las etiquetas en el vector de salida y usa la técnica ampliamente conocida de aprendizaje multitarea (MTL), incluyendo las observaciones como tarea secundaria. Así, los resultados experimentales demuestran que estas estructuras CMSDAE incrementan la calidad de los valores imputados, en particular, en las versiones MTL. [ENG] Nowadays, almost every industry application exploits the information of historical data to get useful insights and thus make predictions, optimize processes or simply monitorize assets. Data processing techniques have been widely studied for the last years due to the growth of artificial intelligence applications. Furthermore, missing values in a data set is one of the most common difficulties in these real applications. That is one of the reasons why many different techniques based on machine learning have been proposed in the literature to face this problem. In the first part of this work, the great representation capability of the Stacked Denoising Auto-Encoders (SDAE) is used to obtain a new method of imputating missing values based on two ideas: deletion and compensation. This method has demonstrated to improve imputation performance by artificially deleting values in the input features and using them as targets in the training process. Nevertheless, although the deletion of samples is really efficient, it may cause an imbalance between the distributions of the training and the test sets. In order to solve this issue, a compensation mechanism is also proposed based on a slight modification of the error function to be optimized. Then, experiments over several datasets show that the deletion and compensation not only involve improvements in imputation but also in classification in comparison to other classical techniques. Aterwards, we propose to provide more information to SDAE classifiers in order to increase their performance. Specifically, we use the output of an auxiliary classifier to extend the input to those machines, and carry out the layer-by-layer auto-encoding training considering the input recovering and the label errors by means of a convex combination. This network is called Complete MSDAE (CMSDAE). Extensive experiments support the effectiveness of this proposal, showing that the resulting machines offer better results than standard designs in all the cases, as well as a reduced sensitivity to the design parameters. Finally, once demonstrated that the mentioned CMSDAE classifiers offer classification results that are better than those provided by MSDAEs, it has been investigated if CMSDAEs can improve the MSDAEs imputation processes. In the final part of this work, two types of imputation mechanisms with CMSDAEs are considered. The first is a direct procedure in which the CMSDAE output is just the target. The second mechanism is suggested by the presence of the targets in the vectors to be auto-encoded, and it uses the well known Multi-Task Learning (MTL) ideas, including the observations as a secondary task. Thus, experimental results show that these CMSDAE structures increase the quality of the missing value imputations, in particular, the MTL versions.Escuela Internacional de Doctorado de la Universidad Politécnica de CartagenaUniversidad Politécnica de CartagenaPrograma de Doctorado en Tecnologías de la Información y las Comunicaciones por la Universidad Politécnica de Cartagen

    Herramienta de gestión continua de actuaciones en seguridad de presas con indicadores de riesgo

    Full text link
    [ES] En este documento se presenta una herramienta para la priorización de actuaciones en seguridad de presas a partir de los resultados de un proceso previo de Análisis de Riesgo. Los resultados son analizados a través de indicadores para cada una de las medidas planteadas. Estos indicadores están basados en principios de reducción de riesgo, principalmente de eficiencia y equidad. Con el fin de poder obtener secuencias de implementación de medidas de inversión, se ha desarrollado un software que funciona conjuntamente con un software de cálculo de riesgo y permite obtener secuencias de implementación de medidas de una forma rápida, clara y eficaz a partir de los indicadores de riesgo. Estas secuencias son un apoyo para la toma de decisiones en seguridad de presas. La herramienta desarrollada ha sido aplicada a la gestión de 95 medidas estructurales y no estructurales en un grupo heterogéneo de 27 presas. De esta forma, se han obtenido diferentes secuencias de implementación de medidas para diferentes indicadores de riesgo y se ha analizado como cada una de estas secuencias sigue los diferentes principios de reducción de riesgo.[EN] In this document, a tool for risk reduction measures prioritization in dams¿ security is introduced. This tool is supported by the results of a previous Risk Analysis process. These results are analyzed for each proposed measure using indicators, which are based on risk reduction principles, mainly efficiency and equity. In order to obtain prioritization sequences for risk reduction measures using risk indicators, a software has been developed. This tool is clear, fast and efficient and works jointly with a software for computing risk. The obtained sequences can be a support for decision-making in dam safety. The developed tool has been applied to manage 95 structural and non-structural measures in a heterogeneous group of 27 dams. Different sequences of measures prioritization has been obtained for different risk indicators. The relation between the risk reduction principles and the obtained sequences has been analyzed.Morales Torres, A. (2012). Herramienta de gestión continua de actuaciones en seguridad de presas con indicadores de riesgo. http://hdl.handle.net/10251/27727Archivo delegad
    corecore