65 research outputs found

    MOSAIC: A Multi-Objective Optimization Framework for Sustainable Datacenter Management

    Full text link
    In recent years, cloud service providers have been building and hosting datacenters across multiple geographical locations to provide robust services. However, the geographical distribution of datacenters introduces growing pressure to both local and global environments, particularly when it comes to water usage and carbon emissions. Unfortunately, efforts to reduce the environmental impact of such datacenters often lead to an increase in the cost of datacenter operations. To co-optimize the energy cost, carbon emissions, and water footprint of datacenter operation from a global perspective, we propose a novel framework for multi-objective sustainable datacenter management (MOSAIC) that integrates adaptive local search with a collaborative decomposition-based evolutionary algorithm to intelligently manage geographical workload distribution and datacenter operations. Our framework sustainably allocates workloads to datacenters while taking into account multiple geography- and time-based factors including renewable energy sources, variable energy costs, power usage efficiency, carbon factors, and water intensity in energy. Our experimental results show that, compared to the best-known prior work frameworks, MOSAIC can achieve 27.45x speedup and 1.53x improvement in Pareto Hypervolume while reducing the carbon footprint by up to 1.33x, water footprint by up to 3.09x, and energy costs by up to 1.40x. In the simultaneous three-objective co-optimization scenario, MOSAIC achieves a cumulative improvement across all objectives (carbon, water, cost) of up to 4.61x compared to the state-of-the-arts

    Performance and programmability comparison of the thick control flow architecture and current multicore processors

    Get PDF
    Commercial multicore central processing units (CPU) integrate a number of processor cores on a single chip to support parallel execution of computational tasks. Multicore CPUs can possibly improve performance over single cores for independent parallel tasks nearly linearly as long as sufficient bandwidth is available. Ideal speedup is, however, difficult to achieve when dense intercommunication between the cores or complex memory access patterns is required. This is caused by expensive synchronization and thread switching, and insufficient latency toleration. These facts guide programmers away from straight-forward parallel processing patterns toward complex and error-prone programming techniques. To address these problems, we have introduced the Thick control flow (TCF) Processor Architecture. TCF is an abstraction of parallel computation that combines self-similar threads into computational entities. In this paper, we compare the performance and programmability of an entry-level TCF processor and two Intel Skylake multicore CPUs on commonly used parallel kernels to find out how well our architecture solves these issues that greatly reduce the productivity of parallel software development. Code examples are given and programming experiences recorded

    El reglamento europeo de protección de datos personales y el derecho al olvido

    Get PDF
    La actual comunicación de información y tecnología ha traído consigo un nuevo desarrollo en la gestión de datos, incluido el procesamiento y la recopilación de grandes volúmenes de datos. Según Cooper, LaSalle y Wei (2016), esto ha resultado en casos en los que casi todos los aspectos de la vida de una persona se capturan en diferentes partes de Internet. En consecuencia, quienes procesan y almacenan estos datos experimentan una cantidad considerable de poder. Al mismo tiempo, ese poder presenta una serie de cuestiones éticas y legales. Por ejemplo, puede ocurrir que algunos datos personales sean interceptados y utilizados en el sector público o privado sin el consentimiento de sus propietarios. Esto implica que puede haber un abuso de dichos datos a través de la adquisición y el uso ilegales, incluido el control social sobre los propietarios. El abuso de datos personales es un hecho desafortunado pero común en el mundo digital actual. Las empresas están cada vez más centradas en liderar el mercado. Desafortunadamente, esto también puede conducir a la utilización de datos personales como una oportunidad económica, como señalan Liem y Petropoulos (2016). Sin embargo, las empresas que interceptan datos personales no se perciben a sí mismas como equivocadas. Para ellos, esto es solo un negocio. Dichos datos están destinados simplemente a fomentar el marketing dirigido y al incremento de las ventas. Christl (2017) explica que es simplemente una forma de vencer a la competencia al conocer un poco más sobre el cliente. Sin embargo, la verdad del asunto es que este concepto de conocer un poco más al cliente no es más que una invasión de la privacidad. Es una violación franca de esta privacidad..

    Resource management for extreme scale high performance computing systems in the presence of failures

    Get PDF
    2018 Summer.Includes bibliographical references.High performance computing (HPC) systems, such as data centers and supercomputers, coordinate the execution of large-scale computation of applications over tens or hundreds of thousands of multicore processors. Unfortunately, as the size of HPC systems continues to grow towards exascale complexities, these systems experience an exponential growth in the number of failures occurring in the system. These failures reduce performance and increase energy use, reducing the efficiency and effectiveness of emerging extreme-scale HPC systems. Applications executing in parallel on individual multicore processors also suffer from decreased performance and increased energy use as a result of applications being forced to share resources, in particular, the contention from multiple application threads sharing the last-level cache causes performance degradation. These challenges make it increasingly important to characterize and optimize the performance and behavior of applications that execute in these systems. To address these challenges, in this dissertation we propose a framework for intelligently characterizing and managing extreme-scale HPC system resources. We devise various techniques to mitigate the negative effects of failures and resource contention in HPC systems. In particular, we develop new HPC resource management techniques for intelligently utilizing system resources through the (a) optimal scheduling of applications to HPC nodes and (b) the optimal configuration of fault resilience protocols. These resource management techniques employ information obtained from historical analysis as well as theoretical and machine learning methods for predictions. We use these data to characterize system performance, energy use, and application behavior when operating under the uncertainty of performance degradation from both system failures and resource contention. We investigate how to better characterize and model the negative effects from system failures as well as application co-location on large-scale HPC computing systems. Our analysis of application and system behavior also investigates: the interrelated effects of network usage of applications and fault resilience protocols; checkpoint interval selection and its sensitivity to system parameters for various checkpoint-based fault resilience protocols; and performance comparisons of various promising strategies for fault resilience in exascale-sized systems

    Provendo robustez a escalonadores de workflows sensíveis às incertezas da largura de banda disponível

    Get PDF
    Orientadores: Edmundo Roberto Mauro Madeira, Luiz Fernando BittencourtTese (doutorado) - Universidade Estadual de Campinas, Instituto de ComputaçãoResumo: Para que escalonadores de aplicações científicas modeladas como workflows derivem escalonamentos eficientes em nuvens híbridas, é necessário que se forneçam, além da descrição da demanda computacional desses aplicativos, as informações sobre o poder de computação dos recursos disponíveis, especialmente aqueles dados relacionados com a largura de banda disponível. Entretanto, a imprecisão das ferramentas de medição fazem com que as informações da largura de banda disponível fornecida aos escalonadores difiram dos valores reais que deveriam ser considerados para se obter escalonamentos quase ótimos. Escalonadores especialmente projetados para nuvens híbridas simplesmente ignoram a existência de tais imprecisões e terminam produzindo escalonamentos enganosos e de baixo desempenho, o que os tornam sensíveis às informações incertas. A presente Tese introduz um procedimento pró-ativo para fornecer um certo nível de robustez a escalonamentos derivados de escalonadores não projetados para serem robustos frente às incertezas decorrentes do uso de informações imprecisas dadas por ferramentas de medições de rede. Para tornar os escalonamentos sensíveis às incertezas em escalonamentos robustos às essas imprecisões, o procedimento propõe um refinamento (uma deflação) das estimativas da largura de banda antes de serem utilizadas pelo escalonador não robusto. Ao propor o uso de estimativas refinadas da largura de banda disponível, escalonadores inicialmente sensíveis às incertezas passaram a produzir escalonamentos com um certo nível de robustez às essas imprecisões. A eficácia e a eficiência do procedimento proposto são avaliadas através de simulação. Comparam-se, portanto, os escalonamentos gerados por escalonadores que passaram a usar o procedimento proposto com aqueles produzidos pelos mesmos escalonadores mas sem aplicar esse procedimento. Os resultados das simulações mostram que o procedimento proposto é capaz de prover robustez às incertezas da informação da largura de banda a escalonamentos derivados de escalonardes não robustos às tais incertezas. Adicionalmente, esta Tese também propõe um escalonador de aplicações científicas especialmente compostas por um conjunto de workflows. A novidade desse escalonador é que ele é flexível, ou seja, permite o uso de diferentes categorias de funções objetivos. Embora a flexibilidade proposta seja uma novidade no estado da arte, esse escalonador também é sensível às imprecisões da largura de banda. Entretanto, o procedimento mostrou-se capaz de provê-lo de robustez frente às tais incertezas. É mostrado nesta Tese que o procedimento proposto aumentou a eficácia e a eficiência de escalonadores de workflows não robustos projetados para nuvens híbridas, já que eles passaram a produzir escalonamentos com um certo nível de robustez na presença de estimativas incertas da largura de banda disponível. Dessa forma, o procedimento proposto nesta Tese é uma importante ferramenta para aprimorar os escalonadores sensíveis às estimativas incertas da banda disponível especialmente projetados para um ambiente computacional onde esses valores são imprecisos por natureza. Portanto, esta Tese propõe um procedimento que promove melhorias nas execuções de aplicações científicas em nuvens híbridasAbstract: To derive efficient schedules for the tasks of scientific applications modelled as workflows, schedulers need information on the application demands as well as on the resource availability, especially those regarding the available bandwidth. However, the lack of precision of bandwidth estimates provided by monitoring/measurement tools should be considered by the scheduler to achieve near-optimal schedules. Uncertainties of available bandwidth can be a result of imprecise measurement and monitoring network tools and/or their incapacity of estimating in advance the real value of the available bandwidth expected for the application during the scheduling step of the application. Schedulers specially designed for hybrid clouds simply ignore the inaccuracies of the given estimates and end up producing non-robust, low-performance schedules, which makes them sensitive to the uncertainties stemming from using these networking tools. This thesis introduces a proactive procedure to provide a certain level of robustness for schedules derived from schedulers that were not designed to be robust in the face of uncertainties of bandwidth estimates stemming from using unreliable networking tools. To make non-robust schedulers into robust schedulers, the procedure applies a deflation on imprecise bandwidth estimates before being used as input to non-robust schedulers. By proposing the use of refined (deflated) estimates of the available bandwidth, non-robust schedulers initially sensitive to these uncertainties started to produce robust schedules that are insensitive to these inaccuracies. The effectiveness and efficiency of the procedure in providing robustness to non-robust schedulers are evaluated through simulation. Schedules generated by induced-robustness schedulers through the use of the procedure is compared to that of produced by sensitive schedulers. In addition, this thesis also introduces a flexible scheduler for a special case of scientific applications modelled as a set of workflows grouped into ensembles. Although the novelty of this scheduler is the replacement of objective functions according to the user's needs, it is still a non-robust scheduler. However, the procedure was able to provide the necessary robustness for this flexible scheduler be able to produce robust schedules under uncertain bandwidth estimates. It is shown in this thesis that the proposed procedure enhanced the robustness of workflow schedulers designed especially for hybrid clouds as they started to produce robust schedules in the presence of uncertainties stemming from using networking tools. The proposed procedure is an important tool to furnish robustness to non-robust schedulers that are originally designed to work in a computational environment where bandwidth estimates are very likely to vary and cannot be estimated precisely in advance, bringing, therefore, improvements to the executions of scientific applications in hybrid cloudsDoutoradoCiência da ComputaçãoDoutor em Ciência da Computação2012/02778-6FAPES

    Responsabilidad social de la empresas en el sector de la edificación. Análisis de la sostenibilidad en el caso de las empresas constructoras de la provincia de Santa Cruz de Tenerife

    Get PDF
    La Responsabilidad Social de las Empresas (RSE) es uno de los retos que plantea el siglo XXI a la actividad empresarial. La RSE supone para las empresas la integración de objetivos sociales y medioambientales, junto a los tradicionales objetivos económicos, que les permitan establecer un modelo de sostenibilidad y de gestión de las externalidades, positivas y negativas, que generan. Palabras como voluntariedad, grupos de interés, medioambiental, económico y social se combinan buscando un equilibrio que encuentra su estado óptimo en función de la sensibilidad de la empresa ante estos planteamientos. La empresa desarrolla su actividad al mismo tiempo que busca un papel más activo en la sociedad. Cuando las empresas asumen su responsabilidad social, los trabajadores, consumidores y ciudadanos establecen vínculos duraderos con ellas. Este es el reto que se marcan las empresas que integran la RSE en su actividad y el sector de la construcción no puede estar al margen de este modelo de gestión, lo que supone adoptar una serie de estrategias que son el objetivo del análisis de esta investigación. En consecuencia, la RSE promueve el desarrollo sostenible por su visión holística, al considerar los impactos sociales, económicos y medioambientales de cualquier actividad empresarial. Asimismo, el sector de la construcción es causante de una parte importante de los impactos que tienen lugar durante la fabricación de materiales y productos de construcción y en las fases de edificación, uso y posterior demolición. La RSE, por tanto, es una estrategia fundamental para las empresas que desarrollan esta actividad económica. Un término que ha adquirido una gran relevancia en el sector de la construcción y que se ha acentuado en los últimos años es «sostenibilidad», aspecto integrado dentro de la RSE La integración de la RSE es el objetivo de las empresas que deben seleccionar adecuadamente sus iniciativas y la forma de llevarlas a la práctica, para que las vertientes social y medioambiental, además de la económica, formen parte del carácter de la organización —empresa o institución— incorporándolas en su estrategia. Las personas que forman parte de las empresas, son los principales actores de este cambio, por lo que se debe aspirar a que este comportamiento sea parte de sus rutinas y que no lo perciban como algo extraño, obligado o improvisado. Un buen ejemplo de indicador es el que propone la metodología MIVES, que se desarrolló a principios del segundo milenio y en pocos años la Instrucción de Hormigón Estructural la introduce en su Anejo 13. En palabras de Pons et al. (2016), la revisión que han hecho de las herramientas para la evaluación de la sostenibilidad confirma que no existe un método capaz de evaluar todos los casos, pero MIVES sirve para evaluaciones holísticas de sostenibilidad de casos específicos. Partiendo de estas premisas, en el primer capítulo se desarrolla, el planteamiento que se ha llevado a cabo para realizar esta investigación, a través de la introducción del objetivo general y la estructura de la presente tesis doctoral. Se comenzó por realizar una revisión exhaustiva de la literatura existente que apoya el planteamiento de las hipótesis para el desarrollo de la parte teórica. Utilizando de forma rigurosa la información contenida en libros, artículos académicos revisados por pares —peer-reviewed—, páginas web especializadas, leyes, reglamentaciones y, en general, fuentes que tratan el tema central de esta investigación, con la atención puesta en el sector de la construcción, en aquellos casos que no ha sido posible se ha optado por estudios de otros sectores. En el tercer apartado, se explican las fuentes primarias y secundarias empleadas para la revisión de los aspectos teóricos y prácticos que enmarcan y justifican el contexto

    Ampliación del sistema UCI sin paredes para mejorar el pronóstico de los pacientes ingresados en la UCI en el período off-hours.

    Get PDF
    Las Unidades de Cuidados Intensivos (UCI) han modificado sus estructuras y metodología desde el concepto clásico de unidades de trabajo cerradas hasta abrir sus puertas y sus actuaciones tanto en el espacio (fuera de las Unidades) como en el tiempo (antes y después de un ingreso en las mismas). El papel de la UCI fuera de la UCI es importante por la necesidad de la priorización de cuidados, precocidad en la detección y atención a los pacientes en riesgo de deterioro clínico. Las herramientas de identificación de los pacientes en riesgo de deterioro clínico son diversas e igualmente lo son los modelos evaluados en la literatura encaminados a proporcionar la oportunidad de una mejor evaluación de la situación, atención a la misma y respuesta más precoz. Por otro lado, el pronóstico de los pacientes y especialmente el de aquellos que se encuentran en situación crítica podría estar condicionado por el cambio en los modelos asistenciales que se producen en los períodos “on-hours” (pacientes ingresados en el turno de mañana y de tarde de los días de diario) y “off-hours” (pacientes ingresados en el turno de noche de los días de diario, fines de semana y días festivos). En nuestro medio, para evaluar este posible efecto del momento del ingreso en la evolución de nuestros pacientes, planteamos un primer estudio en el que analizábamos la existencia de una diferencia en el pronóstico cuando se tenía en cuenta la franja horaria del día de ingreso en la Unidad de Cuidados Intensivos. En este estudio encontrábamos que ingresar en el período off-hours se asociaba de forma independiente con la mortalidad cuando se comparaba con el grupo on-hours. El trabajo, por tanto, apoyó la idea plasmada en otros estudios, de que no es lo mismo ingresar en la UCI por la mañana de un día laborable que ingresar en horario de guardia. Se han planteado varios motivos que expliquen esta diferencia en la mortalidad, fundamentalmente basados en los cambios en los modelos asistenciales que se producen por las diferencias en la organización de los turnos de trabajo en las UCIs en cuanto a la atención al paciente grave en el momento de su ingreso en las mismas.pre-print6860 K
    corecore