17 research outputs found

    The Energetic Reasoning Checker Revisited

    Get PDF
    Energetic Reasoning (ER) is a powerful filtering algorithm for the Cumulative constraint. Unfortunately, ER is generally too costly to be used in practice. One reason of its bad behavior is that many intervals are considered as relevant by the checker of ER, although most of them should be ignored. In this paper, we provide a sharp characterization that allows to reduce the number of intervals by a factor seven. Our experiments show that associating this checker with a Time-Table filtering algorithm leads to promising results.Comment: CP Doctoral Program 2013, Uppsala : Sweden (2013

    Une nouvelle caractérisation des intervalles d'intérêt pour le raisonnement énergétique

    Get PDF
    National audienceLe raisonnement énergétique (ER) pour la contrainte Cumulative permet un filtrage des domaines supérieur à la plupart des algorithmes de l'état de l'art. Hélas, il est généralement trop coûteux pour être uti-lisé en pratique. Une des raisons de ce coût important est que trop d'intervalles de temps sont considérés. Dans la littérature, des approches heuristiques ont été développées dans le but de réduire le nombre d'inter-valles à considérer, entrainant une perte de filtrage. Dans cet article, nous démontrons qu'il est possible de réduire le nombre d'intervalles d'intérêt jusqu'à un fac-teur sept pour la condition d'échec et le propagateur, sans diminuer la puissance de filtrage. En outre, nous montrons que, pour certaines classes de problèmes, associer ER à un algorithme de Time-Table constitue le meilleur compromis opérationnel

    A New Characterization of Relevant Intervals for Energetic Reasoning

    Get PDF
    International audienceEnergetic Reasoning (ER) is a powerful filtering algorithm for the Cumulative constraint. Unfortunately, ER is generally too costly to be used in practice. One reason of its bad behavior is that many intervals are considered as relevant, although most of them should be ignored. In the literature, heuristic approaches have been developed in order to reduce the number of intervals to consider, leading to a loss of filtering. In this paper, we provide a sharp characterization that allows to reduce the number of intervals by a factor seven without loss of filtering

    Ordonnancement cumulatif en programmation par contraintes : caractérisation énergétique des raisonnements et solutions robustes

    Get PDF
    Constraint programming is an approach regularly used to treat a variety of scheduling problems. Cumulative scheduling problems represent a class of problems in which non-preemptive tasks can be performed in parallel. These problems appear in many contexts, such as for example the allocation of virtual machines, the ordering process in the "cloud", personnel management or a port. Many mechanisms have been adapted and offered in constraint programming to solve scheduling problems. The various adaptations have resulted in reasoning that appear a priori significantly different. In this thesis we performed a detailed analysis of the various arguments, offering both a theoretical unified caracterization but also dominance rules, allowing a significant improvement in execution time of algorithms from the state of the art, up to a factor of seven. we also propose a new framework for robust cumulative scheduling, to find solutions that support at any time one or more tasks to be delayed while keeping a satisfactory end date of the project and without calling into question the generated scheduling. In this context, we propose an adaptation of an algorithm of the state of the art, Dynamic Sweep.La programmation par contraintes est une approche régulièrement utilisée pour traiter des problèmes d’ordonnancement variés. Les problèmes d’ordonnancement cumulatifs représentent une classe de problèmes dans laquelle des tâches non morcelable peuvent être effectuées en parallèle. Ces problèmes apparaissent dans de nombreux contextes réels, tels que par exemple l’allocation de machines virtuelles ou l’ordonnancement de processus dans le "cloud", la gestion de personnel ou encore d’un port. De nombreux mécanismes ont été adaptés et proposés en programmation par contraintes pour résoudre les problèmes d’ordonnancement. Les différentes adaptations ont abouti à des raisonnements qui semblent à priori significativement distincts. Dans cette thèse nous avons effectué une analyse détaillée des différents raisonnements, proposant à la fois une notation unifiée purement théorique mais aussi des règles de dominance, permettant une amélioration significative du temps d’exécution d’algorithmes issus de l’état de l’art, pouvant aller jusqu’à un facteur sept. Nous proposons aussi un nouveau cadre de travail pour l’ordonnancement cumulatif robuste, permettant de trouver des solutions supportant qu’à tout moment une ou plusieurs tâches soit retardées, sans remise en cause de l’ordonnancement généré et en gardant une date de fin de projet satisfaisante. Dans ce cadre, nous proposons une adaptation d’un algorithme de l’état de l’art, Dynamic Sweep

    Weather regimes and related atmospheric composition at a Pyrenean observatory characterized by hierarchical clustering of a 5-year data set

    Full text link
    Atmospheric composition measurements taken at many high-altitude stations around the world, aim to collect data representative of the free troposphere and of an intercontinental scale. However, the high-altitude environment favours vertical mixing and the transportation of air masses at local or regional scales, which has a potential influence on the composition of the sampled air masses. Mixing processes, source-receptor pathways, and atmospheric chemistry may strongly depend on local and regional weather regimes, and these should be characterized specifically for each station. The Pic du Midi (PDM) isa mountaintop observatory (2850 m a.s.l.) on the north side of the Pyrenees. PDM is associated with the Centre de Recherches Atmosph{\'e}riques (CRA), a site in the foothills ar 600 m a.s.l. 28 km north-east of the PDM. The two centers make up the Pyrenean Platform for the Observation of the Atmosphere (P2OA). Data measured at PDM and CRA were combined to form a5-year hourly dataset of 23 meteorological variables notably: temperature, humidity, cloud cover, wind at several altitudes. The dataset was classified using hierarchical clustering, with the aim of grouping together the days which had similar meteorological characteristics. To complete the clustering, we computed several diagnostic tools, in order to provide additional information and study specific phenomena (foehn, precipitation, atmospheric vertical structure, and thermally driven circulations). This classification resulted in six clusters: three highly populated clusters which correspond to the most frequent meteorological conditions (fair weather, mixed weather and disturbed weather, respectively); a small cluster evidencing clear characteristics of winter northwesterly windstorms; and two small clusters characteristic of south foehn (south- to southwesterly large-scaleflow, associated with warm and dry downslope flow on the lee side of the chain). The diagnostic tools applied to the six clusters provided results in line with the conclusions tentatively drawn from 23 meteorological variables. This, to some extent,validates the approach of hierarchical clustering of local data to distinguish weather regimes. Then statistics of atmospheric composition at PDM were analysed and discussed for each cluster. Radon measurements, notably, revealed that the regional background in the lower troposphere dominates the influence of diurnal thermal flows when daily averaged concentrations are considered. Differences between clusters were demonstrated by the anomalies of CO, CO2_2, CH4_4, O3_3 and aerosol number concentration, and interpretations in relation with chemical sinks and sources are proposed.Comment: Atmospheric Chemistry and Physics, In pres

    Cumulative scheduling in constraint programming : energetic characterization of reasoning and robust solutions

    No full text
    La programmation par contraintes est une approche régulièrement utilisée pour traiter des problèmes d’ordonnancement variés. Les problèmes d’ordonnancement cumulatifs représentent une classe de problèmes dans laquelle des tâches non morcelable peuvent être effectuées en parallèle. Ces problèmes apparaissent dans de nombreux contextes réels, tels que par exemple l’allocation de machines virtuelles ou l’ordonnancement de processus dans le "cloud", la gestion de personnel ou encore d’un port. De nombreux mécanismes ont été adaptés et proposés en programmation par contraintes pour résoudre les problèmes d’ordonnancement. Les différentes adaptations ont abouti à des raisonnements qui semblent à priori significativement distincts. Dans cette thèse nous avons effectué une analyse détaillée des différents raisonnements, proposant à la fois une notation unifiée purement théorique mais aussi des règles de dominance, permettant une amélioration significative du temps d’exécution d’algorithmes issus de l’état de l’art, pouvant aller jusqu’à un facteur sept. Nous proposons aussi un nouveau cadre de travail pour l’ordonnancement cumulatif robuste, permettant de trouver des solutions supportant qu’à tout moment une ou plusieurs tâches soit retardées, sans remise en cause de l’ordonnancement généré et en gardant une date de fin de projet satisfaisante. Dans ce cadre, nous proposons une adaptation d’un algorithme de l’état de l’art, Dynamic Sweep.Constraint programming is an approach regularly used to treat a variety of scheduling problems. Cumulative scheduling problems represent a class of problems in which non-preemptive tasks can be performed in parallel. These problems appear in many contexts, such as for example the allocation of virtual machines, the ordering process in the "cloud", personnel management or a port. Many mechanisms have been adapted and offered in constraint programming to solve scheduling problems. The various adaptations have resulted in reasoning that appear a priori significantly different. In this thesis we performed a detailed analysis of the various arguments, offering both a theoretical unified caracterization but also dominance rules, allowing a significant improvement in execution time of algorithms from the state of the art, up to a factor of seven. we also propose a new framework for robust cumulative scheduling, to find solutions that support at any time one or more tasks to be delayed while keeping a satisfactory end date of the project and without calling into question the generated scheduling. In this context, we propose an adaptation of an algorithm of the state of the art, Dynamic Sweep
    corecore