27 research outputs found

    Optimisation de contrĂ´leurs par essaim particulaire

    No full text
    http://cap2012.loria.fr/pub/Papers/10.pdfNational audienceTrouver des contrôleurs optimaux pour des systèmes stochastiques est un problème particulièrement difficile abordé dans les communautés d'apprentissage par renforcement et de contrôle optimal. Le paradigme classique employé pour résoudre ces problèmes est celui des processus décisionnel de Markov. Néanmoins, le problème d'optimisation qui en découle peut être difficile à résoudre. Dans ce papier, nous explorons l'utilisation de l'optimisation par essaim particulaire pour apprendre des contrôleurs optimaux. Nous l'appliquons en particulier à trois problèmes classiques : le pendule inversé, le mountain car et le double pendule

    Optimisation multi-objectifs de propriétés d'un matériau par essaim particulaire : application aux composites à base de bois

    Get PDF
    L’optimisation multi-objectifs, appliquée aux propriétés d'un matériau, permet l'exploration de l'espace de recherche et l’obtention d’un ensemble de solutions Pareto-optimales. Un espace de recherche étant défini par des équations algébriques, des connaissances qualitatives et des algorithmes, il peut être modélisé dans un même système d'optimisation par essaim particulaire. Nous présenterons les principes de modélisation que nous illustrerons avec l'écoconception de composite bois-plastique

    Allocation optimale multicontraintes des workflows aux ressources d’un environnement Cloud Computing

    Get PDF
    Cloud Computing is increasingly recognized as a new way to use on-demand, computing, storage and network services in a transparent and efficient way. In this thesis, we address the problem of workflows scheduling on distributed heterogeneous infrastructure of Cloud Computing. The existing workflows scheduling approaches mainly focus on the bi-objective optimization of the makespan and the cost. In this thesis, we propose news workflows scheduling algorithms based on metaheuristics. Our algorithms are able to handle more than two QoS (Quality of Service) metrics, namely, makespan, cost, reliability, availability and energy in the case of physical resources. In addition, they address several constraints according to the specified requirements in the SLA (Service Level Agreement). Our algorithms have been evaluated by simulations. We used (1) synthetic workflows and real world scientific workflows having different structures, for our applications; and (2) the features of Amazon EC2 services for our Cloud. The obtained results show the effectiveness of our algorithms when dealing multiple QoS metrics. Our algorithms produce one or more solutions which some of them outperform the solution produced by HEFT heuristic over all the QoS considered, including the makespan for which HEFT is supposed to give good results.Le Cloud Computing est de plus en plus reconnu comme une nouvelle façon d'utiliser, à la demande, les services de calcul, de stockage et de réseau d'une manière transparente et efficace. Dans cette thèse, nous abordons le problème d'ordonnancement de workflows sur les infrastructures distribuées hétérogènes du Cloud Computing. Les approches d'ordonnancement de workflows existantes dans le Cloud se concentrent principalement sur l'optimisation biobjectif du makespan et du coût. Dans cette thèse, nous proposons des algorithmes d'ordonnancement de workflows basés sur des métaheuristiques. Nos algorithmes sont capables de gérer plus de deux métriques de QoS (Quality of Service), notamment, le makespan, le coût, la fiabilité, la disponibilité et l'énergie dans le cas de ressources physiques. En outre, ils traitent plusieurs contraintes selon les exigences spécifiées dans le SLA (Service Level Agreement). Nos algorithmes ont été évalués par simulation en utilisant (1) comme applications: des workflows synthétiques et des workflows scientifiques issues du monde réel ayant des structures différentes; (2) et comme ressources Cloud: les caractéristiques des services de Amazon EC2. Les résultats obtenus montrent l'efficacité de nos algorithmes pour le traitement de plusieurs QoS. Nos algorithmes génèrent une ou plusieurs solutions dont certaines surpassent la solution de l'heuristique HEFT sur toutes les QoS considérées, y compris le makespan pour lequel HEFT est censé donner de bons résultats

    Perfectionnement des algorithmes d'optimisation par essaim particulaire (applications en segmentation d'images et en Ă©lectronique)

    Get PDF
    La résolution satisfaisante d'un problème d'optimisation difficile, qui comporte un grand nombre de solutions sous-optimales, justifie souvent le recours à une métaheuristique puissante. La majorité des algorithmes utilisés pour résoudre ces problèmes d'optimisation sont les métaheuristiques à population. Parmi celles-ci, nous intéressons à l'Optimisation par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO s'inspire de la dynamique d'animaux se déplaçant en groupes compacts (essaims d'abeilles, vols groupés d'oiseaux, bancs de poissons). Les particules d'un même essaim communiquent entre elles tout au long de la recherche pour construire une solution au problème posé, et ce en s'appuyant sur leur expérience collective. L'algorithme PSO, qui est simple à comprendre, à programmer et à utiliser, se révèle particulièrement efficace pour les problèmes d'optimisation à variables continues. Cependant, comme toutes les métaheuristiques, PSO possède des inconvénients, qui rebutent encore certains utilisateurs. Le problème de convergence prématurée, qui peut conduire les algorithmes de ce type à stagner dans un optimum local, est un de ces inconvénients. L'objectif de cette thèse est de proposer des mécanismes, incorporables à PSO, qui permettent de remédier à cet inconvénient et d'améliorer les performances et l'efficacité de PSO. Nous proposons dans cette thèse deux algorithmes, nommés PSO-2S et DEPSO-2S, pour remédier au problème de la convergence prématurée. Ces algorithmes utilisent des idées innovantes et se caractérisent par de nouvelles stratégies d'initialisation dans plusieurs zones, afin d'assurer une bonne couverture de l'espace de recherche par les particules. Toujours dans le cadre de l'amélioration de PSO, nous avons élaboré une nouvelle topologie de voisinage, nommée Dcluster, qui organise le réseau de communication entre les particules. Les résultats obtenus sur un jeu de fonctions de test montrent l'efficacité des stratégies mises en oeuvre par les différents algorithmes proposés. Enfin, PSO-2S est appliqué à des problèmes pratiques, en segmentation d'images et en électroniqueThe successful resolution of a difficult optimization problem, comprising a large number of sub optimal solutions, often justifies the use of powerful metaheuristics. A wide range of algorithms used to solve these combinatorial problems belong to the class of population metaheuristics. Among them, Particle Swarm Optimization (PSO), appeared in 1995, is inspired by the movement of individuals in a swarm, like a bee swarm, a bird flock or a fish school. The particles of the same swarm communicate with each other to build a solution to the given problem. This is done by relying on their collective experience. This algorithm, which is easy to understand and implement, is particularly effective for optimization problems with continuous variables. However, like several metaheuristics, PSO shows some drawbacks that make some users avoid it. The premature convergence problem, where the algorithm converges to some local optima and does not progress anymore in order to find better solutions, is one of them. This thesis aims at proposing alternative methods, that can be incorporated in PSO to overcome these problems, and to improve the performance and the efficiency of PSO. We propose two algorithms, called PSO-2S and DEPSO-2S, to cope with the premature convergence problem. Both algorithms use innovative ideas and are characterized by new initialization strategies in several areas to ensure good coverage of the search space by particles. To improve the PSO algorithm, we have also developed a new neighborhood topology, called Dcluster, which can be seen as the communication network between the particles. The obtained experimental results for some benchmark cases show the effectiveness of the strategies implemented in the proposed algorithms. Finally, PSO-2S is applied to real world problems in both image segmentation and electronics fieldsPARIS-EST-Université (770839901) / SudocSudocFranceF

    Modélisation, simulation et optimisation pour l'éco-fabrication

    Get PDF
    This thesis focuses on the proposal and implementation of approaches for modeling sustainable manufacturing. These approaches are used to prepare and simulate a process of manufacturing products providing coupling between environmental and economic objectives.The approaches developed in this thesis are based on the concepts of decision support as well as multi-objective optimization. The decision support allows intervention in two different levels: the choice of indicator to quantify the environmental impacts and the choice of the final manufacturing scenario. For multi-objective optimization, it provides the coupling between the two main pillars of sustainable manufacturing: ecology and economy. In terms of multi criteria decision aid methods, Evamix and Promethee were applied, while particulate swarms were developed as part of the multi-objective optimization. These approaches have been applied initially to some machining operations: turning and milling. Finally, the production line of phosphoric acid and sulfuric acid were the subject of application of the two approaches developed.Cette thèse se focalise sur la proposition et l’application des approches pour la modélisation de l’éco-fabrication. Ces approches permettent de préparer et simuler une démarche de fabrication des produits en assurant le couplage entre les objectifs écologiques et économiques.Les approches développées dans cette thèse sont basées sur les notions d’aide à la décision ainsi que l’optimisation multi objectifs. L’aide à la décision permet l’intervention en deux différents niveaux : le choix des impacts environnementaux à quantifier ainsi que le choix du scénario final de fabrication. Pour l’optimisation multi objectifs, elle assure le couplage entre les deux piliers principaux de l’éco-fabrication : l’écologie et l’économie. Au niveau de l’aide à la décision multi critères, les méthodes Evamix et Promethee ont été appliqués, tandis que les essaims particulaires ont été développés dans le cadre de l’optimisation multi objectifs.Ces approches ont été appliquées tout d’abord aux quelques opérations d’usinage : tournage et fraisage. Finalement, la chaîne de fabrication de l’acide phosphorique ainsi que celle d’acide sulfurique ont été le sujet de l’application des deux approches développées

    Mise en oeuvre d'une régulation thermique sur une machine de mesure dimensionnelle de très haute exactitude. Utilisation d'un modèle d'ordre faible en boucle fermée

    Get PDF
    This thesis describes the modelling and real-time regulation of the temperature inside an apparatus developed to validate the design principles of a cylindricity measurement machine at the Laboratoire Commun de Métrologie du Laboratoire national de métrologie et d’essais – Conservatoire national des arts et métiers. To study the effect of internal and external perturbations on the behaviour of the system, the apparatus is equipped with 19 platinum resistance thermometers calibrated with respect to the national standard. The effect of perturbations on the behaviour of capacitive displacement sensors has also been studied. The effect of internal perturbations generated by the mechanical guide rails was simulated using three film resistive heaters. Finite element modeling of the system temperature was carried out and the numerical results compared with experiment. The offsets about 0.1°C are too large for the model to be used for real-time temperature control. Subsequently, a reduced model wasdeveloped based on experimental data using the modal identification method (MIM). The residual obtained when its results are compared with experiment is 0.003°C. Finally, a temperature servo implemented using predictive control combined with a Kalman filter.Ce manuscrit décrit la modélisation et la régulation de la température au sein d’un dispositif expérimental développé initialement pour valider les principes de conception adoptés pour une nouvelle machine de mesure de cylindricité au Laboratoire Commun de Métrologie du Laboratoire national de métrologie et d’essais – Conservatoire national des arts et métiers.L’appareil a été équipé de 19 sondes à résistance de platine raccordées à une référence nationale afin d’étudier l’influence sur son comportement des perturbations thermiques générées par des sources de chaleur internes et externes. L’investigation de l’influence de ces perturbations sur les mesures réalisées avec des capteurs de déplacement capacitifs a également été menée. Les perturbations thermiques internes simulant les puissances dissipées par les éléments de guidage mécaniques ont été générées par l’intermédiaire de trois films chauffants. Une modélisation par éléments finis du dispositif expérimental a été réalisée et les résultats numériques comparés à des résultats expérimentaux réalisés dans les mêmes conditions. Les écarts obtenus, de l’ordre de 0,1 °C, sont trop élevés pour que ce modèle soit adopté pour l’élaboration d’une régulation thermique en temps réel. Dans la suite, un modèle réduit a été développé à partir des données expérimentales à l’aide de la méthode d’identification modale (MIM). Le résidu obtenu lors de la comparaison des résultats issus de ce modèle et expérimentalement est inférieur à 0,003 °C. Finalement, une régulation thermique à mieux que le centième de degré a été mise en oeuvre en utilisant une commande prédictive associée à un filtre de Kalman

    Méthodes de conception intégrée "dimensionnement-gestion" par optimisation d'un micro-réseau avec stockage

    Get PDF
    L’augmentation de la consommation pour soutenir la croissance, le souci de réduction des gaz à effet de serre et les avancées technologiques ont favorisé le développement des sources d’énergie renouvelables depuis les années 90. L’implantation de ces générateurs décentralisés a progressivement modifié l’architecture du réseau en passant d’un modèle vertical à une situation davantage clusterisée. Ce réseau maillé voit ainsi apparaitre de nouveaux acteurs, à la fois producteurs et consommateurs (en anglais, les « prosumers»). Pour ce type de structures, la stratégie classique actuelle consiste à acheter l'ensemble de l'énergie consommée alors que la totalité de la production est vendue séparément à des tarifs intéressants. Avec les progrès réalisés sur les différentes technologies de stockage, de nouveaux degrés de liberté apparaissent et des opérations plus intelligentes deviennent possibles. L’objet de l’étude est un microréseau comprenant un générateur photovoltaïque et un consommateur tertiaire associés à un moyen de stockage. Deux technologies sont envisagées avec des volants d’inertie dans un premier temps et une batterie électrochimique (Li-ion) par la suite. Les domaines d’étude relatifs à ce type de système sont la gestion énergétique par planification, la commande temps réel et le dimensionnement. Les travaux de cette thèse se concentrent d’abord sur la problématique de gestion par optimisation des flux d’énergie. Différents algorithmes sont ainsi utilisés et comparés pour planifier le fonctionnement du microréseau. L’objectif est de diminuer la facture énergétique en tenant compte des données de consommation et production mais également des politiques tarifaires en vigueur et d’éventuelles contraintes de fonctionnement imposées par le fournisseur d’énergie. Dans un second temps la problématique de dimensionnement est abordée avec une démarche de conception optimale intégrant la boucle de gestion dès la phase de design. Nous montrons plus particulièrement comment l’adéquation entre les méthodes d’optimisation utilisées et le modèle du microréseau employé peut permettre la réduction significative des temps de calcul. Une configuration optimale du microréseau, valable sur des horizons temporels longs intégrant les alternances saisonnières, peut finalement se dégager. Les travaux se concluent sur une phase d’analyse avec des dimensionnements établis pour différents contextes tarifaires. Le but est de dégager des domaines permettant de valoriser et justifier l’installation d’un moyen de stockage qui s’avère indispensable pour soutenir le développement des sources d’énergies renouvelables et assurer la transition énergétique. ABSTRACT : To face the increasing demand of electrical power in compliance with the liberalization of the electricity market and the need of reducing CO2 emissions, many distributed energy resources have emerged and especially the generation systems that utilize renewable energy sources. In the nearfuture, the grid could be described as an aggregation of several microgrids both consumer and producer. For those "prosumers", a classical strategy consists in selling all the highly subsidized production at important prices while all consumed energy is purchased. Smarter operations now become possible with developments of energy storage technologies and evolving prices policies. The microgrid considered in the thesis is composed of an industrial load and a photovoltaic generator associated to an energy storage. Two technologies are considered with high speed flywheels on one hand and a Li-ion electrochemical battery on the other. The common study referring to such systems allude to the optimal scheduling, the real-time management and the sizing methodology. Firstly in the thesis, the optimal power flow dispatching is performed using various algorithms. Those operations aim at reducing the electrical bill taking account of consumption and production forecasts as well as the different fares and possible constraints imposed by the power supplier. Then the design strategy is investigated. The approach consists in simultaneously integrating the energy management and the sizing of the system. We particularly underline the complexity of the resulting optimization problem and how it can be solved using suitable optimization methods in compliance with relevant models of the microgrid. We specifically show the reduction of the computational time allowing the microgrid simulation over long time durations in the optimization process in order to take seasonal variations into account. In the last part a cost analysis is performed, and different design are computed depending on the prices policies. The goal is to determine a financial context that would encourage the deployment of storage systems that are necessary to favor the development of intermittent renewable energy sources

    Segmentation d'image par approche multiobjectif basée sur l'optimisation par essaim particulaire

    No full text
    International audienceDans ce travail, nous proposons une méthode de segmentation d'image basée sur l'optimisation multiobjectif par essaim particulaire. Vu la complexité du problème de la segmentation d'image et la variabilité des données, un critère unique est en général insuffisant pour appréhender l'ensemble des caractéristiques et informations contenues dans l'image. Pour y remédier, nous proposons d'utiliser deux critères de segmentation complémentaires. Le premier critère est celui de la classification par c-moyennes floues amélioré qui exploite l'information spatiale de l'image et la distance de Mahalanobis. Le deuxième critère prend en compte la position des contours des objets dans l'image segmentée et le nombre de composantes connexes. Les deux critères sont optimisés simultanément à l'aide de l'algorithme d'optimisation par essaim particulaire. Le résultat de l'optimisation est un ensemble de solutions de segmentation réparties sur le front de Pareto où aucune des solutions n'est meilleure qu'une autre pour les deux critères. La solution optimale de segmentation est ensuite construite en fusionnant les solutions du front de Pareto. Pour ce faire, les pixels qui sont affectés à la même classe par l'ensemble des solutions du front sont élus pour être affectés à l'image finale. Les pixels mal classés restants sont ensuite remplacés par propagation des pixels voisins bien classés. La méthode proposée a été testée sur une base d'images composée d'images simulées, images IRM simulées et images IRM réelles. Comparée expérimentalement à plusieurs méthodes de segmentation de la littérature basées sur la classification floue, la méthode proposée est celle qui obtient les meilleurs scores de segmentation
    corecore