475 research outputs found

    De l'ordonnancement déterministe à l'ordonnancement distribué sous incertitudes

    Get PDF
    Ce travail présente l'étude de deux types de problèmes d'ordonnancement. Le premier concerne la résolution centralisée et exacte d'un problème à une machine, le second, la résolution distribuée et coopérative d'un problème job shop où chaque machine est assimilée à un acteur possédant sa propre autonomie décisionnelle. Pour ces deux problèmes, des conditions de dominance sont utilisées, dans le premier cas, dans le but de limiter la complexité algorithmique liée à la recherche de solutions admissibles ou optimales, dans le deuxième cas, pour accroître la capacité de chaque acteur à résister aux incertitudes liées aux fluctuations de son environnement. Dans un premier temps, un théorème proposé dans les années quatre-vingt est rappelé, qui, considérant le problème à une machine, permet de caractériser un ensemble de solutions dominantes. Sur la base de ce théorème, nous proposons ensuite de nouvelles conditions analytiques et numériques de dominance permettant de restreindre encore davantage l'ensemble des solutions dominantes. En exploitant ces résultats, des formulations mathématiques originales et efficaces sont présentées, sous forme de programmes linéaires en nombres entiers, pour la modélisation et la résolution du problème à une machine en s'intéressant tour à tour au critère de minimisation du plus grand retard algébrique, puis à celui de minimisation du nombre de travaux en retard. Dans un deuxième temps, nous étudions le problème d'ordonnancement job shop dans un environnement multi-acteur, chaque acteur gérant l'activité d'une machine. Tenant compte de l'autonomie de décision et des objectifs propres de chacun, l'ordonnancement est envisagé sous la forme d'une fonction distribuée où la solution globale résulte d'une coopération entre les différents acteurs, cette solution pouvant évoluer dans le temps au fur-et-à-mesure des prises de décision locales. Ainsi, chaque acteur construisant localement sa propre organisation et n'ayant qu'une connaissance partielle et incertaine de l'organisation des autres, nous proposons que les organisations locales soient construites de façon robuste. Pour cela nous montrons comment, à l'aide des résultats de dominance, maintenir au niveau de chaque acteur un ensemble dominant de solutions ayant une performance au pire bornée. Une nouvelle approche d'ordonnancement est ensuite proposée où les acteurs négocient deux à deux, de façon distribuée, de façon à converger progressivement vers des décisions assurant un compromis satisfaisant entre l'optimisation des objectifs locaux et des objectifs globaux.This work presents the study of two scheduling problems. The former concerns the exact and centralised resolution of a single machine problem, and the latter, the distributed and cooperative resolution of a job shop, each machine being viewed as an actor having its own decision autonomy. For both problems, dominance conditions are used, in the first case, in order to reduce the algorithmic complexity for seeking feasible or optimal solutions, and in the second case, to increase the ability of each actor to face uncertainties. In the first part, a theorem, stated in the early eighties, is recalled that allows to characterize a set of dominant solutions, considering a one-machine sequencing problem. On the basis of the theorem, new analytical and numerical dominance conditions are established that allow to tighten the set of dominant sequences. Then original and efficient mathematical formulations, in the form of integer linear programs, are proposed for modelling and solving single machine problems. Two kinds of criterion are considered : the minimization of the maximum lateness and the minimization of the number of tardy jobs. In the second part, the job shop scheduling problem is studied, using a multi-actor framework, assuming that each actor manages one machine. Taking into account the decisional autonomy and the own objectives of each actor, scheduling is seen as a distributed and dynamic function, where the global solution emerges from negotiations among the actors. We assume that each actor builds up its own local organisation in a robust way, having an imprecise and partial knowledge of the other actor's organisation. We particularly show how maintaining on each actor a set of dominant job sequences so that the worst performance can be bounded. Then a new scheduling approach is sketched where actors initiate point-to-point negotiation, in a distributed way, so as to progressively converge toward trade-off decisions that balance local and global objectives

    Contribution à l'ordonnancement post-pronostic de plates-formes hétérogènes et distribuées : approches discrète et continue.

    Get PDF
    This thesis addresses the problem of maximizing the production horizon of a heterogeneousdistributed platform composed of parallel machines and which has to provide a global productionservice. Each machine is supposed to be able to provide several throughputs corresponding todifferent operating conditions. It is assumed that using a machine with degraded performancescompared to nominal ones allows to extend its useful life before maintenance. The study fallswithin the decisional step of PHM (Prognostics and Health Management), in which a prognosticsphase allows to determine remaining useful lives of machines. The optimization problem consistsin determining the set of machines to use at each time and a running profile for each of them so asto maximize the production horizon before maintenance. Machines running profiles are definedon the basis of two models. First one depicts the behavior of machines used with a discretenumber of performances. For this case, the problem complexity is first studied considering manyvariants of the optimization problem. Several optimal and sub-optimal resolution methods areproposed to deal with the scheduling problem. Several sub-optimal resolution methods are thenproposed for the second model, which applies to machines whose throughput rate can varycontinuously between two bounds. These research works allow to determine the time beforefailure of a system on the basis of its components remaining useful lives.Cette thèse propose une approche originale d’ordonnancement de la production de plates-formesde machines hétérogènes et distribuées, utilisées en parallèle pour fournir un service globalcommun. L’originalité de la contribution réside dans la proposition de modifier les conditionsopératoires des machines au cours de leur utilisation. Il est supposé qu’utiliser une machine avecdes performances dégradées par rapport à un fonctionnement nominal permet d’allonger sa duréede vie avant maintenance. L’étude s’inscrit dans la partie décisionnelle du PHM (Prognostics andHealth Management), au sein duquel une étape de pronostic permet de déterminer les durées devie résiduelles des machines. Le problème d’optimisation consiste à déterminer à chaque instantl’ensemble des machines à utiliser et un profil de fonctionnement pour chacune d’entre ellesde manière à maximiser l’horizon de production de la plate-forme avant maintenance. Deuxmodèles sont proposés pour la définition des profils de fonctionnement. Le premier traduit lecomportement à l’usure de machines pouvant fournir un nombre discret de performances. Pource cas, la complexité de plusieurs variantes du problème d’optimisation est étudiée et plusieursméthodes de résolution optimales et sous-optimales sont proposées pour traiter le problèmed’ordonnancement. Plusieurs méthodes de résolution sous-optimales sont ensuite proposées pourle second modèle, qui s’applique à des machines dont le débit peut varier de manière continueentre deux bornes. Ces travaux permettent de déterminer la durée maximale d’utilisation avantdéfaillance d’un système à partir des durées de vie résiduelles des équipements qui le composent

    Étude du problème de job shop avec un convoyeur

    Get PDF
    La densité des échanges commerciaux, ainsi que l'intensification de la concurrence qui a suivi, a conduit les entreprises à rationaliser leurs activités, particulièrement celles nécessitant des activités d'ordonnancement. La théorie de l'ordonnancement est une discipline bien établie de l'optimisation combinatoire. Son champ d'investigation concerne les problèmes d'allocation, dans le temps, d'un ensemble limité de ressources par un ensemble de tâches, afin d'optimiser un ou plusieurs critères donnés. Sa popularité vient du fait qu'une multitude de situations peut être ramenée à cette problématique d'ordonnancement. Cela est dû, en grande partie, à la richesse de l'interprétation que peuvent avoir les termes ressources et tâches. Nous pouvons citer, entre autres, des applications dans l'industrie (réalisation de produits sur des machines), la santé (confection d'horaires), l'informatique (exécution de processus). Dans ce mémoire de maîtrise, nous nous intéressons spécifiquement aux problèmes d'ordonnancement d'ateliers de production. Ainsi, notre étude porte sur l'ordonnancement de n tâches (jobs) sur m ressources (machines) dans un environnement de type job shop. Dans le modèle de job shop, chaque tâche doit passer sur l'ensemble des machines, à chaque fois pendant un temps connu à l'avance, et selon également un ordre donné. Le critère, que nous avons choisi pour évaluer la qualité d'une solution, est celui du makespan (la durée totale d'accomplissement des « tâches). Pour rester proche de la réalité industrielle, notre modèle incorpore un convoyeur chargé de transporter les tâches semi-finies d'une machine à une autre. Ce modèle peut être illustré par l'exemple d'une entreprise d'assemblage d'ordinateurs. Les machines assemblent divers éléments (cartes mères, disques durs, barrettes mémoires, etc) dans un boîtier. Un convoyeur déplace le boîtier entre les différentes machines. Suivant les spécifications de chaque ordinateur, chaque boîtier suit un chemin particulier. En effet, si un client souhaite acheter un boîtier contenant uniquement la carte-mère et l'alimentation, ce boîtier ne passera que sur deux machines. Nous nous sommes restreint au problème de job shop à deux machines et un seul convoyeur. Notons que nous supposons que les deux machines possèdent des espaces de stockage de taille illimitée pour recevoir les travaux semi-finis. Notre but était au départ de trouver un algorithme polynomial pour résoudre ce problème. Or, il s'est avéré que même avec ce modèle restreint et simplifié, le problème est NP-difficile. Pour le résoudre, nous nous sommes alors tournés vers l'approche heuristique. Néanmoins, nous avons pu trouver des cas particuliers où ce problème est résoluble en un temps polynomial. Notre démarche a été d'abord d'introduire brièvement les problèmes de la théorie de l'ordonnancement ainsi que quelques concepts de la NP-complétude, avant d'aborder les différentes approches algorithmiques de résolution des problèmes d'ordonnancement. Dans une seconde étape, la littérature relative à cette problématique a été passée en revue. Ensuite, nous avons décrit plus en détail notre modèle de job shop ainsi que son fonctionnement. Nous avons discuté de l'influence du convoyeur sur la minimisation du critère du makespan. Nous avons également proposé une borne inférieure pour ce même critère. Enfin, nous avons discuté et proposé deux approches de résolution approchée. La première est constructive : trois algorithmes, basés sur des règles de priorité, ont été conçus. Les deux premières règles sont fondées sur l'appariement des travaux et la troisième est la règle bien connue de Jackson que nous avons modifiée ; ces règles ont une complexité temporelle en O(nlogn). La seconde approche de résolution est itérative: l'algorithme de recherche avec tabous a été notre choix. Cette méthode étend à n travaux la méthode classique de résolution graphique à deux travaux. Finalement, nous avons entrepris une étude comparative de l'ensemble des algorithmes de résolution proposés. Les deux approches de résolution ont été simulées par un programme Java sur des instances générées de manière aléatoire à partir d'une distribution uniforme. Ces instances sont de tailles n ? 10, 20, 50 et 200. Les temps d'exécution et de transport sont compris entre 0 et 50 unités de temps. La borne inférieure a été utilisée pour évaluer la qualité des solutions générées par chacune de ces heuristiques. Cette étude a montré que, parmi les algorithmes basés sur les règles de priorité, celui de Jackson donne des solutions de meilleure qualité. L'algorithme de recherche avec tabous donne, en moyenne, de meilleures solutions que les algorithmes basés sur les règles de priorité. Toutefois, les temps de calculs de cette approche sont de loin plus importants que ceux générés par les règles de priorité, surtout lorsque la taille des problèmes devient de plus en plus grande. Nous concluons notre travail par la suggestion de nouvelles pistes à explorer pour des recherches futures

    DĂ©veloppement d'un outil informatique pour l'Ă©quilibrage de ligne dans le contexte de production mixte

    Get PDF

    Planification conjointe des activités de production et de maintenance en fonction de l'état de santé des ressources

    Get PDF
    Les systèmes de production étant devenus très développés, utilisent des procédés de plus en plus complexes, et des machines de plus en plus sophistiquées. Cependant, aussi puissantes qu’elles soient, l’état de santé des machines se dégrade avec le temps et à force de leurs utilisations. Les processus de maintenance sont donc inévitables pour un système de production, car planifier la production sans prendre en compte la maintenance entraîne éventuellement à des replanifications coûteuses. En effet, dans un but d’augmenter la productivité des entreprises, attendre que les défaillances des équipements de production se produisent pour procéder à leur maintien n'est plus une politique de maintenance appropriée car les plannings de production sont souvent perturbés à cause des arrêts imprévus des machines. De plus, les opérations de maintenance correctives, souvent effectuées en urgence, durent plus longtemps que les opérations de maintenance préventives pour lesquelles la logistique est anticipée. Pour cette raison, dans le cadre de la maintenance conditionnelle (CBM), les politiques de maintenances prédictives suscitent un intérêt croissant auprès des chercheurs car elles permettent d’anticiper les pannes en planifiant des tâches de maintenance sur les composants des équipements en fonction de leur état de santé et de leur durée de vie résiduelle prévue. En effet, les méthodes de pronostic et de gestion de la santé (PHM) récemment apparus traitent les données fournies par les capteurs de surveillance pouvant être installés dans les équipements pour fournir un outil d’aide à la décision qui permet une utilisation optimale des ressources. Cependant, ces méthodes proposées ne sont utilisées que pour la planification de la maintenance sans prendre en considération les futures utilisations des ressources pour la production. Généralement, les tâches de production et de maintenance sont planifiées séparément dans les systèmes de production réels. Ce qui mène souvent à des conflits entre ces deux fonctions, parce que les opérations de chacune sont perçues comme une source de perturbation par l’autre. Ces conflits nuisent à la productivité globale des entreprises, d’où l’intérêt de la coopération entre les gestionnaires de la production et la maintenance afin de garantir la ponctualité et la qualité de la production pour améliorer les bénéfices de l’entreprise. La planification conjointe de la production et la maintenance semble ainsi plus appropriée. Cependant, la réalisation d’une telle planification nécessite la connaissance préalable de la disponibilité des machines. Il paraît ainsi que la fusion des concepts issus de l’ordonnancement, du CBM et du PHM a le potentiel permettant une planification conjointe des tâches de production et de maintenance en fonction de l’état de santé des machines. La méthode de planification conjointe que nous proposons est basée sur les Systèmes Multi-Agents (SMA) qui nous ont permis de modéliser chaque entité du problème sous forme d’un agent autonome. Le SMA proposé dans ce travail est composé d'agents responsables des ordres de fabrication (agents clients), des machines (agents producteurs) et des ressources de maintenance (agents mainteneurs) qui communiquent entre eux à travers un tableau noir (environnement). Les agents producteurs programment les opérations de production en fonction de l'état de santé, actuel et futur de leurs machines, estimé à l'aide des techniques de PHM et font appels à des activités de maintenance lorsque l'état de santé des machines devient critique. A travers un protocole de communication entre les agents, ceux-ci arrivent à aboutir à une solution qui satisfait au mieux l'ensemble des décideurs. Notre modèle, que nous avons appelé SCEMP, est un modèle flexible, générique et distribuée qui peut être utilisé dans une grande variété de systèmes

    Programmation linéaire en nombres entiers pour l'ordonnancement cyclique sous contraintes de ressources

    Get PDF
    Un problème d'ordonnancement cyclique consiste à ordonner dans le temps l'exécution répétitive d'un ensemble d'opérations liées par des contraintes de précédence, en utilisant un nombre limité de ressources. Ces problèmes ont des applications immédiates dans les systèmes de production ou en informatique parallèle. Particulièrement, ils permettent de modéliser l'ensemble des contraintes de précédence et de ressource à prendre en compte pour l'ordonnancement d'instructions dans les processeurs de type VLIW (Very Long Instruction Word). Dans ce cas, une opération représente une instance d'une instruction dans un programme. L'ordonnancement d'instructions de boucles internes est connu sous le nom de pipeline logiciel. Le pipeline logiciel désigne une méthode efficace pour l'optimisation de boucles qui permet la réalisation en parallèle des opérations des différentes itérations de la boucle. Dans cette thèse, nous nous intéressons principalement au problème d'ordonnancement périodique qui est un cas particulier de l'ordonnancement cyclique et qui est également la base du pipeline logiciel. Le terme ordonnancement modulo désigne un ordonnancement périodique tel que l'allocation de ressources pour une opération donnée n'est pas modifiée d'une itération sur l'autre. Pour résoudre le problème, nous nous intéressons aux formulations de programmation linéaire en nombres entiers, et notamment à la résolution du problème par des techniques de séparation, évaluation, génération de colonnes, relaxation lagrangienne et des méthodes hybrides. En particulier, nous proposons des nouvelles formulations basées sur des variables binaires représentant l'exécution d'ensembles d'instructions en parallèle. Enfin, les méthodes développées ont été validées sur des jeux d'instances industrielles pour des processeurs de type VLIW.The resource-constrained modulo scheduling problem (RCMSP) is a general periodic cyclic scheduling problem, abstracted from the problem solved by compilers when optimizing inner loops at instruction level for very long instruction word parallel processors. Since solving the instruction scheduling problem at compilation phase in less time critical than for real time scheduling, integer linear programming (ILP) is a relevant technique for the RCMSP. In this work, we are interested in the methods based on the integer linear programming for the RCMSP. At first, we present a study of the two classic integer linear formulation for the RCMSP. A theoretical evidence of the equivalence between the classic formulations is shown in terms of linear programming (LP) relaxation. Secondly, based on the ILP formulations for the RCMSP, stronger formulations for the RCMSP derived from Dantzig-Wolfe decomposition are presented. In these formulations, the number of variables can be huge, for this reason, we proposed a column generation scheme to solve their LP relaxations. We propose also the heuristics methods based on the Lagragian relaxation and decomposed software pipelining. The heuristic methods search the transformation of the classic integer linear programming for the RCMSP for the performance improvement in the time for the search of solutions. All formulations are compared experimentally on problem instances generated from real data issued from the STMicroelectronics ST200 VLIW processor family

    Integrated architectures for computer vision : Automatic synthesis with three examples

    Get PDF
    Computer aided computer design is an open problem because computers are becoming more and more powerfull, more and more complex and .. smaller. We explain what "automatic (high-level) synthesis of integrated circuits" means . It is now feasible and necessary for computer vision dedicated architectures in particular. Since it requires an optimization within an ill-formalized and ill-defined design space, we describe the experimental method aiming at : 1) proving the existence of a solution for each application case, 2) finding and instanciating the optimization parameters - including the initial state -,3) effectively designing an integrated circuit and 4) redesigning the solutions for more complex architectures to still meet real-time constraints . The method is self-illustrated with three increasingly complex examples all along this paper.La construction automatique d'ordinateur assistée par ordinateur C(AO)2 est un problème ouvert parce que ceux-ci deviennent de plus en plus puissants, donc plus complexes et... plus petits. Nous expliquons ce qu'est la synthèse automatique de circuits intégrés dite de « haut niveau », technique désormais plausible et nécessaire notamment pour les architectures spécialisées en vision par ordinateur. S'agissant d'une optimisation dans un ensemble difficile à formaliser et à circonscrire nous décrivons la démarche expérimentale suivie afin de : 1) prouver l'existence d'une solution par cas d'application, 2) déterminer les paramètres de l'optimisation, dont l'état initial, et les instancier, 3) concevoir effectivement un circuit et 4) retraiter les solutions pour des architectures progressivement plus complexes n'en respectant pas moins des contraintes de temps réel. La démarche s'illustre par elle-même selon trois exemples de difficulté croissante qui jalonnent cet article

    Optimisation de l'ordonnancement par l'approche hybride basée sur les réseaux de neurones

    Get PDF
    Les problèmes d'ordonnancement se posent dans de nombreux domaines tels que la productique et l'informatique. Leur variété vient de la diversité des données, des contraintes et des critères d'optimisation qu'ils impliquent. Ce mémoire traite le problème de l'ordonnancement déterministe dans un atelier à tâches («Job shop» et cellules de production) sur la base d'une utilisation des réseaux de neurones. Ce problème est un problème d'optimisation NP-Complet lorsque le nombre de machines et de tâches est supérieur à deux. Les données sont constituées de l'ensemble des tâches à exécuter, de leurs gammes opératoires, de leurs durées ainsi que de l'ensemble des machines. Les contraintes prises en compte sont les contraintes de partage de ressources et de précédences. Les variables de décision concernent les dates de début et les dates de fin des opérations. Un critère d'optimisation est considéré, le "makespan" qui correspond à la minimisation du temps total de travail. L'utilisation des réseaux de neurones est intéressante car le parallélisme intrinsèque de ces derniers offre, a priori, une possibilité de traiter des problèmes de grandes tailles dans un temps limité. Une étude comparative des différentes approches de réseaux de neurones utilisés dans l'optimisation a été effectuée. Elle nous a permis d'apprécier les potentialités des réseaux de neurones de Hopfield dans le traitement d'une variété de problèmes d'optimisation. Notre travail a consisté ensuite à ajuster les particularités des réseaux de neurones à mettre en oeuvre pour la résolution de notre problème d'ordonnancement. Les propositions de ce mémoire sont articulées autour d'une utilisation combinée des réseaux de neurones avec un algorithme heuristique. Cette combinaison peut apporter, dans la majorité des cas, une amélioration nette de la qualité de solutions. Enfin, une des particularités fondamentales des réseaux de neurones étant la robustesse, il nous a paru intéressant de chercher dans quelle mesure il est possible d'explorer utilement cette propriété. Cette démarche nous a conduit à la proposition d'un réseau récent de Hopfield (Quantized Hopfield), qui nous permet d'obtenir les solutions optimales très fréquemment et beaucoup plus rapidement que d'autres réseaux de Hopfield
    • …
    corecore