313 research outputs found

    Programmation primale en nombres entiers pour la résolution efficace d’un problème de tournées de véhicules riche : théorie et pratique

    Get PDF
    RÉSUMÉ: Concilier enseignement théorique et réalités professionnelles ; telle est la mission de la recherche opérationnelle. Résoudre une problématique complexe avec toutes les contraintes du monde réel est d’une grande difficulté, qui requiert une méthodologie de recherche rigoureuse doublée d’une perspective d’intervention toujours présente. Concrètement, les problèmes industriels sont beaucoup plus complexes dans la réalité que ce qu’ils sont en théorie. Une bonne solution réalisable au sens mathématique n’a pas la même signification en pratique. Un bon algorithme pour l’industrie doit réunir des capabilités telles la rapidité, la fiabilité, la flexibilité et la simplicité. Le problème de tournées de véhicules (VRP : vehicle routing problem) constitue un sujet impérieux de la recherche opérationnelle. Il représente en effet la traduction mathématique d’innombrables applications de la vie courante. Nous nous emploierons à résoudre une problématique de transport prépondérante chez la majorité des prestataires de services logistiques qui, rappelons-le, sont des facilitateurs intégrés dont la mission est de gérer les opérations logistiques de plusieurs donneurs d’ordre. Ils planifient notamment la circulation d’une légion de commodités le long de réseaux logistiques très complexes. C’est dans ce contexte que les VRPs sont particulièrement riches en contraintes, et très difficiles à résoudre. Un défi qui a progressivement édifié notre projet. Après une analyse approfondie des flux et une cartographie logistique, le maillon faible de la chaîne a été identifié, en l’occurrence la livraison du dernier kilomètre. Celle-ci implique la distribution d’une marchandise variée depuis un centre de distribution urbain vers une panoplie de clients finaux (grande distribution, détaillant, particulier, etc.). Jusqu’à ce jour, les efforts se sont plutôt concentrés à modéliser ces difficultés comme un VRP riche, incluant un large spectre de contraintes endogènes (capacité, véhicules hétérogènes, fenêtres de temps, etc.) et exogènes (règles de la profession, options de livraison, compatibilité, etc.). Toutefois, une solution ne peut être réellement implémentable que si elle est en concordance avec les configurations opérationnelles et managériales. Les méthodes de résolution des VRPs sont scindées en des méthodes heuristiques, et des méthodes exactes. Les méthodes heuristiques parviennent généralement à réaliser un bon compromis entre la qualité et le coût de la solution, mais tout en exigeant un effort substantiel pour raffiner les valeurs des paramètres. En contrepartie, les méthodes exactes garantissent l’optimalité, mais peinent à résoudre les variantes riches du VRP. L’examen de l’état de l’art montre que, à l’encontre des méthodes exactes de Branch-and-Price, les méthodes primales exactes sont très peu abordées. La présente thèse serait la première implémentation des méthodes primales exactes dans un contexte de VRP riche et réel. Nous avons utilisé et adapté un algorithme de génération de colonnes en nombres entiers dit ICG (ICG : integral column generation) qui combine un algorithme primal dans un schéma de génération de colonnes. Composé de quatre modules séquentiels, chacun coopère pour trouver une solution entière optimale ou presque optimale, sans avoir recours aux méthodes traditionnelles tels le branchement ou l’ajout des coupes. Cette capabilité est l’un des facteurs clés de réussite, qui a permis la résolution efficace d’un problème réel et difficile. Dans la première contribution, nous avons réussi une première implémentation de ICG dans le cadre d’un VRP réel avec fenêtres de temps, flotte hétérogène interne et externe, contraintes de compatibilité de sites et un éventail de règles de métiers. Le problème maître (PM) a été formulé comme un problème de partitionnement d’ensembles SPP (SPP : set partitioning problem), et le sous-problème (SP) a été modélisé comme un problème de plus court chemin avec contraintes de ressources, modélisé sur un graphe orienté cyclique. Dans ICG, le problème maître restreint (PMR) est résolu à l’aide de l’algorithme primal ISUD (ISUD : integral simplex using decomposition), tandis que le SP est résolu à l’aide de la programmation dynamique. ISUD décompose le PMR en deux sous-problèmes. Le problème réduit (PR) contient les colonnes compatibles avec la solution entière courante S, et cherche une solution entière améliorante. D’autre part, le problème complémentaire (PC) contient les colonnes incompatibles avec S et vise à trouver des directions de descente entières. Littéralement, une colonne est dite compatible avec S si elle peut s’écrire comme combinaison linéaire des colonnes de la solution, sinon elle est dite incompatible. Les résultats de l’expérimentation, conduite sur sept journées opérationnelles, ont fait surgir aussi bien le potentiel d’amélioration de la méthode, que la nécessité de répondre à des questions relevant du fondement théorique. Dans la deuxième contribution, la performance de ICG a été hissée en opérant deux stratégies d’amélioration : (i) au niveau du SP, nous avons proposé une modélisation intelligente et réaliste du réseau de distribution cyclique. Ceci a été performé grâce à une analyse affûtée des caractéristiques des clients et de l’historique des livraisons. Cette amélioration a permis d’économiser une partie considérable du temps investi pour résoudre les SPs. (ii) D’autre part, nous avons évité d’utiliser le branchement en implémentant une stratégie dite de multiphase, qui consiste à résoudre le PC uniquement pour les colonnes qui se trouvent à une certaine distance de la solution courante. Dans la majorité des itérations, le PC trouve directement des directions qui mènent vers des solutions entières. Pour le reste, le module de recherche de voisinage permet souvent d’aboutir rapidement à une solution entière dans le voisinage de la solution courante. Finalement, vu son éventuelle influence sur la performance de l’algorithme,il était crucial d’analyser, aussi bien théoriquement qu’empiriquement, la qualité de la solution duale que nous utilisons. La performance confirmée de l’algorithme a été démontrée sur 30 instances réelles d’un VRP riche, incluant jusqu’à 199 clients, et ce en comparaison avec une méthode duale fractionnaire de type Branch-and-Price. Tous les résultats ont fait l’objet de tests rigoureux et dont la réalisabilité a été testée et validée en pratique. À travers cette thèse, notre objectif ultime est de proposer non seulement un algorithme efficace, mais également la stratégie propice pour le mettre en place dans la pratique. La troisième contribution se veut d’apporter une brique manquante à la méthodologie de résolution des VRPs dans le milieu pratique. Nous avons capitalisé notre expérience dans une étude de cas réelle, qui étudie la problématique de VRP sous la perspective d’un prestataire logistique intégré. La stratégie expliquée et les outils exposés constituent un guide utile pour mener à bien la résolution d’un VRP en pratique tout en mettant à jour un savoir-faire bienvenu auprès de la communauté des chercheurs et des étudiants. Dans la dernière contribution, nous avons présenté une étude initiale portant sur deux pistes d’amélioration susceptibles de renforcer la performance de la méthode primale ICG. L’objectif ultime serait d’implémenter une technique efficace de telle sorte que la recherche des solutions entières se fasse dans des voisinages potentiels, et ce, sans pénaliser le temps total de calcul. Dans un premier temps, nous avons implémenté une première approche dite ZOOM, où le processus de recherche est guidé par une direction de descente fractionnaire. Les résultats numériques préliminaires ont clairement montré que ZOOM a considérablement amélioré la performance de ICG. Ceci nous a conduits à proposer une seconde approche, qui consiste à remplacer ZOOM par une heuristique. Dans un premier temps, nous avons testé la viabilité d’une heuristique hybride adaptative, dite H-ALNS (H-ALNS : Hybrid Adaptive Large Neighbourhood Search) sur nos instances. Les résultats obtenus ont révélé que l’heuristique n’est relativement performante que sur les petites instances. Ce constat nous a incités à proposer des dispositifs adéquats afin de réussir l’incorporation de H-ALNS à ICG. Ces techniques exploitent les informations de nature duale et primale pour décider des arcs à éliminer. En effet, les arcs coûteux, longs ou rarement empruntés seraient dynamiquement enlevés. L’implémentation d’une telle stratégie d’hybridation est une piste de recherche qui est en cours d’exploration. Les résultats des contributions réalisées jusqu’ici témoignent de la viabilité de la piste de recherche explorée dans le cadre de ce projet de recherche. Avec ces aboutissements, nous avons droit de penser que la programmation primale en nombres entiers est un paradigme facilement transférable en pratique, qui mérite d’être amplement employé afin de résoudre efficacement des VRPs riches.----------ABSTRACT: The mission of operational research is to reconcile theoretical knowledge and practical business realities. Solving a complex problem with real-world constraints is very difficult, requiring a rigorous research methodology coupled with an unfailing intervention perspective. In practice, industrial problems are much more complex than they are in theory. A good feasible solution in the mathematical sense is not the same in practice. A practical algorithm for industry must combine capabilities such as speed, reliability, adaptability and simplicity. The vehicle routing problem (VRP) is a compelling topic for operational research. It represents the mathematical description of countless applications in everyday life. We aim to solve a major transport problem arising within most logistics service providers. The latter have the mission to manage the logistics operations of several contractors. In particular, they schedule the routing of a huge number of commodities across extremely complex logistics networks. In this context, VRPs are particularly rich in constraints, and very difficult to tackle. Such a challenge has gradually built up our project. After an extensive flow analysis and logistics mapping, the weak leg of the value chain was identified, namely the last mile delivery. This involves the distribution of a variety of goods from urban distribution centers to a range of end consumers (supermarkets, retailers, individuals, etc.). To date, efforts have tended to focus on modeling this problem as a rich VRP, encompassing a wide range of constraints such as time windows, heterogeneous fleet, business rules, delivery options, and compatibility. Nevertheless, a proper solution can be implemented only if it is in line both with operational and managerial configurations. The methods for solving VRPs are split into heuristic methods and exact methods. Heuristic methods generally manage to achieve a good compromise between the quality and the cost of the solution, but require a substantial effort to refine the parameters values. On the other hand, exact methods guarantee optimality, but are struggling to solve the rich variants, and are restricted to tractable problems. Examination of the state of the art showed that, in contrast to dual fractional methods, very little attention has been devoted to exact primal methods. The present thesis would be the first successful deployment of exact primal methods in a rich and real VRP context. We have used and adapted the integral column generation (ICG) algorithm, which combines a primal algorithm in a column generation scheme. Composed of four modules, each one cooperates to find an optimal or near-optimal integer solution, without using traditional methods such as branching or adding cuts. This capability is one of the key success factors, which enabled the effective resolution of a difficult real-world problem. In the first contribution, we successfully performed a first implementation of ICG in the context of a real VRP problem with time windows, internal and external heterogeneous fleet, site compatibility constraints and a range of business rules. The master problem was formulated as a set partitioning problem (SPP), and the sub-problem (SP) was modeled as a shortest path problem with resource constraints, modeled on a cyclic oriented graph. ICG is a sequential algorithm where the restricted master problem (RMP) is solved using the integral simplex using decomposition (ISUD) algorithm, while the SP is solved using dynamic programming. ISUD decomposes the RMP into two sub-problems. The complementary problem (CP) contains the incompatible columns, and aims at finding integer descent directions. On the other hand, the reduced problem (RP) deals with the compatible columns and looks for an improving integer solution. Literally, a column is said to be compatible with a solution S if it can be written as a linear combination of its columns, otherwise it is said to be incompatible. The computational results, conducted over seven operational days, highlighted both the potential for improvement of the method and the need to address theoretical underlying issues. In the second contribution, ICG’s performance was enhanced by operating two improvement strategies: (i) at the SP level, we proposed an intelligent and realistic modeling of the cyclic distribution network. This was achieved through a careful analysis of the customers’ characteristics and the historical delivery records. This improvement saved a considerable amount of time invested in solving the SPs. On the other hand, (ii) we avoided using branching by implementing a so-called multiphase strategy, which consists in solving the CP only for columns which are at a specific distance from the current solution. In the majority of iterations, the CP directly found directions leading to integer solutions. For the rest, the Neighborhood Search module generally leads quickly to an integer solution in the neighborhood of the current solution. Finally, given its possible impact on the performance of the algorithm, it was crucial to analyze, both theoretically and empirically, the quality of the dual solution we have used. The well-proven performance of the algorithm was demonstrated on 30 real instances of a rich VRP, with up to 199 clients, in comparison with a Branch-and-Price method. All results have been carefully tested and practically validated for feasibility. Through this thesis, our main purpose is to propose not only an efficient algorithm, but also the appropriate strategy to put it into practice. The third contribution aims to provide a methodology of solving VRPs in the practical environment. We have capitalized on our experience through a real-life case study, which explores the problem of VRP from the perspective of an integrated logistics provider. The strategy outlined and the described tools provide a useful guide to successfully resolve a VRP in practice, while at the same time updating a know-how that is welcomed by the research community and its students. In the last contribution, we presented an introductory study for further improvements to enhance the performance of the primal ICG method. The idea is to implement an efficient technique so that the search for integer solutions is conducted in potential neighborhoods, yet without penalizing the total computing time. As a first step, we have deployed a first technique called ZOOM, where the search process is guided by a fractional descent direction. Preliminary numerical results clearly showed that ZOOM has significantly improved ICG performance in terms of computing time. Next, we applied a hybrid adaptive heuristic called H-ALNS (H-ALNS: Hybrid Adaptive Large Neighbourhood Search). To begin with, we tested the viability of the heuristic on our instances. The results achieved then prompted us to consider a suitable hybridization strategy, offering a good compromise between the heuristic’s properties and those of an exact primal method. This subject is still an ongoing research topic. The results of the contributions made so far testify to the viability of the research topic that was explored in this thesis. Thus, we believe that integer primal programming paradigm is easily transferable in practice and that merits to be widely employed in solving rich VRPs models

    Efficient reformulations for deterministic and choice-based network design problems

    Full text link
    La conception de réseaux est un riche sous-domaine de l'optimisation combinatoire ayant de nombreuses applications pratiques. Du point de vue méthodologique, la plupart des problèmes de cette classe sont notoirement difficiles en raison de leur nature combinatoire et de l'interdépendance des décisions qu'ils impliquent. Ce mémoire aborde deux problèmes de conception de réseaux dont les structures respectives posent des défis bien distincts. Tout d'abord, nous examinons un problème déterministe dans lequel un client doit acquérir au prix minimum un certain nombre d'unités d'un produit auprès d'un ensemble de fournisseurs proposant différents coûts fixes et unitaires, et dont les stocks sont limités. Ensuite, nous étudions un problème probabiliste dans lequel une entreprise entrant sur un marché existant cherche, en ouvrant un certain nombre d'installations parmi un ensemble de sites disponibles, à maximiser sa part espérée d'un marché composé de clients maximisant une fonction d'utilité aléatoire. Ces deux problèmes, soit le problème de transport à coût fixe à un puits et le problème d'emplacement d'installations compétitif basé sur les choix, sont étroitement liés au problème du sac à dos et au problème de couverture maximale, respectivement. Nous introduisons de nouvelles reformulations prenant avantage de ces connexions avec des problèmes classiques d'optimisation combinatoire. Dans les deux cas, nous exploitons ces reformulations pour démontrer de nouvelles propriétés théoriques et développer des méthodes de résolution efficaces. Notre nouvel algorithme pour le problème de transport à coûts fixes à un puits domine les meilleurs algorithmes de la littérature, réduisant le temps de résolution des instances de grande taille jusqu'à quatre ordres de grandeur. Une autre contribution notable de ce mémoire est la démonstration que la fonction objectif du problème d'emplacement d'installations compétitif basé sur les choix est sous-modulaire sous n'importe quel modèle de maximisation d’utilité aléatoire. Notre méthode de résolution basée sur la simulation exploite cette propriété et améliore l'état de l'art pour plusieurs groupes d'instances.Network design is a rich subfield of combinatorial optimization with wide-ranging real-life applications. From a methodological standpoint, most problems in this class are notoriously difficult due to their combinatorial nature and the interdependence of the decisions they involve. This thesis addresses two network design problems whose respective structures pose very distinct challenges. First, we consider a deterministic problem in which a customer must acquire at the minimum price a number of units of a product from a set of vendors offering different fixed and unit costs and whose supply is limited. Second, we study a probabilistic problem in which a firm entering an existing market seeks, by opening a number of facilities from a set of available locations, to maximize its expected share in a market composed of random utility-maximizing customers. These two problems, namely the single-sink fixed-charge-transportation problem and the choice-based competitive facility location problem, are closely related to the knapsack problem and the maximum covering problem, respectively. We introduce novel model reformulations that leverage these connections to classical combinatorial optimization problems. In both cases, we exploit these reformulations to prove new theoretical properties and to develop efficient solution methods. Our novel algorithm for the single-sink fixed-charge-transportation problem dominates the state-of-the-art methods from the literature, reducing the solving time of large instances by up to four orders of magnitude. Another notable contribution of this thesis is the demonstration that the objective function of the choice-based competitive facility location problem is submodular under any random utility maximization model. Our simulation-based method exploits this property and achieves state-of-the-art results for several groups of instances

    Iterative restricted space search : a solving approach based on hybridization

    Get PDF
    Face à la complexité qui caractérise les problèmes d'optimisation de grande taille l'exploration complète de l'espace des solutions devient rapidement un objectif inaccessible. En effet, à mesure que la taille des problèmes augmente, des méthodes de solution de plus en plus sophistiquées sont exigées afin d'assurer un certain niveau d 'efficacité. Ceci a amené une grande partie de la communauté scientifique vers le développement d'outils spécifiques pour la résolution de problèmes de grande taille tels que les méthodes hybrides. Cependant, malgré les efforts consentis dans le développement d'approches hybrides, la majorité des travaux se sont concentrés sur l'adaptation de deux ou plusieurs méthodes spécifiques, en compensant les points faibles des unes par les points forts des autres ou bien en les adaptant afin de collaborer ensemble. Au meilleur de notre connaissance, aucun travail à date n'à été effectué pour développer un cadre conceptuel pour la résolution efficace de problèmes d'optimisation de grande taille, qui soit à la fois flexible, basé sur l'échange d'information et indépendant des méthodes qui le composent. L'objectif de cette thèse est d'explorer cette avenue de recherche en proposant un cadre conceptuel pour les méthodes hybrides, intitulé la recherche itérative de l'espace restreint, ±Iterative Restricted Space Search (IRSS)>>, dont, la principale idée est la définition et l'exploration successives de régions restreintes de l'espace de solutions. Ces régions, qui contiennent de bonnes solutions et qui sont assez petites pour être complètement explorées, sont appelées espaces restreints "Restricted Spaces (RS)". Ainsi, l'IRSS est une approche de solution générique, basée sur l'interaction de deux phases algorithmiques ayant des objectifs complémentaires. La première phase consiste à identifier une région restreinte intéressante et la deuxième phase consiste à l'explorer. Le schéma hybride de l'approche de solution permet d'alterner entre les deux phases pour un nombre fixe d'itérations ou jusqu'à l'atteinte d'une certaine limite de temps. Les concepts clés associées au développement de ce cadre conceptuel et leur validation seront introduits et validés graduellement dans cette thèse. Ils sont présentés de manière à permettre au lecteur de comprendre les problèmes que nous avons rencontrés en cours de développement et comment les solutions ont été conçues et implémentées. À cette fin, la thèse a été divisée en quatre parties. La première est consacrée à la synthèse de l'état de l'art dans le domaine de recherche sur les méthodes hybrides. Elle présente les principales approches hybrides développées et leurs applications. Une brève description des approches utilisant le concept de restriction d'espace est aussi présentée dans cette partie. La deuxième partie présente les concepts clés de ce cadre conceptuel. Il s'agit du processus d'identification des régions restreintes et des deux phases de recherche. Ces concepts sont mis en oeuvre dans un schéma hybride heuristique et méthode exacte. L'approche a été appliquée à un problème d'ordonnancement avec deux niveaux de décision, relié au contexte des pâtes et papier: "Pulp Production Scheduling Problem". La troisième partie a permit d'approfondir les concepts développés et ajuster les limitations identifiées dans la deuxième partie, en proposant une recherche itérative appliquée pour l'exploration de RS de grande taille et une structure en arbre binaire pour l'exploration de plusieurs RS. Cette structure a l'avantage d'éviter l'exploration d 'un espace déjà exploré précédemment tout en assurant une diversification naturelle à la méthode. Cette extension de la méthode a été testée sur un problème de localisation et d'allocation en utilisant un schéma d'hybridation heuristique-exact de manière itérative. La quatrième partie généralise les concepts préalablement développés et conçoit un cadre général qui est flexible, indépendant des méthodes utilisées et basé sur un échange d'informations entre les phases. Ce cadre a l'avantage d'être général et pourrait être appliqué à une large gamme de problèmes

    Machine learning-driven hybrid optimization based on decision diagrams

    Get PDF
    RÉSUMÉ: Les problèmes d’optimisation combinatoire se posent dans de nombreux domaines des mathématiques et de l’informatique, ainsi que dans des applications telles que l’ordonnancement et la planification. Malgré des décennies de développement des différentes technologies d’optimisation, certains problèmes combinatoires restent encore difficiles à résoudre. Le développement d’outils d’optimisation génériques pour résoudre ces problèmes difficiles est donc un domaine de recherche actif et continu. Dans cette thèse, nous proposons de nouveaux mécanismes d’optimisation hybrides qui exploitent les avantages complémentaires de différents paradigmes, à savoir, (i) l’optimisation basée sur les diagrammes de décision (ODD), (ii) la programmation en nombres entiers (PNE), et (iii) l’apprentissage automatique (AA) pour améliorer les méthodes d’optimisation. Dans une première contribution, nous explorons l’utilisation de l’AA pour discriminer la difficulté des instances uniquement en fonction de caractéristiques spécifiques du problème. Nous montrons que l’AA peut effectivement révéler des patrons cachés sur le problème qui rendent sa résolution facile ou difficile par un solveur de PNE. De plus, les fonctions apprises (classificateurs) se révèlent utiles pour fournir des informations au solveur de PNE afin d’ajuster sa configuration et d’augmenter sa performance. Deuxièmement, nous proposons une approche d’optimisation hybride en combinant l’ODD et la PNE. Nous nous appuyons sur le rôle que les diagrammes de décision (DD) de taille limitée peuvent jouer en tant qu’arbre de recherche. De plus, nous exploitons la machinerie très developpée des solveurs PNE pour concevoir de nouveaux mécanismes permettant d’explorer, de manière collaborative, l’espace de solution. En outre, l’AA est utilisé pour améliorer les performances du solveur hybride en fournissant des informations utiles lors de l’exploration. Les expériences de calcul montrent que si une structure appropriée est révélée, l’approche intégrée est supérieure aux solveurs basées soit uniquement sur les DD, soit sur la PNE. Enfin, dans une troisième contribution, une nouvelle représentation du problème basée sur les DD est proposée pour le problème quadratique du stable maximum, une version plus difficile et non linéaire du problème du stable maximum. De plus, un algorithme hybride ODD-PNE est étendu en considérant les fonctionnalités de programmation quadratique d’un solveur PNE et une intégration plus étroite de l’AA pour guider l’exploration de l’espace de solution. L’algorithme proposé est plus performant qu’un solveur basé sur la programmation semi-définie et deux solveurs PNE commerciaux majeurs.----------ABSTRACT: The discrete and finite nature of combinatorial optimization problems arises in many areas of mathematics and computer science as well as in applications such as scheduling and planning.Despite decades of development and remarkable speedups in general-purpose solvers, some combinatorial problems are still difficult to be solved. The design of generic optimization solvers to tackle such challenging problems is a continuous and active research area. In this dissertation, we propose novel hybrid optimization mechanisms that exploit complementary strengths from different paradigms. The integrated mechanisms leverage (i) the decision diagram-based optimization (DDO) solving approach, (ii) a more mature technology such as mixed-integer programming (MIP), and, finally, (iii) the use of machine learning (ML) to enhance optimization methods. In a first contribution, we explore the use of ML for combinatorial optimization. We employ a learning framework to discriminate instance hardness as a function of problem-specific features. We show that ML can effectively reveal hidden patterns that make the problem either easy or difficult to be solved through a MIP solver. Moreover, the trained classifiers prove useful to adjust the MIP solver configuration and boost the performance. Second, we propose a hybrid optimization approach combining DDO and MIP. We rely on the role that limited-size DDs play as a search tree. We then exploit the mature machinery of MIP solvers and design novel mechanisms to explore, in a collaborative way, the solution space. In addition, ML is employed to enhance the hybrid solver performance by providing useful information during search. Computational experiments show that if suitable structure is revealed, the integrated approach outperforms both stand-alone DD and MIP solvers. Finally, in a third contribution, a novel problem representation based on DDs is proposed for the quadratic stable set problem, a more difficult and nonlinear version of the maximum independent set problem. Furthermore, a hybrid DD-MIP algorithm is extended by considering the quadratic programming capabilities of a MIP solver and a more tightly integration of ML to guide the exploration of the solution space. The proposed algorithm provides state-of-theart results when compared with a semidefinite programming-based solver and two leading commercial MIP solvers

    Data-driven optimization of bus schedules under uncertainties

    Full text link
    Plusieurs sous-problèmes d’optimisation se posent lors de la planification des transports publics. Le problème d’itinéraires de véhicule (PIV) est l’un d’entre eux et consiste à minimiser les coûts opérationnels tout en assignant exactement un autobus par trajet planifié de sorte que le nombre d’autobus entreposé par dépôt ne dépasse pas la capacité maximale disponible. Bien que les transports publics soient sujets à plusieurs sources d’incertitude (à la fois endogènes et exogènes) pouvant engendrer des variations des temps de trajet et de la consommation d’énergie, le PIV et ses variantes sont la plupart du temps résolus de façon déterministe pour des raisons de résolubilité. Toutefois, cette hypothèse peut compromettre le respect de l’horaire établi lorsque les temps des trajets considérés sont fixes (c.-à-d. déterministes) et peut produire des solutions impliquant des politiques de gestion des batteries inadéquates lorsque la consommation d’énergie est aussi considérée comme fixe. Dans cette thèse, nous proposons une méthodologie pour mesurer la fiabilité (ou le respect de l’horaire établi) d’un service de transport public ainsi que des modèles mathématiques stochastiques et orientés données et des algorithmes de branch-and-price pour deux variantes de ce problème, à savoir le problème d’itinéraires de véhicule avec dépôts multiples (PIVDM) et le problème d’itinéraires de véhicule électrique (PIV-E). Afin d’évaluer la fiabilité, c.-à-d. la tolérance aux délais, de certains itinéraires de véhicule, nous prédisons d’abord la distribution des temps de trajet des autobus. Pour ce faire, nous comparons plusieurs modèles probabilistes selon leur capacité à prédire correctement la fonction de densité des temps de trajet des autobus sur le long terme. Ensuite, nous estimons à l'aide d'une simulation de Monte-Carlo la fiabilité des horaires d’autobus en générant des temps de trajet aléatoires à chaque itération. Nous intégrons alors le modèle probabiliste le plus approprié, celui qui est capable de prédire avec précision à la fois la véritable fonction de densité conditionnelle des temps de trajet et les retards secondaires espérés, dans nos modèles d'optimisation basés sur les données. Deuxièmement, nous introduisons un modèle pour PIVDM fiable avec des temps de trajet stochastiques. Ce problème d’optimisation bi-objectif vise à minimiser les coûts opérationnels et les pénalités associées aux retards. Un algorithme heuristique basé sur la génération de colonnes avec des sous-problèmes stochastiques est proposé pour résoudre ce problème. Cet algorithme calcule de manière dynamique les retards secondaires espérés à mesure que de nouvelles colonnes sont générées. Troisièmement, nous proposons un nouveau programme stochastique à deux étapes avec recours pour le PIVDM électrique avec des temps de trajet et des consommations d’énergie stochastiques. La politique de recours est conçue pour rétablir la faisabilité énergétique lorsque les itinéraires de véhicule produits a priori se révèlent non réalisables. Toutefois, cette flexibilité vient au prix de potentiels retards induits. Une adaptation d’un algorithme de branch-and-price est développé pour évaluer la pertinence de cette approche pour deux types d'autobus électriques à batterie disponibles sur le marché. Enfin, nous présentons un premier modèle stochastique pour le PIV-E avec dégradation de la batterie. Le modèle sous contrainte en probabilité proposé tient compte de l’incertitude de la consommation d’énergie, permettant ainsi un contrôle efficace de la dégradation de la batterie grâce au contrôle effectif de l’état de charge (EdC) moyen et l’écart de EdC. Ce modèle, combiné à l’algorithme de branch-and-price, sert d’outil pour balancer les coûts opérationnels et la dégradation de la batterie.The vehicle scheduling problem (VSP) is one of the sub-problems of public transport planning. It aims to minimize operational costs while assigning exactly one bus per timetabled trip and respecting the capacity of each depot. Even thought public transport planning is subject to various endogenous and exogenous causes of uncertainty, notably affecting travel time and energy consumption, the VSP and its variants are usually solved deterministically to address tractability issues. However, considering deterministic travel time in the VSP can compromise schedule adherence, whereas considering deterministic energy consumption in the electric VSP (E-VSP) may result in solutions with inadequate battery management. In this thesis, we propose a methodology for measuring the reliability (or schedule adherence) of public transport, along with stochastic and data-driven mathematical models and branch-and-price algorithms for two variations of this problem, namely the multi-depot vehicle scheduling problem (MDVSP) and the E-VSP. To assess the reliability of vehicle schedules in terms of their tolerance to delays, we first predict the distribution of bus travel times. We compare numerous probabilistic models for the long-term prediction of bus travel time density. Using a Monte Carlo simulation, we then estimate the reliability of bus schedules by generating random travel times at each iteration. Subsequently, we integrate the most suitable probabilistic model, capable of accurately predicting both the true conditional density function of the travel time and the expected secondary delays, into the data-driven optimization models. Second, we introduce a model for the reliable MDVSP with stochastic travel time minimizing both the operational costs and penalties associated with delays. To effectively tackle this problem, we propose a heuristic column generation-based algorithm, which incorporates stochastic pricing problems. This algorithm dynamically computes the expected secondary delays as new columns are generated. Third, we propose a new two-stage stochastic program with recourse for the electric MDVSP with stochastic travel time and energy consumption. The recourse policy aims to restore energy feasibility when a priori vehicle schedules are unfeasible, which may lead to delays. An adapted algorithm based on column generation is developed to assess the relevance of this approach for two types of commercially available battery electric buses. Finally, we present the first stochastic model for the E-VSP with battery degradation. The proposed chance-constraint model incorporates energy consumption uncertainty, allowing for effective control of battery degradation by regulating the average state-of-charge (SOC) and SoC deviation in each discharging and charging cycle. This model, in combination with a tailored branch-and-price algorithm, serves as a tool to strike a balance between operational costs and battery degradation

    Machine learning approaches for early prediction of hypertension.

    Get PDF
    Hypertension afflicts one in every three adults and is a leading cause of mortality in 516, 955 patients in USA. The chronic elevation of cerebral perfusion pressure (CPP) changes the cerebrovasculature of the brain and disrupts its vasoregulation mechanisms. Reported correlations between changes in smaller cerebrovascular vessels and hypertension may be used to diagnose hypertension in its early stages, 10-15 years before the appearance of symptoms such as cognitive impairment and memory loss. Specifically, recent studies hypothesized that changes in the cerebrovasculature and CPP precede the systemic elevation of blood pressure. Currently, sphygmomanometers are used to measure repeated brachial artery pressure to diagnose hypertension after its onset. However, this method cannot detect cerebrovascular alterations that lead to adverse events which may occur prior to the onset of hypertension. The early detection and quantification of these cerebral vascular structural changes could help in predicting patients who are at a high risk of developing hypertension as well as other cerebral adverse events. This may enable early medical intervention prior to the onset of hypertension, potentially mitigating vascular-initiated end-organ damage. The goal of this dissertation is to develop a novel efficient noninvasive computer-aided diagnosis (CAD) system for the early prediction of hypertension. The developed CAD system analyzes magnetic resonance angiography (MRA) data of human brains gathered over years to detect and track cerebral vascular alterations correlated with hypertension development. This CAD system can make decisions based on available data to help physicians on predicting potential hypertensive patients before the onset of the disease

    Theoretical analysis and simulations applied to rational design strategies of nanostructured materials

    Get PDF
    Orientador: Douglas Soares GalvãoTese (doutorado) - Universidade Estadual de Campinas, Instituto de Física Gleb WataghinResumo: Esse documento apresenta uma coleção de trabalhos realizados dentro do amplo campo de materiais nanoestruturados, focando-se em descrições teóricas analíticas e simulações computacionais de diversos novos materias desse tipo. Uma nova fibra supereslástica e condutora é reportada. Essa fibra altamente esticável (até 1320%) é criada envolvendo-se um núcleo cilíndrico de borracha com uma camada de folha de nanotubos de carbono. O material resultante exibe uma interessante estrutura de enrugamentos hierárquicos na sua superfície, o que lhe garante propriedades elétricas úteis como conservar a sua resistencia constante enquanto esticada. Adicionando-se mais camadas de borracha ou nanotubos podemos obter aplicações como sensores de movimento ou deformação, atuadores/músculos artificiais ativados por corrente ou temperatura e operados reversivelmente por um mecanismo de acoplamento entre tensão e torção. Nós explicamos suas propriedades de condução elétrica e os fenômenos físicos envolvidos em cada uma dessas aplicações. Também desenvolvemos um novo método para o desenho racional de polímeros molecularmente impressos usando dinâmica molecular para simular o processo de impressão molecular e a análise subsequente utilizando experimentos de cromatografia simulada. Obtivemos com sucesso a primeira evidência teórica do mecanismo de impressão exibindo afinidade e seletividade para a substância alvo 17-beta-estradiol. Desenhamos e simulamos uma nova estrutura com formato de piramide em kirigami de grafeno, composta de uma folha de grafeno cortada em um padrão específico a fim de formar uma pirâmide quando sofre tensão na direção normal ao plano. Nós calculamos a resposta dessa estrutura a uma carga estática, quando ela age como uma mola de proporções nanométriacs. Também, utilizando simulações de dinâmica molecular de colisões balísticas, constatamos que a resistência desse material a impactos é ainda maior que de uma folha de grafeno puro, sendo ainda mais leve. Um novo método de reforçar fios de nanotubos de carbono, chamado ITAP, também é reportado. Esse método foi capaz de melhorar a resistencia mecanica do fio em até 1,5 vezes e torná-lo muito mais resistente ao ataque de ácido quando comparado com um fio não tratado. Utilizamos simulações de dinâmica molecular para testar a hipótese de que esse tratamento é suficiente para gerar ligações covalentes entre as paredes externas de nanotubos diferentes, o que seria responsável pelas propriedades do material. Aplicamos um algoritmo genético modificado ao problema do folding de proteínas em um modelo de rede 3D HP. Testamos o algoritmo utilizando um conjunto de sequencias de teste que têm estado em uso pelos últimos 20 anos na literatura. Fomos capazes de melhorar um dos resultados e demonstramos a aplicação e utilidade de operadores não canônicos que evitam a convergência prematura do algoritmo, sendo eles o operador de compartilhamento e efeito maternalAbstract: This document presents a colection of works done within the broad subject of nano-structured materials, focusing on analytical theoretical descriptions and computational simulations of new kinds of this class of materials. A new superelastic conducting fiber is reported, with improved properties and functionalities. They are highly stretchable (up to 1320%) conducting fibers created by wrapping carbon nanotube sheets on stretched rubber fiber cores. The resulting structure exhibited an interesting hierarchical buckled structure on its surface. By including more rubber and carbon nanotube layers, we created strain sensors, and electrically or thermally powered tensile and torsional muscles/actuators operating reversibly by a coupled tension-to-torsion actuation mechanism. We explain its electronic properties and quantitatively explain the compounded physical effects involved in each of these applications. We also developed a new method for the rational design of molecularly imprinted polymers using molecular dynamics to simulate the imprinting process and subsequent chromatography studies. We successfully obtained the first theoretical evidence of actual imprinting happening under unconstrained simulations showing affinity and selectivity to the target substance 17-beta estradiol. We designed and simulated a new graphene kirigami pyramid structure, composed of a cut graphene sheet in a specific pattern in order to form a pyramid when under stress perpendicular to the plane. We calculated the response to static loading of this structure that acts like a nano-sized spring. Also, with simulated ballistic collisions we obtained increased resistance to impact in comparison with a pure graphene sheet. A new method of strengthening carbon nanotube yarns, called ITAP, consisting of annealing at high temperature in vacuum is reported. This method is shown to increase the mechanical resistance of the wire up to 1.5 times and make it much more resistant to acid corrosion when compared to pristine non-treated wires. We applied a modified genetic algorithm to the protein folding problem using an 3D HP lattice model using known test sequences that have been in use for the last 20 years and obtained an improvement for the best solution found for one of these proteins. Also, the importance of new non-canonical operators that prevent rapid convergence of the algorithm was demonstrated, namely the Sharing and Maternal Effect operatorsDoutoradoFísicaDoutor em Ciências141198/2012-5CNP

    Branching strategies for mixed-integer programs containing logical constraints and decomposable structure

    Get PDF
    Decision-making optimisation problems can include discrete selections, e.g. selecting a route, arranging non-overlapping items or designing a network of items. Branch-and-bound (B&B), a widely applied divide-and-conquer framework, often solves such problems by considering a continuous approximation, e.g. replacing discrete variable domains by a continuous superset. Such approximations weaken the logical relations, e.g. for discrete variables corresponding to Boolean variables. Branching in B&B reintroduces logical relations by dividing the search space. This thesis studies designing B&B branching strategies, i.e. how to divide the search space, for optimisation problems that contain both a logical and a continuous structure. We begin our study with a large-scale, industrially-relevant optimisation problem where the objective consists of machine-learnt gradient-boosted trees (GBTs) and convex penalty functions. GBT functions contain if-then queries which introduces a logical structure to this problem. We propose decomposition-based rigorous bounding strategies and an iterative heuristic that can be embedded into a B&B algorithm. We approach branching with two strategies: a pseudocost initialisation and strong branching that target the structure of GBT and convex penalty aspects of the optimisation objective, respectively. Computational tests show that our B&B approach outperforms state-of-the-art solvers in deriving rigorous bounds on optimality. Our second project investigates how satisfiability modulo theories (SMT) derived unsatisfiable cores may be utilised in a B&B context. Unsatisfiable cores are subsets of constraints that explain an infeasible result. We study two-dimensional bin packing (2BP) and develop a B&B algorithm that branches on SMT unsatisfiable cores. We use the unsatisfiable cores to derive cuts that break 2BP symmetries. Computational results show that our B&B algorithm solves 20% more instances when compared with commercial solvers on the tested instances. Finally, we study convex generalized disjunctive programming (GDP), a framework that supports logical variables and operators. Convex GDP includes disjunctions of mathematical constraints, which motivate branching by partitioning the disjunctions. We investigate separation by branching, i.e. eliminating solutions that prevent rigorous bound improvement, and propose a greedy algorithm for building the branches. We propose three scoring methods for selecting the next branching disjunction. We also analyse how to leverage infeasibility to expedite the B&B search. Computational results show that our scoring methods can reduce the number of explored B&B nodes by an order of magnitude when compared with scoring methods proposed in literature. Our infeasibility analysis further reduces the number of explored nodes.Open Acces

    Model-based approaches for large-scale optimization in business operations

    Get PDF
    Companies nowadays have to operate in an increasingly competitive and complex environment. Under these challenging conditions, it has become essential for them to optimize their business operations, i.e., the activities that they must conduct on a regular, often daily, basis. The nature of these business operations strongly varies between companies. For a pharmaceutical company, an important business operation is, for example, the scheduling of their research activities. With improved scheduling, new drugs are brought to markets earlier, which can lead to a decisive competitive advantage. For a telecommunications company, an important business operation is, for example, the promotion of new products and services to existing customers. Contacting the right customers for the right products may lead to an increase in sales and profitability of these products. Many business operations, including the two examples from above, can be improved by solving mathematical optimization problems with techniques from the field of Operations Research. An optimization problem consists of the decisions to be taken, the constraints that define the set of feasible decisions, and an objective that is either maximized (profit) or minimized (project duration). In the case of the telecommunications company, the decisions to be taken are which customers are contacted for which product on which day. An example of a constraint is an overall budget that cannot be exceeded, and an example of the objective is the maximization of the total expected profit that results from contacting the customers. A standard approach for solving such an optimization problem is first to express the problem as a mathematical model and then use standard optimization software, known as a solver, to find the best possible solution. A great advantage of this approach is that the mathematical model can easily be adjusted to changes in the underlying problem. This flexibility is required in a dynamic business environment where constraints or objectives may change over time. However, a major drawback of this standard approach is its limited scalability when applied to specific types of complex optimization problems. For these problems, the generic solvers fail to find the best or even a good solution in a reasonable running time. Specialized algorithms, so-called heuristics, are required instead. Heuristics apply problem-specific search strategies to derive a good solution to an optimization problem quickly. However, because these heuristics are designed for specific optimization problems, they are difficult to adapt if the constraints or the objective of the optimization problem change. A solution technique that has been shown to be both flexible and scalable for complex optimization problems are matheuristics. Matheuristics are model-based approaches that decompose an optimization problem into smaller subproblems and solve these subproblems using mathematical models. Essential for the performance of a matheuristic is how the problem is decomposed into subproblems, which is an important field of research in Operations Research. This thesis contributes to this field of research by introducing model-based approaches for large-scale optimization in business operations. It consists of three papers on three specific optimization problems in direct marketing, project management, and facility location. Real-world instances of all three of these problems involve a large number of customers, activities, or facilities and require the flexibility to incorporate practical constraints easily. To address these challenges, we developed three matheuristics. The matheuristics employ innovative problem decomposition strategies and outperform state-of-the-art approaches on large-scale instances. In the first paper, we study a customer assignment problem from a major telecommunications company. The telecommunications company runs different direct marketing campaigns to promote its products and services. The goal of the telecommunications company is to assign the customers to the direct marketing campaigns so that the total expected profit is maximized. Thereby, various business constraints, such as budgets and sales constraints, must be considered. Also, different customer-specific constraints ensure that each customer is not assigned to a direct marketing campaign too frequently. A particular challenge is the size of practical problem instances. These instances involve millions of customers and hundreds of direct marketing campaigns. The methodological contribution of this paper consists of decomposing the optimization problem into two subproblems that each can be solved efficiently. In the first subproblem, customers are assigned to campaigns based on their membership to a customer group. In the second subproblem, individual customers are assigned to campaigns based on the solution that was derived in the first subproblem. The unique feature of our decomposition strategy is that the customer-specific constraints are already considered in the first subproblem, even though the first subproblem deals with groups of customers and not individual customers. In an experimental analysis based on numerous generated and real-world instances, we can demonstrate that even though we decompose the problem, the resulting solutions are still of very high quality. The matheuristic has been deployed in the company and is now used daily. In a proof of benefit conducted by the company based on a selected campaign, they observed that using the matheuristic increased the number of sales by 90%, resulting in an improvement in the profitability of this campaign by 300%. The second paper deals with a project scheduling problem that often arises in the pharmaceutical industry, where research activities, e.g., clinical tests, can be executed at different locations, e.g., research labs. The problem consists of determining a start time for each activity, selecting a location for the execution of each activity, and assigning resource units, e.g., research staff or equipment, to the execution of the activities. Various practical constraints must be considered, such as transportation times that arise when, e.g., a resource unit must be transported from one location to another. With only a few activities involved, the number of possible schedules can already grow very large. We developed a mathematical model and, based on this model, a novel matheuristic for this problem. The main methodological contribution of the matheuristic is its problem decomposition strategy. Instead of dividing the project into subprojects, the model in the matheuristic is set up for all project activities. However, the solver makes some decisions only for a subset of the activities. To schedule an entire project, multiple iterations have to be performed, where in each iteration, another subset of activities is considered. This iterative decision process substantially reduces running times compared to when all decisions are conducted simultaneously. In a computational experiment, the novel model outperforms the leading model from the literature on small instances. The matheuristic outperforms the state-of-the-art heuristics on all considered performance metrics on larger instances. In the third paper, we consider the problem of locating obnoxious facilities. Obnoxious means that the facilities negatively affect their nearby environment and should thus be located far away from clients. Examples of obnoxious facilities are waste plants, oil refineries, and wind turbines. The problem consists of opening from a set of potential locations a given number of facilities such that the open facilities are far away from the clients. We further study an extension of this problem that includes practical constraints which limit the number of facilities that can be opened in certain regions of an instance. Our matheuristic starts from an initial solution and iteratively improves the solution by removing and adding facilities. The quality of the final solution (after the improvement iterations) strongly depends on the initial solution. When two very similar initial solutions are provided, the likelihood of finding very similar final solutions is high. One main methodological contribution is a procedure that we designed, which is guaranteed to generate initial solutions that are very different from each other. This diversification in the initial solutions increases the likelihood of finding high-quality final solutions. The matheuristic outperforms the state-of-the-art metaheuristics on instances including thousands of clients and potential locations for facilities. Even though we consider three specific optimization problems in this thesis, the contributions of the three papers can be generalized and applied to related problems and thus advance the state of knowledge in the field of large-scale optimization
    • …
    corecore