105 research outputs found

    Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières (Codes et Applications)

    Get PDF
    Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes.Based on theoretical and algorithmic tools of DC programming and DCA, the research in this thesis focus on the local and global approaches for non convex optimization and global mixed integer optimization. The thesis consists of 5 chapters. The first chapter presents fundamentals of DC programming and DCA, and techniques of Branch and Bound method (B&B) for global optimization (using the DC relaxation technique for calculating lower bounds of the optimal value). It shall include results concerning the exact penalty technique in mixed integer programming. The second chapter is devoted of a DCA method for solving a class of NP-hard nonconvex nonlinear mixed integer programs. These nonconvex problems are firstly reformulated as DC programs via penalty techniques in DC programming so that the resulting DC programs are effectively solved by DCA and B&B well adapted. As a first application in financial optimization, we modeled the problem pf portfolio selection under concave transaction costs and applied DCA and B&B to its solutions. In the next chapter we study the modeling of the problem of minimization of nonconvex discontinuous transaction costs in portfolio selection in two forms: the first is a DC program obtained by approximating the objective function of the original problem by a DC polyhedral function and the second is an equivalent mixed 0-1 DC program. And we present DCA, B&B algorithm, and a combined DCA-B&B algorithm for their solutions. Chapter 4 studied the exact solution for the multi-objective mixed zero-one linear programming problem and presents two practical applications of proposed method. We are interested int the last chapter two challenging problems: the linear integer least squares problem and the Nonnegative Mattrix Factorization problem (NMF). The NMF method is particularly important because of its many various applications of the first are in telecommunications. The numerical simulations show the robustness, speed (thus scalability), performance, and the globality of DCA in comparison to existent methods.ROUEN-INSA Madrillet (765752301) / SudocSudocFranceF

    Minimisation des perturbations et parallélisation pour la planification et l'ordonnancement

    Get PDF
    Nous étudions dans cette thèse deux approches réduisant le temps de traitement nécessaire pour résoudre des problèmes de planification et d'ordonnancement dans un contexte de programmation par contraintes. Nous avons expérimenté avec plusieurs milliers de processeurs afin de résoudre le problème de planification et d'ordonnancement des opérations de rabotage du bois d'oeuvre. Ces problèmes sont d'une grande importance pour les entreprises, car ils permettent de mieux gérer leur production et d'économiser des coûts reliés à leurs opérations. La première approche consiste à effectuer une parallélisation de l'algorithme de résolution du problème. Nous proposons une nouvelle technique de parallélisation (nommée PDS) des stratégies de recherche atteignant quatre buts : le respect de l'ordre de visite des noeuds de l'arbre de recherche tel que défini par l'algorithme séquentiel, l'équilibre de la charge de travail entre les processeurs, la robustesse aux défaillances matérielles et l'absence de communications entre les processeurs durant le traitement. Nous appliquons cette technique pour paralléliser la stratégie de recherche Limited Discrepancy-based Search (LDS) pour ainsi obtenir Parallel Limited Discrepancy-Based Search (PLDS). Par la suite, nous démontrons qu'il est possible de généraliser cette technique en l'appliquant à deux autres stratégies de recherche : Depth-Bounded discrepancy Search (DDS) et Depth-First Search (DFS). Nous obtenons, respectivement, les stratégies Parallel Discrepancy-based Search (PDDS) et Parallel Depth-First Search (PDFS). Les algorithmes parallèles ainsi obtenus créent un partage intrinsèque de la charge de travail : la différence de charge de travail entre les processeurs est bornée lorsqu'une branche de l'arbre de recherche est coupée. En utilisant des jeux de données de partenaires industriels, nous avons pu améliorer les meilleures solutions connues. Avec la deuxième approche, nous avons élaboré une méthode pour minimiser les changements effectués à un plan de production existant lorsque de nouvelles informations, telles que des commandes additionnelles, sont prises en compte. Replanifier entièrement les activités de production peut mener à l'obtention d'un plan de production très différent qui mène à des coûts additionnels et des pertes de temps pour les entreprises. Nous étudions les perturbations causéees par la replanification à l'aide de trois métriques de distances entre deux plans de production : la distance de Hamming, la distance d'édition et la distance de Damerau-Levenshtein. Nous proposons trois modèles mathématiques permettant de minimiser ces perturbations en incluant chacune de ces métriques comme fonction objectif au moment de la replanification. Nous appliquons cette approche au problème de planification et ordonnancement des opérations de finition du bois d'oeuvre et nous démontrons que cette approche est plus rapide qu'une replanification à l'aide du modèle d'origine.We study in this thesis two approaches that reduce the processing time needed to solve planning and ordering problems in a constraint programming context. We experiment with multiple thousands of processors on the planning and scheduling problem of wood-finish operations. These issues are of a great importance for businesses, because they can better manage their production and save costs related to their operations. The first approach consists in a parallelization of the problem solving algorithm. We propose a new parallelization technique (named PDS) of the search strategies, that reaches four goals: conservation of the nodes visit order in the search tree as defined by the sequential algorithm, balancing of the workload between the processors, robustness against hardware failures, and absence of communication between processors during the treatment. We apply this technique to parallelize the Limited Discrepancy-based (LDS) search strategy to obtain Parallel Limited Discrepancy-Based Search (PLDS). We then show that this technique can be generalized by parallelizing two other search strategies: Depth-Bounded discrepancy Search (DDS) and Depth-First Search (DFS). We obtain, respectively, Parallel Discrepancy-based Search (PDDS) and Parallel Depth-First Search (PDFS). The algorithms obtained this way create an intrinsic workload balance: the imbalance of the workload among the processors is bounded when a branch of the search tree is pruned. By using datasets coming from industrial partners, we are able to improve the best known solutions. With the second approach, we elaborated a method to minimize the changes done to an existing production plan when new information, such as additional orders, are taken into account. Completely re-planning the production activities can lead to a very different production plan which create additional costs and loss of time for businesses. We study the perturbations caused by the re-planification with three distance metrics: Hamming distance, Edit distance, and Damerau-Levenshtein Distance. We propose three mathematical models that allow to minimize these perturbations by including these metrics in the objective function when replanning. We apply this approach to the planning and scheduling problem of wood-finish operations and we demonstrate that this approach outperforms the use of the original model

    Parallélisme en programmation par contraintes

    Get PDF
    We study the search procedure parallelization in Constraint Programming (CP). After giving an overview on various existing methods of the state-of-the-art, we present a new method, named Embarrassinqly Parallel Search (EPS). This method is based on the decomposition of a problem into many disjoint subproblems which are then solved in parallel by computing units with little or without communication. The principle of EPS is to have a resolution times balancing for each computing unit in a statistical sense to obtain a goodDépôt de thèse – Données complémentaireswell-balanced workload. We assume that the amount of resolution times of all subproblems is comparable to the resolution time of the entire problem. This property is checked with CP and allows us to have a simple and efficient method in practice. In our experiments, we are interested in enumerating all solutions of a problem, and proving that a problem has no solution and finding an optimal solution of an optimization problem. We observe that the decomposition has to generate at least 30 subproblems per computing unit to get equivalent workloads per computing unit. Then, we evaluate our approach on different architectures (multicore machine, cluster and cloud computing) and we observe a substantially linear speedup. A comparison with current methods such as work stealing or portfolio shows that EPS gets better results.Nous étudions la parallélisation de la procédure de recherche de solution d’un problème en Programmation Par Contraintes (PPC). Après une étude de l’état de l’art, nous présentons une nouvelle méthode, nommée Embarrassingly Parallel Search (EPS). Cette méthode est basée sur la décomposition d’un problème en un très grand nombre de sous-problèmes disjoints qui sont ensuite résolus en parallèle par des unités de calcul avec très peu, voire aucune communication. Le principe d’EPS est d’arriver statistiquement à un équilibrage des temps de résolution de chaque unité de calcul afin d’obtenir une bonne répartition de la charge de travail. EPS s’appuie sur la propriété suivante : la somme des temps de résolution de chacun des sous-problèmes est comparable au temps de résolution du problème en entier. Cette propriété est vérifiée en PPC, ce qui nous permet de disposer d’une méthode simple et efficace en pratique. Dans nos expérimentations, nous nous intéressons à la recherche de toutes les solutions d’un problème en PPC, à prouver qu’un problème n’a pas de solution et à la recherche d’une solution optimale d’un problème d’optimisation. Les résultats montrent que la décomposition doit générer au moins 30 sous-problèmes par unité de calcul pour obtenir des charges de travail par unité de calcul équivalentes. Nous évaluons notre approche sur différentes architectures (machine multi-coeurs, centre de calcul et cloud computing) et montrons qu’elle obtient un gain pratiquement linéaire en fonction du nombre d’unités de calcul. Une comparaison avec les méthodes actuelles telles que le work stealing ou le portfolio montre qu’EPS obtient de meilleurs résultats

    Développement logiciel par transformation de modèles

    Get PDF
    La recherche en génie logiciel a depuis longtemps tenté de mieux comprendre le processus de développement logiciel, minimalement, pour en reproduire les bonnes pratiques, et idéalement, pour pouvoir le mécaniser. On peut identifier deux approches majeures pour caractériser le processus. La première approche, dite transformationnelle, perçoit le processus comme une séquence de transformations préservant certaines propriétés des données à l’entrée. Cette idée a été récemment reprise par l’architecture dirigée par les modèles de l’OMG. La deuxième approche consiste à répertorier et à codifier des solutions éprouvées à des problèmes récurrents. Les recherches sur les styles architecturaux, les patrons de conception, ou les cadres d’applications s’inscrivent dans cette approche. Notre travail de recherche reconnaît la complémentarité des deux approches, notamment pour l’étape de conception: dans le cadre du développement dirigé par les modèles, nous percevons l’étape de conception comme l’application de patrons de solutions aux modèles reçus en entrée. Il est coutume de définir l’étape de conception en termes de conception architecturale, et conception détaillée. La conception architecturale se préoccupe d’organiser un logiciel en composants répondant à un ensemble d’exigences non-fonctionnelles, alors que la conception détaillée se préoccupe, en quelque sorte, du contenu de ces composants. La conception architecturale s’appuie sur des styles architecturaux qui sont des principes d’organisation permettant d’optimiser certaines qualités, alors que la conception détaillée s’appuie sur des patrons de conception pour attribuer les responsabilités aux classes. Les styles architecturaux et les patrons de conception sont des artefacts qui codifient des solutions éprouvées à des problèmes récurrents de conception. Alors que ces artefacts sont bien documentés, la décision de les appliquer reste essentiellement manuelle. De plus, les outils proposés n’offrent pas un support adéquat pour les appliquer à des modèles existants. Dans cette thèse, nous nous attaquons à la conception détaillée, et plus particulièrement, à la transformation de modèles par application de patrons de conception, en partie parce que les patrons de conception sont moins complexes, et en partie parce que l’implémentation des styles architecturaux passe souvent par les patrons de conception. Ainsi, nous proposons une approche pour représenter et appliquer les patrons de conception. Notre approche se base sur la représentation explicite des problèmes résolus par ces patrons. En effet, la représentation explicite du problème résolu par un patron permet : (1) de mieux comprendre le patron, (2) de reconnaître l’opportunité d’appliquer le patron en détectant une instance de la représentation du problème dans les modèles du système considéré, et (3) d’automatiser l’application du patron en la représentant, de façon déclarative, par une transformation d’une instance du problème en une instance de la solution. Pour vérifier et valider notre approche, nous l’avons utilisée pour représenter et appliquer différents patrons de conception et nous avons effectué des tests pratiques sur des modèles générés à partir de logiciels libres.Software engineering researchers have long tried to understand the software process development to mechanize it or at least to codify its good practices. We identify two major approaches to characterize the process. The first approach—known as transformational—sees the process as a sequence of property-preserving transformations. This idea was recently adopted by the OMG’s model-driven architecture (MDA). The second approach consists in identifying and codifying proven solutions to recurring problems. Research on architectural styles, frameworks and design patterns are part of this approach. Our research recognizes the complementarity of these two approaches, in particular in the design step. Indeed within the model-driven development context, we view software design as the process of applying codified solution patterns to input models. Software design is typically defined in terms of architectural design and detailed design. Architectural design aims at organizing the software in modules or components that meet a set of non-functional requirements while detailed design is—in some way—concerned by the contents of the identified components. Architectural design relies on architectural styles which are principles of organization to optimize certain quality requirements, whereas detailed design relies on design patterns to assign responsibilities to classes. Both architectural styles and design patterns are design artifacts that encode proven solutions to recurring design problems. While these design artifacts are documented, the decision to apply them remains essentially manual. Besides, once a decision has been made to use a design artifact, there is no adequate support to apply it to existing models. As design patterns present an ‘‘easier’’ problem to solve, and because architectural styles implementation relies on design patterns, our strategy for addressing these issues was to try to solve the problem for design patterns first, and then tackle architectural styles. Hence, in this thesis, we propose an approach for representing and applying design patterns. Our approach is based on an explicit representation of the problems solved by design patterns. Indeed, and explicit representation of the problem solved by a pattern enables to: 1) better understand the pattern, 2) recognize the opportunity of applying the pattern by matching the representation of the problem against the models of the considered system, and 3) specify declaratively the application of the pattern as a transformation of an instance of the problem into an instance of the solution. To verify and validate the proposed approach, we used it to represent and apply several design patterns. We also conducted practical tests on models generated from open source systems

    Modèles et algorithmes pour les enchères combinatoires

    Get PDF
    Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal

    A fractional programming approach for choice-based network revenue management

    Get PDF
    Choice-based revenue management -- Linear fractional programming -- General Form -- Linear fractional programming -- Single ratio -- Linear fractional programming -- Sum of several ratios -- Problem description and solution approaches -- Choice-based deterministic linear programming model -- Using column generation to solve the CDLP model -- Solution approaches for the column generation subproblem -- Numerical examples and evaluation of solution approaches -- A small airline network -- Thalys railroads example

    JFPC 2019 - Actes des 15es Journées Francophones de Programmation par Contraintes

    Get PDF
    National audienceLes JFPC (Journées Francophones de Programmation par Contraintes) sont le principal congrès de la communauté francophone travaillant sur les problèmes de satisfaction de contraintes (CSP), le problème de la satisfiabilité d'une formule logique propositionnelle (SAT) et/ou la programmation logique avec contraintes (CLP). La communauté de programmation par contraintes entretient également des liens avec la recherche opérationnelle (RO), l'analyse par intervalles et différents domaines de l'intelligence artificielle.L'efficacité des méthodes de résolution et l'extension des modèles permettent à la programmation par contraintes de s'attaquer à des applications nombreuses et variées comme la logistique, l'ordonnancement de tâches, la conception d'emplois du temps, la conception en robotique, l'étude du génôme en bio-informatique, l'optimisation de pratiques agricoles, etc.Les JFPC se veulent un lieu convivial de rencontres, de discussions et d'échanges pour la communauté francophone, en particulier entre doctorants, chercheurs confirmés et industriels. L'importance des JFPC est reflétée par la part considérable (environ un tiers) de la communauté francophone dans la recherche mondiale dans ce domaine.Patronnées par l'AFPC (Association Française pour la Programmation par Contraintes), les JFPC 2019 ont lieu du 12 au 14 Juin 2019 à l'IMT Mines Albi et sont organisées par Xavier Lorca (président du comité scientifique) et par Élise Vareilles (présidente du comité d'organisation)

    Gestion des actifs financiers : de l’approche Classique à la modélisation non paramétrique en estimation du DownSide Risk pour la constitution d’un portefeuille efficient

    Get PDF
    The DownSide Risk (DSR) model for portfolio optimization allows to overcome the drawbacks of the classical Mean-Variance model concerning the asymmetry of returns and the risk perception of investors. This optimization model deals with a positive definite matrix that is endogenous with respect to the portfolio weights and hence leads to a non standard optimization problem. To bypass this hurdle, we developed a new recursive minimization procedure that ensures the convergence to the solution and gives a smooth portfolio efficient frontier. Our method consists in replacing all the returns by their nonparametric estimators counterpart using kernel mean or median regressions. This technique provides an effect similar to the case where an infinite number of observations is available. We also develop a new portfolio optimization model where the risks are measured through conditional variance or semivariance. This strategy allows us to take advantage from returns prediction which are obtained by nonparametric univariate methods. The prediction step uses kernel estimation of the conditional mean. Data from different markets are used to test and validate the proposed approaches, and results indicate better overall performanceLa méthode d'optimisation d'un portefeuille issue de la minimisation du DownSide Risk a été mise au point pour suppléer les carences de la méthode classique de Markowitz dont l'hypothèse de la normalité de la distribution des rendements se trouve défaillante très souvent. Dans cette thèse, nous proposons d'introduire des estimateurs non paramétriques de la moyenne ou de la médiane conditionnelle pour remplacer les rendements observés d'un portefeuille ou des actifs constituant un portefeuille dans le cas du DownSide Risk. Ces estimateurs nous permettent d'obtenir des frontières efficientes lisses et facilement interprétables. Nous développons des algorithmes itératifs pour résoudre les différents problèmes d'optimisation permettant d'obtenir des portefeuilles optimaux. Nous proposons aussi une nouvelle mesure de risque dit risque conditionnel qui tient compte des anticipations des valeurs futures des différents rendements. Pour le définir nous avons fait appel aux prédicteurs non paramétriques basés sur l'estimation de la moyenne conditionnelle. Enfin, nous avons testé et validé toutes nos méthodes sur des données issues de différents marchés et nous avons montré leur performance et leur efficacité comparées aux méthodes classique

    Conception et application d'une méthodologie multicritère floue de sélection de logiciels de planification et d'ordonnancement avancé (APS)

    Get PDF
    Avec la mondialisation, la croissance des entreprises et les besoins de plus en plus exigeants des clients, les défis en termes de planification et d’ordonnancement des opérations en environnement manufacturier ne cessent de croitre. Face à cette situation, les entreprises manufacturières sont dans l’obligation de mettre à jour leurs politiques de planification et d’ordonnancement en adoptant des systèmes et des approches de planifications nouvelles telles que la planification et l’ordonnancement avancés (POA). Dans cet exercice, les entreprises désirant implanter des approches de POA ont généralement deux possibilités. Elles peuvent choisir de développer une solution personnalisée ou alors d’implanter des logiciels commerciaux de POA. La deuxième piste est plus courue de nos jours. L’objectif de ce travail est d’accompagner les entreprises désirant améliorer la planification et l’ordonnancement de leurs opérations par la sélection et l’implantation d’un logiciel commercial de POA. Plus précisément, le but de ce travail est d’évaluer et de sélectionner parmi les logiciels commerciaux de POA disponibles sur le marché celui qui satisfait au mieux les besoins de l’entreprise. Trois sous objectifs ont été identifiés : la cartographie des processus de planification et d’ordonnancement de l’entreprise, la capture des besoins de l’entreprise et la conception d’une nouvelle méthodologie de sélection intégrant sous incertitude à la fois les besoins de l’entreprise et les critères et sous critères de sélection. La méthodologie adoptée pour cette étude est celle dictée par la science de la conception, qui permet l’itération du processus de conception afin de perfectionner et de valider les résultats ou les livrables obtenus. Des données sont recueillies auprès d’experts et des preneurs de décisions internes à l’entreprise à l’aide d’entrevues individuelles et de groupes. Par ailleurs, en guise de contributions de cette recherche, trois méthodes ont été conçues. La première méthode permet de cartographier les processus de l’entreprise. La deuxième méthode est destinée à la capture des besoins de l’entreprise tandis que la troisième méthode intègre le déploiement de la fonction qualité (DFQ), l’analyse hiérarchique des processus (AHP) et la méthode VIKOR pour la sélection du logiciel qui satisfait au mieux les besoins de l’entreprise. Cette intégration est rendue possible en mettant en place une version modifiée du DFQ. L’incertitude sur les données provenant des enquêtes adressées aux experts et aux preneurs de décision est considérée par l’utilisation de la logique floue et des variables linguistiques. L’approche globale de l’étude est appliquée à un cas réel d’entreprise manufacturière. Les résultats montrent la pertinence des méthodes développées face au problème de selection d’un logiciel de POA

    Selection of Wood Supply Contracts to Reduce Cost in the Presence of Risks in Procurement Planning

    Get PDF
    Les activités d'achat dans l'industrie des pâtes et papiers représentent une part importante du coût global de la chaîne d'approvisionnement. Les décideurs prévoient l'approvisionnement en bois requis jusqu'à un an à l'avance afin de garantir le volume d'approvisionnement pour le processus de production en continu dans leur usine. Des contrats réguliers, flexibles et d'options avec des fournisseurs de différents groupes sont disponibles. Les fournisseurs sont regroupés en fonction de caractéristiques communes, telles que la propriété des terres forestières. Cependant, lors de l'exécution du plan, des risques affectent les opérations d'approvisionnement. Si les risques ne sont pas intégrés dans le processus de planification des achats, l'atténuation de leur impact sera generalement coûteuse et compliquée. Des contrats ad hoc coûteux supplémentaires pourraient être nécessaires pour compenser le manque de livraisons. Pour aborder ce problème dans cette thèse, dans un premier projet, un modèle mathématique déterministe des opérations d'approvisionnement est développé. L'objectif du modèle est de proposer un plan d'approvisionnement annuel pour minimiser le coût total des opérations relatives. Les opérations sont soumises à des contraintes telles qu’une proportion minimale de l'offre par chaque groupe de fournisseurs, des niveaux cibles des stocks, de la satisfaction de la demande, la capacité par la cour à bois et la capacité du procédé de mise en copeaux. Les décisions sont liées à la sélection des contrats d'approvisionnement, à l'ouverture de cour à bois et aux flux du bois. Dans un deuxième projet, une évaluation du plan d'approvisionnement à partir du modèle déterministe du premier projet est effectuée en utilisant une approche de simulation Monte Carlo. Trois stratégies contractuelles différentes sont comparées : fixes, flexibles et une combinaison des deux types des contrats. L'approche de simulation de ce projet évalue la performance du plan par la valeur attendue et la variabilité du coût total, lorsque le plan est exécuté pendant l'horizon de planification. Dans un troisième projet, une approche de programmation stochastique en deux étapes est utilisée pour fournir un plan d'approvisionnement fiable. L'objectif du modèle est de minimiser le coût prévu du plan d'approvisionnement en présence de différents scénarios générés en fonction des risques. Les décisions lors de la première étape sont la sélection des contrats dans la première période et l'ouverture des cours à bois. Les décisions de la deuxième étape concernent la sélection des contrats commençant après la première période, les flux, l'inventaire et la production du procédé de la mise en copeaux. iii L'étude de cas utilisée dans cette thèse est inspirée par Domtar, une entreprise des pâtes et papiers située au Québec, Canada. Les résultats des trois projets de cette thèse aident les décideurs à réduire les contraintes humaines liées à la planification complexe des achats. Les modèles mathématiques développés fournissent une base pour l'évaluation de la stratégie d'approvisionnement sélectionnée. Cette tâche est presque impossible avec les approches actuelles de l'entreprise, car les évaluations nécessitent la formulation de risques d'approvisionnement. L'approche de programmation stochastique montre de meilleurs résultats financiers par rapport à la planification déterministe, avec une faible variabilité dans l'atténuation de l'impact des risques.Procurement activities in the pulp and paper industry account for an important part of the overall supply chain cost. Procurement decision-makers plan for the required wood supply up to one year in advance to guarantee the supply volume for the continuous production process at their mill. Regular, flexible and option contracts with suppliers in different groups are available. Suppliers are grouped based on common characteristics such as forestland ownership. However, during the execution of the plan, sourcing risks affect procurement operations. If risks are not integrated into the procurement planning process, mitigating their impact is likely to be expensive and complicated. Additional expensive ad hoc contracts might be required to compensate for the lack of deliveries. To tackle this problem, the first project of this thesis demonstrates the development of a deterministic mathematical model of procurement operations. The objective of the model is to propose an annual procurement plan to minimize the total cost of procurement operations. The operations are subject to constraints such as the minimum share of supply for each group of suppliers, inventory target levels, demand, woodyard capacity, and chipping process capacity. The decisions are related to the selection of sourcing contracts, woodyards opening, and wood supply flow. In the second project, an evaluation of the procurement plan from the deterministic model from project one is performed by using a Monte Carlo simulation approach. Three different strategies are compared as fixed, flexible, and a mix of both contracts. The simulation approach in this project evaluates the performance of the plan by the expected value and variability of the total cost when the plan is executed during the planning horizon. In the third project, a two-stage stochastic programming approach is used to provide a reliable procurement plan. The objective of the model is to minimize the expected cost of the procurement plan in the presence of different scenarios generated based on sourcing risks. First-stage decisions are the selection of contracts in the first period and the opening of woodyards. Second-stage decisions concern the selection of contracts starting after the first period, flow, inventory, and chipping process production. The case study used in this thesis was inspired by Domtar, which is a pulp and paper company located in Quebec, Canada. The results of three projects in this doctoral dissertation support decision-makers to reduce the human limitation in performing complicated procurement planning. The developed mathematical models provide a basis to evaluate the selected procurement strategy. This task is nearly impossible with current approaches in the company, as the evaluations require the formulation of v sourcing risks. The stochastic programming approach shows better financial results comparing to deterministic planning, with low variability in mitigating the impact of risks
    corecore