2,159 research outputs found

    An application of Preference-Inspired Co-Evolutionary Algorithm to sectorization

    Get PDF
    Sectorization problems have significant challenges arising from the many objectives that must be optimised simultaneously. Several methods exist to deal with these many-objective optimisation problems, but each has its limitations. This paper analyses an application of Preference Inspired Co-Evolutionary Algorithms, with goal vectors (PICEA-g) to sectorization problems. The method is tested on instances of different size difficulty levels and various configurations for mutation rate and population number. The main purpose is to find the best configuration for PICEA-g to solve sectorization problems. Performancemetrics are used to evaluate these configurations regarding the solutions’ spread, convergence, and diversity in the solution space. Several test trials showed that big and medium-sized instances perform better with low mutation rates and large population sizes. The opposite is valid for the small size instances.info:eu-repo/semantics/acceptedVersio

    Methods for many-objective optimization: an analysis

    Get PDF
    Decomposition-based methods are often cited as the solution to problems related with many-objective optimization. Decomposition-based methods employ a scalarizing function to reduce a many-objective problem into a set of single objective problems, which upon solution yields a good approximation of the set of optimal solutions. This set is commonly referred to as Pareto front. In this work we explore the implications of using decomposition-based methods over Pareto-based methods from a probabilistic point of view. Namely, we investigate whether there is an advantage of using a decomposition-based method, for example using the Chebyshev scalarizing function, over Paretobased methods

    A multi-tier adaptive grid algorithm for the evolutionary multi-objective optimisation of complex problems

    Get PDF
    The multi-tier Covariance Matrix Adaptation Pareto Archived Evolution Strategy (m-CMA-PAES) is an evolutionary multi-objective optimisation (EMO) algorithm for real-valued optimisation problems. It combines a non-elitist adaptive grid based selection scheme with the efficient strategy parameter adaptation of the elitist Covariance Matrix Adaptation Evolution Strategy (CMA-ES). In the original CMA-PAES, a solution is selected as a parent for the next population using an elitist adaptive grid archiving (AGA) scheme derived from the Pareto Archived Evolution Strategy (PAES). In contrast, a multi-tiered AGA scheme to populate the archive using an adaptive grid for each level of non-dominated solutions in the considered candidate population is proposed. The new selection scheme improves the performance of the CMA-PAES as shown using benchmark functions from the ZDT, CEC09, and DTLZ test suite in a comparison against the (Ό+λ) Ό λ Multi-Objective Covariance Matrix Adaptation Evolution Strategy (MO-CMA-ES). In comparison with MO-CMA-ES, the experimental results show that the proposed algorithm offers up to a 69 % performance increase according to the Inverse Generational Distance (IGD) metric

    Cultural Algorithm based on Decomposition to solve Optimization Problems

    Get PDF
    Decomposition is used to solve optimization problems by introducing many simple scalar optimization subproblems and optimizing them simultaneously. Dynamic Multi-Objective Optimization Problems (DMOP) have several objective functions and constraints that vary over time. As a consequence of such dynamic changes, the optimal solutions may vary over time, affecting the performance of convergence. In this thesis, we propose a new Cultural Algorithm (CA) based on decomposition (CA/D). The objective of the CA/D algorithm is to decompose DMOP into a number of subproblems that can be optimized using the information shared by neighboring problems. The proposed CA/D approach is evaluated using a number of CEC 2015 optimization benchmark functions. When compared to CA, Multi-population CA (MPCA), and MPCA incorporating game strategies (MPCA-GS), the results obtained showed that CA/D outperformed them in 7 out of the 15 benchmark functions

    Scalarized Preferences in Multi-objective Optimization

    Get PDF
    Multikriterielle Optimierungsprobleme verfĂŒgen ĂŒber keine Lösung, die optimal in jeder Zielfunktion ist. Die Schwierigkeit solcher Probleme liegt darin eine Kompromisslösung zu finden, die den PrĂ€ferenzen des Entscheiders genĂŒgen, der den Kompromiss implementiert. Skalarisierung – die Abbildung des Vektors der Zielfunktionswerte auf eine reelle Zahl – identifiziert eine einzige Lösung als globales PrĂ€ferenzenoptimum um diese Probleme zu lösen. Allerdings generieren Skalarisierungsmethoden keine zusĂ€tzlichen Informationen ĂŒber andere Kompromisslösungen, die die PrĂ€ferenzen des Entscheiders bezĂŒglich des globalen Optimums verĂ€ndern könnten. Um dieses Problem anzugehen stellt diese Dissertation eine theoretische und algorithmische Analyse skalarisierter PrĂ€ferenzen bereit. Die theoretische Analyse besteht aus der Entwicklung eines Ordnungsrahmens, der PrĂ€ferenzen als Problemtransformationen charakterisiert, die prĂ€ferierte Untermengen der Paretofront definieren. Skalarisierung wird als Transformation der Zielmenge in diesem Ordnungsrahmen dargestellt. Des Weiteren werden Axiome vorgeschlagen, die wĂŒnschenswerte Eigenschaften von Skalarisierungsfunktionen darstellen. Es wird gezeigt unter welchen Bedingungen existierende Skalarisierungsfunktionen diese Axiome erfĂŒllen. Die algorithmische Analyse kennzeichnet PrĂ€ferenzen anhand des Resultats, das ein Optimierungsalgorithmus generiert. Zwei neue Paradigmen werden innerhalb dieser Analyse identifiziert. FĂŒr beide Paradigmen werden Algorithmen entworfen, die skalarisierte PrĂ€ferenzeninformationen verwenden: PrĂ€ferenzen-verzerrte Paretofrontapproximationen verteilen Punkte ĂŒber die gesamte Paretofront, fokussieren aber mehr Punkte in Regionen mit besseren Skalarisierungswerten; multimodale PrĂ€ferenzenoptima sind Punkte, die lokale Skalarisierungsoptima im Zielraum darstellen. Ein Drei-Stufen-Algorith\-mus wird entwickelt, der lokale Skalarisierungsoptima approximiert und verschiedene Methoden werden fĂŒr die unterschiedlichen Stufen evaluiert. Zwei Realweltprobleme werden vorgestellt, die die NĂŒtzlichkeit der beiden Algorithmen illustrieren. Das erste Problem besteht darin FahrplĂ€ne fĂŒr ein Blockheizkraftwerk zu finden, die die erzeugte ElektrizitĂ€t und WĂ€rme maximieren und den Kraftstoffverbrauch minimiert. PrĂ€ferenzen-verzerrte Approximationen generieren mehr Energie-effiziente Lösungen, unter denen der Entscheider seine favorisierte Lösung auswĂ€hlen kann, indem er die Konflikte zwischen den drei Zielen abwĂ€gt. Das zweite Problem beschĂ€ftigt sich mit der Erstellung von FahrplĂ€nen fĂŒr GerĂ€te in einem WohngebĂ€ude, so dass Energiekosten, Kohlenstoffdioxidemissionen und thermisches Unbehagen minimiert werden. Es wird gezeigt, dass lokale Skalarisierungsoptima FahrplĂ€ne darstellen, die eine gute Balance zwischen den drei Zielen bieten. Die Analyse und die Experimente, die in dieser Arbeit vorgestellt werden, ermöglichen es Entscheidern bessere Entscheidungen zu treffen indem Methoden angewendet werden, die mehr Optionen generieren, die mit den PrĂ€ferenzen der Entscheider ĂŒbereinstimmen

    Application of nature-inspired optimization algorithms to improve the production efficiency of small and medium-sized bakeries

    Get PDF
    Increasing production efficiency through schedule optimization is one of the most influential topics in operations research that contributes to decision-making process. It is the concept of allocating tasks among available resources within the constraints of any manufacturing facility in order to minimize costs. It is carried out by a model that resembles real-world task distribution with variables and relevant constraints in order to complete a planned production. In addition to a model, an optimizer is required to assist in evaluating and improving the task allocation procedure in order to maximize overall production efficiency. The entire procedure is usually carried out on a computer, where these two distinct segments combine to form a solution framework for production planning and support decision-making in various manufacturing industries. Small and medium-sized bakeries lack access to cutting-edge tools, and most of their production schedules are based on personal experience. This makes a significant difference in production costs when compared to the large bakeries, as evidenced by their market dominance. In this study, a hybrid no-wait flow shop model is proposed to produce a production schedule based on actual data, featuring the constraints of the production environment in small and medium-sized bakeries. Several single-objective and multi-objective nature-inspired optimization algorithms were implemented to find efficient production schedules. While makespan is the most widely used quality criterion of production efficiency because it dominates production costs, high oven idle time in bakeries also wastes energy. Combining these quality criteria allows for additional cost reduction due to energy savings as well as shorter production time. Therefore, to obtain the efficient production plan, makespan and oven idle time were included in the objectives of optimization. To find the optimal production planning for an existing production line, particle swarm optimization, simulated annealing, and the Nawaz-Enscore-Ham algorithms were used. The weighting factor method was used to combine two objectives into a single objective. The classical optimization algorithms were found to be good enough at finding optimal schedules in a reasonable amount of time, reducing makespan by 29 % and oven idle time by 8 % of one of the analyzed production datasets. Nonetheless, the algorithms convergence was found to be poor, with a lower probability of obtaining the best or nearly the best result. In contrast, a modified particle swarm optimization (MPSO) proposed in this study demonstrated significant improvement in convergence with a higher probability of obtaining better results. To obtain trade-offs between two objectives, state-of-the-art multi-objective optimization algorithms, non-dominated sorting genetic algorithm (NSGA-II), strength Pareto evolutionary algorithm, generalized differential evolution, improved multi-objective particle swarm optimization (OMOPSO) and speed-constrained multi-objective particle swarm optimization (SMPSO) were implemented. Optimization algorithms provided efficient production planning with up to a 12 % reduction in makespan and a 26 % reduction in oven idle time based on data from different production days. The performance comparison revealed a significant difference between these multi-objective optimization algorithms, with NSGA-II performing best and OMOPSO and SMPSO performing worst. Proofing is a key processing stage that contributes to the quality of the final product by developing flavor and fluffiness texture in bread. However, the duration of proofing is uncertain due to the complex interaction of multiple parameters: yeast condition, temperature in the proofing chamber, and chemical composition of flour. Due to the uncertainty of proofing time, a production plan optimized with the shortest makespan can be significantly inefficient. The computational results show that the schedules with the shortest and nearly shortest makespan have a significant (up to 18 %) increase in makespan due to proofing time deviation from expected duration. In this thesis, a method for developing resilient production planning that takes into account uncertain proofing time is proposed, so that even if the deviation in proofing time is extreme, the fluctuation in makespan is minimal. The experimental results with a production dataset revealed a proactive production plan, with only 5 minutes longer than the shortest makespan, but only 21 min fluctuating in makespan due to varying the proofing time from -10 % to +10 % of actual proofing time. This study proposed a common framework for small and medium-sized bakeries to improve their production efficiency in three steps: collecting production data, simulating production planning with the hybrid no-wait flow shop model, and running the optimization algorithm. The study suggests to use MPSO for solving single objective optimization problem and NSGA-II for multi-objective optimization problem. Based on real bakery production data, the results revealed that existing plans were significantly inefficient and could be optimized in a reasonable computational time using a robust optimization algorithm. Implementing such a framework in small and medium-sized bakery manufacturing operations could help to achieve an efficient and resilient production system.Die Steigerung der Produktionseffizienz durch die Optimierung von ArbeitsplĂ€nen ist eines der am meisten erforschten Themen im Bereich der Unternehmensplanung, die zur Entscheidungsfindung beitrĂ€gt. Es handelt sich dabei um die Aufteilung von Aufgaben auf die verfĂŒgbaren Ressourcen innerhalb der BeschrĂ€nkungen einer Produktionsanlage mit dem Ziel der Kostenminimierung. Diese Optimierung von ArbeitsplĂ€nen wird mit Hilfe eines Modells durchgefĂŒhrt, das die Aufgabenverteilung in der realen Welt mit Variablen und relevanten EinschrĂ€nkungen nachbildet, um die Produktion zu simulieren. ZusĂ€tzlich zu einem Modell sind Optimierungsverfahren erforderlich, die bei der Bewertung und Verbesserung der Aufgabenverteilung helfen, um eine effiziente Gesamtproduktion zu erzielen. Das gesamte Verfahren wird in der Regel auf einem Computer durchgefĂŒhrt, wobei diese beiden unterschiedlichen Komponenten (Modell und Optimierungsverfahren) zusammen einen Lösungsrahmen fĂŒr die Produktionsplanung bilden und die Entscheidungsfindung in verschiedenen Fertigungsindustrien unterstĂŒtzen. Kleine und mittelgroße BĂ€ckereien haben zumeist keinen Zugang zu den modernsten Werkzeugen und die meisten ihrer ProduktionsplĂ€ne beruhen auf persönlichen Erfahrungen. Dies macht einen erheblichen Unterschied bei den Produktionskosten im Vergleich zu den großen BĂ€ckereien aus, was sich in deren Marktdominanz widerspiegelt. In dieser Studie wird ein hybrides No-Wait-Flow-Shop-Modell vorgeschlagen, um einen Produktionsplan auf der Grundlage tatsĂ€chlicher Daten zu erstellen, der die BeschrĂ€nkungen der Produktionsumgebung in kleinen und mittleren BĂ€ckereien berĂŒcksichtigt. Mehrere einzel- und mehrzielorientierte, von der Natur inspirierte Optimierungsalgorithmen wurden implementiert, um effiziente ProduktionsplĂ€ne zu berechnen. Die Minimierung der Produktionsdauer ist das am hĂ€ufigsten verwendete QualitĂ€tskriterium fĂŒr die Produktionseffizienz, da sie die Produktionskosten dominiert. Jedoch wird in BĂ€ckereien durch hohe Leerlaufzeiten der Öfen Energie verschwendet was wiederum die Produktionskosten erhöht. Die Kombination beider QualitĂ€tskriterien (minimale Produktionskosten, minimale Leerlaufzeiten der Öfen) ermöglicht eine zusĂ€tzliche Kostenreduzierung durch Energieeinsparungen und kurze Produktionszeiten. Um einen effizienten Produktionsplan zu erhalten, wurden daher die Minimierung der Produktionsdauer und der Ofenleerlaufzeit in die Optimierungsziele einbezogen. Um optimale ProduktionsplĂ€ne fĂŒr bestehende Produktionsprozesse von BĂ€ckereien zu ermitteln, wurden folgende Algorithmen untersucht: Particle Swarm Optimization, Simulated Annealing und Nawaz-Enscore-Ham. Die Methode der Gewichtung wurde verwendet, um zwei Ziele zu einem einzigen Ziel zu kombinieren. Die Optimierungsalgorithmen erwiesen sich als gut genug, um in angemessener Zeit optimale PlĂ€ne zu berechnen, wobei bei einem untersuchten Datensatz die Produktionsdauer um 29 % und die Leerlaufzeit des Ofens um 8 % reduziert wurde. Allerdings erwies sich die Konvergenz der Algorithmen als unzureichend, da nur mit einer geringen Wahrscheinlichkeit das beste oder nahezu beste Ergebnis berechnet wurde. Im Gegensatz dazu zeigte der in dieser Studie ebenfalls untersuchte modifizierte Particle-swarm-Optimierungsalgorithmus (mPSO) eine deutliche Verbesserung der Konvergenz mit einer höheren Wahrscheinlichkeit, bessere Ergebnisse zu erzielen im Vergleich zu den anderen Algorithmen. Um Kompromisse zwischen zwei Zielen zu erzielen, wurden moderne Algorithmen zur Mehrzieloptimierung implementiert: Non-dominated Sorting Genetic Algorithm (NSGA-II), Strength Pareto Evolutionary Algorithm, Generalized Differential Evolution, Improved Multi-objective Particle Swarm Optimization (OMOPSO), and Speed-constrained Multi-objective Particle Swarm Optimization (SMPSO). Die Optimierungsalgorithmen ermöglichten eine effiziente Produktionsplanung mit einer Verringerung der Produktionsdauer um bis zu 12 % und einer Verringerung der Leerlaufzeit der Öfen um 26 % auf der Grundlage von Daten aus unterschiedlichen Produktionsprozessen. Der Leistungsvergleich zeigte signifikante Unterschiede zwischen diesen Mehrziel-Optimierungsalgorithmen, wobei NSGA-II am besten und OMOPSO und SMPSO am schlechtesten abschnitten. Die GĂ€rung ist ein wichtiger Verarbeitungsschritt, der zur QualitĂ€t des Endprodukts beitrĂ€gt, indem der Geschmack und die Textur des Brotes positiv beeinflusst werden kann. Die Dauer der GĂ€rung ist jedoch aufgrund der komplexen Interaktion von mehreren GrĂ¶ĂŸen abhĂ€ngig wie der Hefezustand, der Temperatur in der GĂ€rkammer und der chemischen Zusammensetzung des Mehls. Aufgrund der VariabilitĂ€t der GĂ€rzeit kann jedoch ein Produktionsplan, der auf die kĂŒrzeste Produktionszeit optimiert ist, sehr ineffizient sein. Die Berechnungsergebnisse zeigen, dass die PlĂ€ne mit der kĂŒrzesten und nahezu kĂŒrzesten Produktionsdauer eine erhebliche (bis zu 18 %) Erhöhung der Produktionsdauer aufgrund der Abweichung der GĂ€rzeit von der erwarteten Dauer aufweisen. In dieser Arbeit wird eine Methode zur Entwicklung einer robusten Produktionsplanung vorgeschlagen, die VerĂ€nderungen in den GĂ€rzeiten berĂŒcksichtigt, so dass selbst bei einer extremen Abweichung der GĂ€rzeit die Schwankung der Produktionsdauer minimal ist. Die experimentellen Ergebnisse fĂŒr einen Produktionsprozess ergaben einen robusten Produktionsplan, der nur 5 Minuten lĂ€nger ist als die kĂŒrzeste Produktionsdauer, aber nur 21 Minuten in der Produktionsdauer schwankt, wenn die GĂ€rzeit von -10 % bis +10 % der ermittelten GĂ€rzeit variiert. In dieser Studie wird ein Vorgehen fĂŒr kleine und mittlere BĂ€ckereien vorgeschlagen, um ihre Produktionseffizienz in drei Schritten zu verbessern: Erfassung von Produktionsdaten, Simulation von ProduktionsplĂ€nen mit dem hybrid No-Wait Flow Shop Modell und AusfĂŒhrung der Optimierung. FĂŒr die Einzieloptimierung wird der mPSO-Algorithmus und fĂŒr die Mehrzieloptimierung NSGA-II-Algorithmus empfohlen. Auf der Grundlage realer BĂ€ckereiproduktionsdaten zeigten die Ergebnisse, dass die in den BĂ€ckereien verwendeten PlĂ€ne ineffizient waren und mit Hilfe eines effizienten Optimierungsalgorithmus in einer angemessenen Rechenzeit optimiert werden konnten. Die Umsetzung eines solchen Vorgehens in kleinen und mittelgroßen BĂ€ckereibetrieben trĂ€gt dazu bei effiziente und robuste ProduktionsplĂ€ne zu erstellen und somit die WettbewerbsfĂ€higkeit dieser BĂ€ckereien zu erhöhen

    System Architecture Design Using Multi-Criteria Optimization

    Get PDF
    System architecture is defined as the description of a complex system in terms of its functional requirements, physical elements and their interrelationships. Designing a complex system architecture can be a difficult task involving multi-faceted trade-off decisions. The system architecture designs often have many project-specific goals involving mix of quantitative and qualitative criteria and a large design trade space. Several tools and methods have been developed to support the system architecture design process in the last few decades. However, many conventional problem solving techniques face difficulties in dealing with complex system design problems having many goals. In this research work, an interactive multi-criteria design optimization framework is proposed for solving many-objective system architecture design problems and generating a well distributed set of Pareto optimal solutions for these problems. System architecture design using multi-criteria optimization is demonstrated using a real-world application of an aero engine health management (EHM) system. A design process is presented for the optimal deployment of the EHM system functional operations over physical architecture subsystems. The EHM system architecture design problem is formulated as a multi-criteria optimization problem. The proposed methodology successfully generates a well distributed family of Pareto optimal architecture solutions for the EHM system, which provides valuable insights into the design trade-offs. Uncertainty analysis is implemented using an efficient polynomial chaos approach and robust architecture solutions are obtained for the EHM system architecture design. Performance assessment through evaluation of benchmark test metrics demonstrates the superior performance of the proposed methodology

    ETEA: A euclidean minimum spanning tree-Based evolutionary algorithm for multiobjective optimization

    Get PDF
    © the Massachusetts Institute of TechnologyAbstract The Euclidean minimum spanning tree (EMST), widely used in a variety of domains, is a minimum spanning tree of a set of points in the space, where the edge weight between each pair of points is their Euclidean distance. Since the generation of an EMST is entirely determined by the Euclidean distance between solutions (points), the properties of EMSTs have a close relation with the distribution and position information of solutions. This paper explores the properties of EMSTs and proposes an EMST-based Evolutionary Algorithm (ETEA) to solve multiobjective optimization problems (MOPs). Unlike most EMO algorithms that focus on the Pareto dominance relation, the proposed algorithm mainly considers distance-based measures to evaluate and compare individuals during the evolutionary search. Specifically in ETEA, four strategies are introduced: 1) An EMST-based crowding distance (ETCD) is presented to estimate the density of individuals in the population; 2) A distance comparison approach incorporating ETCD is used to assign the fitness value for individuals; 3) A fitness adjustment technique is designed to avoid the partial overcrowding in environmental selection; 4) Three diversity indicators-the minimum edge, degree, and ETCD-with regard to EMSTs are applied to determine the survival of individuals in archive truncation. From a series of extensive experiments on 32 test instances with different characteristics, ETEA is found to be competitive against five state-of-the-art algorithms and its predecessor in providing a good balance among convergence, uniformity, and spread.Engineering and Physical Sciences Research Council (EPSRC) of the United Kingdom under Grant EP/K001310/1, and the National Natural Science Foundation of China under Grant 61070088
    • 

    corecore