12 research outputs found

    Mapping lessons from ants to free flight: An ant-based weather aviodance algorithm in free flight airspace

    Get PDF
    The continuing growth of air traffic worldwide motivates the need for new approaches to air traffic management that are more flexible both in terms of traffic volume and weather. Free Flight is one such approach seriously considered by the aviation community. However the benefits of Free Flight are severely curtailed in the convective weather season when weather is highly active, leading aircrafts to deviate from their optimal trajectories. This paper investigates the use of ant colony optimization in generating optimal weather avoidance trajectories in Free Flight airspace. The problem is motivated by the need to take full advantage of the airspace capacity in a Free Flight environment, while maintaining safe separation between aircrafts and hazardous weather. The experiments described herein were run on a high fidelity Free Flight air traffic simulation system which allows for a variety of constraints on the computed routes and accurate measurement of environments dynamics. This permits us to estimate the desired behavior of an aircraft, including avoidance of changing hazardous weather patterns, turn and curvature constraints, and the horizontal separation standard and required time of arrival at a pre determined point, and to analyze the performance of our algorithm in various weather scenarios. The proposed Ant Colony Optimization based weather avoidance algorithm was able to find optimum weather free routes every time if they exist. In case of highly complex scenarios the algorithm comes out with the route which requires the aircraft to fly through the weather cells with least disturbances. All the solutions generated were within flight parameters and upon integration with the flight management system of the aircraft in a Free Flight air traffic simulator, successfully negotiated the bad weather

    Intergrating the Fruin LOS into the Multi-Objective Ant Colony System

    Get PDF
    Building evacuation simulation provides the planners and designers an opportunity to analyse the designs and plan a precise, scenario specific instruction for disaster times. Nevertheless, when disaster strikes, the unexpected may happen and many egress paths may get blocked or the conditions of evacuees may not let the execution of emergency plans go smoothly. During disaster times, effective route-finding methods can help efficient evacuation process, in which the directors are able to react to the sudden changes in the environment. This research tries to integrate the highly accepted human dynamics methods proposed by Fruin into the Ant-Colony optimisation route-finding method. The proposed method is designed as a multi-objective ant colony system, which tries to minimize the congestions in the bottlenecks during evacuations, in addition to the egress time, and total traversed time by evacuees. This method embodies the standard crowd dynamics method in the literature, which are Fruin LOS and pedestrian speed. The proposed method will be tested against a baseline method, that is shortest path, in terms of the objective functions, which are evacuation time and congestion degree. The results of the experiment show that a multi-objective ant colony system performance is able to reduce both egress time and congestion degree in an effective manner, however, the method efficiency drops when the evacuee population is small. The integration of Fruin LOS also produces more meaningful results, as the load responds to the Level of Service, rather than the density of the crowd, and the Level of Service is specifically designed for the sake of measuring the ease of crowd movement

    Evolutionary population dynamics and multi-objective optimisation problems

    Get PDF
    Griffith Sciences, School of Information and Communication TechnologyFull Tex

    Algorithmes de fourmis Pareto pour résoudre un problème d'ordonnancement représentatif de contextes réels

    Get PDF
    L’ordonnancement multi-objectifs est un domaine de recherche fertile. Les entreprises de tous les secteurs d’activités sont appelées à résoudre des problèmes complexes, de grandes dimensions, souvent de nature combinatoire et généralement à plusieurs objectifs contradictoires ou non commensurables. Ces entreprises doivent alors être en mesure de traiter avec des problèmes multi-objectifs (PMO). Dans le domaine de l’ordonnancement, la machine unique est un problème classique. Toutefois, les hypothèses simplificatrices émises en théorie créent un écart entre la pratique et la théorie. Un des écarts régulièrement présent est la considération du temps de réglage entre les tâches indépendant de la séquence. Dit autrement, le temps de réglage est considéré comme négligeable en théorie. Cependant, cette simplification n’est pas représentative de la plupart des contextes réels. Différentes études présentent l’impact des temps de réglage sur les systèmes de production industrielle. La conséquence de minimiser les temps de réglage est l’amélioration des délais de livraison (Conner 2009; Panwalkar et al. 1973). Pour réduire les écarts entre la pratique et la théorie, plusieurs PMO traitant de la machine unique ont proposé d’ajouter des caractéristiques pour réduire cet écart, dont la machine unique multi-objectifs avec fenêtre d’échéance d’Arroyo et al (Arroyo et al. 2011) (MURMO). La résolution d’un PMO consiste à produire un ensemble de solutions de compromis entre les objectifs avec ou sans l’aide d’un décideur. Talbi (2009) propose une classification des méthodes de résolution qui comprend, par exemple, les approches Pareto. Ces dernières utilisent la dominance au sens Pareto (Edgeworth 1881; Pareto 1896) pour évaluer la qualité des solutions. Seules les solutions non-dominées sont conservées dans l’ensemble de solutions de compromis, aussi appelé ensemble de solutions Pareto-Optimal (PO). Parmi les méthodes de résolutions, les algorithmes évolutionnaires (AE) connaissent de bons résultats en uni-objectif. Schaffer (1985) et Goldberg (1989) proposent les premières méthodes de résolution multi-objectifs utilisant les AE. Plusieurs AE ont été adaptés pour résoudre un PMO, dont les plus grandes réussites: NSGA-II (Deb et al. 2000), PMSMO (Zinflou et al. 2008) et GISMOO (Zinflou et al. 2012). NSGA-II pose les fondements des AE Pareto en introduisant le concept d’assignation de performance. Cette assignation évalue la qualité d’une solution par rapport aux autres selon des facteurs de dominance et d’isolement. Le facteur de dominance évalue à quel point la solution domine les autres solutions d’un ensemble. Le facteur d’isolement évalue la densité des solutions qui entourent la solution estimée. Ce mémoire présente l’adaptation de trois AE Pareto de la littérature au problème MURMO. Cette adaptation permet de créer une banque de résultats de comparaison. Les AE Pareto sont, par la suite, comparés avec le seul algorithme connu qui résout le problème MURMO, le MOVNS3 (Arroyo et al. 2011). La littérature dénombre d’autres types de méthodes de résolution basées sur la construction d’une population de solutions plutôt que sur l’évolution de la population au travers de générations, tel que vu en AE. Il y a entre autres les algorithmes appartenant à la famille de l’optimisation par colonie de fourmi (OCF) qui connaissent aussi de bons résultats en uni-objectif et leur utilisation pour résoudre les PMO ne fait qu’augmenter. La revue de la littérature des algorithmes d’OCF Pareto démontre que peu d’algorithmes sont basés sur l’ « ant colony system » (ACS) et que le nombre de colonies a un impact sur la conception de la méthode de résolution. Ce mémoire propose la comparaison entre une méthode multi-colonies et une méthode uni-colonie. Également, cette proposition démontre l’intérêt d’emprunter des concepts appartenant traditionnellement aux algorithmes évolutionnaires pour les adapter à d’autres algorithmes. La méthode multi-colonie est une adaptation pour le problème MURMO de l’algorithme proposé par Iredi et al (2001). Cet algorithme n’utilise pas d’assignation de performance des AE Pareto. L’algorithme d’OCF est basé sur un AS. Pour sa part, la méthode uni-colonie est représentée par la transposition de l’algorithme « genetic immune system for multiple objective optimization » (GISMOO) (Zinflou et al. 2012) vers un algorithme ACS. Cette transposition permet d’inclure l’assignation de performance dans l’algorithme d’OCF. Une comparaison équitable est proposée entre les méthodes multi-colonies et uni-colonie. Pour terminer, le mémoire présente une bonification de la transposition. Cette bonification a pour ambition d’améliorer les résultats de la méthode uni-colonie

    AN INVESTIGATION OF METAHEURISTICS USING PATH- RELINKING ON THE QUADRATIC ASSIGNMENT PROBLEM

    Get PDF
    The Quadratic Assignment Problem (QAP) is a widely researched, yet complex, combinatorial optimization problem that is applicable in modeling many real-world problems. Specifically, many optimization problems are formulated as QAPs. To resolve QAPs, the recent trends have been to use metaheuristics rather than exact or heuristic methods, and many researchers have found that the use of hybrid metaheuristics is actually more effective. A newly proposed hybrid metaheuristic is path relinking (PR), which is used to generate solutions by combining two or more reference solutions. In this dissertation, we investigated these diversification and intensification mechanisms using QAP. To satisfy the extensive demands of the computational resources, we utilized a High Throughput Computing (HTC) environment and test cases from the QAPLIB (QAP test case repository). This dissertation consists of three integrated studies that are built upon each other. The first phase explores the effects of the parameter tuning, metaheuristic design, and representation schemes (random keys and permutation solution encoding procedures) of two path-based metaheuristics (Tabu Search and Simulated Annealing) and two population-based metaheuristics (Genetic Algorithms and Artificial Immune Algorithms) using QAP as a testbed. In the second phase of the study, we examined eight tuned metaheuristics representing two representation schemes using problem characteristics. We use problem size, flow and distance dominance measures, sparsity (number of zero entries in the matrices), and the coefficient of correlation measures of the matrices to build search trajectories. The third phase of the dissertation focuses on intensification and diversification mechanisms using path-relinking (PR) procedures (the two variants of position-based path relinking) to enhance the performance of path-based and population-based metaheuristics. The current research in this field has explored the unusual effectiveness of PR algorithms in variety of applications and has emphasized the significance of future research incorporating more sophisticated strategies and frameworks. In addition to addressing these issues, we also examined the effects of solution representations on PR augmentation. For future research, we propose metaheuristic studies using fitness landscape analysis to investigate particular metaheuristics\u27 fitness landscapes and evolution through parameter tuning, solution representation, and PR augmentation. The main research contributions of this dissertation are to widen the knowledge domains of metaheuristic design, representation schemes, parameter tuning, PR mechanism viability, and search trajectory analysis of the fitness landscape using QAPs

    Cooperation in self-organized heterogeneous swarms

    Get PDF
    Cooperation in self-organized heterogeneous swarms is a phenomenon from nature with many applications in autonomous robots. I specifically analyzed the problem of auto-regulated team formation in multi-agent systems and several strategies to learn socially how to make multi-objective decisions. To this end I proposed new multi-objective ranking relations and analyzed their properties theoretically and within multi-objective metaheuristics. The results showed that simple decision mechanism suffice to build effective teams of heterogeneous agents and that diversity in groups is not a problem but can increase the efficiency of multi-agent systems

    Wielokryterialne, mrowiskowe algorytmy optymalizacji w nawigacji samochodowej

    Get PDF
    Rozwiązywanie złożonych problemów optymalizacji dyskretnej znajduje zastosowania praktyczne w wielu dziedzinach aktywności człowieka. Przykładem możne być wyszukiwanie optymalnej drogi między dwoma punktami na mapie drogowej w nawigacji samochodowej z zastosowaniem wielu kryteriów oceny. Problem jest znany w literaturze jako bardziej ogólny, wielokryterialny problem najkrótszej drogi w grafie (ang. multi-objective shortest path problem – MOSP). Na początku rozprawy zostały omówione różne, klasyczne podejścia do rozwiązywania problemów optymalizacji wielokryterialnej, ze szczególnym uwzględnieniem podejścia zaproponowanego przez włoskiego ekonomistę Vilfredo Pareto. W metodzie tej zakłada się, że w procesie optymalizacji wielokryterialnej bardzo rzadko możliwe jest wyznaczenie jednego rozwiązania, które jest optymalne z punktu widzenia każdego kryterium oceny równocześnie. W związku z tym wynikiem optymalizacji wielokryterialnej metoda Pareto jest najczęściej zbiór rozwiązań niezdominowanych. Każde rozwiązanie, które należy do tego zbioru charakteryzuje się tym, że nie da się już polepszyć żadnego z kryterium oceny bez pogorszenia pozostałych. W rozprawie zdefiniowano wielokryterialny problem wyszukiwania najkrótszej drogi w grafie oraz dokonano przeglądu różnych metod rozwiązywania tego problemu. Charakteryzują się one dużą złożonością obliczeniową, co zachęca do stosowania algorytmów wyznaczających rozwiązania przybliżone. Są wśród nich algorytmy optymalizacji mrowiskowej, które są skuteczną metodą rozwiązywania złożonych problemów optymalizacji dyskretnej. Optymalizacja mrowiskowa (ang. ant colony optimization – ACO) jest paradygmatem związanym z tworzeniem algorytmów heurystycznych dla rozwiązywania problemów optymalizacji dyskretnej, które należą do licznego grona algorytmów inspirowanych przez naturę. Jest on oparty na kolonii sztucznych mrówek, które współpracują i komunikują się za pośrednictwem sztucznych śladów feromonowych. Pierwszym algorytmem w tej klasie był system mrówkowy, który wywodzi się z badań w dziedzinie systemów naśladujących rzeczywiste zachowania mrówek i został zaproponowany w 1991 r. przez M. Dorigo, V. Maniezzo i A. Colorniego jako algorytm rozwiązujący problem komiwojażera. Mrówki podróżują w przestrzeni rozwiązań, która zwykle ma strukturę grafową. Następny punkt swojej drogi mrówki wybierają z prawdopodobieństwem zależącym od dwóch rodzajów informacji związanych z krawędzią: statycznej informacji heurystycznej, np. odległości między węzłami oraz śladu feromonowego, który zmienia się w trakcie obliczeń i jest środkiem „porozumiewania się” mrówek. Algorytmy mrowiskowe stały się podstawą zaproponowanych w rozprawie oryginalnych wielokryterialnych algorytmów optymalizacji w nawigacji samochodowej. Na podstawie algorytmu AVN, znanego z literatury, zaprezentowano nowe, udoskonalone algorytmy NAVN i MultiNAVN będące głównymi efektami prac nad niniejszą rozprawa. Zaproponowano dwie wersje algorytmu MultiNAVN: z kryterium zastępczym (MultiNAVNZ) oraz losowym wyborem kryterium (MultiNAVN-L), które zostały poddane eksperymentom na danych rzeczywistych. Wykorzystano cztery kryteria oceny rozwiązań: długość drogi, szerokość drogi, liczba skrzyżowań oraz bezpieczeństwo. Dane dotyczące trzech pierwszych kryteriów pozyskano z bazy danych systemu OpenStreetMap, a jako kryterium bezpieczeństwa wykorzystano informacje o wypadkach i kolizjach z systemu Policji o nazwie SEWiK. Oba algorytmy wyznaczają przybliżone zbiory rozwiązań niezdominowanych, których jakość może być mierzona odległością tych zbiorów (np. metryka Hausdorffa) od pełnych zbiorów rozwiązań wyznaczonych algorytmem deterministycznym. Za pomocą wielu eksperymentów wykazano, że zaproponowane algorytmy z powodzeniem wyznaczają drogi dla rzeczywistych map drogowych, przy czym wyniki są porównywalne, a nierzadko lepsze od rezultatów uzyskiwanych za pomocą innych algorytmów

    Multi-Quality Auto-Tuning by Contract Negotiation

    Get PDF
    A characteristic challenge of software development is the management of omnipresent change. Classically, this constant change is driven by customers changing their requirements. The wish to optimally leverage available resources opens another source of change: the software systems environment. Software is tailored to specific platforms (e.g., hardware architectures) resulting in many variants of the same software optimized for different environments. If the environment changes, a different variant is to be used, i.e., the system has to reconfigure to the variant optimized for the arisen situation. The automation of such adjustments is subject to the research community of self-adaptive systems. The basic principle is a control loop, as known from control theory. The system (and environment) is continuously monitored, the collected data is analyzed and decisions for or against a reconfiguration are computed and realized. Central problems in this field, which are addressed in this thesis, are the management of interdependencies between non-functional properties of the system, the handling of multiple criteria subject to decision making and the scalability. In this thesis, a novel approach to self-adaptive software--Multi-Quality Auto-Tuning (MQuAT)--is presented, which provides design and operation principles for software systems which automatically provide the best possible utility to the user while producing the least possible cost. For this purpose, a component model has been developed, enabling the software developer to design and implement self-optimizing software systems in a model-driven way. This component model allows for the specification of the structure as well as the behavior of the system and is capable of covering the runtime state of the system. The notion of quality contracts is utilized to cover the non-functional behavior and, especially, the dependencies between non-functional properties of the system. At runtime the component model covers the runtime state of the system. This runtime model is used in combination with the contracts to generate optimization problems in different formalisms (Integer Linear Programming (ILP), Pseudo-Boolean Optimization (PBO), Ant Colony Optimization (ACO) and Multi-Objective Integer Linear Programming (MOILP)). Standard solvers are applied to derive solutions to these problems, which represent reconfiguration decisions, if the identified configuration differs from the current. Each approach is empirically evaluated in terms of its scalability showing the feasibility of all approaches, except for ACO, the superiority of ILP over PBO and the limits of all approaches: 100 component types for ILP, 30 for PBO, 10 for ACO and 30 for 2-objective MOILP. In presence of more than two objective functions the MOILP approach is shown to be infeasible

    Proposition d'un outil d'aide à la décision multicritère sous incertitudes à base de colonies de fourmis : une approche intégrée appliquée à la gestion des risques dans les projets d'ingénierie système.

    Get PDF
    Dans cette thèse nous proposons un outil d’aide à la décision multicritère qui permet aux décideurs de sélectionner un scénario optimal dans un graphe de projet qui contient toutes les alternatives de choix de conception et de réalisation d’un nouveau système, tout en tenant compte des risques inhérents aux choix réalisés. Le modèle du graphe est construit en considérant toutes les décisions collaboratives des différents acteurs impliqués dans le projet. Cet outil d’aide à la décision est basé principalement sur les techniques de l’optimisation combinatoire. En effet, nous avons choisi de travailler avec la métaheuristique ACO (algorithme d’optimisation par colonies de fourmis) vu sa capacité à fournir des solutions optimales dans un temps raisonnable. Les objectifs à minimiser sont le coût global du projet, sa durée totale de réalisation et l’incertitude sur ces critères (coût, durée). La modélisation des incertitudes a été abordée suivant deux approches différentes. La première approche consiste à modéliser l’incertitude en utilisant des intervalles simples et en la considérant comme un objectif à part entière à optimiser avec le coût et la durée. Quant à la deuxième approche, elle permet de modéliser l’incertitude sur les objectifs du projet (coût, durée) sous formes de distributions de probabilités. L’outil d’optimisation proposé dans la thèse fait partie d’un processus intégré et plus global qui se base sur les standards industriels (processus d’ingénierie système et de management de projet) qui sont largement connus et utilisés dans les entreprises. Ainsi, le travail développé dans cette thèse constitue un vrai guide pour les industriels dans leurs processus de conception et de réalisation des systèmes complexes innovants dans le domaine d’ingénierie système
    corecore