21 research outputs found

    Comma Selection Outperforms Plus Selection on OneMax with Randomly Planted Optima

    Full text link
    It is an ongoing debate whether and how comma selection in evolutionary algorithms helps to escape local optima. We propose a new benchmark function to investigate the benefits of comma selection: OneMax with randomly planted local optima, generated by frozen noise. We show that comma selection (the (1,λ)(1,\lambda) EA) is faster than plus selection (the (1+λ)(1+\lambda) EA) on this benchmark, in a fixed-target scenario, and for offspring population sizes λ\lambda for which both algorithms behave differently. For certain parameters, the (1,λ)(1,\lambda) EA finds the target in Θ(nlnn)\Theta(n \ln n) evaluations, with high probability (w.h.p.), while the (1+λ)(1+\lambda) EA) w.h.p. requires almost Θ((nlnn)2)\Theta((n\ln n)^2) evaluations. We further show that the advantage of comma selection is not arbitrarily large: w.h.p. comma selection outperforms plus selection at most by a factor of O(nlnn)O(n \ln n) for most reasonable parameter choices. We develop novel methods for analysing frozen noise and give powerful and general fixed-target results with tail bounds that are of independent interest.Comment: An extended abstract will be published at GECCO 202

    How to Escape Local Optima in Black Box Optimisation: When Non-elitism Outperforms Elitism

    Get PDF
    Escaping local optima is one of the major obstacles to function optimisation. Using the metaphor of a fitness landscape, local optima correspond to hills separated by fitness valleys that have to be overcome. We define a class of fitness valleys of tunable difficulty by considering their length, representing the Hamming path between the two optima and their depth, the drop in fitness. For this function class we present a runtime comparison between stochastic search algorithms using different search strategies. The ((Formula presented.)) EA is a simple and well-studied evolutionary algorithm that has to jump across the valley to a point of higher fitness because it does not accept worsening moves (elitism). In contrast, the Metropolis algorithm and the Strong Selection Weak Mutation (SSWM) algorithm, a famous process in population genetics, are both able to cross the fitness valley by accepting worsening moves. We show that the runtime of the ((Formula presented.)) EA depends critically on the length of the valley while the runtimes of the non-elitist algorithms depend crucially on the depth of the valley. Moreover, we show that both SSWM and Metropolis can also efficiently optimise a rugged function consisting of consecutive valleys

    When the Plus Strategy Outperforms the Comma Strategyand When Not

    No full text

    Scalable parallel evolutionary optimisation based on high performance computing

    Get PDF
    Evolutionary algorithms (EAs) have been successfully applied to solve various challenging optimisation problems. Due to their stochastic nature, EAs typically require considerable time to find desirable solutions; especially for increasingly complex and large-scale problems. As a result, many works studied implementing EAs on parallel computing facilities to accelerate the time-consuming processes. Recently, the rapid development of modern parallel computing facilities such as the high performance computing (HPC) bring not only unprecedented computational capabilities but also challenges on designing parallel algorithms. This thesis mainly focuses on designing scalable parallel evolutionary optimisation (SPEO) frameworks which run efficiently on the HPC. Motivated by the interesting phenomenon that many EAs begin to employ increasingly large population sizes, this thesis firstly studies the effect of a large population size through comprehensive experiments. Numerical results indicate that a large population benefits to the solving of complex problems but requires a large number of maximal fitness evaluations (FEs). However, since sequential EAs usually requires a considerable computing time to achieve extensive FEs, we propose a scalable parallel evolutionary optimisation framework that can efficiently deploy parallel EAs over many CPU cores at CPU-only HPC. On the other hand, since EAs using a large number of FEs can produce massive useful information in the course of evolution, we design a surrogate-based approach to learn from this historical information and to better solve complex problems. Then this approach is implemented in parallel based on the proposed scalable parallel framework to achieve remarkable speedups. Since demanding a great computing power on CPU-only HPC is usually very expensive, we design a framework based on GPU-enabled HPC to improve the cost-effectiveness of parallel EAs. The proposed framework can efficiently accelerate parallel EAs using many GPUs and can achieve superior cost-effectiveness. However, since it is very challenging to correctly implement parallel EAs on the GPU, we propose a set of guidelines to verify the correctness of GPU-based EAs. In order to examine these guidelines, they are employed to verify a GPU-based brain storm optimisation that is also proposed in this thesis. In conclusion, the comprehensively experimental study is firstly conducted to investigate the impacts of a large population. After that, a SPEO framework based on CPU-only HPC is proposed and is employed to accelerate a time-consuming implementation of EA. Finally, the correctness verification of implementing EAs based on a single GPU is discussed and the SPEO framework is then extended to be deployed based on GPU-enabled HPC

    Optimization Techniques for Automated Software Test Data Generation

    Get PDF
    Esta tesis propone una variedad de contribuciones al campo de pruebas evolutivas. Hemos abarcados un amplio rango de aspectos relativos a las pruebas de programas: código fuente procedimental y orientado a objetos, paradigmas estructural y funcional, problemas mono-objetivo y multi-objetivo, casos de prueba aislados y secuencias de pruebas, y trabajos teóricos y experimentales. En relación a los análisis llevados a cabo, hemos puesto énfasis en el análisis estadístico de los resultados para evaluar la significancia práctica de los resultados. En resumen, las principales contribuciones de la tesis son: Definición de una nueva medida de distancia para el operador instanceof en programas orientados a objetos: En este trabajo nos hemos centrado en un aspecto relacionado con el software orientado a objetos, la herencia, para proponer algunos enfoques que pueden ayudar a guiar la búsqueda de datos de prueba en el contexto de las pruebas evolutivas. En particular, hemos propuesto una medida de distancia para computar la distancia de ramas en presencia del operador instanceof en programas Java. También hemos propuesto dos operadores de mutación que modifican las soluciones candidatas basadas en la medida de distancia definida. Definición de una nueva medida de complejidad llamada ``Branch Coverage Expectation'': En este trabajo nos enfrentamos a la complejidad de pruebas desde un punto de vista original: un programa es más complejo si es más difícil de probar de forma automática. Consecuentemente, definimos la ``Branch Coverage Expectation'' para proporcionar conocimiento sobre la dificultad de probar programas. La fundación de esta medida se basa en el modelo de Markov del programa. El modelo de Markov proporciona fundamentos teóricos. El análisis de esta medida indica que está más correlacionada con la cobertura de rama que las otras medidas de código estáticas. Esto significa que esto es un buen modo de estimar la dificultad de probar un programa. Predicción teórica del número de casos de prueba necesarios para cubrir un porcentaje concreto de un programa: Nuestro modelo de Markov del programa puede ser usado para proporcionar una estimación del número de casos de prueba necesarios para cubrir un porcentaje concreto del programa. Hemos comparado nuestra predicción teórica con la media de las ejecuciones reales de un generador de datos de prueba. Este modelo puede ayudar a predecir la evolución de la fase de pruebas, la cual consecuentemente puede ahorrar tiempo y coste del proyecto completo. Esta predicción teórica podría ser también muy útil para determinar el porcentaje del programa cubierto dados un número de casos de prueba. Propuesta de enfoques para resolver el problema de generación de datos de prueba multi-objetivo: En ese capítulo estudiamos el problema de la generación multi-objetivo con el fin de analizar el rendimiento de un enfoque directo multi-objetivo frente a la aplicación de un algoritmo mono-objetivo seguido de una selección de casos de prueba. Hemos evaluado cuatro algoritmos multi-objetivo (MOCell, NSGA-II, SPEA2, y PAES) y dos algoritmos mono-objetivo (GA y ES), y dos algoritmos aleatorios. En términos de convergencia hacía el frente de Pareto óptimo, GA y MOCell han sido los mejores resolutores en nuestra comparación. Queremos destacar que el enfoque mono-objetivo, donde se ataca cada rama por separado, es más efectivo cuando el programa tiene un grado de anidamiento alto. Comparativa de diferentes estrategias de priorización en líneas de productos y árboles de clasificación: En el contexto de pruebas funcionales hemos tratado el tema de la priorización de casos de prueba con dos representaciones diferentes, modelos de características que representan líneas de productos software y árboles de clasificación. Hemos comparado cinco enfoques relativos al método de clasificación con árboles y dos relativos a líneas de productos, cuatro de ellos propuestos por nosotros. Los resultados nos indican que las propuestas para ambas representaciones basadas en un algoritmo genético son mejores que el resto en la mayoría de escenarios experimentales, es la mejor opción cuando tenemos restricciones de tiempo o coste. Definición de la extensión del método de clasificación con árbol para la generación de secuencias de pruebas: Hemos definido formalmente esta extensión para la generación de secuencias de pruebas que puede ser útil para la industria y para la comunidad investigadora. Sus beneficios son claros ya que indudablemente el coste de situar el artefacto bajo pruebas en el siguiente estado no es necesario, a la vez que reducimos significativamente el tamaño de la secuencia utilizando técnicas metaheurísticas. Particularmente nuestra propuesta basada en colonias de hormigas es el mejor algoritmo de la comparativa, siendo el único algoritmo que alcanza la cobertura máxima para todos los modelos y tipos de cobertura. Exploración del efecto de diferentes estrategias de seeding en el cálculo de frentes de Pareto óptimos en líneas de productos: Estudiamos el comportamiento de algoritmos clásicos multi-objetivo evolutivos aplicados a las pruebas por pares de líneas de productos. El grupo de algoritmos fue seleccionado para cubrir una amplia y diversa gama de técnicas. Nuestra evaluación indica claramente que las estrategias de seeding ayudan al proceso de búsqueda de forma determinante. Cuanta más información se disponga para crear esta población inicial, mejores serán los resultados obtenidos. Además, gracias al uso de técnicas multi-objetivo podemos proporcionar un conjunto de pruebas adecuado mayor o menor, en resumen, que mejor se adapte a sus restricciones económicas o tecnológicas. Propuesta de técnica exacta para la computación del frente de Pareto óptimo en líneas de productos software: Hemos propuesto un enfoque exacto para este cálculo en el caso multi-objetivo con cobertura paiwise. Definimos un programa lineal 0-1 y un algoritmo basado en resolutores SAT para obtener el frente de Pareto verdadero. La evaluación de los resultados nos indica que, a pesar de ser un fantástico método para el cálculo de soluciones óptimas, tiene el inconveniente de la escalabilidad, ya que para modelos grandes el tiempo de ejecución sube considerablemente. Tras realizar un estudio de correlaciones, confirmamos nuestras sospechas, existe una alta correlación entre el tiempo de ejecución y el número de productos denotado por el modelo de características del programa

    Distributed, decentralised and compensational mechanisms for platoon formation

    Get PDF
    Verkehrsprobleme nehmen mit der weltweiten Urbanisierung und der Zunahme der Anzahl der Fahrzeuge pro Kopf zu. Platoons, eine Formation von eng hintereinander fahrenden Fahrzeugen, stellen sich als mögliche Lösung dar, da bestehende Forschungen darauf hinweisen, dass sie zu einer besseren Straßenauslastung beitragen, den Kraftstoffverbrauch und die Emissionen reduzieren und Engpässe schneller entlasten können. Rund um das Thema Platooning gibt es viele Aspekte zu erforschen: Sicherheit, Stabilität, Kommunikation, Steuerung und Betrieb, die allesamt notwendig sind, um den Einsatz von Platooning im Alltagsverkehr näher zu bringen. Während in allen genannten Bereichen bereits umfangreiche Forschungen durchgeführt wurden, gibt es bisher nur wenige Arbeiten, die sich mit der logischen Gruppierung von Fahrzeugen in Platoons beschäftigen. Daher befasst sich diese Arbeit mit dem noch wenig erforschten Problem der Platoonbildung, wobei sich die vorhandenen Beispiele mit auf Autobahnen fahrenden Lastkraftwagen beschäftigen. Diese Fälle befinden sich auf der strategischen und taktischen Ebene der Planung, da sie von einem großen Zeithorizont profitieren und die Gruppierung entsprechend optimiert werden kann. Die hier vorgestellten Ansätze befinden sich hingegen auf der operativen Ebene, indem Fahrzeuge aufgrund der verteilten und dezentralen Natur dieser Ansätze spontan und organisch gruppiert und gesteuert werden. Dadurch entstehen sogenannte opportunistische Platoons, die aufgrund ihrer Flexibilität eine vielversprechende Voraussetzung für alle Netzwerkarte bieten könnten. Insofern werden in dieser Arbeit zwei neuartige Algorithmen zur Bildung von Platoons vorgestellt: ein verteilter Ansatz, der von klassischen Routing-Problemen abgeleitet wurde, und ein ergänzender dezentraler kompensatorischer Ansatz. Letzteres nutzt automatisierte Verhandlungen, um es den Fahrzeugen zu erleichtern, sich auf der Basis eines monetären Austausches in einem Platoon zu organisieren. In Anbetracht der Tatsache, dass alle Verkehrsteilnehmer über eine Reihe von Präferenzen, Einschränkungen und Zielen verfügen, muss das vorgeschlagene System sicherstellen, dass jede angebotene Lösung für die einzelnen Fahrzeuge akzeptabel und vorteilhaft ist und den möglichen Aufwand, die Kosten und die Opfer überwiegt. Dies wird erreicht, indem den Platooning-Fahrzeugen eine Form von Anreiz geboten wird, im Sinne von entweder Kostensenkung oder Ampelpriorisierung. Um die vorgeschlagenen Algorithmen zu testen, wurde eine Verkehrssimulation unter Verwendung realer Netzwerke mit realistischer Verkehrsnachfrage entwickelt. Die Verkehrsteilnehmer wurden in Agenten umgewandelt und mit der notwendigen Funktionalität ausgestattet, um Platoons zu bilden und innerhalb dieser zu operieren. Die Anwendbarkeit und Eignung beider Ansätze wurde zusammen mit verschiedenen anderen Aspekten untersucht, die den Betrieb von Platoons betreffen, wie Größe, Verkehrszustand, Netzwerkpositionierung und Anreizmethoden. Die Ergebnisse zeigen, dass die vorgeschlagenen Mechanismen die Bildung von spontanen Platoons ermöglichen. Darüber hinaus profitierten die teilnehmenden Fahrzeuge mit dem auf verteilter Optimierung basierenden Ansatz und unter Verwendung kostensenkender Anreize unabhängig von der Platoon-Größe, dem Verkehrszustand und der Positionierung, mit Nutzenverbesserungen von 20% bis über 50% im Vergleich zur untersuchten Baseline. Bei zeitbasierten Anreizen waren die Ergebnisse uneinheitlich, wobei sich der Nutzen einiger Fahrzeuge verbesserte, bei einigen keine Veränderung eintrat und bei anderen eine Verschlechterung zu verzeichnen war. Daher wird die Verwendung solcher Anreize aufgrund ihrer mangelnden Pareto-Effizienz nicht empfohlen. Der kompensatorische und vollständig dezentralisierte Ansatz weißt einige Vorteile auf, aber die daraus resultierende Verbesserung war insgesamt vernachlässigbar. Die vorgestellten Mechanismen stellen einen neuartigen Ansatz zur Bildung von Platoons dar und geben einen aussagekräftigen Einblick in die Mechanik und Anwendbarkeit von Platoons. Dies schafft die Voraussetzungen für zukünftige Erweiterungen in der Planung, Konzeption und Implementierung effektiverer Infrastrukturen und Verkehrssysteme.Traffic problems have been on the rise corresponding with the increase in worldwide urbanisation and the number of vehicles per capita. Platoons, which are a formation of vehicles travelling close together, present themselves as a possible solution, as existing research indicates that they can contribute to better road usage, reduce fuel consumption and emissions and decongest bottlenecks faster. There are many aspects to be explored pertaining to the topic of platooning: safety, stability, communication, controllers and operations, all of which are necessary to bring platoons closer to use in everyday traffic. While extensive research has already made substantial strides in all the aforementioned fields, there is so far little work on the logical grouping of vehicles in platoons. Therefore, this work addresses the platoon formation problem, which has not been heavily researched, with existing examples being focused on large, freight vehicles travelling on highways. These cases find themselves on the strategic and tactical level of planning since they benefit from a large time horizon and the grouping can be optimised accordingly. The approaches presented here, however, are on the operational level, grouping and routing vehicles spontaneously and organically thanks to their distributed and decentralised nature. This creates so-called opportunistic platoons which could provide a promising premise for all networks given their flexibility. To this extent, this thesis presents two novel platoon forming algorithms: a distributed approach derived from classical routing problems, and a supplementary decentralised compensational approach. The latter uses automated negotiation to facilitate vehicles organising themselves in a platoon based on monetary exchanges. Considering that all traffic participants have a set of preferences, limitations and goals, the proposed system must ensure that any solution provided is acceptable and beneficial for the individual vehicles, outweighing any potential effort, cost and sacrifices. This is achieved by offering platooning vehicles some form of incentivisation, either cost reductions or traffic light prioritisation. To test the proposed algorithms, a traffic simulation was developed using real networks with realistic traffic demand. The traffic participants were transformed into agents and given the necessary functionality to build platoons and operate within them. The applicability and suitability of both approaches were investigated along with several other aspects pertaining to platoon operations such as size, traffic state, network positioning and incentivisation methods. The results indicate that the mechanisms proposed allow for spontaneous platoons to be created. Moreover, with the distributed optimisation-based approach and using cost-reducing incentives, participating vehicles benefited regardless of the platoon size, traffic state and positioning, with utility improvements ranging from 20% to over 50% compared to the studied baseline. For time-based incentives the results were mixed, with the utility of some vehicles improving, some seeing no change and for others, deteriorating. Therefore, the usage of such incentives would not be recommended due to their lack of Pareto-efficiency. The compensational and completely decentralised approach shows some benefits, but the resulting improvement was overall negligible. The presented mechanisms are a novel approach to platoon formation and provide meaningful insight into the mechanics and applicability of platoons. This sets the stage for future expansions into planning, designing and implementing more effective infrastructures and traffic systems

    Place Recognition by Per-Location Classifiers

    Get PDF
    Place recognition is formulated as a task of finding the location where the query image was captured. This is an important task that has many practical applications in robotics, autonomous driving, augmented reality, 3D reconstruction or systems that organize imagery in geographically structured manner. Place recognition is typically done by finding a reference image in a large structured geo-referenced database. In this work, we first address the problem of building a geo-referenced dataset for place recognition. We describe a framework for building the dataset from the street-side imagery of the Google Street View that provides panoramic views from positions along many streets, cities and rural areas worldwide. Besides of downloading the panoramic views and ability to transform them into a set of perspective images, the framework is capable of getting underlying scene depth information. Second, we aim at localizing a query photograph by finding other images depicting the same place in a large geotagged image database. This is a challenging task due to changes in viewpoint, imaging conditions and the large size of the image database. The contribution of this work is two-fold; (i) we cast the place recognition problem as a classification task and use the available geotags to train a classifier for each location in the database in a similar manner to per-exemplar SVMs in object recognition, and (ii) as only a few positive training examples are available for each location, we propose two methods to calibrate all the per-location SVM classifiers without the need for additional positive training data. The first method relies on p-values from statistical hypothesis testing and uses only the available negative training data. The second method performs an affine calibration by appropriately normalizing the learned classifier hyperplane and does not need any additional labeled training data. We test the proposed place recognition method with the bag-of-visual-words and Fisher vector image representations suitable for large scale indexing. Experiments are performed on three datasets: 25,000 and 55,000 geotagged street view images of Pittsburgh, and the 24/7 Tokyo benchmark containing 76,000 images with varying illumination conditions. The results show improved place recognition accuracy of the learned image representation over direct matching of raw image descriptors.Katedra kybernetik

    BNAIC 2008:Proceedings of BNAIC 2008, the twentieth Belgian-Dutch Artificial Intelligence Conference

    Get PDF
    corecore