6 research outputs found

    Bi-objective Evolutionary Heuristics for Bus Drivers

    Get PDF
    The Bus Driver Rostering Problem refers to the assignment of drivers to the daily schedules of the company's buses, during a planning period of a given duration. The drivers' schedules must comply with legal and institutional rules, namely the Labour Law, labour agreements and the company's specific regulations. This paper presents a bi-objective model for the problem and two evolutionary heuristics differing as to the strategies adopted to approach the Pareto frontier. The first one, the utopian strategy, extends elitism to include an unfeasible solution in the population, and the second one is an adapted version of the well known SPEA2 (Strength Pareto Evolutionary Algorithm). The heuristics' empirical performance is studied with computational tests on a set of instances generated from vehicle and crew schedules. This research shows that both methodologies are adequate to tackle the instances of the Bus Driver Rostering Problem. In fact, in short computing times, they provide the planning department, with several feasible solutions, rosters that are very difficult to obtain manually and, in addition, identify among them the efficient solutions of the bi-objective model

    Multiobjective Simulation Optimization Using Enhanced Evolutionary Algorithm Approaches

    Get PDF
    In today\u27s competitive business environment, a firm\u27s ability to make the correct, critical decisions can be translated into a great competitive advantage. Most of these critical real-world decisions involve the optimization not only of multiple objectives simultaneously, but also conflicting objectives, where improving one objective may degrade the performance of one or more of the other objectives. Traditional approaches for solving multiobjective optimization problems typically try to scalarize the multiple objectives into a single objective. This transforms the original multiple optimization problem formulation into a single objective optimization problem with a single solution. However, the drawbacks to these traditional approaches have motivated researchers and practitioners to seek alternative techniques that yield a set of Pareto optimal solutions rather than only a single solution. The problem becomes much more complicated in stochastic environments when the objectives take on uncertain (or noisy ) values due to random influences within the system being optimized, which is the case in real-world environments. Moreover, in stochastic environments, a solution approach should be sufficiently robust and/or capable of handling the uncertainty of the objective values. This makes the development of effective solution techniques that generate Pareto optimal solutions within these problem environments even more challenging than in their deterministic counterparts. Furthermore, many real-world problems involve complicated, black-box objective functions making a large number of solution evaluations computationally- and/or financially-prohibitive. This is often the case when complex computer simulation models are used to repeatedly evaluate possible solutions in search of the best solution (or set of solutions). Therefore, multiobjective optimization approaches capable of rapidly finding a diverse set of Pareto optimal solutions would be greatly beneficial. This research proposes two new multiobjective evolutionary algorithms (MOEAs), called fast Pareto genetic algorithm (FPGA) and stochastic Pareto genetic algorithm (SPGA), for optimization problems with multiple deterministic objectives and stochastic objectives, respectively. New search operators are introduced and employed to enhance the algorithms\u27 performance in terms of converging fast to the true Pareto optimal frontier while maintaining a diverse set of nondominated solutions along the Pareto optimal front. New concepts of solution dominance are defined for better discrimination among competing solutions in stochastic environments. SPGA uses a solution ranking strategy based on these new concepts. Computational results for a suite of published test problems indicate that both FPGA and SPGA are promising approaches. The results show that both FPGA and SPGA outperform the improved nondominated sorting genetic algorithm (NSGA-II), widely-considered benchmark in the MOEA research community, in terms of fast convergence to the true Pareto optimal frontier and diversity among the solutions along the front. The results also show that FPGA and SPGA require far fewer solution evaluations than NSGA-II, which is crucial in computationally-expensive simulation modeling applications

    Evolutionary algorithms and other metaheuristics in water resources: Current status, research challenges and future directions

    Get PDF
    Abstract not availableH.R. Maier, Z. Kapelan, Kasprzyk, J. Kollat, L.S. Matott, M.C. Cunha, G.C. Dandy, M.S. Gibbs, E. Keedwell, A. Marchi, A. Ostfeld, D. Savic, D.P. Solomatine, J.A. Vrugt, A.C. Zecchin, B.S. Minsker, E.J. Barbour, G. Kuczera, F. Pasha, A. Castelletti, M. Giuliani, P.M. Ree

    Influência dos estimadores robustos sobre a convexidade e equiespaçamento das Fronteiras de Pareto para problemas duais.

    Get PDF
    Garantir a qualidade e a busca contínua por melhorias vem sendo exigido com um maior rigor pelas organizações que buscam focar na determinação de condições ótimas de operação. Diante deste cenário, surge o problema de pesquisa deste trabalho que trata da questão de como se obter Fronteiras convexas e equiespaçadas de Pareto para problemas biobjetivos de centralidade e dispersão obtidas por meio de um experimento de torneamento do aço de corte fácil ABNT/SAE 12L14 realizado no laboratório da Universidade Federal de Itajubá através de um arranjo cruzado o qual aborda a influência das variáveis de entrada com as variáveis de ruído. Nesse âmbito, emerge o conceito de Projetos Robustos de Parâmetros os quais visam com que a medida de centralidade dos dados seja a mais próxima possível do seu valor alvo e com que a medida de dispersão seja a menor possível e, desse modo, proporcionando com que o problema se torne insensível à ação dos ruídos. Consequentemente, a média e a variância das amostras são os estimadores normalmente utilizados na análise de problemas duais mesmo em casos de elevada variação e, diante deste fato, os estimadores robustos de localização e escala surgem como uma alternativa por possuírem a capacidade de modelar os outliers sem ter que retirá-los da amostra. Desse modo, oito modelos duais foram propostos para realizarem a modelagem dos dados experimentais e, sendo o Modelo A, composto pelos estimadores paramétricos de média e variância e, os demais (B – H), compostos por estimadores robustos não paramétricos. Após, foi proposta a utilização do método NBI, considerado o mais robusto atualmente, para a otimização dos modelos e, assim, potencializando a convexidade e o equiespaçamento dos pontos ótimos das Fronteiras de Pareto resultantes da otimização de cada um dos oito modelos propostos. Como objetivo específico, o presente trabalho visa propor uma métrica de comparação de desempenho entre as Fronteiras de Pareto obtidas para cada um dos oito modelos duais. O método de pesquisa adotado neste trabalho é a modelagem quantitativa axiomática normativa. Como resultado, destaca-se um melhor desempenho do Modelo H, constituído pelos estimadores robustos de máxima verossimilhança, em relação ao Modelo A, constituído pelos estimadores paramétricos de média e variância

    Método NBI-EQMM com restrições multivariadas para otimização do processo de Torneamento Duro.

    Get PDF
    Esta tese apresenta o desenvolvimento e a avaliação do método NBI-EQMM com restrições multivariadas para problemas de otimização multiobjetivo não-linear de larga escala, com funções objetivo e restrições correlacionadas. No método, a seleção das funções que integram cada grupo é realizada aplicando-se a Análise Hierárquica de Cluster (AHC) assistida por uma matriz de distâncias. Para testar a adequação da proposta, um arranjo composto central (CCD) com 3 variáveis de entrada (x) e 22 respostas (Y) foi desenvolvido com vistas a otimizar o processo de torneamento do aço endurecido ABNT H13, usinado com as ferramentas Wiper PCBN 7025AWG, CC 6050WG e CC 650WG. As 22 superfícies de resposta foram definidas para que o problema pudesse contemplar cinco dimensões de um processo real, em escala industrial: qualidade, custo, produtividade, viabilidade econômica e financeira e sustentabilidade. Os resultados obtidos indicam que o método NBI-EQMM com restrições multivariadas de igualdade e desigualdade contribuiu para a formação de fronteiras equiespaçadas e sem inversão dos sinais de correlação das respostas originais, conduzindo todas as respostas para valores próximos aos seus alvos, sem desrespeitar as restrições multivariadas pré-estabelecidas. Foi observado que a inclusão das restrições multivariadas para o cálculo da matriz Payoff permite o reescalonamento da fronteira de Pareto, aproximando as soluções ótimas obtidas de seus ótimos individuais, evitando que soluções Pareto-ótimo fora da região de solução viável sejam obtidas. Observou-se ainda que, quando os eixos da fronteira de Pareto são formados por respostas positivamente correlacionadas e com o mesmo sentido de otimização ou negativamente correlacionadas e com o sentido de otimização diferente, o método NBI bivariado falha, corroborando, portanto, a necessidade de aplicação do método NBI-EQMM proposto. Considerando que um importante fator para a competitividade das organizações é a fabricação de produtos em grande escala, com custo mínimo e aliada a padrões de qualidade compatíveis aos exigidos pelos clientes, pode-se dizer que a ferramenta CC 6050WG conseguiu atender, simultaneamente, a todas essas características, sendo, portanto, considerada a mais eficiente entre as ferramentas analisadas nesta Tese
    corecore