148 research outputs found

    Coverage reduction: a mathematical model

    Get PDF
    This paper deals with a mathematical model for reduction of the lack of coverage (LC) involving multiple coverage in presence of partial covering. The model proposes a new structure of assignment of facilities in a facility location system to cover in greater proportion of the demand territory, avoiding assignment of several facilities in the same space of the territory. A comparison between the engendered solution and its representation is carried out through known indicators to measure the improvement of the solution. The results of our proposed model are contrast and better compared to defined referred models in order to evaluate the reduction of LC

    The Incremental Cooperative Design of Preventive Healthcare Networks

    Get PDF
    This document is the Accepted Manuscript version of the following article: Soheil Davari, 'The incremental cooperative design of preventive healthcare networks', Annals of Operations Research, first published online 27 June 2017. Under embargo. Embargo end date: 27 June 2018. The final publication is available at Springer via http://dx.doi.org/10.1007/s10479-017-2569-1.In the Preventive Healthcare Network Design Problem (PHNDP), one seeks to locate facilities in a way that the uptake of services is maximised given certain constraints such as congestion considerations. We introduce the incremental and cooperative version of the problem, IC-PHNDP for short, in which facilities are added incrementally to the network (one at a time), contributing to the service levels. We first develop a general non-linear model of this problem and then present a method to make it linear. As the problem is of a combinatorial nature, an efficient Variable Neighbourhood Search (VNS) algorithm is proposed to solve it. In order to gain insight into the problem, the computational studies were performed with randomly generated instances of different settings. Results clearly show that VNS performs well in solving IC-PHNDP with errors not more than 1.54%.Peer reviewe

    A heuristic approach to solve the preventive health care problem with budget and congestion constraints

    Get PDF
    This document is the Accepted Manuscript version of the following article: Soheil Davari, Kemal Kilic, and Siamak Naderi, ‘A heuristic approach to solve the preventive health care problem with budget and congestion constraints’, Applied Mathematics and Computation, Vol. 276, pp. 442-453, March 2016, doi: https://doi.org/10.1016/j.amc.2015.11.073. This manuscript version is made available under the terms of the Creative Commons Attribution-NonCommercial-NoDerivatives License CC BY NC-ND 4.0 (http://creativecommons.org/licenses/by-nc-nd/4.0/), which permits non-commercial re-use, distribution, and reproduction in any medium, provided the original work is properly cited, and is not altered, transformed, or built upon in any way.Preventive health care is of utmost importance to governments since they can make massive savings on health care expenditure and promote the well-being of the society. Preventive care includes many services such as cancer screenings, vaccinations, hepatitis screenings, and smoking cessation programs. Despite the benefits of these services, their uptake is not satisfactory in many countries in the world. This can be attributed to financial barriers, social issues., and other factors. One of the most important barriers for preventive care is accessibility to proper services, which is a function of various qualitative and quantitative factors such as the distance to travel, waiting time, vicinity of facilities to other attractive facilities (such as shopping malls), and even the cleanliness of the facilities. Statistics show that even a small improvement in people’s participation can save massive amounts of money for any government and improve the well-being of the people in a society. This paper addresses the problem of designing a preventive health care network considering impatient clients, and budget constraints. The objective is to maximize the accessibility of services to people. We model the problem as a mixed-integer programming problem with budget constraints, and congestion considerations. An efficient variable neighborhood search procedure is proposed and computational experiments are performed on a large set of instances.Peer reviewedFinal Accepted Versio

    Advanced meta-heuristic approaches and their application to operational optimization in forest wildfire management

    Get PDF
    La última década ha sido testigo de un aumento vertiginoso de la cantidad y frecuencia de desastres a gran escala, principalmente debido a los fenómenos devastadores derivados de paradigmas climatológicos y ambientales a gran escala como el calentamiento global. De entre ellos son las inundaciones, huracanes y terremotos los desastres de mayor frecuencia de aparición y fatales consecuencias durante este período, tal como certifican los más de 20.000 muertos a consecuencia de un terremoto en la región de Gujarat (India) en 2001, o las 230.000 y 316.000 pérdidas humanas de los terremotos de Indonesia y Haití en 2004 y 2010, respectivamente. En este contexto, el enfoque de esta tesis se centra en una casuística concreta de desastre a media-gran escala cuya frecuencia y severidad han crecido de manera igualmente preocupante en los últimos tiempos: los incendios, definidos como un fuego de grandes dimensiones no voluntariamente iniciado por el ser humano, y que afecta a aquello que no está destinado a quemarse. Pese a la diversidad de iniciativas, campañas y procedimientos orientados a la minimización del impacto y las consecuencias de los incendios, varios sucesos fatales acontecidos en los últimos años han puesto en duda la efectividad de las políticas actuales de gestión de recursos contra incendios como aeronaves, vehículos terrestres, equipamiento de comunicaciones radio, logística de abastecimiento y las brigadas desplegadas en el área afectada. Un ejemplo manifiesto de esta falta de eficacia es la muerte de once bomberos ocurrida en un incendio de 130 kilómetros cuadrados en la zona de Guadalajara (España) en 2005, oficialmente atribuida a una deficiente coordinación entre el puesto de mando y los equipos de extinción debida, fundamentalmente, a problemas de cobertura en los sistemas de radiocomunicación. Aunque la causa de esta falta de coordinación ha sido cuestionada por las autoridades y los agentes involucrados desde entonces, lo cierto es que este suceso supone un ejemplo evidente de la necesidad de estudiar y desarrollar herramientas algorítmicas que ayuden al personal de comandancia a ejecutar óptimamente sus tareas de coordinación y control. Desafortunadamente la coyuntura de crisis económica mundial que azota con especial fuerza los países del Sur de Europa ha mermado dramáticamente las partidas presupuestarias para la prevención y extinción de incendios en beneficio de programas nacionales de reducción de déficit. A consecuencia de estos recortes, el coste ha irrumpido con fuerza como un criterio de extrema relevancia en la planificación operativa de este tipo de desastres: desde la perspectiva de un problema de optimización, los recursos contra incendios son actualmente gestionados con el objetivo fundamental de maximizar su efectividad contra incendios, sujeto a la restricción de que el coste agregado asociado a las decisiones tomadas no supere un determinado umbral presupuestario. Pese a que estas restricciones de coste están bien acotadas, en la práctica la mayoría de los procedimientos de gestión de recursos contra incendios están fuertemente determinados por la capacidad limitada del ser humano para tomar decisiones ágiles en escenarios de elevada complejidad y heterogeneidad. Por los motivos anteriormente expuestos, la presente Tesis doctoral propone la adopción de algoritmos meta-heurísticos para solventar eficientemente problemas de optimización que modelan procesos de gestión de recursos contra incendios. Esta familia de algoritmos de optimización es capaz de explorar el espacio solución de un problema dado merced a la aplicación iterativa de mecanismos inteligentes de búsqueda explorativa y explotativa, produciendo soluciones que sacrifican calidad por una complejidad computacional menor en comparación con la resultante de procesos determinísticos de búsqueda exhaustiva. En particular la Tesis plantea la búsqueda por harmonía (del inglés Harmony Search) como la técnica meta-heurística de optimización común a las herramientas diseñadas para la gestión de recursos en dos escenarios diferentes: ? El primer escenario analizado contempla el despliegue óptimo de redes de comunicación inalámbrica para la coordinación de equipos de extinción en incendios forestales de gran escala. Desde el punto de vista formal, el problema del despliegue dinámico de retransmisores que caracteriza matemáticamente este escenario consiste en estimar el número y localización de los retransmisores radio que deben ser desplegados en el área afectada por el incendio, de tal modo que el número de nodos móviles (i.e. recursos) con cobertura radio es maximizado a un coste del despliegue mínimo. A fin de reflejar la diversidad de equipamiento de retransmisión radio existente en la realidad, este problema es reformulado para considerar modelos de retransmisor con diferentes características de cobertura y coste. El problema resultante es resuelto de manera eficiente mediante sendos algoritmos mono- y bi-objetivo que conjugan 1) la Búsqueda por Harmonía como método de búsqueda global; y 2) una versión modificada del algoritmo de agrupación K-means como técnica de búsqueda local. El desempeño de los métodos propuestos es evaluado mediante experimentos numéricos basados en datos estadísticos reales de la Comunidad de Castilla la Mancha (España), merced a cuyos resultados queda certificada su practicidad a la hora de desplegar infraestructura de comunicación en este tipo de desastres. ? El segundo escenario bajo estudio se concentra en el despliegue y planificación óptima de vehículos aéreos de extinción de incendios basados en estimaciones predictivas del riesgo de incendio de una cierta área geográfica. De manera enunciativa, el problema subyacente busca la asignación de recursos a aeródromos y aeropuertos con restricciones de capacidad que maximice la utilidad de dichos recursos en relación al riesgo de incendio y minimice, a su vez, el coste de ejecutar dicha asignación. La formulación de este problema también considera, dentro de la definición de dicha función de utilidad, la distancia relativa entre aeropuerto, punto de potencial riesgo de incendio y el recurso acuífero (lago, río o mar) más cercano. Para su resolución eficiente se propone el uso de algoritmos de optimización basados, de nuevo, en la Búsqueda por Harmonía, incorporando además métodos voraces de reparación capacitiva. La aplicabilidad práctica de estos métodos es validada mediante experimentos numéricos en escenarios sintéticos y un caso práctico que incluye valores reales del riesgo de incendio, posiciones de recursos acuíferos e instalaciones aeroportuarias. En resumen, esta Tesis evidencia, desde un punto de vista práctico, que la meta-heurística moderna supone una solución algorítmica computacionalmente eficiente para tratar problemas de gestión de recursos contra incendios sujetos a restricciones de coste

    Advanced meta-heuristic approaches and their application to operational optimization in forest wildfire management

    Get PDF
    La última década ha sido testigo de un aumento vertiginoso de la cantidad y frecuencia de desastres a gran escala, principalmente debido a los fenómenos devastadores derivados de paradigmas climatológicos y ambientales a gran escala como el calentamiento global. De entre ellos son las inundaciones, huracanes y terremotos los desastres de mayor frecuencia de aparición y fatales consecuencias durante este período, tal como certifican los más de 20.000 muertos a consecuencia de un terremoto en la región de Gujarat (India) en 2001, o las 230.000 y 316.000 pérdidas humanas de los terremotos de Indonesia y Haití en 2004 y 2010, respectivamente. En este contexto, el enfoque de esta tesis se centra en una casuística concreta de desastre a media-gran escala cuya frecuencia y severidad han crecido de manera igualmente preocupante en los últimos tiempos: los incendios, definidos como un fuego de grandes dimensiones no voluntariamente iniciado por el ser humano, y que afecta a aquello que no está destinado a quemarse. Pese a la diversidad de iniciativas, campañas y procedimientos orientados a la minimización del impacto y las consecuencias de los incendios, varios sucesos fatales acontecidos en los últimos años han puesto en duda la efectividad de las políticas actuales de gestión de recursos contra incendios como aeronaves, vehículos terrestres, equipamiento de comunicaciones radio, logística de abastecimiento y las brigadas desplegadas en el área afectada. Un ejemplo manifiesto de esta falta de eficacia es la muerte de once bomberos ocurrida en un incendio de 130 kilómetros cuadrados en la zona de Guadalajara (España) en 2005, oficialmente atribuida a una deficiente coordinación entre el puesto de mando y los equipos de extinción debida, fundamentalmente, a problemas de cobertura en los sistemas de radiocomunicación. Aunque la causa de esta falta de coordinación ha sido cuestionada por las autoridades y los agentes involucrados desde entonces, lo cierto es que este suceso supone un ejemplo evidente de la necesidad de estudiar y desarrollar herramientas algorítmicas que ayuden al personal de comandancia a ejecutar óptimamente sus tareas de coordinación y control. Desafortunadamente la coyuntura de crisis económica mundial que azota con especial fuerza los países del Sur de Europa ha mermado dramáticamente las partidas presupuestarias para la prevención y extinción de incendios en beneficio de programas nacionales de reducción de déficit. A consecuencia de estos recortes, el coste ha irrumpido con fuerza como un criterio de extrema relevancia en la planificación operativa de este tipo de desastres: desde la perspectiva de un problema de optimización, los recursos contra incendios son actualmente gestionados con el objetivo fundamental de maximizar su efectividad contra incendios, sujeto a la restricción de que el coste agregado asociado a las decisiones tomadas no supere un determinado umbral presupuestario. Pese a que estas restricciones de coste están bien acotadas, en la práctica la mayoría de los procedimientos de gestión de recursos contra incendios están fuertemente determinados por la capacidad limitada del ser humano para tomar decisiones ágiles en escenarios de elevada complejidad y heterogeneidad. Por los motivos anteriormente expuestos, la presente Tesis doctoral propone la adopción de algoritmos meta-heurísticos para solventar eficientemente problemas de optimización que modelan procesos de gestión de recursos contra incendios. Esta familia de algoritmos de optimización es capaz de explorar el espacio solución de un problema dado merced a la aplicación iterativa de mecanismos inteligentes de búsqueda explorativa y explotativa, produciendo soluciones que sacrifican calidad por una complejidad computacional menor en comparación con la resultante de procesos determinísticos de búsqueda exhaustiva. En particular la Tesis plantea la búsqueda por harmonía (del inglés Harmony Search) como la técnica meta-heurística de optimización común a las herramientas diseñadas para la gestión de recursos en dos escenarios diferentes: ? El primer escenario analizado contempla el despliegue óptimo de redes de comunicación inalámbrica para la coordinación de equipos de extinción en incendios forestales de gran escala. Desde el punto de vista formal, el problema del despliegue dinámico de retransmisores que caracteriza matemáticamente este escenario consiste en estimar el número y localización de los retransmisores radio que deben ser desplegados en el área afectada por el incendio, de tal modo que el número de nodos móviles (i.e. recursos) con cobertura radio es maximizado a un coste del despliegue mínimo. A fin de reflejar la diversidad de equipamiento de retransmisión radio existente en la realidad, este problema es reformulado para considerar modelos de retransmisor con diferentes características de cobertura y coste. El problema resultante es resuelto de manera eficiente mediante sendos algoritmos mono- y bi-objetivo que conjugan 1) la Búsqueda por Harmonía como método de búsqueda global; y 2) una versión modificada del algoritmo de agrupación K-means como técnica de búsqueda local. El desempeño de los métodos propuestos es evaluado mediante experimentos numéricos basados en datos estadísticos reales de la Comunidad de Castilla la Mancha (España), merced a cuyos resultados queda certificada su practicidad a la hora de desplegar infraestructura de comunicación en este tipo de desastres. ? El segundo escenario bajo estudio se concentra en el despliegue y planificación óptima de vehículos aéreos de extinción de incendios basados en estimaciones predictivas del riesgo de incendio de una cierta área geográfica. De manera enunciativa, el problema subyacente busca la asignación de recursos a aeródromos y aeropuertos con restricciones de capacidad que maximice la utilidad de dichos recursos en relación al riesgo de incendio y minimice, a su vez, el coste de ejecutar dicha asignación. La formulación de este problema también considera, dentro de la definición de dicha función de utilidad, la distancia relativa entre aeropuerto, punto de potencial riesgo de incendio y el recurso acuífero (lago, río o mar) más cercano. Para su resolución eficiente se propone el uso de algoritmos de optimización basados, de nuevo, en la Búsqueda por Harmonía, incorporando además métodos voraces de reparación capacitiva. La aplicabilidad práctica de estos métodos es validada mediante experimentos numéricos en escenarios sintéticos y un caso práctico que incluye valores reales del riesgo de incendio, posiciones de recursos acuíferos e instalaciones aeroportuarias. En resumen, esta Tesis evidencia, desde un punto de vista práctico, que la meta-heurística moderna supone una solución algorítmica computacionalmente eficiente para tratar problemas de gestión de recursos contra incendios sujetos a restricciones de coste

    Graph-based Algorithms for Smart Mobility Planning and Large-scale Network Discovery

    Get PDF
    Graph theory has become a hot topic in the past two decades as evidenced by the increasing number of citations in research. Its applications are found in many fields, e.g. database, clustering, routing, etc. In this thesis, two novel graph-based algorithms are presented. The first algorithm finds itself in the thriving carsharing service, while the second algorithm is about large graph discovery to unearth the unknown graph before any analyses can be performed. In the first scenario, the automatisation of the fleet planning process in carsharing is proposed. The proposed work enhances the accuracy of the planning to the next level by taking an advantage of the open data movement such as street networks, building footprints, and demographic data. By using the street network (based on graph), it solves the questionable aspect in many previous works, feasibility as they tended to use rasterisation to simplify the map, but that comes with the price of accuracy and feasibility. A benchmark suite for further research in this problem is also provided. Along with it, two optimisation models with different sets of objectives and contexts are proposed. Through a series of experiment, a novel hybrid metaheuristic algorithm is proposed. The algorithm is called NGAP, which is based on Reference Point based Non-dominated Sorting genetic Algorithm (NSGA-III) and Pareto Local Search (PLS) and a novel problem specific local search operator designed for the fleet placement problem in carsharing called Extensible Neighbourhood Search (ENS). The designed local search operator exploits the graph structure of the street network and utilises the local knowledge to improve the exploration capability. The results show that the proposed hybrid algorithm outperforms the original NSGA-III in convergence under the same execution time. The work in smart mobility is done on city scale graphs which are considered to be medium size. However, the scale of the graphs in other fields in the real-world can be much larger than that which is why the large graph discovery algorithm is proposed as the second algorithm. To elaborate on the definition of large, some examples are required. The internet graph has over 30 billion nodes. Another one is a human brain network contains around 1011 nodes. Apart of the size, there is another aspect in real-world graph and that is the unknown. With the dynamic nature of the real-world graphs, it is almost impossible to have a complete knowledge of the graph to perform an analysis that is why graph traversal is crucial as the preparation process. I propose a novel memoryless chaos-based graph traversal algorithm called Chaotic Traversal (CHAT). CHAT is the first graph traversal algorithm that utilises the chaotic attractor directly. An experiment with two well-known chaotic attractors, Lozi map and Rössler system is conducted. The proposed algorithm is compared against the memoryless state-of-the-art algorithm, Random Walk. The results demonstrate the superior performance in coverage rate over Random Walk on five tested topologies; ring, small world, random, grid and power-law. In summary, the contribution of this research is twofold. Firstly, it contributes to the research society by introducing new study problems and novel approaches to propel the advance of the current state-of-the-art. And Secondly, it demonstrates a strong case for the conversion of research to the industrial sector to solve a real-world problem

    A scenario-based hazardous material network design problem with emergency response and toll policy

    Get PDF
    In the process of shipping hazmats on a road network from origins to destinations, two stakeholders are involved: The authorities who are concerned about the risk of incidents, and the carriers who are concerned about shipping costs. We propose a bilevel model in order to account for the conflicting interests of the two parties. The upper-level (authorities) use different policies: Proactive policies including roadclosure, road-construction and toll policies, and Reactive policies including locating hazmat response teams. Furthermore, scenario-based uncertainty is considered to reflect the variations in demand and shipments. Due to the complexity of the bilevel model, we develop two methods to solve the problem. First, using dual variables and constraints, we reformulate our bilevel model into a single-level model. This method gives us exact optimal solutions. Second, a two-stage heuristic algorithm gives us solutions which are close to the optimal solutions. Then, based on a transportation network in China, experimental results and several sensitivity analyses are presented

    Graph-Based Approaches to Protein StructureComparison - From Local to Global Similarity

    Get PDF
    The comparative analysis of protein structure data is a central aspect of structural bioinformatics. Drawing upon structural information allows the inference of function for unknown proteins even in cases where no apparent homology can be found on the sequence level. Regarding the function of an enzyme, the overall fold topology might less important than the specific structural conformation of the catalytic site or the surface region of a protein, where the interaction with other molecules, such as binding partners, substrates and ligands occurs. Thus, a comparison of these regions is especially interesting for functional inference, since structural constraints imposed by the demands of the catalyzed biochemical function make them more likely to exhibit structural similarity. Moreover, the comparative analysis of protein binding sites is of special interest in pharmaceutical chemistry, in order to predict cross-reactivities and gain a deeper understanding of the catalysis mechanism. From an algorithmic point of view, the comparison of structured data, or, more generally, complex objects, can be attempted based on different methodological principles. Global methods aim at comparing structures as a whole, while local methods transfer the problem to multiple comparisons of local substructures. In the context of protein structure analysis, it is not a priori clear, which strategy is more suitable. In this thesis, several conceptually different algorithmic approaches have been developed, based on local, global and semi-global strategies, for the task of comparing protein structure data, more specifically protein binding pockets. The use of graphs for the modeling of protein structure data has a long standing tradition in structural bioinformatics. Recently, graphs have been used to model the geometric constraints of protein binding sites. The algorithms developed in this thesis are based on this modeling concept, hence, from a computer scientist's point of view, they can also be regarded as global, local and semi-global approaches to graph comparison. The developed algorithms were mainly designed on the premise to allow for a more approximate comparison of protein binding sites, in order to account for the molecular flexibility of the protein structures. A main motivation was to allow for the detection of more remote similarities, which are not apparent by using more rigid methods. Subsequently, the developed approaches were applied to different problems typically encountered in the field of structural bioinformatics in order to assess and compare their performance and suitability for different problems. Each of the approaches developed during this work was capable of improving upon the performance of existing methods in the field. Another major aspect in the experiments was the question, which methodological concept, local, global or a combination of both, offers the most benefits for the specific task of protein binding site comparison, a question that is addressed throughout this thesis

    LIPIcs, Volume 244, ESA 2022, Complete Volume

    Get PDF
    LIPIcs, Volume 244, ESA 2022, Complete Volum

    Variable neighborhood search for solving discrete location problems

    Get PDF
    Predmet ovog rada je analiza i re²avanje dva diskretna lokacijska problema: problema odre ivanja lokacija autobuskih terminala (engl. Bus Terminal Location Problem - BTLP) i problema uspostavljanja centara za produºenu negu pacijenata (engl. Long-term Care Facility Location Problem - LTCFLP). U radu je prikazana metoda promenljivih okolina (engl. Variable Neighborhood Search - VNS) za re²avanje BTLP i LTCFLP problema. VNS je metaheuristika vo ena jednim re- ²enjem i zasnovana je na sistemati£noj pretrazi okolina re²enja prostora pretrage. Sastoji se iz dve faze, faze razmrdavanja i faze lokalne pretrage. BTLP predstavlja diskretan lokacijski problem koji podrazumeva uspostavljanje velikih autobuskih terminala kako bi se omogu¢ila ²to kvalitetnija usluga klijentima. Klijenti predstavljaju lokacije autobuskih i metro stanica javnog prevoza. Za re²avanje BTLP problema VNS metodom predstavljena je unapre ena lokalna pretraga zasnovana na brzoj zameni okolina. Metoda je paralelizovana (PVNS) i postignuto je zna£ajno vremensko ubrzanje metode u zavisnosti od broja jezgara procesora na kome se izvr²ava. Predloºena PVNS metoda daje re²enja boljeg kvaliteta u odnosu na poznata re²enja BTLP problema iz literature. Algoritam je testiran i na ve¢im instancama problema dobijenih modikacijom biblioteke instanci za problem trgova£kog putnika i predstavljeni su rezultati metode na ovim instancama. LTCFLP je nastao kao deo planiranja sistema zdravstvene za²tite u Juºnoj Koreji. Klijenti predstavljaju lokacije na kojima se nalaze grupe pacijenata kojima je potrebna produºena nega, dok uspostavljeni centri predstavljaju lokacije na kojima ¢e se izgraditi zdravstveni centri koji ¢e pruºati negu pacijentima. Unapred je zadato n lokacija na kojima mogu biti uspostavljeni centri. Potrebno je odabrati najvi²e K lokacija za uspostavljanje zdravstvenih centara tako da oni budu ²to ravnomernije optere¢eni zahtevima klijenata. Za re²avanje LTCFLP problema VNS metodom predstavljena je struktura podataka zasnovana na brzoj zameni okolina uz pomo¢ koje je vremenska sloºenost jedne iteracije lokalne pretrage smanjena na O(nmax(n;K2)) u odnosu na vremensku sloºenosti poznatu u literaturi O(K2 n2). Smanjena vremenska sloºenost predstavljene lokalne pretrage dovela je do boljih rezultata zbog ve¢eg broja iteracija VNS algoritma koje koje se mogu izvr²iti u kra¢em vremenskom periodu. Prikazani su rezultati predstavljenog algoritma koji nadma- ²aju poznate rezultate iz literature.This paper considers two discrete location problems: Bus Terminal Location Problem (BTLP) and Long-term Care Facility Location Problem (LTCFLP). Variable Neighborhood Search (VNS) method for solving BTLP and LTCFLP is presented in this paper. VNS is a single-solution based metaheuristic based on systematic change of neighborhoods while searching for optimal solution of the problem. It consists two main phases: shake phase and local search phase. BTLP is a discrete location problem which considers locating bus terminals in order to provide the highest possible quality of public service to the clients. Clients are presented as public transportation stations, such as bus or metro stations. VNS algorithm is used for solving BTLP. This algorithm uses improved local search based on ecient neighborhood interchange. VNS is parallelized (PVNS) which leads to signicant time improvement in function of the processor core count. Computational results show that proposed PVNS method improves existing results from the literature in terms of quality. Larger instances, based on instances from the Traveling Salesman Problem library, are presented and computational results for those instances are reported. LTCFLP is created as a part of health care infrastructure planning in South Korea. Clients are considered as groups of patients with a need of long-term health care, while established facilities present locations where the centers that provide health care services should be built. Predened are n locations where centers are to be established. This problem seeks at most K locations to establish health centers so they are to be equally loaded with clients demand. For solving LTCFLP, by using VNS algorithm, data structure based on fast interchange is presented. It reduces the time complexity of one iteration of local search algorithm to O(n max(n;K2)) comparing to the known time complexity from the literature O(K2 n2). Reduced time complexity of the presented VNS leads to better quality solutions, due to larger number of VNS iterations that can be performed in less computational time. This paper presents computational results that outperform the best known results from the literature
    corecore