41 research outputs found
Advanced meta-heuristic approaches and their application to operational optimization in forest wildfire management
La última década ha sido testigo de un aumento vertiginoso de la cantidad y frecuencia de desastres a gran escala, principalmente debido a los fenómenos devastadores derivados de paradigmas climatológicos y ambientales a gran escala como el calentamiento global. De entre ellos son las inundaciones, huracanes y terremotos los desastres de mayor frecuencia de aparición y fatales consecuencias durante este período, tal como certifican los más de 20.000 muertos a consecuencia de un terremoto en la región de Gujarat (India) en 2001, o las 230.000 y 316.000 pérdidas humanas de los terremotos de Indonesia y Haití en 2004 y 2010, respectivamente. En este contexto, el enfoque de esta tesis se centra en una casuística concreta de desastre a media-gran escala cuya frecuencia y severidad han crecido de manera igualmente preocupante en los últimos tiempos: los incendios, definidos como un fuego de grandes dimensiones no voluntariamente iniciado por el ser humano, y que afecta a aquello que no está destinado a quemarse. Pese a la diversidad de iniciativas, campañas y procedimientos orientados a la minimización del impacto y las consecuencias de los incendios, varios sucesos fatales acontecidos en los últimos años han puesto en duda la efectividad de las políticas actuales de gestión de recursos contra incendios como aeronaves, vehículos terrestres, equipamiento de comunicaciones radio, logística de abastecimiento y las brigadas desplegadas en el área afectada. Un ejemplo manifiesto de esta falta de eficacia es la muerte de once bomberos ocurrida en un incendio de 130 kilómetros cuadrados en la zona de Guadalajara (España) en 2005, oficialmente atribuida a una deficiente coordinación entre el puesto de mando y los equipos de extinción debida, fundamentalmente, a problemas de cobertura en los sistemas de radiocomunicación. Aunque la causa de esta falta de coordinación ha sido cuestionada por las autoridades y los agentes involucrados desde entonces, lo cierto es que este suceso supone un ejemplo evidente de la necesidad de estudiar y desarrollar herramientas algorítmicas que ayuden al personal de comandancia a ejecutar óptimamente sus tareas de coordinación y control. Desafortunadamente la coyuntura de crisis económica mundial que azota con especial fuerza los países del Sur de Europa ha mermado dramáticamente las partidas presupuestarias para la prevención y extinción de incendios en beneficio de programas nacionales de reducción de déficit. A consecuencia de estos recortes, el coste ha irrumpido con fuerza como un criterio de extrema relevancia en la planificación operativa de este tipo de desastres: desde la perspectiva de un problema de optimización, los recursos contra incendios son actualmente gestionados con el objetivo fundamental de maximizar su efectividad contra incendios, sujeto a la restricción de que el coste agregado asociado a las decisiones tomadas no supere un determinado umbral presupuestario. Pese a que estas restricciones de coste están bien acotadas, en la práctica la mayoría de los procedimientos de gestión de recursos contra incendios están fuertemente determinados por la capacidad limitada del ser humano para tomar decisiones ágiles en escenarios de elevada complejidad y heterogeneidad. Por los motivos anteriormente expuestos, la presente Tesis doctoral propone la adopción de algoritmos meta-heurísticos para solventar eficientemente problemas de optimización que modelan procesos de gestión de recursos contra incendios. Esta familia de algoritmos de optimización es capaz de explorar el espacio solución de un problema dado merced a la aplicación iterativa de mecanismos inteligentes de búsqueda explorativa y explotativa, produciendo soluciones que sacrifican calidad por una complejidad computacional menor en comparación con la resultante de procesos determinísticos de búsqueda exhaustiva. En particular la Tesis plantea la búsqueda por harmonía (del inglés Harmony Search) como la técnica meta-heurística de optimización común a las herramientas diseñadas para la gestión de recursos en dos escenarios diferentes: ? El primer escenario analizado contempla el despliegue óptimo de redes de comunicación inalámbrica para la coordinación de equipos de extinción en incendios forestales de gran escala. Desde el punto de vista formal, el problema del despliegue dinámico de retransmisores que caracteriza matemáticamente este escenario consiste en estimar el número y localización de los retransmisores radio que deben ser desplegados en el área afectada por el incendio, de tal modo que el número de nodos móviles (i.e. recursos) con cobertura radio es maximizado a un coste del despliegue mínimo. A fin de reflejar la diversidad de equipamiento de retransmisión radio existente en la realidad, este problema es reformulado para considerar modelos de retransmisor con diferentes características de cobertura y coste. El problema resultante es resuelto de manera eficiente mediante sendos algoritmos mono- y bi-objetivo que conjugan 1) la Búsqueda por Harmonía como método de búsqueda global; y 2) una versión modificada del algoritmo de agrupación K-means como técnica de búsqueda local. El desempeño de los métodos propuestos es evaluado mediante experimentos numéricos basados en datos estadísticos reales de la Comunidad de Castilla la Mancha (España), merced a cuyos resultados queda certificada su practicidad a la hora de desplegar infraestructura de comunicación en este tipo de desastres. ? El segundo escenario bajo estudio se concentra en el despliegue y planificación óptima de vehículos aéreos de extinción de incendios basados en estimaciones predictivas del riesgo de incendio de una cierta área geográfica. De manera enunciativa, el problema subyacente busca la asignación de recursos a aeródromos y aeropuertos con restricciones de capacidad que maximice la utilidad de dichos recursos en relación al riesgo de incendio y minimice, a su vez, el coste de ejecutar dicha asignación. La formulación de este problema también considera, dentro de la definición de dicha función de utilidad, la distancia relativa entre aeropuerto, punto de potencial riesgo de incendio y el recurso acuífero (lago, río o mar) más cercano. Para su resolución eficiente se propone el uso de algoritmos de optimización basados, de nuevo, en la Búsqueda por Harmonía, incorporando además métodos voraces de reparación capacitiva. La aplicabilidad práctica de estos métodos es validada mediante experimentos numéricos en escenarios sintéticos y un caso práctico que incluye valores reales del riesgo de incendio, posiciones de recursos acuíferos e instalaciones aeroportuarias. En resumen, esta Tesis evidencia, desde un punto de vista práctico, que la meta-heurística moderna supone una solución algorítmica computacionalmente eficiente para tratar problemas de gestión de recursos contra incendios sujetos a restricciones de coste
Advanced meta-heuristic approaches and their application to operational optimization in forest wildfire management
La última década ha sido testigo de un aumento vertiginoso de la cantidad y frecuencia de desastres a gran escala, principalmente debido a los fenómenos devastadores derivados de paradigmas climatológicos y ambientales a gran escala como el calentamiento global. De entre ellos son las inundaciones, huracanes y terremotos los desastres de mayor frecuencia de aparición y fatales consecuencias durante este período, tal como certifican los más de 20.000 muertos a consecuencia de un terremoto en la región de Gujarat (India) en 2001, o las 230.000 y 316.000 pérdidas humanas de los terremotos de Indonesia y Haití en 2004 y 2010, respectivamente. En este contexto, el enfoque de esta tesis se centra en una casuística concreta de desastre a media-gran escala cuya frecuencia y severidad han crecido de manera igualmente preocupante en los últimos tiempos: los incendios, definidos como un fuego de grandes dimensiones no voluntariamente iniciado por el ser humano, y que afecta a aquello que no está destinado a quemarse. Pese a la diversidad de iniciativas, campañas y procedimientos orientados a la minimización del impacto y las consecuencias de los incendios, varios sucesos fatales acontecidos en los últimos años han puesto en duda la efectividad de las políticas actuales de gestión de recursos contra incendios como aeronaves, vehículos terrestres, equipamiento de comunicaciones radio, logística de abastecimiento y las brigadas desplegadas en el área afectada. Un ejemplo manifiesto de esta falta de eficacia es la muerte de once bomberos ocurrida en un incendio de 130 kilómetros cuadrados en la zona de Guadalajara (España) en 2005, oficialmente atribuida a una deficiente coordinación entre el puesto de mando y los equipos de extinción debida, fundamentalmente, a problemas de cobertura en los sistemas de radiocomunicación. Aunque la causa de esta falta de coordinación ha sido cuestionada por las autoridades y los agentes involucrados desde entonces, lo cierto es que este suceso supone un ejemplo evidente de la necesidad de estudiar y desarrollar herramientas algorítmicas que ayuden al personal de comandancia a ejecutar óptimamente sus tareas de coordinación y control. Desafortunadamente la coyuntura de crisis económica mundial que azota con especial fuerza los países del Sur de Europa ha mermado dramáticamente las partidas presupuestarias para la prevención y extinción de incendios en beneficio de programas nacionales de reducción de déficit. A consecuencia de estos recortes, el coste ha irrumpido con fuerza como un criterio de extrema relevancia en la planificación operativa de este tipo de desastres: desde la perspectiva de un problema de optimización, los recursos contra incendios son actualmente gestionados con el objetivo fundamental de maximizar su efectividad contra incendios, sujeto a la restricción de que el coste agregado asociado a las decisiones tomadas no supere un determinado umbral presupuestario. Pese a que estas restricciones de coste están bien acotadas, en la práctica la mayoría de los procedimientos de gestión de recursos contra incendios están fuertemente determinados por la capacidad limitada del ser humano para tomar decisiones ágiles en escenarios de elevada complejidad y heterogeneidad. Por los motivos anteriormente expuestos, la presente Tesis doctoral propone la adopción de algoritmos meta-heurísticos para solventar eficientemente problemas de optimización que modelan procesos de gestión de recursos contra incendios. Esta familia de algoritmos de optimización es capaz de explorar el espacio solución de un problema dado merced a la aplicación iterativa de mecanismos inteligentes de búsqueda explorativa y explotativa, produciendo soluciones que sacrifican calidad por una complejidad computacional menor en comparación con la resultante de procesos determinísticos de búsqueda exhaustiva. En particular la Tesis plantea la búsqueda por harmonía (del inglés Harmony Search) como la técnica meta-heurística de optimización común a las herramientas diseñadas para la gestión de recursos en dos escenarios diferentes: ? El primer escenario analizado contempla el despliegue óptimo de redes de comunicación inalámbrica para la coordinación de equipos de extinción en incendios forestales de gran escala. Desde el punto de vista formal, el problema del despliegue dinámico de retransmisores que caracteriza matemáticamente este escenario consiste en estimar el número y localización de los retransmisores radio que deben ser desplegados en el área afectada por el incendio, de tal modo que el número de nodos móviles (i.e. recursos) con cobertura radio es maximizado a un coste del despliegue mínimo. A fin de reflejar la diversidad de equipamiento de retransmisión radio existente en la realidad, este problema es reformulado para considerar modelos de retransmisor con diferentes características de cobertura y coste. El problema resultante es resuelto de manera eficiente mediante sendos algoritmos mono- y bi-objetivo que conjugan 1) la Búsqueda por Harmonía como método de búsqueda global; y 2) una versión modificada del algoritmo de agrupación K-means como técnica de búsqueda local. El desempeño de los métodos propuestos es evaluado mediante experimentos numéricos basados en datos estadísticos reales de la Comunidad de Castilla la Mancha (España), merced a cuyos resultados queda certificada su practicidad a la hora de desplegar infraestructura de comunicación en este tipo de desastres. ? El segundo escenario bajo estudio se concentra en el despliegue y planificación óptima de vehículos aéreos de extinción de incendios basados en estimaciones predictivas del riesgo de incendio de una cierta área geográfica. De manera enunciativa, el problema subyacente busca la asignación de recursos a aeródromos y aeropuertos con restricciones de capacidad que maximice la utilidad de dichos recursos en relación al riesgo de incendio y minimice, a su vez, el coste de ejecutar dicha asignación. La formulación de este problema también considera, dentro de la definición de dicha función de utilidad, la distancia relativa entre aeropuerto, punto de potencial riesgo de incendio y el recurso acuífero (lago, río o mar) más cercano. Para su resolución eficiente se propone el uso de algoritmos de optimización basados, de nuevo, en la Búsqueda por Harmonía, incorporando además métodos voraces de reparación capacitiva. La aplicabilidad práctica de estos métodos es validada mediante experimentos numéricos en escenarios sintéticos y un caso práctico que incluye valores reales del riesgo de incendio, posiciones de recursos acuíferos e instalaciones aeroportuarias. En resumen, esta Tesis evidencia, desde un punto de vista práctico, que la meta-heurística moderna supone una solución algorítmica computacionalmente eficiente para tratar problemas de gestión de recursos contra incendios sujetos a restricciones de coste
Beamwidth Optimization in Millimeter Wave Small Cell Networks with Relay Nodes: A Swarm Intelligence Approach
Millimeter wave (mmWave) communications have been postulated as one of the
most disruptive technologies for future 5G systems. Among mmWave bands the
60-GHz radio technology is specially suited for ultradense small cells and
mobile data offloading scenarios. Many challenges remain to be addressed in
mmWave communications but among them deafness, or misalignment between
transmitter and receivers beams, and interference management lie among the most
prominent ones. In the recent years, scenarios considering negligible
interference on mmWave resource allocation have been rather common in
literature. To this end, interestingly, many open issues still need to be
addressed such as the applicability of noise-limited regime for mmWave.
Furthermore, in mmWave the beam-steering mechanism imposes a forced silence
period, in the course of which no data can be conveyed, that should not be
neglected in throughput/delay calculations. This paper introduces mmWave
enabled Small Cell Networks (SCNs) with relaying capabilities where as a result
of a coordinated meta-heuristically optimized beamwidth/alignment-delay
approach overall system throughput is optimized. Simulations have been conveyed
for three transmitter densities under TDMA and naive 'all-on' scheduling
producing average per node throughput increments of up to 248%. The paper
further elaborates on the off-balancing impact of alignment delay and
time-multiplexing strategies by illustrating how the foreseen transition that
increasing the number of transmitters produces in the regime of a fixed-node
size SCN in downlink operation fades out by a poor choice in the scheduling
strategy.Comment: 6 pages, 4 figures, European Wireless 2016 Conferenc
Evolving Spiking Neural Networks for online learning over drifting data streams
Nowadays huge volumes of data are produced in the form of fast streams, which are further affected by non-stationary phenomena. The resulting lack of stationarity in the distribution of the produced data calls for efficient and scalable algorithms for online analysis capable of adapting to such changes (concept drift). The online learning field has lately turned its focus on this challenging scenario, by designing incremental learning algorithms that avoid becoming obsolete after a concept drift occurs. Despite the noted activity in the literature, a need for new efficient and scalable algorithms that adapt to the drift still prevails as a research topic deserving further effort. Surprisingly, Spiking Neural Networks, one of the major exponents of the third generation of artificial neural networks, have not been thoroughly studied as an online learning approach, even though they are naturally suited to easily and quickly adapting to changing environments. This work covers this research gap by adapting Spiking Neural Networks to meet the processing requirements that online learning scenarios impose. In particular the work focuses on limiting the size of the neuron repository and making the most of this limited size by resorting to data reduction techniques. Experiments with synthetic and real data sets are discussed, leading to the empirically validated assertion that, by virtue of a tailored exploitation of the neuron repository, Spiking Neural Networks adapt better to drifts, obtaining higher accuracy scores than naive versions of Spiking Neural Networks for online learning environments.This work was supported by the EU project Pacific AtlanticNetwork for Technical Higher Education and Research—PANTHER(grant number 2013-5659/004-001 EMA2)
Programazioaren oinarriak: C-ko eta Java-ko praktikak
Helburuak:
Ikasmaterial honen helburu nagusia ikasleek C-ko eta Java-ko klase teorikoetan lantzen dituzten ezagutzak sendotzea da.
Norentzat:
Programazioari buruzko lehen ezagutzak sendotu nahi dituen edozein ikasleei zuzenduta, baina bereziki telekomunikazio ikasketak egiten ari diren ikasleei.Liburu hau atal nagusi bitaz osatuta dago:
C programazio lengoaiari zuzendurik dago lehen atala, teoriako oinarrizko kontzeptuak erabiliz programa erraz eta labur batetik abiaturik, kode zailago bateraino iristeko aukera emango duten praktikez osaturik dago.
Bigarrena, Java programazio lengoaiari zuzenduta dago, lehen atalaren egitura bardina jarraituaz
Deep Echo State Networks for Short-Term Traffic Forecasting: Performance Comparison and Statistical Assessment
In short-term traffic forecasting, the goal is to accurately predict future
values of a traffic parameter of interest occurring shortly after the
prediction is queried. The activity reported in this long-standing research
field has been lately dominated by different Deep Learning approaches, yielding
overly complex forecasting models that in general achieve accuracy gains of
questionable practical utility. In this work we elaborate on the performance of
Deep Echo State Networks for this particular task. The efficient learning
algorithm and simpler parametric configuration of these alternative modeling
approaches make them emerge as a competitive traffic forecasting method for
real ITS applications deployed in devices and systems with stringently limited
computational resources. An extensive comparison benchmark is designed with
real traffic data captured over the city of Madrid (Spain), amounting to more
than 130 automatic Traffic Readers (ATRs) and several shallow learning,
ensembles and Deep Learning models. Results from this comparison benchmark and
the analysis of the statistical significance of the reported performance gaps
are decisive: Deep Echo State Networks achieve more accurate traffic forecasts
than the rest of considered modeling counterparts.Comment: 6 pages, 4 figure
Task Classification Using Topological Graph Features for Functional M/EEG Brain Connectomics
Publisher Copyright: © Springer International Publishing AG, part of Springer Nature 2018.In the last few years the research community has striven to achieve a thorough understanding of the brain activity when the subject under analysis undertakes both mechanical tasks and purely mental exercises. One of the most avant-garde approaches in this regard is the discovery of connectivity patterns among different parts of the human brain unveiled by very diverse sources of information (e.g. magneto- or electro-encephalography – M/EEG, functional and structural Magnetic Resonance Imaging – fMRI and sMRI, or positron emission tomography – PET), coining the so-called brain connectomics discipline. Surprisingly, even though contributions related to the brain connectome abound in the literature, far too little attention has been paid to the exploitation of such complex spatial-temporal patterns to classify the task performed by the subject while brain signals are being registered. This manuscript covers this research niche by elaborating on the extraction of topological features from the graph modeling the brain connectivity under different tasks. By resorting to public information from the Human Connectome Project, the work will show that a selected subset of topological predictors from M/EEG connectomes suffices for accurately predicting (with average accuracy scores of up to 95%) the task performed by the subject at hand, further insights given on their predictive power when the M/EEG connectivity is inferred over different frequency bands.Acknowledgments. This work has been supported by the Spanish Ministerio de Economía y Competitividad (MINECO) under the RETOS COLABORACION research programme, through its funded CELEXITA project (Connectome-basEd knowLedge EXtraction for dIagnosis and Therapy evaluAtion, ref. RTC–2016–5334–1).Peer reviewe
Let nature decide its nature: On the design of collaborative hyperheuristics for decentralized ephemeral environments
The research community has traditionally aimed at the derivation and development of metaheuristic solvers, suited to deal with problems of very diverse characteristics. Unfortunately, it is often the case that new metaheuristic techniques are presented and assessed in a reduced set of cases, mostly due to the lack of computational resources to undertake extensive performance studies over a sufficiently diverse set of optimization benchmarks. This manuscript explores how ephemeral environments could be exploited to efficiently construct metaheuristic algorithms by virtue of a collaborative, distributed nature-inspired hyperheuristic framework specifically designed to be deployed over unreliable, uncoordinated computation nodes. To this end, the designed framework defines two types of nodes (trackers and peers, similarly to peer-to-peer networks), both reacting resiliently to unexpected disconnections of nodes disregarding their type. Peer nodes exchange their populations (i.e. constructed algorithms) asynchronously, so that local optima are avoided at every peer thanks to the contribution by other nodes. Furthermore, the overall platform is fully scalable, allowing its users to implement and share newly derived operators and fitness functions so as to enrich the diversity and universality of the heuristic algorithms found by the framework. Results obtained from in-lab experiments with a reduced number of nodes are discussed to shed light on the evolution of the best solution of the framework with the number of connected peers and the tolerance of the network to node disconnections.This work has been supported in part by the ELKARTEK program of the
Basque Government (ref. KK-2016/00096, BID3ABI project)
Innovation Policies and Big Data: Opportunities and Challenges
Publisher Copyright: © 2021 The authors and IOS Press. All rights reserved.Innovation policies are considered to be one of the main tools to turn innovation into wealth, well-being and competitiveness in territories worldwide. However, given the ever-growing data-centered ecosystem where such policies coexist nowadays there is a founded suspicion that traditional methods for policy analysis, design and evaluation begin to fail, particularly when faster and more effective answers to societal paradigms are requested in a context characterized by sharp technological changes and unprecedented economic, scientific, political and social scenario. This chapter addresses the question whether Big Data analytics can become a tool capable of overcoming the current obstacles and adapt the public policy cycle to the new reality as it seems to be happening in the case of the private sector. We also explore if Big Data analytics can be the definitive tool to develop best policy solutions in a subjective, uncertain and dynamic environment, underpinned by different interests, as well as the degree of maturity for its application. To this end this work explores and exposes the role played to date by data in the design of innovation policies, concluding with a reasoned insight on the practical issues and unsolved research challenges that should be surpassed before empowering innovation policy making processes with Big Data analytics.This work has been supported in part by the Basque Government through the ELKARTEK program (ref. KK-2015/0000080, BID3ABI project).Peer reviewe