56 research outputs found

    Novel Metric for Load Balance and Congestion Reducing in Network on-Chip

    Get PDF
    The Network-on-Chip (NoC) is an alternative pattern that is considered as an emerging technology for distributed embedded systems. The traditional use of multi-cores in computing increase the calculation performance; but affect the network communication causing congestion on nodes which therefore decrease the global performance of the NoC. To alleviate this problematic phenomenon, several strategies were implemented, to reduce or prevent the occurrence of congestion, such as network status metrics, new routing algorithm, packets injection control, and switching strategies. In this paper, we carried out a study on congestion in a 2D mesh network, through various detailed simulations. Our focus was on the most used congestion metrics in NoC. According to our experiments and performed simulations under different traffic scenarios, we found that these metrics are less representative, less significant and yet they do not give a true overview of reading within the NoC nodes at a given cycle. Our study shows that the use of other complementary information regarding the state of nodes and network traffic flow in the design of a novel metric, can really improve the results. In this paper, we put forward a novel metric that takes into account the overall operating state of a router in the design of adaptive XY routing algorithm, aiming to improve routing decisions and network performance. We compare the throughput, latency, resource utilization, and congestion occurrence of proposed metric to three published metrics on two specific traffic patterns in a varied packets injection rate. Our results indicate that our novel metric-based adaptive XY routing has overcome congestion and significantly improve resource utilization through load balancing; achieving an average improvement rate up to 40 % compared to adaptive XY routing based on the previous congestion metrics

    Congestion estimation of router input ports in Network-on-Chip for efficient virtual allocation

    Get PDF
    Effective and congestion-aware routing is vital to the performance of network-on-chip. The efficient routing algorithm undoubtedly relies on the considered selection strategy. If the routing function returns a number of more than one permissible output ports, a selection function is exploited to choose the best output port to reduce packets latency. In this paper, we introduce a new selection strategy that can be used in any adaptive routing algorithm. The intended selection function is named Modified-Neighbor-on-Path, the purpose of that is handling the condition of hesitation happening when the routing function provides a set of acceptable output ports. In fact, number of inquiries that each router has sent to its neighbors in determined past cycles is a new parameter that can be combined with number of free slots of adjacent nodes in the latest selection function named Neighbor-on-Path. Performance analysis is performed by using exact simulation tools under different traffic scenarios. Outcomes show how the proposed selection function applied to West-first and North-last routing algorithms outperforms in average delay up to 20 percent on maximum and an acceptable improvement in total energy consumption

    Multiprocessor System-on-Chips based Wireless Sensor Network Energy Optimization

    Get PDF
    Wireless Sensor Network (WSN) is an integrated part of the Internet-of-Things (IoT) used to monitor the physical or environmental conditions without human intervention. In WSN one of the major challenges is energy consumption reduction both at the sensor nodes and network levels. High energy consumption not only causes an increased carbon footprint but also limits the lifetime (LT) of the network. Network-on-Chip (NoC) based Multiprocessor System-on-Chips (MPSoCs) are becoming the de-facto computing platform for computationally extensive real-time applications in IoT due to their high performance and exceptional quality-of-service. In this thesis a task scheduling problem is investigated using MPSoCs architecture for tasks with precedence and deadline constraints in order to minimize the processing energy consumption while guaranteeing the timing constraints. Moreover, energy-aware nodes clustering is also performed to reduce the transmission energy consumption of the sensor nodes. Three distinct problems for energy optimization are investigated given as follows: First, a contention-aware energy-efficient static scheduling using NoC based heterogeneous MPSoC is performed for real-time tasks with an individual deadline and precedence constraints. An offline meta-heuristic based contention-aware energy-efficient task scheduling is developed that performs task ordering, mapping, and voltage assignment in an integrated manner. Compared to state-of-the-art scheduling our proposed algorithm significantly improves the energy-efficiency. Second, an energy-aware scheduling is investigated for a set of tasks with precedence constraints deploying Voltage Frequency Island (VFI) based heterogeneous NoC-MPSoCs. A novel population based algorithm called ARSH-FATI is developed that can dynamically switch between explorative and exploitative search modes at run-time. ARSH-FATI performance is superior to the existing task schedulers developed for homogeneous VFI-NoC-MPSoCs. Third, the transmission energy consumption of the sensor nodes in WSN is reduced by developing ARSH-FATI based Cluster Head Selection (ARSH-FATI-CHS) algorithm integrated with a heuristic called Novel Ranked Based Clustering (NRC). In cluster formation parameters such as residual energy, distance parameters, and workload on CHs are considered to improve LT of the network. The results prove that ARSH-FATI-CHS outperforms other state-of-the-art clustering algorithms in terms of LT.University of Derby, Derby, U

    Optimización de algoritmos bioinspirados en sistemas heterogéneos CPU-GPU.

    Get PDF
    Los retos científicos del siglo XXI precisan del tratamiento y análisis de una ingente cantidad de información en la conocida como la era del Big Data. Los futuros avances en distintos sectores de la sociedad como la medicina, la ingeniería o la producción eficiente de energía, por mencionar sólo unos ejemplos, están supeditados al crecimiento continuo en la potencia computacional de los computadores modernos. Sin embargo, la estela de este crecimiento computacional, guiado tradicionalmente por la conocida “Ley de Moore”, se ha visto comprometido en las últimas décadas debido, principalmente, a las limitaciones físicas del silicio. Los arquitectos de computadores han desarrollado numerosas contribuciones multicore, manycore, heterogeneidad, dark silicon, etc, para tratar de paliar esta ralentización computacional, dejando en segundo plano otros factores fundamentales en la resolución de problemas como la programabilidad, la fiabilidad, la precisión, etc. El desarrollo de software, sin embargo, ha seguido un camino totalmente opuesto, donde la facilidad de programación a través de modelos de abstracción, la depuración automática de código para evitar efectos no deseados y la puesta en producción son claves para una viabilidad económica y eficiencia del sector empresarial digital. Esta vía compromete, en muchas ocasiones, el rendimiento de las propias aplicaciones; consecuencia totalmente inadmisible en el contexto científico. En esta tesis doctoral tiene como hipótesis de partida reducir las distancias entre los campos hardware y software para contribuir a solucionar los retos científicos del siglo XXI. El desarrollo de hardware está marcado por la consolidación de los procesadores orientados al paralelismo masivo de datos, principalmente GPUs Graphic Processing Unit y procesadores vectoriales, que se combinan entre sí para construir procesadores o computadores heterogéneos HSA. En concreto, nos centramos en la utilización de GPUs para acelerar aplicaciones científicas. Las GPUs se han situado como una de las plataformas con mayor proyección para la implementación de algoritmos que simulan problemas científicos complejos. Desde su nacimiento, la trayectoria y la historia de las tarjetas gráficas ha estado marcada por el mundo de los videojuegos, alcanzando altísimas cotas de popularidad según se conseguía más realismo en este área. Un hito importante ocurrió en 2006, cuando NVIDIA (empresa líder en la fabricación de tarjetas gráficas) lograba hacerse con un hueco en el mundo de la computación de altas prestaciones y en el mundo de la investigación con el desarrollo de CUDA “Compute Unified Device Arquitecture. Esta arquitectura posibilita el uso de la GPU para el desarrollo de aplicaciones científicas de manera versátil. A pesar de la importancia de la GPU, es interesante la mejora que se puede producir mediante su utilización conjunta con la CPU, lo que nos lleva a introducir los sistemas heterogéneos tal y como detalla el título de este trabajo. Es en entornos heterogéneos CPU-GPU donde estos rendimientos alcanzan sus cotas máximas, ya que no sólo las GPUs soportan el cómputo científico de los investigadores, sino que es en un sistema heterogéneo combinando diferentes tipos de procesadores donde podemos alcanzar mayor rendimiento. En este entorno no se pretende competir entre procesadores, sino al contrario, cada arquitectura se especializa en aquella parte donde puede explotar mejor sus capacidades. Donde mayor rendimiento se alcanza es en estos clústeres heterogéneos, donde múltiples nodos son interconectados entre sí, pudiendo dichos nodos diferenciarse no sólo entre arquitecturas CPU-GPU, sino también en las capacidades computacionales dentro de estas arquitecturas. Con este tipo de escenarios en mente, se presentan nuevos retos en los que lograr que el software que hemos elegido como candidato se ejecuten de la manera más eficiente y obteniendo los mejores resultados posibles. Estas nuevas plataformas hacen necesario un rediseño del software para aprovechar al máximo los recursos computacionales disponibles. Se debe por tanto rediseñar y optimizar los algoritmos existentes para conseguir que las aportaciones en este campo sean relevantes, y encontrar algoritmos que, por su propia naturaleza sean candidatos para que su ejecución en dichas plataformas de alto rendimiento sea óptima. Encontramos en este punto una familia de algoritmos denominados bioinspirados, que utilizan la inteligencia colectiva como núcleo para la resolución de problemas. Precisamente esta inteligencia colectiva es la que les hace candidatos perfectos para su implementación en estas plataformas bajo el nuevo paradigma de computación paralela, puesto que las soluciones pueden ser construidas en base a individuos que mediante alguna forma de comunicación son capaces de construir conjuntamente una solución común. Esta tesis se centrará especialmente en uno de estos algoritmos bioinspirados que se engloba dentro del término metaheurísticas bajo el paradigma del Soft Computing, el Ant Colony Optimization “ACO”. Se realizará una contextualización, estudio y análisis del algoritmo. Se detectarán las partes más críticas y serán rediseñadas buscando su optimización y paralelización, manteniendo o mejorando la calidad de sus soluciones. Posteriormente se pasará a implementar y testear las posibles alternativas sobre diversas plataformas de alto rendimiento. Se utilizará el conocimiento adquirido en el estudio teórico-práctico anterior para su aplicación a casos reales, más en concreto se mostrará su aplicación sobre el plegado de proteínas. Todo este análisis es trasladado a su aplicación a un caso concreto. En este trabajo, aunamos las nuevas plataformas hardware de alto rendimiento junto al rediseño e implementación software de un algoritmo bioinspirado aplicado a un problema científico de gran complejidad como es el caso del plegado de proteínas. Es necesario cuando se implementa una solución a un problema real, realizar un estudio previo que permita la comprensión del problema en profundidad, ya que se encontrará nueva terminología y problemática para cualquier neófito en la materia, en este caso, se hablará de aminoácidos, moléculas o modelos de simulación que son desconocidos para los individuos que no sean de un perfil biomédico.Ingeniería, Industria y Construcció

    Enhancing the bees algorithm using the traplining metaphor

    Get PDF
    This work aims to improve the performance of the Bees Algorithm (BA), particularly in terms of simplicity, accuracy, and convergence. Three improvements were made in this study as a result of bees’ traplining behaviour. The first improvement was the parameter reduction of the Bees Algorithm. This strategy recruits and assigns worker bees to exploit and explore all patches. Both searching processes are assigned using the Triangular Distribution Random Number Generator. The most promising patches have more workers and are subject to more exploitation than the less productive patches. This technique reduced the original parameters into two parameters. The results show that the Bi-BA is just as efficient as the basic BA, although it has fewer parameters. Following that, another improvement was proposed to increase the diversification performance of the Combinatorial Bees Algorithm (CBA). The technique employs a novel constructive heuristic that considers the distance and the turning angle of the bees’ flight. When foraging for honey, bees generally avoid making a sharp turn. By including this turning angle as the second consideration, it can control CBA’s initial solution diversity. Third, the CBA is strengthened to enable an intensification strategy that avoids falling into a local optima trap. The approach is based on the behaviour of bees when confronted with threats. They will keep away from re-visiting those flowers during the next bout for reasons like predators, rivals, or honey run out. The approach will remove temporarily threatened flowers from the whole tour, eliminating the sharp turn, and reintroduces them again to the habitual tour’s nearest edge. The technique could effectively achieve an equilibrium between exploration and exploitation mechanisms. The results show that the strategy is very competitive compared to other population-based nature-inspired algorithms. Finally, the enhanced Bees Algorithms are demonstrated on two real-world engineering problems, namely, Printed Circuit Board insertion sequencing and vehicles routing problem

    Novel Online Sequential Learning-Based Adaptive Routing for Edge Software-Defined Vehicular Networks

    Get PDF
    To provide efficient networking services at the edge of Internet-of-Vehicles (IoV), Software-Defined Vehicular Network (SDVN) has been a promising technology to enable intelligent data exchange without giving additional duties to the resource constrained vehicles. Compared with conventional centralized SDVNs, hybrid SDVNs combine the centralized control of SDVNs and self-organized distributed routing of Vehicular Ad-hoc NETworks (VANETs) to mitigate the burden on the central controller caused by the frequent uplink and downlink transmissions. Although a wide variety of routing protocols have been developed, existing protocols are designed for specific scenarios without considering flexibility and adaptivity in dynamic vehicular networks. To address this problem, we propose an efficient online sequential learning-based adaptive routing scheme, namely, Penicillium reproduction-based Online Learning Adaptive Routing scheme (POLAR) for hybrid SDVNs. By utilizing the computational power of edge servers, this scheme can dynamically select a routing strategy for a specific traffic scenario by learning the pattern from network traffic. Firstly, this paper applies Geohash to divide the large geographical area into multiple grids, which facilitates the collection and processing of real-time traffic data for regional management in controller

    Design, monitoring and performance evaluation of high capacity optical networks

    Get PDF
    Premi Extraordinari de Doctorat, promoció 2018-2019. Àmbit de les TICInternet traffic is expected to keep increasing exponentially due to the emergence of a vast number of innovative online services and applications. Optical networks, which are the cornerstone of the underlying Internet infrastructure, have been continuously evolving to carry the ever-increasing traffic in a more flexible, cost-effective, and intelligent way. Having these three targets in mind, this PhD thesis focuses on two general areas for the performance improvement and the evolution of optical networks: i) introducing further cognition to the optical layer, and ii) introducing new networking solutions revolutionizing the optical transport infrastructure. In the first part, we present novel failure detection and identification solutions in the optical layer utilizing the optical spectrum traces captured by cost-effective coarse-granular Optical Spectrum Analyzers (OSA). We demonstrate the effectiveness of the developed solutions for detecting and identifying filter-related failures in the context of Spectrum-Switched Optical Networks (SSON), as well as transmitter-related laser failures in Filter-less Optical Networks (FON). In addition, at the subsystem level we propose an Autonomic Transmission Agent (ATA), which triggers local or remote transceiver reconfiguration by predicting Bit-Error-Rate (BER) degradation by monitoring State-of-Polarization (SOP) data obtained by coherent receivers. I have developed solutions to push further the performance of the currently deployed optical networks through reducing the margins and introducing intelligence to better manage their resources. However, it is expected that the spectral efficiency of the current standard Single-Mode Fiber (SMF) based optical network approaches the Shannon capacity limits in the near future, and therefore, a new paradigm is required to keep with the pace of the current huge traffic increase. In this regard, Space Division Multiplexing (SDM) is proposed as the ultimate solution to address the looming capacity crunch with a reduced cost-per-bit delivered to the end-users. I devote the second part of this thesis to investigate different flavors of SDM based optical networks with the aim of finding the best compromise for the realization of a spectrally and spatially flexible optical network. SDM-based optical networks can be deployed over various types of transmission media. Additionally, due to the extra dimension (i.e., space) introduced in SDM networks, optical switching nodes can support wavelength granularity, space granularity, or a combination of both. In this thesis, we evaluate the impact of various spectral and spatial switching granularities on the performance of SDM-based optical networks serving different profiles of traffic with the aim of understanding the impact of switching constraints on the overall network performance. In this regard, we consider two different generations of wavelength selective switches (WSS) to reflect the technology limitations on the performance of SDM networks. In addition, we present different designs of colorless direction-less, and Colorless Directionless Contention-less (CDC) Reconfigurable Optical Add/Drop Multiplexers (ROADM) realizing SDM switching schemes and compare their performance in terms of complexity and implementation cost. Furthermore, with the aim of revealing the benefits and drawbacks of SDM networks over different types of transmission media, we preset a QoT-aware network planning toolbox and perform comparative performance analysis among SDM network based on various types of transmission media. We also analyze the power consumption of Multiple-Input Multiple-Output (MIMO) Digital Signal Processing (DSP) units of transceivers operating over three different types of transmission media. The results obtained in the second part of the thesis provide a comprehensive outlook to different realizations of SDM-based optical networks and showcases the benefits and drawbacks of different SDM realizations.Se espera que el tráfico de Internet siga aumentando exponencialmente debido a la continua aparición de gran cantidad de aplicaciones innovadoras. Las redes ópticas, que son la piedra angular de la infraestructura de Internet, han evolucionado continuamente para transportar el tráfico cada vez mayor de una manera más flexible, rentable e inteligente. Teniendo en cuenta estos tres objetivos, esta tesis doctoral se centra en dos áreas cruciales para la mejora del rendimiento y la evolución de las redes ópticas: i) introducción de funcionalidades cognitivas en la capa óptica, y ii) introducción de nuevas estructuras de red que revolucionarán el transporte óptico. En la primera parte, se presentan soluciones novedosas de detección e identificación de fallos en la capa óptica que utilizan trazas de espectro óptico obtenidas mediante analizadores de espectros ópticos (OSA) de baja resolución (y por tanto de coste reducido). Se demuestra la efectividad de las soluciones desarrolladas para detectar e identificar fallos derivados del filtrado imperfecto en las redes ópticas de conmutación de espectro (SSON), así como fallos relacionados con el láser transmisor en redes ópticas sin filtro (FON). Además, a nivel de subsistema, se propone un Agente de Transmisión Autónomo (ATA), que activa la reconfiguración del transceptor local o remoto al predecir la degradación de la Tasa de Error por Bits (BER), monitorizando el Estado de Polarización (SOP) de la señal recibida en un receptor coherente. Se han desarrollado soluciones para incrementar el rendimiento de las redes ópticas mediante la reducción de los márgenes y la introducción de inteligencia en la administración de los recursos de la red. Sin embargo, se espera que la eficiencia espectral de las redes ópticas basadas en fibras monomodo (SMF) se acerque al límite de capacidad de Shannon en un futuro próximo, y por tanto, se requiere un nuevo paradigma que permita mantener el crecimiento necesario para soportar el futuro aumento del tráfico. En este sentido, se propone el Multiplexado por División Espacial (SDM) como la solución que permita la continua reducción del coste por bit transmitido ante ése esperado crecimiento del tráfico. En la segunda parte de esta tesis se investigan diferentes tipos de redes ópticas basadas en SDM con el objetivo de encontrar soluciones para la realización de redes ópticas espectral y espacialmente flexibles. Las redes ópticas basadas en SDM se pueden implementar utilizando diversos tipos de medios de transmisión. Además, debido a la dimensión adicional (el espacio) introducida en las redes SDM, los nodos de conmutación óptica pueden conmutar longitudes de onda, fibras o una combinación de ambas. Se evalúa el impacto de la conmutación espectral y espacial en el rendimiento de las redes SDM bajo diferentes perfiles de tráfico ofrecido, con el objetivo de comprender el impacto de las restricciones de conmutación en el rendimiento de la red. En este sentido, se consideran dos generaciones diferentes de conmutadores selectivos de longitud de onda (WSS) para reflejar las limitaciones de la tecnología en el rendimiento de las redes SDM. Además, se presentan diferentes diseños de ROADM, independientes de la longitud de onda, de la dirección, y sin contención (CDC) utilizados para la conmutación SDM, y se compara su rendimiento en términos de complejidad y coste. Además, con el objetivo de cuantificar los beneficios e inconvenientes de las redes SDM, se ha generado una herramienta de planificación de red que prevé la QoT usando diferentes tipos de fibras. También se analiza el consumo de energía de las unidades DSP de los transceptores MIMO operando en redes SDM con tres tipos diferentes de medios de transmisión. Los resultados obtenidos en esta segunda parte de la tesis proporcionan una perspectiva integral de las redes SDM y muestran los beneficios e inconvenientes de sus diferentes implementacionesAward-winningPostprint (published version
    corecore