655 research outputs found

    Fairness in a data center

    Get PDF
    Existing data centers utilize several networking technologies in order to handle the performance requirements of different workloads. Maintaining diverse networking technologies increases complexity and is not cost effective. This results in the current trend to converge all traffic into a single networking fabric. Ethernet is both cost-effective and ubiquitous, and as such it has been chosen as the technology of choice for the converged fabric. However, traditional Ethernet does not satisfy the needs of all traffic workloads, for the most part, due to its lossy nature and, therefore, has to be enhanced to allow for full convergence. The resulting technology, Data Center Bridging (DCB), is a new set of standards defined by the IEEE to make Ethernet lossless even in the presence of congestion. As with any new networking technology, it is critical to analyze how the different protocols within DCB interact with each other as well as how each protocol interacts with existing technologies in other layers of the protocol stack. This dissertation presents two novel schemes that address critical issues in DCB networks: fairness with respect to packet lengths and fairness with respect to flow control and bandwidth utilization. The Deficit Round Robin with Adaptive Weight Control (DRR-AWC) algorithm actively monitors the incoming streams and adjusts the scheduling weights of the outbound port. The algorithm was implemented on a real DCB switch and shown to increase fairness for traffic consisting of mixed-length packets. Targeted Priority-based Flow Control (TPFC) provides a hop-by-hop flow control mechanism that restricts the flow of aggressor streams while allowing victim streams to continue unimpeded. Two variants of the targeting mechanism within TPFC are presented and their performance evaluated through simulation

    Dynamic wavelength allocation in IP/WDM metro access networks

    Get PDF
    Ankara : The Department of Electrical and Electronics Engineering and the Institute of Engineering and Science of Bilkent University, 2008.Thesis (Ph.D.) -- Bilkent University, 2008.Includes bibliographical references leaves 132-139.Increasing demand for bandwidth and proliferation of packet based traffic have been causing architectural changes in the communications infrastructure. In this evolution, metro networks face both the capacity and dynamic adaptability constraints. The increase in the access and backbone speeds result in high bandwidth requirements, whereas the popularity of wireless access and limited number of customers in metro area necessitates traffic adaptability. Traditional architecture which has been optimized for carrying circuit-switched connections, is far from meeting these requirements. Recently, several architectures have been proposed for future metro access networks. Nearly all of these solutions support dynamic allocation of bandwidth to follow fluctuations in the traffic demand. However, reconfiguration policies that can be used in this process have not been fully explored yet. In this thesis, dynamic wavelength allocation (DWA) policies for IP/WDM metro access networks with reconfiguration delays are considered. Reconfiguration actions incur a cost since a portion of the capacity becomes idle in the reconfiguration period due to the signalling latencies and tuning times of optical transceivers. Exact formulation of the DWA problem is developed as a Markov Decision Process (MDP) and a new cost function is proposed to attain both throughput efficiency and fairness. For larger problems, a heuristic approach based on first passage probabilities is developed. The performance of the method is evaluated under both stationary and non-stationary traffic conditions. The effects of relevant network and traffic parameters, such as delay and flow size are also discussed. Finally, performance bounds for the DWA methods are derived.Yetginer, EmrePh.D

    Design, Implementation, and Verification of the Reliable Multicast Protocol

    Get PDF
    This document describes the Reliable Multicast Protocol (RMP) design, first implementation, and formal verification. RMP provides a totally ordered, reliable, atomic multicast service on top of an unreliable multicast datagram service. RMP is fully and symmetrically distributed so that no site bears an undue portion of the communications load. RMP provides a wide range of guarantees, from unreliable delivery to totally ordered delivery, to K-resilient, majority resilient, and totally resilient atomic delivery. These guarantees are selectable on a per message basis. RMP provides many communication options, including virtual synchrony, a publisher/subscriber model of message delivery, a client/server model of delivery, mutually exclusive handlers for messages, and mutually exclusive locks. It has been commonly believed that total ordering of messages can only be achieved at great performance expense. RMP discounts this. The first implementation of RMP has been shown to provide high throughput performance on Local Area Networks (LAN). For two or more destinations a single LAN, RMP provides higher throughput than any other protocol that does not use multicast or broadcast technology. The design, implementation, and verification activities of RMP have occurred concurrently. This has allowed the verification to maintain a high fidelity between design model, implementation model, and the verification model. The restrictions of implementation have influenced the design earlier than in normal sequential approaches. The protocol as a whole has matured smoother by the inclusion of several different perspectives into the product development

    A study of the applicability of software-defined networking in industrial networks

    Get PDF
    173 p.Las redes industriales interconectan sensores y actuadores para llevar a cabo funciones de monitorización, control y protección en diferentes entornos, tales como sistemas de transporte o sistemas de automatización industrial. Estos sistemas ciberfísicos generalmente están soportados por múltiples redes de datos, ya sean cableadas o inalámbricas, a las cuales demandan nuevas prestaciones, de forma que el control y gestión de tales redes deben estar acoplados a las condiciones del propio sistema industrial. De este modo, aparecen requisitos relacionados con la flexibilidad, mantenibilidad y adaptabilidad, al mismo tiempo que las restricciones de calidad de servicio no se vean afectadas. Sin embargo, las estrategias de control de red tradicionales generalmente no se adaptan eficientemente a entornos cada vez más dinámicos y heterogéneos.Tras definir un conjunto de requerimientos de red y analizar las limitaciones de las soluciones actuales, se deduce que un control provisto independientemente de los propios dispositivos de red añadiría flexibilidad a dichas redes. Por consiguiente, la presente tesis explora la aplicabilidad de las redes definidas por software (Software-Defined Networking, SDN) en sistemas de automatización industrial. Para llevar a cabo este enfoque, se ha tomado como caso de estudio las redes de automatización basadas en el estándar IEC 61850, el cual es ampliamente usado en el diseño de las redes de comunicaciones en sistemas de distribución de energía, tales como las subestaciones eléctricas. El estándar IEC 61850 define diferentes servicios y protocolos con altos requisitos en terminos de latencia y disponibilidad de la red, los cuales han de ser satisfechos mediante técnicas de ingeniería de tráfico. Como resultado, aprovechando la flexibilidad y programabilidad ofrecidas por las redes definidas por software, en esta tesis se propone una arquitectura de control basada en el protocolo OpenFlow que, incluyendo tecnologías de gestión y monitorización de red, permite establecer políticas de tráfico acorde a su prioridad y al estado de la red.Además, las subestaciones eléctricas son un ejemplo representativo de infraestructura crítica, que son aquellas en las que un fallo puede resultar en graves pérdidas económicas, daños físicos y materiales. De esta forma, tales sistemas deben ser extremadamente seguros y robustos, por lo que es conveniente la implementación de topologías redundantes que ofrezcan un tiempo de reacción ante fallos mínimo. Con tal objetivo, el estándar IEC 62439-3 define los protocolos Parallel Redundancy Protocol (PRP) y High-availability Seamless Redundancy (HSR), los cuales garantizan un tiempo de recuperación nulo en caso de fallo mediante la redundancia activa de datos en redes Ethernet. Sin embargo, la gestión de redes basadas en PRP y HSR es estática e inflexible, lo que, añadido a la reducción de ancho de banda debida la duplicación de datos, hace difícil un control eficiente de los recursos disponibles. En dicho sentido, esta tesis propone control de la redundancia basado en el paradigma SDN para un aprovechamiento eficiente de topologías malladas, al mismo tiempo que se garantiza la disponibilidad de las aplicaciones de control y monitorización. En particular, se discute cómo el protocolo OpenFlow permite a un controlador externo configurar múltiples caminos redundantes entre dispositivos con varias interfaces de red, así como en entornos inalámbricos. De esta forma, los servicios críticos pueden protegerse en situaciones de interferencia y movilidad.La evaluación de la idoneidad de las soluciones propuestas ha sido llevada a cabo, principalmente, mediante la emulación de diferentes topologías y tipos de tráfico. Igualmente, se ha estudiado analítica y experimentalmente cómo afecta a la latencia el poder reducir el número de saltos en las comunicaciones con respecto al uso de un árbol de expansión, así como balancear la carga en una red de nivel 2. Además, se ha realizado un análisis de la mejora de la eficiencia en el uso de los recursos de red y la robustez alcanzada con la combinación de los protocolos PRP y HSR con un control llevado a cabo mediante OpenFlow. Estos resultados muestran que el modelo SDN podría mejorar significativamente las prestaciones de una red industrial de misión crítica

    Improving software middleboxes and datacenter task schedulers

    Get PDF
    Over the last decades, shared systems have contributed to the popularity of many technologies. From Operating Systems to the Internet, they have all brought significant cost savings by allowing the underlying infrastructure to be shared. A common challenge in these systems is to ensure that resources are fairly divided without compromising utilization efficiency. In this thesis, we look at problems in two shared systems—software middleboxes and datacenter task schedulers—and propose ways of improving both efficiency and fairness. We begin by presenting Sprayer, a system that uses packet spraying to load balance packets to cores in software middleboxes. Sprayer eliminates the imbalance problems of per-flow solutions and addresses the new challenges of handling shared flow state that come with packet spraying. We show that Sprayer significantly improves fairness and seamlessly uses the entire capacity, even when there is a single flow in the system. After that, we present Stateful Dominant Resource Fairness (SDRF), a task scheduling policy for datacenters that looks at past allocations and enforces fairness in the long run. We prove that SDRF keeps the fundamental properties of DRF—the allocation policy it is built on—while benefiting users with lower usage. To efficiently implement SDRF, we also introduce live tree, a general-purpose data structure that keeps elements with predictable time-varying priorities sorted. Our trace-driven simulations indicate that SDRF reduces users’ waiting time on average. This improves fairness, by increasing the number of completed tasks for users with lower demands, with small impact on high-demand users.Nas últimas décadas, sistemas compartilhados contribuíram para a popularidade de muitas tecnologias. Desde Sistemas Operacionais até a Internet, esses sistemas trouxeram economias significativas ao permitir que a infraestrutura subjacente fosse compartilhada. Um desafio comum a esses sistemas é garantir que os recursos sejam divididos de forma justa, sem comprometer a eficiência de utilização. Esta dissertação observa problemas em dois sistemas compartilhados distintos—middleboxes em software e escalonadores de tarefas de datacenters—e propõe maneiras de melhorar tanto a eficiência como a justiça. Primeiro é apresentado o sistema Sprayer, que usa espalhamento para direcionar pacotes entre os núcleos em middleboxes em software. O Sprayer elimina os problemas de desbalanceamento causados pelas soluções baseadas em fluxos e lida com os novos desafios de manipular estados de fluxo, consequentes do espalhamento de pacotes. É mostrado que o Sprayer melhora a justiça de forma significativa e consegue usar toda a capacidade, mesmo quando há apenas um fluxo no sistema. Depois disso, é apresentado o SDRF, uma política de alocação de tarefas para datacenters que considera as alocações passadas e garante justiça ao longo do tempo. Prova-se que o SDRF mantém as propriedades fundamentais do DRF—a política de alocação em que ele se baseia—enquanto beneficia os usuários com menor utilização. Para implementar o SDRF de forma eficiente, também é introduzida a árvore viva, uma estrutura de dados genérica que mantém ordenados elementos cujas prioridades variam com o tempo. Simulações com dados reais indicam que o SDRF reduz o tempo de espera na média. Isso melhora a justiça, ao aumentar o número de tarefas completas dos usuários com menor demanda, tendo um impacto pequeno nos usuários de maior demanda

    Fast reroute using segment routing for smart grids

    Get PDF
    Tese de mestrado, Engenharia Informática (Arquitectura, Sistemas e Redes de Computadores) Universidade de Lisboa, Faculdade de Ciências, 2016A rede eléctrica tem contribuído de forma extraordinária para o nosso dia-a-dia nas últimas décadas e, como tal, tornou-se essencial para a nossa sociedade. Hoje em dia, estão a ser tomadas decisões para a modernizar, de modo a que seja possível fornecer novos serviços. Graças ao aumento da produção¸ ão de electricidade através de energias renováveis (energia solar, hídrica e eólica), e ao aumento do consumo de energia, é vista como necessária uma reestruturação da rede eléctrica. Para atingir estes objectivos, foi proposta uma nova geração destas redes, as Smart Grids (SG). As SG são compostas por dispositivos electrónicos inteligentes, sensores com e sem fios e contadores inteligentes que necessitam de se coordenar para funcionarem correctamente. Como tal, é fundamental ter uma rede de comunicação moderna capaz de suportar estes desafios [1]. Um conjunto de propriedades de que se destacam a escalabilidade, disponibilidade e segurança, são fulcrais para o funcionamento das SG. Para as SG a infra-estrutura de comunicação tem um papel particularmente importante para que se possam cumprir estas necessidades. As tecnologias actuais baseadas em Internet Protocol (IP) e em Multiprotocol Layer Switching (MPLS) tˆem conseguido corresponder a estas necessidades. O protocolo IP é um dos alicerces para a comunicação mundial, enquanto que o MPLS tem sido adoptado pelas suas capacidades de engenharia de tráfego. No entanto, as redes de IP tradicionais são difíceis de gerir e tornam complicado o desenho de soluções que permitam utilização eficiente de recursos e que possibilitem comunicação resiliente. Por outro lado, o MPLS tem problemas de escalabilidade devido ao uso de protocolos complexos como o Resource Reservation Protocol with Traffic Engineering (RSVP-TE). As Software Defined Networks (SDN) promete resolver alguns dos problemas mencionados anteriormente, a partir do desacoplamento do plano de dados do plano de controlo, que passa a ser gerido por um controlador logicamente centralizado [2][3][4]. Deste modo, as aplicações que são executadas no controlador têm uma visão centralizada do estado da rede, o que facilita a procura de soluções de gestão de redes. No entanto, os operadores de SG poderão apresentar alguma relutância ao mover todos os seus elementos da rede para uma SDN. Felizmente, foi proposto recentemente um novo protocolo pela Internet Engineering Task Force (IETF) – Segment Routing (SR) [5] – que permite a centralização lógica oferecida por uma SDN num ambiente de uma rede MPLS. SR ´e muito semelhante ao MPLS, na medida em que utiliza segmentos que se comportam como etiquetas MPLS. A comutação de pacotes, baseada também nestas etiquetas, é gerida por comutadores que usam as mesmas acções do MPLS (push, pop e swap). No entanto, ao contrário do MPLS, o SR não necessita de protocolos complexos como o RSVP-TE, simplificando a gestão da rede. O SR utiliza uma forma de source routing, facilitadora da sua integração. Desta forma o SR pode ser integrado com os controladores SDN e outras aplicações. Para implementar SR, o controlador SDN apenas precisa de enviar uma lista ordenada de segmentos para o encaminhador que a insere no cabeçalho dos pacotes quando necessitarem de serem enviados. Isto torna possível a criação de uma solução mais simples e escalável para engenharia de tráfego. Nesta tese vamos explorar o uso de SR para avaliar a resiliencia da rede. O objectivo passa por desenhar e avaliar as soluções que forneçam reencaminhamento rápido após uma falha de uma ligação entre nós. Em particular, fornece a capacidade de realizar reencaminhamento rápido enquanto fornece uma grande percentagem de cobertura. Aproveitando as características das SDN e de SR, as nossas soluções permitem que o controlador pré compute os caminhos de backup necessários para instalar nos encaminhadores, mantendo o plano de dados em MPLS inalterado. A contribuição principal desta tese pode ser resumida em dois pontos: 1. Desenho de uma solução de reencaminhamento rápido em caso de faltas para Smart Grids, usando SR e SDN. 2. Fornecer uma avaliação exaustiva do algoritmo de modo a que se consiga compreender os seus benefícios e limitações. O algoritmo proposto utiliza vários comutadores que são utilizados como destinos intermédios, que garantem a entrega dos pacotes após a falha de uma ligação entre nós. Como tal, também propomos dois selectores de segmentos que fornecem reencaminhamento rápido mas com características diferentes. A primeira solução, Fast Segment Drop (FSD), selecciona um segmento próximo da origem do caminho em vez do segmento mais próximo do destino. Isto permite que os pacotes que atravessam a rede causem o menor overhead possível. O overhead devese ao número de segmentos usados em cada nó durante o caminho. Assim sendo, se escolhermos um segmento mais próximo do destino o overhead será maior. A segunda solução, Congestion Avoidance Segment (CAS), escolhe segmentos que podem aumentar o overhead mas que, em contraste, fornecem a capacidade de escolher o caminho com menor utilização. Deste modo pode-se evitar estrangulamentos existentes na rede. Para compararmos as nossas soluções implementamos um selector aleatório e o algoritmo TI-LFA [6]. Os resultados demonstram que para a maioria das topologias uma falha entre nós pode ser tolerada utilizando Loop Free Alternatives (LFA). No entanto ainda existem cerca de 20% dos casos que necessitam de utilizar um segmento para tolerar uma falha, enquanto que dois segmentos raramente são necessários. Também foi possível concluir que o nosso algoritmo fornece mais flexibilidade na escolha de segmentos do que TI-LFA visto que permite uma maior escolha de segmentos. Utilizando CAS é possível reduzir ligeiramente a congestão das ligações na rede em grids e em topologias reais.With the increase of power generation from renewable sources and with a growing energy demand, the traditional communication network underpinning the actual electric power grid needs an overhaul. As a response, the Smart Grid is a new generation of electric grids that aims to fulfill this goal. Smart Grids demand a set of properties that range from high availability to scalability and security. Therefore, the communication infrastructure plays an important role. Current Internet Protocol-based and Multiprotocol Layer Switching (MPLS) technologies have been suggested capable in achieving those needs. However, IP networks have problems to offer traffic engineering solutions and MPLS faces scalability problems due to the use of complex protocols such as RSVP-TE. A new network paradigm, Software-Defined Networks (SDN), is revolutionizing the way computer networks are built and operated, and is leading to the “softwarization” of networking. Showing promise to solve some of the above problems. However, smart grid operators may be reluctant to move all their network elements to SDN anytime soon. Fortunately, Segment routing, recently proposed by the IETF, allows SDN to be used in the context of MPLS networks. The data plane of Segment Routing is similar to MPLS as it uses segments that behave as MPLS labels and is managed in switches using similar actions. In this thesis we present algorithms for fast reroute in SR networks. We propose two solutions: Fast Segment Drop (FSD) that aims to minimize packet overhead and segment list size; and Congestion Avoidance Segment (CAS), a solution that provides traffic engineering by minimizing the maximum link load. The results indeed show that by using CAS reduces network congestion when compared with other algorithms. FSD provides higher coverage using just one segment thus reducing overhead
    corecore