461 research outputs found

    STAIR: Practical AIMD Multirate Congestion Control

    Full text link
    Existing approaches for multirate multicast congestion control are either friendly to TCP only over large time scales or introduce unfortunate side effects, such as significant control traffic, wasted bandwidth, or the need for modifications to existing routers. We advocate a layered multicast approach in which steady-state receiver reception rates emulate the classical TCP sawtooth derived from additive-increase, multiplicative decrease (AIMD) principles. Our approach introduces the concept of dynamic stair layers to simulate various rates of additive increase for receivers with heterogeneous round-trip times (RTTs), facilitated by a minimal amount of IGMP control traffic. We employ a mix of cumulative and non-cumulative layering to minimize the amount of excess bandwidth consumed by receivers operating asynchronously behind a shared bottleneck. We integrate these techniques together into a congestion control scheme called STAIR which is amenable to those multicast applications which can make effective use of arbitrary and time-varying subscription levels.National Science Foundation (CAREER ANI-0093296, ANI-9986397

    Comparative Study Of Congestion Control Techniques In High Speed Networks

    Get PDF
    Congestion in network occurs due to exceed in aggregate demand as compared to the accessible capacity of the resources. Network congestion will increase as network speed increases and new effective congestion control methods are needed, especially to handle bursty traffic of todays very high speed networks. Since late 90s numerous schemes i.e. [1]...[10] etc. have been proposed. This paper concentrates on comparative study of the different congestion control schemes based on some key performance metrics. An effort has been made to judge the performance of Maximum Entropy (ME) based solution for a steady state GE/GE/1/N censored queues with partial buffer sharing scheme against these key performance metrics.Comment: 10 pages IEEE format, International Journal of Computer Science and Information Security, IJCSIS November 2009, ISSN 1947 5500, http://sites.google.com/site/ijcsis

    Interacting multi-class transmissions in large stochastic networks

    Get PDF
    The mean-field limit of a Markovian model describing the interaction of several classes of permanent connections in a network is analyzed. Each of the connections has a self-adaptive behavior in that its transmission rate along its route depends on the level of congestion of the nodes of the route. Since several classes of connections going through the nodes of the network are considered, an original mean-field result in a multi-class context is established. It is shown that, as the number of connections goes to infinity, the behavior of the different classes of connections can be represented by the solution of an unusual nonlinear stochastic differential equation depending not only on the sample paths of the process, but also on its distribution. Existence and uniqueness results for the solutions of these equations are derived. Properties of their invariant distributions are investigated and it is shown that, under some natural assumptions, they are determined by the solutions of a fixed-point equation in a finite-dimensional space.Comment: Published in at http://dx.doi.org/10.1214/09-AAP614 the Annals of Applied Probability (http://www.imstat.org/aap/) by the Institute of Mathematical Statistics (http://www.imstat.org

    QoS-Based Optimization of Runtime Management of Sensing Cloud Applications

    Get PDF
    Die vorliegende Arbeit prĂ€sentiert AnsĂ€tze und Techniken zur qualitĂ€tsbewussten Verbesserung des Laufzeitmanagements von IoT-Anwendungen. IoT-Anwendungen nehmen ĂŒber die Sensorik von Smart Devices ihre Umgebung wahr, um diese zu analysieren oder mit ihr zu interagieren. Smart Devices sind in der Rechen- und Speicherleistung begrenzt, weshalb viele IoT-Anwendungen ĂŒber eine IoT Plattform mit elastischen und skalierbaren Cloud Services verbunden sind. Die Last auf dem Cloud Service entsteht durch die verbundenen Smart Devices, die kontinuierlich Nachrichten transferieren. Die Ressourcenkonfiguration des Cloud Services beeinflusst dessen KapazitĂ€t. Ein Service Operator, der eine IoT-Anwendung betreibt, ist mit der Herausforderung konfrontiert, die Smart Devices und den Cloud Service so zu konfigurieren, dass eine hohe DatenqualitĂ€t bei niedrigen Betriebskosten erreicht wird. Um hierbei den Service Operator zur Design Time zu unterstĂŒtzen, modellieren wir Kostenfunktionen fĂŒr DatenqualitĂ€ten, die durch das Wechselspiel der Smart Device- und Cloud Service-Konfiguration beeinflusst werden. Mit Hilfe dieser Kostenfunktionen kann ein Service Operator nach einer kostenminimalen Konfiguration fĂŒr bestimmte Szenarien suchen. Existierende AnsĂ€tze zur Optimierung von Anwendungen zur Design Time fokussieren sich auf traditionelle Software-Architekturen und bieten daher nicht die notwendigen Konzepte zur Kostenmodellierung von IoT-Anwendungen an. Des Weiteren unterstĂŒtzen wir den Service Operator durch Lastkontrollverfahren, die auf KapazitĂ€tsengpĂ€sse des Cloud Services durch eine kontrollierte Reduktion der Nachrichtenrate reagieren. WĂ€hrend sich das auf die Genauigkeit der Messungen nachteilig auswirken kann, stabilisieren sich zeitliche Verzögerungen und die IoT-Anwendung bleibt auch in starken Überlastszenarien verfĂŒgbar. Existierende Laufzeittechniken fokussieren sich auf die automatische Ressourcenprovisionierung von Cloud Services durch Auto-Scaler. Diese ermöglichen zwar, auf KapazitĂ€tsengpĂ€sse und Lastschwankungen zu reagieren, doch die erreichte Quality-of-Service (QoS) kann dadurch mit hohen Betriebskosten verbunden sein. Daher ermöglichen wir durch die Lastkontrollverfahren eine weitere Technik, mit der einerseits dynamisch auf KapazitĂ€tsengpĂ€sse reagiert werden und andererseits die zur VerfĂŒgung stehende KapazitĂ€t eines Cloud Services effizient genutzt werden kann. Außerdem prĂ€sentieren wir Kopplungstechniken, die Auto-Scaling und Lastkontrollverfahren kombinieren. Bestehende AnsĂ€tze zur Rekonfiguration von Smart Devices konzentrieren sich auf QualitĂ€ten wie Genauigkeit oder Energie-Effizienz und sind daher ungeeignet, um auf KapazitĂ€tsengpĂ€sse zu reagieren. Zusammenfassend liefert die Dissertation die folgenden BeitrĂ€ge: 1. Untersuchung von Performance Metriken fĂŒr Skalierentscheidungen: Wir haben Infrastuktur- und Anwendungsebenen-Metriken daraufhin evaluiert, wie geeignet sie fĂŒr Skalierentscheidungen von Microservices sind, die variierende Charakteristiken aufweisen. Auf Basis der Ergebnisse kann ein Service Operator eine fundierte Entscheidung darĂŒber treffen, welche Performance Metrik zur Skalierung eines bestimmten Microservices am geeignesten ist. 2. Design von QoS Kostenfunktionen fĂŒr IoT-Anwendungen: Wir haben ein QoS Kostenmodell aufgestellt, dass das Wirken von Smart Device- und Cloud Service-Konfiguration auf die QualitĂ€ten einer IoT-Anwendung erfasst. Auf Grundlage dieser Kostenmodelle kann die Konfiguration von IoT-Anwendungen zur Design Time optimiert werden. Des Weiteren können mit den Kostenfunktionen Laufzeitverfahren hinsichtlich ihrem Beitrag zur QoS fĂŒr verschiedene Szenarien evaluiert werden. 3. Entwicklung von Lastkontrollverfahren fĂŒr IoT-Anwendungen: Die prĂ€sentierten Verfahren bieten einen komplementĂ€ren Mechanismus zu Auto-Scaling an, um bei KapazitĂ€tsengpĂ€ssen die QoS aufrechtzuerhalten. Hierbei wird die Gesamtlast auf dem Cloud Service durch Anpassungen der Nachrichtenrate der Smart Devices reduziert. Ein Service Operator hat hiermit die Möglichkeit, KapazitĂ€tsengpĂ€ssen ĂŒber eine Degradierung der DatenqualitĂ€t zu begegnen. 4. Kopplung von Lastkontrollverfahren mit Ressourcen-Provisionierung: Wir prĂ€sentieren regelbasierte Kopplungsmechanismen, die reaktiv Lastkontrollverfahren oder Auto-Scaler aktivieren und diese damit koppeln. Das ermöglicht, auf KapazitĂ€tsengpĂ€sse ĂŒber eine Kombination von DatenqualitĂ€tsreduzierungen und Ressourcekostenerhöhungen zu reagieren. 5. Design eines Frameworks zur Entwicklung selbst-adaptiver Systeme: Das selbst-adaptive Framework bietet ein Anwendungsmodell fĂŒr IoT-Anwendungen und Konzepte fĂŒr die Rekonfiguration von Microservices und Smart Devices an. Es kann in verschiedenen Cloud-Umgebungen aufgesetzt werden und beschleunigt die prototypische Entwicklung von Laufzeitverfahren. Wir validierten die AnsĂ€tze anhand zweier Case Study Systeme unterschiedlicher KomplexitĂ€t. Das erste Case Study System besteht aus einem Cloud Service, welcher ĂŒber eine IoT Plattform Nachrichten von virtuellen Smart Devices verarbeitet. Mit diesem System haben wir fĂŒr unterschiedliche Anwendungsszenarien die Charakteristiken der vorgestellten Lastkontrollverfahren analysiert, um diese gegen Auto-Scaling und einer Kopplung der AnsĂ€tze zu vergleichen. Hierbei stellte sich heraus, dass die Lastkontrollverfahren Ă€hnlich effizient wie Auto-Scaler Überlastszenarien addressieren können und sich die QoS in einem vergleichbaren Bereich bewegt. Im Schnitt erreichten die Lastkontrollverfahren in den untersuchten Szenarien etwa 50 % geringere QoS Gesamtkosten. Es zeigte sich auch, dass sowohl Auto-Scaling als auch die Lastkontrollverfahren in bestimmten Anwendungsszenarien deutliche Nachteile haben, so z. B. wenn die Datengenauigkeit oder Ressourcenkosten im Vordergrund stehen. Es hat sich gezeigt, dass eine Kopplung hierbei immer vorteilhaft ist, um die QoS beizubehalten. Im zweiten Case Study System haben wir eine intelligente Heizungslösung der Robert Bosch GmbH implementiert, um die AnsĂ€tze an einem komplexeren System zu validieren. Auch hier zeigte sich, dass eine Kombination von Lastkontrolle und Auto-Scaling am vorteilhaftesten ist und zu einer hohen DatenqualitĂ€t bei geringen Ressourcenkosten beitrĂ€gt. Die Ergebnisse zeigen, dass die vorgestellten Lastkontrollverfahren geeignet sind, die QoS von IoT Anwendungen zu verbessern. Es bietet einem Service Operator damit ein weiteres Werkzeug fĂŒr das Laufzeitmanagement von IoT Anwendungen, dass einen zum Auto-Scaling komplementĂ€ren Mechanismus verwendet. Das hier vorgestellte Framework zur Entwicklung selbst-adaptiver IoT Systeme haben wir zur empirischen Beantwortung der Forschungsfragen instanziiert und damit dessen Eignung demonstriert. Wir zeigen außerdem eine exemplarische Verwendung der vorgestellten Kostenfunktionen fĂŒr verschiedene Anwendungsszenarien und binden diese im Zuge der Validierung in einem Optimierungs-Framework ein

    Functional Optimization Models for Active Queue Management

    Get PDF
    Active Queue Management (AQM) is an important problem in networking. In this paper, we propose a general functional optimiza-tion model for designing AQM schemes. Unlike the previous static func-tion optimization models based on the artiïŹcial notion of utility function, the proposed dynamic functional optimization formulation allows us to directly characterize the desirable system behavior of AQM and design AQM schemes to optimally control the dynamic behavior of the system. Such a formulation also allows adaptive control which enables the AQM scheme to continuously adapt to dynamic changes of networking con-ditions. In this paper, we present the Pontryagin minimum principle, a necessary condition, for the functional optimization model of AQM with TCP AIMD congestion control. As an example, we investigate a queu-ing stability criteria and apply the necessary conditions to optimize the functional model

    TCP flow aware adaptive path switching in diffserv enabled MPLS networks

    Get PDF
    Cataloged from PDF version of article.We propose an adaptive flow-level multi-path routing-based traffic engineering solution for an IP backbone network carrying TCP/IP traffic. Incoming TCP flows are switched between two explicitly routed paths, namely the primary and secondary paths (PP and SP), for resilience and potential goodput improvement at the TCP layer. In the proposed architecture, PPs receive a preferential treatment over SPs using differentiated services mechanisms. The reason for this choice is not for service differentiation but for coping with the detrimental knock-on effect stemming from the use of longer SP that is well known for conventional network load balancing algorithms. Moreover, both paths are congestion-controlled using Explicit Congestion Notification marking at the core and Additive Increase Multiplicative Decrease rate adjustment at the ingress nodes. The delay difference between PP and SP is estimated using two per-egress rate-controlling buffers maintained at the ingress nodes for each path, and this delay difference is used to determine the path over which a new TCP flow will be routed. We perform extensive simulations using ns-2 in order to demonstrate the viability of the proposed distributed adaptive multi-path routing method in terms of per-flow TCP goodput. The proposed solution consistently outperforms the single-path routing policy and provides substantial per-flow goodput gains under poor PP conditions. Moreover, highest goodput improvements under the proposed scheme are achieved by flows that receive the lowest goodputs with single-path routing, while the performance of the flows with high goodputs with single-path routing does not deteriorate with the proposed path switching technique. Copyright # 2011 John Wiley & Sons, Ltd

    gTFRC: a QoS-aware congestion control algorithm

    Get PDF
    This study addresses the end-to-end congestion control support over the DiffServ Assured Forwarding (AF) class. The resulting Assured Service (AS) provides a minimum level of throughput guarantee. In this context, this paper describes a new end-to-end mechanism for continuous transfer based on TCP-Friendly Rate Control (TFRC) originally proposed in [11]. The proposed approach modifies TFRC to take into account the QoS negotiated. This mechanism, named gTFRC, is able to reach the minimum throughput guarantee whatever the flow's RTT and target rate. Simulation measurements show the efficiency of this mechanism either in over-provisioned or exactly-provisioned network. In addition, we show that the gTFRC mechanism can be used in the same DiffServ/AF class with TCP or TFRC flows
    • 

    corecore