27 research outputs found

    On the search path length of random binary skip graphs

    Get PDF
    International audienceIn this paper we consider the skip graph data structure, a load balancing alternative to skip lists, designed to perform better in a distributed environment. We extend previous results of Devroye on skip lists, and prove that the maximum length of a search path in a random binary skip graph of size n is of order log n with high probability.Dans ce travail, nous nous intéressons aux "skip graphs", une alternative aux "skip lists" permettant un meilleur équlibrage de charges et conçue pour être plus efficace dans un environnement distribué. Nous étendons des résultats de Devroye sur les skip lists, et prouvons que la longueur maximale d'un chemin de recherche dans un skip graph binaire aléatoire de taille n, est d'ordre log(n) avec forte probabilité

    Optimizing Resource allocation while handling SLA violations in Cloud Computing platforms

    Get PDF
    International audienceIn this paper we study a resource allocation problem in the context of Cloud Computing, where a set of Virtual Machines (VM) has to be placed on a set of Physical Machines (PM). Each VM has a given demand (e.g. CPU demand), and each PM has a capacity. However, each VM only uses a fraction of its demand. The aim is to exploit the difference between the demand of the VM and its real utilization of the resources, to exploit the capacities of the PMs as much as possible. Moreover, the real consumption of the VMs can change over time (while staying under its original demand), implying sometimes expensive ''SLA violations'', corresponding to some VM's consumption not satisfied because of overloaded PMs. Thus, while optimizing the global resource utilization of the PMs, it is necessary to ensure that at any moment a VM's need evolves, a few number of migrations (moving a VM from PM to PM) is sufficient to find a new configuration in which all the VMs' consumptions are satisfied. We modelize this problem using a fully dynamic bin packing approach and we present an algorithm ensuring a global utilization of the resources of 66%. Moreover, each time a PM is overloaded at most one migration is necessary to fall back in a configuration with no overloaded PM, and only 3 different PMs are concerned by required migrations that may occur to keep the global resource utilization correct. This allows the platform to be highly resilient to a great number of changes

    Modeling and Practical Evaluation of a Service Location Problem in Large Scale Networks

    Get PDF
    International audienceWe consider a generalization of a classical optimization problem related to server and replica location problems in networks. More precisely, we suppose that a set of users distributed over a network wish to have access to a particular service proposed by a set of providers. The aim is then to distinguish a set of service providers able to offer a sufficient amount of resources in order to satisfy the requests of the clients. Moreover, a quality of service following some requirements in terms of latencies is desirable. A smart repartition of the servers in the network may also ensure good fault tolerance properties. We model this problem as a variant of Bin Packing, namely Bin Packing under Distance Constraint (BPDC) where the goal is to build a minimal number of bins (i.e. to choose a minimal number of servers) so that (i) each client is associated to exactly one server, (ii) the capacity of the server is large enough to satisfy the requests of its clients and (iii) the distance between two clients associated to the same server is minimized. We prove that this problem is hard to approximate even when using resource augmentation techniques : we compare the number of obtained bins when using polynomial time algorithms allowed to build bins of diameter at most b*dmax, for b>1, to the optimal number of bins of diameter at most dmax. On the one hand, we prove that (i) if b=(2-e), BPDC is hard to approximate within any constant approximation ratio, for any e>0; and that (ii) BPDC is hard to approximate at a ratio lower than 3/2 even if resource augmentation is used. On the other hand, if b=2, we propose a polynomial time approximation algorithm for BPDC with approximation ratio 7/3 in the general case. We show how to turn an approximation algorithm for BPDC into an approximation algorithm for the non-uniform capacitated K-center problem and vice-versa. Then, we present a comparison of the quality of results for BPDC in the context of several Internet latency embedding tools such as Sequoia and Vivaldi, using datasets based on PlanetLab latency measurements.Nous considérons une généralisation d'un problème d'optimisation classique lié au placement de serveurs et de réplicats dans les réseaux. Plus précisément, nous supposons qu'un ensemble d'utilisateurs au sein d'un réseau souhaite accéder à un service particulier proposé par un ensemble de fournisseurs de ce service. L'objectif est alors d'identifier un ensemble de fournisseurs de service capable d'offrir suffisamment de ressources pour répondre aux requêtes des clients. Par ailleurs, une certaine qualité de service relativement aux temps de communications est désirable. Une répartition judicieuse des serveurs dans le réseau offrirait également de bonnes propriétés de tolérance aux pannes. Nous modélisons ce problème comme une variante de Bin Packing, le Bin Packing avec Contrainte de Distance (BPDC en anglais) où le but est de construire un minimum de groupes (i.e. de choisir un nombre minimal de serveurs) de telle sorte que (i) chaque client est associé à exactement un serveur, (ii) la capacité dudit serveur est suffisante pour répondre aux requêtes des clients qui lui sont associés et (iii) la distance entre deux clients associés au même serveur est minimisée. Nous prouvons que ce problème est inapproximable même en utilisant des techniques d'augmentation de ressources : le nombre de groupes obtenus en utilisant des algorithmes s'exécutant en temps polynomial et autorisés à construire des groupes de diamètre au plus b*dmax, avec b>1, est comparé au nombre de groupes d'une solution optimale construisant des groupes de diamètre au plus dmax. D'un côté, nous prouvons que (i) si b=(2-e), BPDC est inapproximable à facteur constant, pour tout e>0; et que (ii) BPDC est inapproximableà un facteur inférieur à 3/2 même en utilisant de l'augmentation de ressources. D'un autre côté, si b=2, nous proposons un algorithme s'exécutant en temps polynomial pour BPDC assurant un facteur d'approximation de 7/3 dans le cas général. Nous montrons également comment transformer un algorithme d'approximation pour BPDC en un algorithme d'approximation pour le K-centre non uniforme avec capacités, et vice-versa. Enfin, nous présentons une comparaison qualitative de nos résultats pour BPDC en utilisant plusieurs outils de plongement de l'espace des latences d'Internet, comme Sequoia et Vivaldi

    Reliable Service Allocation in Clouds

    Get PDF
    International audienceWe consider several reliability problems that arise when allocating applications to processing resources in a Cloud computing platform. More specifically, we assume on the one hand that each computing resource is associated to a capacity constraint and to a probability of failure. On the other hand, we assume that each service runs as a set of independent instances of identical Virtual Machines, and that the Service Level Agreement between the Cloud provider and the client states that a minimal number of instances of the service should run with a given probability. In this context, given the capacity and failure probabilities of the machines, and the capacity and reliability demands of the services, the question for the cloud provider is to find an allocation of the instances of the services (possibly using replication) onto machines satisfying all types of constraints during a given time period. In this paper, our goal is to assess the impact of the reliability constraint on the complexity of resource allocation problems. We consider several variants of this problem, depending on the number of services and whether their reliability demand is individual or global. We prove several fundamental complexity results (#\#P' and NP-completeness results) and we provide several optimal and approximation algorithms. In particular, we prove that a basic randomized allocation algorithm, that is easy to implement, provides optimal or quasi-optimal results in several contexts, and we show through simulations that it also achieves very good results in more general settings

    Optimal algorithms and approximation algorithms for replica placement with distance constraints in tree networks

    Get PDF
    In this paper, we study the problem of replica placement in tree networks subject to server capacity and distance constraints. The client requests are known beforehand, while the number and location of the servers are to be determined. The Single policy enforces that all requests of a client are served by a single server in the tree, while in the Multiple policy, the requests of a given client can be processed by multiple servers, thus distributing the processing of requests over the platform. For the Single policy, we prove that all instances of the problem are NP-hard, and we propose approximation algorithms. The problem with the Multiple policy was known to be NP-hard with distance constraints, but we provide a polynomial time optimal algorithm to solve the problem in the particular case of binary trees when no request exceeds the server capacity

    Utilisation d'outils de plongement d'Internet pour l'agrégation de ressources hétérogènes

    Get PDF
    International audienceDans cet article, nous nous intéressons aux plates-formes de grande échelle comme BOINC, qui sont constituées d'un ensemble de ressources hétérogènes utilisant Internet comme réseau de communication. Dans ce contexte, nous étudions un problème d'agrégation de ressources dans lequel l'objectif est de construire des groupes de ressources, de telle sorte que chaque groupe ait une capacité totale supérieure à une certaine valeur, et tels qu'au sein d'un même groupe, deux ressources ne soient pas trop éloignées (en terme de latence) l'une de l'autre. Dans de telles plateformes, il n'est pas réaliste de supposer connaître la latence pour l'intégralité des couples de noeuds. Il est donc nécessaire d'avoir recours à des outils de plongement comme Vivaldi ou Sequoia. Ces outils permettent de travailler dans des espaces métriques spécifiques et dans lesquels la distance entre deux noeuds peut être obtenue directement à partir d'une petite quantité d'informations disponible à chaque noeud. Nous étudions le problème "Bin Covering" avec Contrainte de Distance (BCCD) et utilisons des algorithmes dédiés dans les espaces métriques induits par plusieurs outils de plongement pour proposer une comparaison de ces algorithmes en nous appuyant sur des mesures de latences réelles. Cette comparaison nous permet de décider quel couple (algorithme,outil de plongement) est en pratique le plus efficace pour ce problème d'agrégation de ressources

    Use of Internet Embedding Tools for Heterogeneous Resources Aggregation

    Get PDF
    International audienceIn this paper we are interested in large scale distributed platforms like BOINC, consisting of heterogeneous resources and using Internet as underlying communication network. In this context, we study a resource clustering problem, where the goal is to build clusters having at least a given capacity and such that any two participants to the same cluster are not too far from each other. In this context, the distance between two participants corresponds to the latency of a communication between them. Our goal is to provide algorithms with provable approximation ratios. In such large scale networks, it is not realistic to assume that the whole latency matrix (that gives the latency between any two participants) is known, and we need to rely on embedding tools such as Vivaldi or Sequoia. These tools enable to work on compact descriptions and well described metric spaces in which the distance between two points can be obtained directly from a small amount of information available at each node.We present the Bin Covering under Distance Constraint problem (BCDC for short), and propose dedicated algorithms for this problem for each metric space induced by each of the embedding tools. Then, we propose a comparison of these algorithms based on actual latency measures, that enables to decide which algorithm/embedding tool pair offers in practice for realistic datasets the best balancing between distance prediction and approximation ratios for the resource clustering problem.Dans cet article nous nous intéressons aux plateformes de grande échelle comme BOINC, qui consistent en un ensemble de ressources hétérogènes qui utilisent Internet comme réseau de communications. Dans ce contexte, nous étudions un problème d'agrégation de ressources dans lequel l'objectif est de construire des groupes de noeuds de telle sorte que chaque groupe ait une capacité totale supérieure à une certaine valeur, et tels qu'au sein d'un même groupe, deux noeuds ne soient pas trop éloignés l'un de l'autre. Dans ce contexte, la distance entre deux participants correspond à la latence d'une communication entre eux. Notre objectif est de fournir des algorithmes assurant des facteurs d'approximations prouvés. Dans de telles plateformes, il n'est pas réaliste de supposer connaître l'intégralité de la matrice des latences (qui donne, pour chaque paire de noeud, la latence les séparant). Il est nécessaire d'avoir recours à des outils de plongements comme Vivaldi ou Sequoia. Ces outils permettent de travailler sur des espaces métriques spécifiques bien décrits, dans lesquels la distance entre deux points peut être obtenue directement à partir d'une petite quantité d'informations disponible à chaque noeud. Nous présentons le problème de Bin Covering avec Contrainte de Distance (BCCD), et proposons pour ce problème des algorithmes dédiés à chacun des espaces métriques induits par chacun des outils de plongement que nous étudions. Ensuite nous proposons une comparaison de ces algorithmes en nous appuyant sur des mesures de latences réelles, qui nous permet de décider quel couple algorithme/outil de plongement offre en pratique, sur des jeux de données réalistes, le meilleur équilibre entre prédictions de distance et facteur d'approximation pour ce problème d'agrégation de ressources

    Agrégation de ressources avec contrainte de distance : applications aux plateformes de grande échelle.

    No full text
    C'était cool !During this Ph. D. we introduced two problems, respectively Bin Covering under Distance Constraints (BCCD in French) and Bin Packing under Distance Constraints (BPCD in French). Both problems find their applications in large scale networks, like the Internet. The study of those problems in general metric spaces revealed that it is impossible to work in such a general framework with using resource augmentation, that allows solutions built by one of our algorithms to be less constrained than the optimal solution they are compared to. We prove both interesting approximation results, and that without using resource augmentation those problem are hard to tackle. In this work we were also interested in tools aiming at embedding large scale networks aimed by our applications into well described metric spaces. Thus we studied our problems in some specific metric spaces, generated by some of those tools, namely Vivaldi and Sequoia.Durant cette thèse, nous avons introduit les problèmes de Bin Covering avec Contrainte de Distance (BCCD) et de Bin Packing avec Contrainte de Distance (BPCD), qui trouvent leur application dans les réseaux de grande échelle, tel Internet. L'étude de ces problèmes que nous effectuons dans des espaces métriques quelconques montre qu'il est impossible de travailler dans un tel cadre sans avoir recours à de l'augmentation de ressources, un procédé qui permet d'élaborer des algorithmes construisant des solutions moins contraintes que la solution optimale à laquelle elles sont comparées. En plus de résultats d'approximation intéressants, nous prouvons la difficulté de ces problèmes si ce procédé n'est pas utilisé. Par ailleurs, de nombreux outils ont pour objectif de plonger les grands réseaux qui nous intéressent dans des espaces métriques bien décrits. Nous avons alors étudié nos problèmes dans les espaces métriques générés par certains de ces outils, comme Vivaldi et Sequoia

    Resource clustering with distance constraint : applications to large scale platforms

    No full text
    Durant cette thèse, nous avons introduit les problèmes de Bin Covering avec Contrainte de Distance (BCCD) et de Bin Packing avec Contrainte de Distance (BPCD), qui trouvent leur application dans les réseaux de grande échelle, tel Internet. L'étude de ces problèmes que nous effectuons dans des espaces métriques quelconques montre qu'il est impossible de travailler dans un tel cadre sans avoir recours à de l'augmentation de ressources, un procédé qui permet d'élaborer des algorithmes construisant des solutions moins contraintes que la solution optimale à laquelle elles sont comparées. En plus de résultats d'approximation intéressants, nous prouvons la difficulté de ces problèmes si ce procédé n'est pas utilisé. Par ailleurs, de nombreux outils ont pour objectif de plonger les grands réseaux qui nous intéressent dans des espaces métriques bien décrits. Nous avons alors étudié nos problèmes dans plusieurs espaces métriques spécifiques, et, en particulier, ceux générés par certains de ces outils, comme Vivaldi et Sequoia.During this Ph.D we introduced Bin Covering under Distance Constraint (BCCD in French) and Bin Packing under Distance Constraint (BPCD in French). Those two problems find their applications in the context of large scale networks, like Internet. We studied those problems in general metric spaces, and proved that using resource augmentation is mandatory. Resource augmentation allows to build algorithms working on solutions with less constraints than the optimal solution to which it is compared to. We found interesting approximations algorithms using this relaxation, and proved the necessity of this resource augmentation. However many tools are used to embed large networks we are interested in in specific metric spaces. Thus we studied those problems in different specific metric spaces, in particular those generated by the use of Vivaldi and Sequoia, two of those tools
    corecore