4 research outputs found

    Une approche coopérative décentralisée basée agent et CSP pour l’allocation des ressources dans le cloud computing

    Get PDF
    L’évolution de Cloud Computing permet d'apporter des nouveaux défis relatifs à l’exploitation des services à la demande du cloud Computing tels que : calcul, stockage, réseau. En effet, plusieurs heuristiques sont proposées pour maintenir les systèmes d’allocation des ressources de cloud computing et répondent aux ces défis d'une manière transparente et efficace. Dans ce contexte, nous abordons le problème d'allocation des ressources dans le cloud. Nous proposons une approche d'allocation des ressources qui vise à explorer deux objectifs d'optimisation d’allocation des ressources. Premièrement, il équilibre les différentes particularités de l'infrastructure de cloud, y compris l'équilibrage de charge, ce qui améliore les performances de l'infrastructure. Deuxièmement, notre approche fournit une solution aux besoins du client en minimisant le temps d'exécution et en réduisant les paiements des ressources demandées qui ont une nature dynamique. Dans cette thèse, Nous proposons une approche d'allocation de ressources hybride basée sur trois méthodes : le système multi-agents (SMA), le problème de satisfaction de contraintes distribuées (PSCD) et la logique floue (LF). Dont le SMA représente l'infrastructure physique du cloud et permet une gestion efficace des ressources dans la distribution et l'hétérogénéité de cette infrastructure. PSCD, d'autre part, travaille côte à côte avec SMA pour maintenir les politiques d'allocation des ressources dans les centres de données, tandis que LF est utilisée pour faciliter la représentation des valeurs de ressources dynamiques en termes linguistiques (faible, moyen, élevé ...) et aide le système à déterminer la meilleure solution selon les critères dans les demandes des clients

    Allocation optimale multicontraintes des workflows aux ressources d’un environnement Cloud Computing

    Get PDF
    Cloud Computing is increasingly recognized as a new way to use on-demand, computing, storage and network services in a transparent and efficient way. In this thesis, we address the problem of workflows scheduling on distributed heterogeneous infrastructure of Cloud Computing. The existing workflows scheduling approaches mainly focus on the bi-objective optimization of the makespan and the cost. In this thesis, we propose news workflows scheduling algorithms based on metaheuristics. Our algorithms are able to handle more than two QoS (Quality of Service) metrics, namely, makespan, cost, reliability, availability and energy in the case of physical resources. In addition, they address several constraints according to the specified requirements in the SLA (Service Level Agreement). Our algorithms have been evaluated by simulations. We used (1) synthetic workflows and real world scientific workflows having different structures, for our applications; and (2) the features of Amazon EC2 services for our Cloud. The obtained results show the effectiveness of our algorithms when dealing multiple QoS metrics. Our algorithms produce one or more solutions which some of them outperform the solution produced by HEFT heuristic over all the QoS considered, including the makespan for which HEFT is supposed to give good results.Le Cloud Computing est de plus en plus reconnu comme une nouvelle façon d'utiliser, à la demande, les services de calcul, de stockage et de réseau d'une manière transparente et efficace. Dans cette thèse, nous abordons le problème d'ordonnancement de workflows sur les infrastructures distribuées hétérogènes du Cloud Computing. Les approches d'ordonnancement de workflows existantes dans le Cloud se concentrent principalement sur l'optimisation biobjectif du makespan et du coût. Dans cette thèse, nous proposons des algorithmes d'ordonnancement de workflows basés sur des métaheuristiques. Nos algorithmes sont capables de gérer plus de deux métriques de QoS (Quality of Service), notamment, le makespan, le coût, la fiabilité, la disponibilité et l'énergie dans le cas de ressources physiques. En outre, ils traitent plusieurs contraintes selon les exigences spécifiées dans le SLA (Service Level Agreement). Nos algorithmes ont été évalués par simulation en utilisant (1) comme applications: des workflows synthétiques et des workflows scientifiques issues du monde réel ayant des structures différentes; (2) et comme ressources Cloud: les caractéristiques des services de Amazon EC2. Les résultats obtenus montrent l'efficacité de nos algorithmes pour le traitement de plusieurs QoS. Nos algorithmes génèrent une ou plusieurs solutions dont certaines surpassent la solution de l'heuristique HEFT sur toutes les QoS considérées, y compris le makespan pour lequel HEFT est censé donner de bons résultats

    Optimisation de l'intégration des requêtes de réseaux virtuels dans un environnement multiCloud

    Get PDF
    De nos jours, l’Infrastructure-service ou Infrastructure as a Service (IaaS) est devenue le modèle de service du Cloud Computing le plus largement adopté. Dans ce modèle d’affaires, un fournisseur de service ou Service Provider (SP) peut louer, à partir d’un ou de plusieurs fournisseurs d’infrastructure ou Cloud Providers (CPs), des ressources physiques proposées en tant que services (calcul, stockage, accès réseau, routage, etc.). Ces derniers sont encapsulés dans des machines virtuelles ou Virtual Machines (VMs), interconnectées et assemblées sous forme de requête de réseau virtuel ou Virual Network Request (VNR), dans le but de créer des réseaux virtuels hétérogènes offrant des applications et des services personnalisés à des utilisateurs finaux. Malgré son adoption largement réussie, le modèle IaaS reste toujours confronté à un défi fondamental en matière de gestion de ressources, qui consiste en l’optimisation de l’intégration efficace et dynamique des VNRs dans les infrastructures sous-jacentes distribuées et partagées. En effet, des ressources hétérogènes doivent être efficacement allouées afin de pouvoir héberger les VMs dans des centres de données ou data centers (DCs) spécifiques, et de faire router les liaisons virtuelles ou Virtual Links (VLs), représentant le trafic échangé entre les VMs interconnectées, sur des chemins appropriés entre les DCs. Cette allocation de ressources et de services vise généralement à satisfaire des contraintes de performance, de Qualité de Service (QdS), de sécurité et de localisation géographique, imposées par le SP. Dans le contexte de la virtualisation de réseau, ce problème est connu NP-difficile, sous le nom d’intégration de réseau virtuel ou Virtual Network Embedding (VNE), qui n’a été abordé que récemment dans la littérature dans le cadre d’un réseau multiCloud, où les infrastructures Cloud sous-jacents appartiennent à différents CPs indépendants. Le VNE dans un environnement multiCloud ajoute plus de complexité et des défis d’évolutivitité au problème, car l’ensemble du processus nécessite une approche de résolution hiérarchique, dans laquelle deux phases principales d’opération sont réalisées, chacune ayant des objectifs différents selon les acteurs : la phase de partitionnement des VNRs à travers le réseau multiCloud, suivie de la phase d’intégration des segments de VNRs dans les infrastructures intraCloud sélectionnées. Dans la première phase réalisée indirectement par le SP, ce dernier mandate généralement un fournisseur de réseau virtuel ou Virtual Network Provider (VNP). Le VNP agit en tant que service de courtage virtuel pour le compte du SP, afin de sélectionner adéquatement des CPs capables de répondre efficacement aux objectifs et exigences du SP, puis partitionne les VNRs en plusieurs segments. Dans la deuxième phase, qui correspond notamment au problème bien connu du VNE dans le cadre d’un seul CP et qui a été largement abordé dans des travaux de recherche antérieurs, chaque CP sélectionné utilise une approche d’hébergement adéquate pour intégrer les segments de VNRs qui lui sont attribués dans son réseau intraCloud.----------ABSTRACT: Nowadays, the Infrastructure as a Service (IaaS) has become the most widely adopted cloud service model. In this business paradigm, a Service Provider (SP) can lease, from one or more Cloud Providers (CPs), infrastructure layer resources (processing, storage, network access, routing services, etc.) packaged into interconnected virtual machines (VMs) and assembled as a virtual network request (VNR), in order to build heterogeneous virtual networks that will offer customized services and applications to its end users. Despite its successful adoption, the IaaS model faces a fundamental resource management challenge lying in the efficient and dynamic embedding of VNRs onto distributed and shared substrate infrastructures. Heterogenous resources need to be efficiently allocated to host VMs in specific substrate data centers (DCs) and to route virtual links (VLs), representing the exchanged traffic between interconnected VMs, onto suitable substrate paths between the hosting DCs, in order to satisfy performance, Quality of Service (QoS), security and geographical location constraints imposed by the SP. In the context of network virtualization, this issue is usually referred to as the NP-hard Virtual Network Embedding (VNE) problem, which has been only recently addressed in the literature within a multicloud network, where the substrate infrastructures are owned by different and independent CPs. Such a context adds more complexity and scalability issues, since the whole VNE process requires a hierarchical resolution approach, where two major phases of operation are performed, each of them having different purposes according to the acting player: the multicloud VNRs splitting phase, followed by the intra-cloud VNR segments mapping phase. In the first phase played indirectly by the SP, the latter generally mandates a Virtual Network Provider (VNP), which acts as a virtual brokerage service on behalf of the SP, in order to select eligible CPs based on the SP’s goals and requirements, and split the VNRs into segments. In the second phase, which corresponds to the well known VNE within a single CP largely addressed in past research works, each selected CP uses a mapping approach to embed the assigned VNR segments into its intra-cloud network

    Allocation et réallocation de services pour les économies d'énergie dans les clusters et les clouds

    Get PDF
    L'informatique dans les nuages (cloud computing) est devenu durant les dernières années un paradigme dominant dans le paysage informatique. Son principe est de fournir des services décentralisés à la demande. La demande croissante pour ce type de service amène les fournisseurs de clouds à augmenter la taille de leurs infrastructures à tel point que les consommations d'énergie ainsi que les coûts associés deviennent très importants. Chaque fournisseur de service cloud doit répondre à des demandes différentes. C'est pourquoi au cours de cette thèse, nous nous sommes intéressés à la gestion des ressources efficace en énergie dans les clouds. Nous avons tout d'abord modélisé et étudié le problème de l'allocation de ressources initiale en fonction des services, en calculant des solutions approchées via des heuristiques, puis en les comparant à la solution optimale. Nous avons ensuite étendu notre modèle de ressources pour nous permettre d'avoir une solution plus globale, en y intégrant de l'hétérogénéité entre les machines et des infrastructures de refroidissement. Nous avons enfin validé notre modèle par simulation. Les services doivent faire face à différentes phases de charge, ainsi qu'à des pics d'utilisation. C'est pourquoi, nous avons étendu le modèle d'allocation de ressources pour y intégrer la dynamicité des requêtes et de l'utilisation des ressources. Nous avons mis en œuvre une infrastructure de cloud simulée, visant à contrôler l'exécution des différents services ainsi que le placement de ceux-ci. Ainsi notre approche permet de réduire la consommation d'énergie globale de l'infrastructure, ainsi que de limiter autant que possible les dégradations de performance.Cloud computing has become over the last years an important paradigm in the computing landscape. Its principle is to provide decentralized services and allows client to consume resources on a pay-as-you-go model. The increasing need for this type of service brings the service providers to increase the size of their infrastructures, to the extent that energy consumptions as well as operating costs are becoming important. Each cloud service provider has to provide for different types of requests. Infrastructure manager then have to host all the types of services together. That's why during this thesis, we tackled energy efficient resource management in the clouds. In order to do so, we first modeled and studied the initial service allocation problem, by computing approximated solutions given by heuristics, then comparing it to the optimal solution computed with a linear program solver. We then extended the model of resources to allow us to have a more global approach, by integrating the inherent heterogeneity of clusters and the cooling infrastructures. We then validated our model via simulation. Usually, the services must face different stages of workload, as well as utilization spikes. That's why we extended the model to include dynamicity of requests and resource usage, as well as the concept of powering on or off servers, or the cost of migrating a service from one host to another. We implemented a simulated cloud infrastructure, aiming at controlling the execution of the services as well as their placement. Thus, our approach enables the reduction of the global energy consumption of the infrastructure, and limits as much as possible degrading the performances
    corecore