152 research outputs found

    Vers un Outil de Configuration et de DĂ©ploiement pour les Nuages

    Get PDF
    National audienceCloud Computing is a major trend in distributed computing environments enabling software virtualization on configurable runtime platforms. Development and deployment of Cloud software systems result in new challenges to express and manage their intrinsic variability. Many configuration and customization choices arise due to the heterogeneous and scalable aspect of the Cloud Computing paradigm. Features Model originating from Software Product Line (SPL) approach is one way to handle this variability, manage, create and deploy configuration in the Cloud. In this paper, we introduce SALOON, a framework to configure and describe variability for applications to be deployed in the Cloud. Based on ontologies and extended features models, SALOON takes application's technical and non-functional requirements into consideration to provide the most appropriate cloud solutions.L'informatique dans les nuages est une tendance actuelle majeure pour répartir les traitements et les données de façon virtuelle sur des environnements d'exécution paramétrables. Le développement et le déploiement de logiciels pour les nuages proposent un nouveau chal- lenge scientifique en termes d'expression et de prise en compte de la variabilité. En effet, l'informatique dans les nuages repose sur des principes d'hétérogénéité et d'élasticité, ce qui permet de nombreux choix de configuration et de dimensionnement. Les Modèles de Caractéristiques (MC) issus de l'approche Ligne de Produits Logiciels (LPL) sont une réponse possible pour gérer cette variabilité, préparer et dimensionner des configurations à déployer dans les nuages. Dans cet article, nous introduisons SALOON, un cadre logiciel d'expression de la variabilité et d'aide à la décision pour configurer et dimensionner des applications à déployer dans les nuages. Basé sur des ontologies et des MCS étendus, il prend en compte les aspects techniques et non-fonctionnels de l'application pour trouver un fournisseur de nuages qui correspond au mieux à la configuration de l'application

    DĂ©ploiement d'IMS et provisionnement de la QoS dans le nuage informatique

    Get PDF
    Le IP Multimedia Subsystem (IMS) est un framework technologique révolutionnaire de réseaux de nouvelle génération basée sur une architecture standardisée qui fournit une variété de services multimédia. Parmi ces services on trouve la communication téléphonie, la messagerie, les photos, les vidéos, l’Internet ou la combinaison entre eux sur un même réseau IP. Cette architecture est adoptée par la plupart des opérateurs téléphoniques partout dans le monde comme une entité prenante de leurs réseaux ce qui leur permet de conquérir d’autres marchés de clientèles potentiels grâce aux services standardisés qui sont évolutifs, accessibles et crédibles. Cependant, avec l’évolution rapide des technologies de l’information et de la communication (TIC), les opérateurs sont confrontés à de nombreux défis pour mieux comprendre l’exigence du marché de clientèle de téléphones mobiles et intégrer davantage de nouveaux services et d’apporter de nouvelles solutions informatiques concomitantes avec l’évolution du marché de l’information. Ces défis à relever sont dus particulièrement, à l’architecture complexe des réseaux des opérateurs téléphoniques et la difficulté du processus de déploiement des services, au manque des services de télécommunications à valeur ajoutée avec une lourde charge pour les CAPEX et OPEX nécessaires pour l’intégration de ces nouveaux services, à la croissance rapide et sans cesse de la demande des services réseaux ainsi qu’au périphérique connectés sur ces derniers qui est étroitement lié au nombre élevé des abonnées téléphoniques, aussi la capacité limitée des équipements réseaux de l’opérateur téléphonique proscrivant une gestion de qualité équitable de service entre les utilisateurs de réseau. Aujourd’hui, le nuage informatique est en train de changer les manières de fournir les services sur le protocole internet. Avec les caractéristiques attrayantes de l’informatique en nuage comme l’accès via le réseau, à la demande et en libre service à des ressources informatiques virtualisées et mutualisées, un pool partagé des ressources configurables comprenant les réseaux, les serveurs, des applications et des services qui peuvent être fournis rapidement à la fois évolutives et élastique avec le minimum d’intervention d’utilisateurs. Il a apporté des nouvelles opportunités pour les opérateurs de télécommunications avec la migration des applications et des services Telco aux environnements de nuages informatiques. Dans cette thèse, notre objectif était de déployer l’application Telco IMS dans l’écosystème du nuage informatique. À travers, la cloudification d’IMS, les opérateurs auront plus de flexibilité et de facilité de déployer de nouveaux services informatiques ou des services déjà existants à fin d’apporter une nouvelle valeur ajoutée à leurs réseaux avec les meilleures performances et à moindre coût. Étant donné que la qualité de service (QoS) est l’un des éléments clés liés à l’IMS et qu’elle se trouve très rationnel pour les services en temps réel fourni par ce système et il se trouve à l’encontre que l’insuffisance de ressources informatiques dégrade cette QoS et affecte la perception du service demandé d’où la non satisfaction de l’utilisateur. Partant de cette controverse nous avons proposé un modèle de provisionnement de la QoS pour les architectures d’IMS déployé dans l’environnement de nuage informatique. Le modèle proposé "IMS QoS Provisionning" nous a permis d’automatiser le processus de provisionnement des ressources d’IMS pour fournir une meilleure qualité de service aux utilisateurs finaux. Pour justifier la possibilité de la cloudification d’IMS, nos recherches ont été axées sur l’utilisation des produits IMS open source. Ainsi, nous avons déployé deux bancs d’essai dans le nuage on utilisant des solutions IMS open source dans le nuage : Open Source IMS Core (FOKUS, 2006) et Clearwater IMS (Metaswitch, 2013). Nous avons également exploité une solution open source comme infrastructure en tant que Service (IaaS) OpenStack (Rackspace, 2013). Pour comparer les systèmes IMS dans le nuage informatique avec le système IMS fixe nous avons implémenté un troisième banc d’essai sur des serveurs physiques là où nous avons utilisé Open Source IMS Core solution (FOKUS, 2006). Le test de fonctionnement des deux bancs d’essai d’IMS dans le nuage et de la solution IMS traditionnelle a été mené avec succès. Le test est effectué en utilisant plusieurs logiciels gratuits de base sur SIP comme des clients d’IMS. Les résultats de performance montrent que les deux solutions virtualisées IMS donnent des performances similaires sinon meilleures que celle de la solution IMS traditionnelle déployée dans des hôtes physiques. Cependant, “IMS Cloud Clearwater” a toujours donné des résultats meilleurs que les deux autres solutions. En général les mesures ont montré que la variation des deux délais d’enregistrement (RRD) et le délai d’établissement d’une session (SRD) sont liés au nombre d’utilisateurs connectés aux réseaux d’opérateurs. De même pour les ressources virtuelles (CPU et mémoire) utilisées par les entités d’IMS qui sont hébergées sur des machines virtuelles. En augmentant le nombre d’appels téléphoniques sur le réseau IMS, nous aurons une augmentation des valeurs de métriques du plan de contrôle (RRD, SRD, IMD) et plan de données (RTP delay, Inter arrival jitter). Cette augmentation du nombre d’utilisateurs procrée une croissance semi-linéaire des ressources requises par chaque machine virtuelle

    Application du contrôle pour garantir la performance des systèmes Big Data

    No full text
    International audienceNous sommes à l'aube d'une énorme explosion de données et la quantité à traiter par les entreprises est de plus en plus grande. Pour faire face à ce chalenge, Google a développé MapReduce, un modèle de programmation parallèle qui est en train de devenir l'outil de facto pour l'analyse des systèmes Big Data. Bien que dans une certaine mesure son utilisation est déjà très répandue dans l'industrie, garantir les performances d'un système aussi complexe pose de grands problèmes et sa gestion nécessite un haut niveau d'expertise. Cet article répond à ces défis en proposant le premier système autonome qui garantit des contraintes de temps de réponse pour une charge de travail MapReduce simultanée. Nous développons le premier modèle dynamique d'une grappe MapRe- duce. De plus, un contrôle en boucle fermée est conçu et implémenté pour garantir un temps de réponse donné. Un contrôle d'anticipation de type ""feedforward"" est également rajouté pour amé- liorer la réponse du système en présence de perturbations, en l'occurrence, la variation du nombre de clients. L'approche est validée en ligne sur une grappe MapReduce avec 40 nœuds utilisant une charge de travail intensive de type Business Intelligence. Nos expériences montrent que le contrôle ainsi conçu peut garantir les contraintes de temps de réponse

    Vers un Outil de Configuration et de DĂ©ploiement pour les Nuages

    Get PDF
    National audienceCloud Computing is a major trend in distributed computing environments enabling software virtualization on configurable runtime platforms. Development and deployment of Cloud software systems result in new challenges to express and manage their intrinsic variability. Many configuration and customization choices arise due to the heterogeneous and scalable aspect of the Cloud Computing paradigm. Features Model originating from Software Product Line (SPL) approach is one way to handle this variability, manage, create and deploy configuration in the Cloud. In this paper, we introduce SALOON, a framework to configure and describe variability for applications to be deployed in the Cloud. Based on ontologies and extended features models, SALOON takes application's technical and non-functional requirements into consideration to provide the most appropriate cloud solutions.L'informatique dans les nuages est une tendance actuelle majeure pour répartir les traitements et les données de façon virtuelle sur des environnements d'exécution paramétrables. Le développement et le déploiement de logiciels pour les nuages proposent un nouveau chal- lenge scientifique en termes d'expression et de prise en compte de la variabilité. En effet, l'informatique dans les nuages repose sur des principes d'hétérogénéité et d'élasticité, ce qui permet de nombreux choix de configuration et de dimensionnement. Les Modèles de Caractéristiques (MC) issus de l'approche Ligne de Produits Logiciels (LPL) sont une réponse possible pour gérer cette variabilité, préparer et dimensionner des configurations à déployer dans les nuages. Dans cet article, nous introduisons SALOON, un cadre logiciel d'expression de la variabilité et d'aide à la décision pour configurer et dimensionner des applications à déployer dans les nuages. Basé sur des ontologies et des MCS étendus, il prend en compte les aspects techniques et non-fonctionnels de l'application pour trouver un fournisseur de nuages qui correspond au mieux à la configuration de l'application

    Optimisation de l'intégration des requêtes de réseaux virtuels dans un environnement multiCloud

    Get PDF
    De nos jours, l’Infrastructure-service ou Infrastructure as a Service (IaaS) est devenue le modèle de service du Cloud Computing le plus largement adopté. Dans ce modèle d’affaires, un fournisseur de service ou Service Provider (SP) peut louer, à partir d’un ou de plusieurs fournisseurs d’infrastructure ou Cloud Providers (CPs), des ressources physiques proposées en tant que services (calcul, stockage, accès réseau, routage, etc.). Ces derniers sont encapsulés dans des machines virtuelles ou Virtual Machines (VMs), interconnectées et assemblées sous forme de requête de réseau virtuel ou Virual Network Request (VNR), dans le but de créer des réseaux virtuels hétérogènes offrant des applications et des services personnalisés à des utilisateurs finaux. Malgré son adoption largement réussie, le modèle IaaS reste toujours confronté à un défi fondamental en matière de gestion de ressources, qui consiste en l’optimisation de l’intégration efficace et dynamique des VNRs dans les infrastructures sous-jacentes distribuées et partagées. En effet, des ressources hétérogènes doivent être efficacement allouées afin de pouvoir héberger les VMs dans des centres de données ou data centers (DCs) spécifiques, et de faire router les liaisons virtuelles ou Virtual Links (VLs), représentant le trafic échangé entre les VMs interconnectées, sur des chemins appropriés entre les DCs. Cette allocation de ressources et de services vise généralement à satisfaire des contraintes de performance, de Qualité de Service (QdS), de sécurité et de localisation géographique, imposées par le SP. Dans le contexte de la virtualisation de réseau, ce problème est connu NP-difficile, sous le nom d’intégration de réseau virtuel ou Virtual Network Embedding (VNE), qui n’a été abordé que récemment dans la littérature dans le cadre d’un réseau multiCloud, où les infrastructures Cloud sous-jacents appartiennent à différents CPs indépendants. Le VNE dans un environnement multiCloud ajoute plus de complexité et des défis d’évolutivitité au problème, car l’ensemble du processus nécessite une approche de résolution hiérarchique, dans laquelle deux phases principales d’opération sont réalisées, chacune ayant des objectifs différents selon les acteurs : la phase de partitionnement des VNRs à travers le réseau multiCloud, suivie de la phase d’intégration des segments de VNRs dans les infrastructures intraCloud sélectionnées. Dans la première phase réalisée indirectement par le SP, ce dernier mandate généralement un fournisseur de réseau virtuel ou Virtual Network Provider (VNP). Le VNP agit en tant que service de courtage virtuel pour le compte du SP, afin de sélectionner adéquatement des CPs capables de répondre efficacement aux objectifs et exigences du SP, puis partitionne les VNRs en plusieurs segments. Dans la deuxième phase, qui correspond notamment au problème bien connu du VNE dans le cadre d’un seul CP et qui a été largement abordé dans des travaux de recherche antérieurs, chaque CP sélectionné utilise une approche d’hébergement adéquate pour intégrer les segments de VNRs qui lui sont attribués dans son réseau intraCloud.----------ABSTRACT: Nowadays, the Infrastructure as a Service (IaaS) has become the most widely adopted cloud service model. In this business paradigm, a Service Provider (SP) can lease, from one or more Cloud Providers (CPs), infrastructure layer resources (processing, storage, network access, routing services, etc.) packaged into interconnected virtual machines (VMs) and assembled as a virtual network request (VNR), in order to build heterogeneous virtual networks that will offer customized services and applications to its end users. Despite its successful adoption, the IaaS model faces a fundamental resource management challenge lying in the efficient and dynamic embedding of VNRs onto distributed and shared substrate infrastructures. Heterogenous resources need to be efficiently allocated to host VMs in specific substrate data centers (DCs) and to route virtual links (VLs), representing the exchanged traffic between interconnected VMs, onto suitable substrate paths between the hosting DCs, in order to satisfy performance, Quality of Service (QoS), security and geographical location constraints imposed by the SP. In the context of network virtualization, this issue is usually referred to as the NP-hard Virtual Network Embedding (VNE) problem, which has been only recently addressed in the literature within a multicloud network, where the substrate infrastructures are owned by different and independent CPs. Such a context adds more complexity and scalability issues, since the whole VNE process requires a hierarchical resolution approach, where two major phases of operation are performed, each of them having different purposes according to the acting player: the multicloud VNRs splitting phase, followed by the intra-cloud VNR segments mapping phase. In the first phase played indirectly by the SP, the latter generally mandates a Virtual Network Provider (VNP), which acts as a virtual brokerage service on behalf of the SP, in order to select eligible CPs based on the SP’s goals and requirements, and split the VNRs into segments. In the second phase, which corresponds to the well known VNE within a single CP largely addressed in past research works, each selected CP uses a mapping approach to embed the assigned VNR segments into its intra-cloud network

    Cloud brokering : nouveaux services de valeur ajoutée et politique de prix

    Get PDF
    Cloud brokering is a service paradigm that provides interoperability and portability of applications across multiple Cloud providers. The attractiveness of Cloud brokering relies on the new services and extended computing facilities that enhance or complement those already offered by isolated Cloud providers. These services provide new value to Small and Medium-sized Businesses (SMBs) and large enterprises and make Cloud providers more competitive. Nowadays, at the infrastructure level, Cloud brokers act as an intermediary between the end-users and the Cloud providers. A Cloud broker provides a single point for service consumption in order to avoid vendor lock-in, increase application resilience, provide a unified billing, and simplify governance, procurement and settlement processes across multiple Cloud providers. In the future, Cloud brokers will provide advanced valueadded services and will use attractive pricing models to capture potential Cloud consumers. The aim of this thesis is to propose advanced value-added services and a pricing model for Cloud brokers.Le « Cloud brokering » est un paradigme de service qui fournit interopérabilité et portabilité des applications à travers plusieurs fournisseurs de Cloud. Les nouveaux services et capacités étendues qui améliorent ou complètent celles déjà offertes par les fournisseurs de Cloud sont la caractéristique principale des « Cloud brokers ». Actuellement, d’un point de vue de l’infrastructure Cloud, les Cloud brokers jouent un rôle d’agents intermédiaires entre les utilisateurs et les fournisseurs, agissant ainsi comme un point commun pour la consommation des services Cloud. Parmi les avantages les plus notables liés à ce point d’accès commun on trouve : l’augmentation de la résilience en allouant l’infrastructure chez de multiples fournisseurs ; la délivrance d’une facturation unifiée ; la simplification des processus de gouvernance ; l’approvisionnement et le règlement à travers de multiples fournisseurs. Dans le futur, les Cloud brokers fourniront des services avancés de valeur ajoutée et vendront des services Cloud en utilisant d’attractives politiques de prix. Le but de cette thèse est de proposer deux services avancés de valeur ajoutée et une politique de prix pour les Cloud broker

    Approvisionnement axé sur le profit des chaines de service réseau

    Get PDF
    La virtualisation des fonctions réseau (Network Function Virtualization - NFV) est un paradigme émergeant qui est en train de transformer la manière avec laquelle les services réseau sont approvisionnés et gérés. L'idée principale du NFV est de découpler les fonctions réseau des équipements réseau qui les exécutent. Ainsi, un service réseau peut être approvisionné à la demande comme étant une chaine de fonctions réseau virtuelles. Cela permettrait d'améliorer la flexibilité et l'évolutivité des services réseau et éventuellement de réduire les coûts de déploiement. Dans ce contexte, l’un des principaux defies des fournisseurs de nuage qui restent à résoudre est d’allouer efficacement les ressources pour les services réseau de manière à réduire les coûts opérationnels et qui maximize leurs profits. Dans ce travail, nous abordons ce défi en proposant un système d’approvisionnement de service réseaux conçu pour les infrastructures à grande échelle couvrant différents sites géographiquement distribués. Nous proposons trois algorithms qui maximisent le profit du fournisseur de nuage en tenant compte de la consummation d'énergie de l'infrastructure et de la variabilité des prix de l'énergie dans les différentes régions. Nous montrons ensuite grâce à des simulations que ces algorithmes sont capables de trouver efficacement des allocations de ressources quasi-optimales avec un minimum de complexité de calcul et de maximiser le profit du fournisseur

    Rapport de prospective sur l'interopérabilité dans le monde du Cloud et du SaaS

    Get PDF
    Ce document présente une solution pour la configuration et le déploiement d'applications dans un environnement de cloud computing. La solution permet de : (1) découpler l'applicatif à déployer de l'environnement dans lequel il sera déployer, (2) spécifier les besoins de l'applicatif nécessaires à son bon déploiement, (3) spécifier les caractéristiques des offres d'hébergement, (4) permettre le calcul de la correspondance entre les besoins et les offres d'hébergement, (5) générer le script qui permet de déployer un applicatif sur une offre d'hébergement. Cette solution est mise en oeuvre dans l'outil Saloon dont les fonctionnalités sont présentées dans ce livrable. Saloon utilise des techniques de lignes de produits logiciels, d'ontologies et de modèles de caractéristiques pour atteindre les cinq objectifs énoncés ci-dessus
    • …
    corecore