19 research outputs found

    Approche dirigée par les contrats de niveaux de service pour la gestion de l'élasticité du "nuage"

    Get PDF
    L informatique en nuage rĂ©volutionne complĂštement la façon de gĂ©rer les ressources. GrĂące Ă  l Ă©lasticitĂ©, les ressources peuvent ĂȘtre provisionnĂ©es en quelques minutes pour satisfaire un niveau de qualitĂ© de service (QdS) formalisĂ© par un accord de niveau de service (SLA) entre les diffĂ©rents acteurs du nuage. Le principal dĂ©fi des fournisseurs de services est de maintenir la satisfaction de leurs consommateurs tout en minimisant le coĂ»t de ces services. Du point de vue SaaS, ce dĂ©fi peut ĂȘtre rĂ©solu d une maniĂšre ad-hoc par l allocation/-libĂ©ration des ressources selon un ensemble de rĂšgles prĂ©dĂ©finies avec Amazon Auto Scaling par exemple. Cependant, implĂ©menter finement ces rĂšgles d Ă©lasticitĂ© n est pas une tĂąche triviale. D une part, la difficultĂ© de profiler la performance d un service compromet la prĂ©cision de la planification des ressources. D autre part, plusieurs paramĂštres doivent ĂȘtre pris en compte, tels que la multiplication des types de ressources, le temps non-nĂ©gligeable d initialisation de ressource et le modĂšle de facturation IaaS. Cette thĂšse propose une solution complĂšte pour la gestion des contrats de service du nuage. Nous introduisons CSLA (Cloud ServiceLevel Agreement), un langage dĂ©diĂ© Ă  la dĂ©finition de contrat de service en nuage. Il adresse finement les violations SLA via la dĂ©gradation fonctionnelle/QdS et des modĂšles de pĂ©nalitĂ© avancĂ©s. Nous proposons, ensuite, HybridScale un framework de dimensionnement automatique dirigĂ© par les SLA. Il implĂ©mente l Ă©lasticitĂ© de façon hybride : gestion rĂ©active-proactive, dimensionnement vertical horizontalet multi-couches (application-infrastructure). Notre solution est validĂ©e expĂ©rimentalement sur Amazon EC2.Cloud computing promises to completely revolutionize the way to manage resources. Thanks to elasticity, resources can be provisioning within minutes to satisfy a required level of Quality of Service(QoS) formalized by Service Level Agreements (SLAs) between different Cloud actors. The main challenge of service providers is to maintain its consumer s satisfaction while minimizing the service costs due to resources fees. For example, from the SaaS point of view, this challenge can be achieved in ad-hoc manner by allocating/releasing resources based on a set of predefined rules as Amazon Auto Scaling implements it. However, doing it right in a way that maintains end-users satisfaction while optimizing service cost is not a trivial task. First, because of the difficulty to profile service performance,the accuracy of capacity planning may be compromised. Second, several parameters should be taken into account such as multiple resource types, non-ignorable resource initiation time and IaaS billing model. For that purpose, we propose a complete solution for Cloud Service Level Management. We first introduce CSLA (Cloud Service LevelAgreement), a specific language to describe SLA for Cloud services. It finely expresses SLA violations via functionality/QoS degradationand an advanced penalty model. Then, we propose HybridScale, an auto-scaling framework driven by SLA. It implements the Cloud elasticity in a triple hybrid way : reactive-proactive management, vertical horizontal scaling at cross-layer (application-infrastructure). Our solution is experimentally validated on Amazon EC2.NANTES-ENS Mines (441092314) / SudocSudocFranceF

    Gestion optimale de l'allocation des ressources pour l'execution des processus dans le cadre du Cloud

    Get PDF
    Despite the many proven benefits of using resources deployed in the cloud, it still faces many problemsthat can compromise its commercial success. Among theses problems, we can mention the lack of methodsallowing users to choose the best available resources. Thus the development of new methods for optimalresources management is necessary. The aim of this PhD thesis is based on this topic by the development of methods to optimize the useof resources in the Cloud context. To achieve this goal, our approach is driven by three complementary aspects taking into account conflicting quality of service criteria. For the first aspect, we have proposed a set of resources allocation and tasks scheduling strategies for a scientific process consisting of automated tasks. For the second aspect, we have proposed an extension of these strategies to take into account the fact that some tasks require the human resource(s) intervention. For the third aspect, optimization methods in order to allow a fair access to the shared resources bya set of business process instances are proposedBien que les nombreux avantages d’utiliser des ressources hĂ©bergĂ©es dans le Cloud soient avĂ©rĂ©s, celui-ci reste confrontĂ© Ă  de nombreux problĂšmes qui peuvent compromettre son succĂšs commercial. Parmi ceux-ci, on peut citer le manque d’aide aux utilisateurs pour leur permettre de choisir au mieux les ressources disponibles. Il est donc indispensable de dĂ©velopper des mĂ©thodes nouvelles pour une gestion optimale des ressources dans le Cloud.Cette thĂšse se situe dans le cadre de dĂ©veloppement de mĂ©thodes d’optimisation d’utilisation des ressources pour l’exĂ©cution des processus dans le cadre Cloud. Nous avons abordĂ© ce sujet sous trois aspects complĂ©mentaires prenant en compte des critĂšres de qualitĂ© de service conflictuels.Pour le premier aspect, nous avons proposĂ© un ensemble de stratĂ©gies d’allocation de ressources et d’ordonnancement de tĂąches d’un processus scientifique dont les tĂąches sont supposĂ©es automatisĂ©es. Pour le deuxiĂšme aspect, nous avons proposĂ© une extension des premiĂšres stratĂ©gies pour prendre en compte le fait que certaines tĂąches nĂ©cessitent l’intervention d’une(des) ressource(s) humaine(s) pours’accomplir. Pour le troisiĂšme aspect, des mĂ©thodes d’optimisation afin d’assurer un accĂšs Ă©quitable Ă  des ressources,partagĂ©es par un ensemble d’instances d’un mĂȘme processus mĂ©tier, ont Ă©tĂ© proposĂ©e

    Vers une gestion coopérative des infrastructures virtualisées à large échelle (le cas de l'ordonnancement)

    Get PDF
    Les besoins croissants en puissance de calcul sont gĂ©nĂ©ralement satisfaits en fĂ©dĂ©rant de plus en plus d ordinateurs (ou noeuds) pour former des infrastructures distribuĂ©es. La tendance actuelle est d utiliser la virtualisation systĂšme dans ces infrastructures, afin de dĂ©coupler les logiciels des noeuds sous-jacents en les encapsulant dans des machines virtuelles. Pour gĂ©rer efficacement ces infrastructures virtualisĂ©es, de nouveaux gestionnaires logiciels ont Ă©tĂ© mis en place. Ces gestionnaires sont pour la plupart hautement centralisĂ©s (les tĂąches de gestion sont effectuĂ©es par un nombre restreint de nƓuds dĂ©diĂ©s). Cela limite leur capacitĂ© Ă  passer Ă  l Ă©chelle, autrement dit Ă  gĂ©rer de maniĂšre rĂ©active des infrastructures de grande taille, qui sont de plus en plus courantes. Au cours de cette thĂšse, nous nous sommes intĂ©ressĂ©s aux façons d amĂ©liorer cet aspect ; l une d entre elles consiste Ă  dĂ©centraliser le traitement des tĂąches de gestion, lorsque cela s avĂšre judicieux. Notre rĂ©flexion s est concentrĂ©e plus particuliĂšrement sur l ordonnancement dynamique des machines virtuelles, pour donner naissance Ă  la proposition DVMS (Distributed Virtual Machine Scheduler). Nous avons mis en Ɠuvre un prototype, que nous avons validĂ© au travers de simulations (notamment via l outil SimGrid), et d expĂ©riences sur le banc de test Grid 5000. Nous avons pu constater que DVMS se montrait particuliĂšrement rĂ©actif pour gĂ©rer des infrastructures virtualisĂ©es constituĂ©es de dizaines de milliers de machines virtuelles rĂ©parties sur des milliers de nƓuds. Nous nous sommes ensuite penchĂ©s sur les perspectives d extension et d amĂ©lioration de DVMS. L objectif est de disposer Ă  terme d un gestionnaire dĂ©centralisĂ© complet, objectif qui devrait ĂȘtre atteint au travers de l initiative Discovery qui fait suite Ă  ces travaux.The increasing need in computing power has been satisfied by federating more and more computers (called nodes) to build the so-called distributed infrastructures. Over the past few years, system virtualization has been introduced in these infrastructures (the software is decoupled from the hardware by packaging it in virtual machines), which has lead to the development of software managers in charge of operating these virtualized infrastructures. Most of these managers are highly centralized (management tasks are performed by a restricted set of dedicated nodes). As established, this restricts the scalability of managers, in other words their ability to be reactive to manage large-scale infrastructures, that are more and more common. During this Ph.D., we studied how to mitigate these concerns ; one solution is to decentralize the processing of management tasks, when appropriate. Our work focused in particular on the dynamic scheduling of virtual machines, resulting in the DVMS (Distributed Virtual Machine Scheduler) proposal. We implemented a prototype, that was validated by means of simulations (especially with the SimGrid tool) and with experiments on the Grid 5000 test bed. We observed that DVMS was very reactive to schedule tens of thousands of virtual machines distributed over thousands of nodes. We then took an interest in the perspectives to improve and extend DVMS. The final goal is to build a full decentralized manager. This goal should be reached by the Discovery initiative,that will leverage this work.NANTES-ENS Mines (441092314) / SudocSudocFranceF

    Openicra : vers un modÚle générique de déploiement automatisé des applications dans le nuage informatique

    Get PDF
    Le nuage informatique ou le « Cloud Computing » est une approche informatique qui fait rĂ©fĂ©rence Ă  la mise Ă  disposition de ressources informatiques Ă  la demande via Internet ou en privĂ© via le rĂ©seau interne de l’entreprise, avec un modĂšle de facturation Ă  l’usage. Le paradigme IaaS (Infrastructure as a Service) consiste Ă  fournir aux utilisateurs un accĂšs, Ă  la demande et en libre-service, Ă  un parc informatique virtualisĂ©, souvent composĂ© de machines virtuelles sur lesquelles les utilisateurs peuvent installer, contrĂŽler et personnaliser leurs applications. Alternativement, le modĂšle de service PaaS (Platform as a Service) offre aux utilisateurs un environnement de programmation disponible immĂ©diatement et entiĂšrement gĂ©rable pour crĂ©er et dĂ©ployer des applications Ă©volutives dans le nuage informatique et sans intervention de l’utilisateur. Bien que le choix d’un tel environnement puisse paraitre assez avantageux, plusieurs dĂ©fis se lĂšvent devant l’utilisation efficace des systĂšmes du nuage informatique. Ainsi, les services du nuage informatique sont offerts Ă  diffĂ©rents niveaux d’abstraction oĂč les fournisseurs de nuage exposent l’accĂšs Ă  leurs services via des APIs propriĂ©taires. Cela encourage l’enfermement propriĂ©taire et limite l’interopĂ©rabilitĂ© des services de nuage informatique, ce qui constitue une barriĂšre Ă  l'entrĂ©e significative pour les utilisateurs de nuage. Plusieurs solutions ont Ă©tĂ© proposĂ©es en se basant sur l'utilisation des couches intermĂ©diaires qui permettent d’isoler les applications de la variabilitĂ© de certains services offerts par les fournisseurs de nuages. Toutefois, ces approches constituent une solution partielle de ce problĂšme lorsque de telles solutions utilisent certaines technologies propriĂ©taires, car elles contribuent au risque de dĂ©placer l'effet de l’enfermement propriĂ©taire du fournisseur vers les outils de dĂ©ploiement. L’objectif principal de notre recherche consiste Ă  concevoir et Ă  dĂ©velopper un nouveau modĂšle gĂ©nĂ©rique de dĂ©ploiement automatique des applications dans le nuage informatique, afin d'attĂ©nuer les effets de ces barriĂšres Ă  l'entrĂ©e, de rĂ©duire la complexitĂ© de dĂ©veloppement des applications et de simplifier le processus de dĂ©ploiement des services dans le nuage. De surcroĂźt, supporter et dĂ©ployer automatiquement des applications sur le nuage en assurant l’élasticitĂ©, la mise Ă  l’échelle automatique et l’interopĂ©rabilitĂ© avec toutes les plateformes et en optimisant la gestion du stockage sont les objectifs primordiaux de ce mĂ©moire. Notre modĂšle proposĂ© OpenICRA met en oeuvre une architecture en couches qui cache les dĂ©tails de l'implĂ©mentation permettant d’avoir un processus de dĂ©ploiement simple. En outre, contrairement aux autres solutions de nuages informatiques disponibles telles que Google App Engine, Windows Azure ou Amazon Elastic Beanstalk, les composants du modĂšle proposĂ© se caractĂ©risent par la libertĂ© d’accĂšs Ă  leur code source. Ceci nous permet de garantir la portabilitĂ© des applications dans tout environnement d’exĂ©cution, d’éviter l’enfermement propriĂ©taire et de faciliter le processus d’automatisation des applications dans le nuage. Les mĂ©thodes de redondance, de mise Ă  l’échelle et l’intĂ©gration du systĂšme de fichiers distribuĂ© avec la couche IaaS permettent d’assurer la haute disponibilitĂ©, l’évolutivitĂ© et l’extensibilitĂ© du modĂšle et des applications ainsi que l’optimisation de la gestion de stockage des disques durs virtuels des VMs dans tout environnement du nuage. Nous avons rĂ©alisĂ© deux cas d’études rĂ©els pour valider le modĂšle OpenICRA dont le premier consiste Ă  automatiser le dĂ©ploiement de l’intergiciel distribuĂ© OpenSAF dans un cluster de noeuds au sein de l’environnement Cloud du rĂ©seau GSN (Synchromedia, 2010), alors que le deuxiĂšme cas consiste Ă  migrer l’application de travail collaboratif ICRA (Cheriet, 2012) vers le nuage EC2 d’Amazon (2012a). Nos rĂ©sultats empiriques dĂ©montrent l’efficacitĂ© de notre modĂšle proposĂ© pour dĂ©ployer diffĂ©rents types d’applications sans apporter aucune modification dans leurs codes sources. En outre, nous dĂ©montrons comment notre proposition est capable d’automatiser et d’orchestrer le processus de dĂ©ploiement des applications et d’optimiser leur exĂ©cution en fonction de la performance dans des environnements de nuage informatique hĂ©tĂ©rogĂšnes

    Adaptation autonomique d'applications pervasives dirigée par les architectures

    Get PDF
    The autonomic adaptation of software application is becoming increasingly important in many domains, including pervasive field. Indeed, the integration fo different application resources (physical devices, services and third party applications) often needs to be dynamic and should adapt rapidly and automatically to changes in the execution context. To that end, service-oriented components offer support for adaptation at the architectural level. However, they do not allow the formalisation of all the design constraints that must be guaranteed during the execution of the system. To overcome this limitation, this thesis modeled the design, deployment and runtime architectures. Also, it proposes to establish links between them and has developed algorithms to check the validity of an execution architecture with respect to its architectural design. This led us to consider the entire life cycle of components and to define a set of concepts to be included in architectures supporting variability. This formalisation can be exploited both by a human administrator and by an autonomic manager that has its knowledge base increased and structured. The implementation resulted in the realization of a knowledge base, providing a studio (Cilia IDE) for the design, deployment and supervision of dynamic applications, as well as an autonomic manager that can update the structure of pervasive applications. This thesis has been validated using a pervasive application called “Actimetry”, developed in the FUI~MEDICAL project.La problĂ©matique d'adaptation autonomique prend de plus en plus d'importance dans l'administration des applications modernes, notamment pervasives. En effet, la composition entre les diffĂ©rentes ressources de l'application (dispositifs physiques, services et applications tierces) doit souvent ĂȘtre dynamique, et s'adapter automatiquement et rapidement aux Ă©volutions du contexte d'exĂ©cution. Pour cela, les composants orientĂ©s services offrent un support Ă  l'adaptation au niveau architectural. Cependant, ils ne permettent pas d'exprimer l'ensemble des contraintes de conception qui doivent ĂȘtre garanties lors de l'exĂ©cution du systĂšme. Pour lever cette limite, cette thĂšse a modĂ©lisĂ© les architectures de conception, de dĂ©ploiement et de l'exĂ©cution. De plus, elle a Ă©tabli des liens entre celle-ci et proposĂ© des algorithmes afin de vĂ©rifier la validitĂ© d'une architecture de l'exĂ©cution par rapport Ă  son architecture de conception. Cela nous a conduits Ă  considĂ©rer de prĂšs le cycle de vie des composants et Ă  dĂ©finir un ensemble de concepts afin de les faire participer Ă  des architectures supportant la variabilitĂ©. Notons que cette formalisation peut ĂȘtre exploitĂ©e aussi bien par un administrateur humain, que par un gestionnaire autonomique qui voit ainsi sa base de connaissances augmentĂ©e et structurĂ©e. L'implantation a donnĂ© lieu Ă  la rĂ©alisation d'une base de connaissance, mise Ă  disposition d'un atelier (Cilia IDE) de conception, dĂ©ploiement et supervision d'applications dynamiques, ainsi que d'un gestionnaire autonomique capable de modifier la structure d'une application pervasive. Cette thĂšse a Ă©tĂ© validĂ©e Ă  l'aide d'une application pervasive nommĂ©e >, dĂ©veloppĂ©e dans le cadre du projet FUI~MEDICAL

    Contribution à la spécification et à l'élaboration d'une plateforme de maintenance orientée connaissances

    Get PDF
    Le maintien en condition opĂ©rationnelle des Ă©quipements industriels est un des enjeux importants de l'entreprise, et a fait passer la maintenance d'un centre de coĂ»t Ă  un centre de profit, ce qui a eu pour consĂ©quence une Ă©closion de logiciels d'aide Ă  la maintenance allant de la GMAO aux plateformes de e-maintenance. Ces systĂšmes d'aide fournissent aux diffĂ©rents acteurs de la maintenance, un support Ă  la dĂ©cision et un ensemble de services permettant une gestion informatisĂ©e d'activitĂ©s de base appartenant au processus de maintenance (exemple l'intervention, la planification, le diagnostic, etc.). Toutefois, les besoins des utilisateurs Ă©voluent dans le temps en fonction de nouvelles contraintes, de leur expertise, des nouvelles connaissances. Par contre les services fournis n'Ă©voluent pas et nĂ©cessitent une rĂ©actualisation. Afin de tenir compte de l'Ă©volution de ces connaissances, pour que ces systĂšmes d'aide puissent rĂ©pondre aux besoins des utilisateurs et puissent proposer des services Ă  la demande et des services Ă©volutifs nous avons fait le point dans cette thĂšse sur les avantages et limites des systĂšmes informatiques d'aide existants notamment les plateformes de e-maintenance (systĂšmes les plus avancĂ©s aujourd'hui en maintenance). Pour pallier le manque des systĂšmes existants, nous avons proposĂ© le concept de s-maintenance qui est caractĂ©risĂ© principalement par les Ă©changes collaboratifs entre applications et utilisateurs, par des connaissances communes du domaine de maintenance. Pour mettre en Ɠuvre ce concept, nous avons proposĂ© une plateforme orientĂ©e connaissances assurant des fonctionnalitĂ©s auto-x (auto-traçabilitĂ©, auto-apprentissage, autogestion) qui permettent de rĂ©pondre aux caractĂ©ristiques de la s-maintenance. L'architecture Ă  base de composants de cette plateforme prend appui sur une base de connaissances partagĂ©e entre les diffĂ©rents composants qu'elle intĂšgre au profit de l'interopĂ©rabilitĂ© sĂ©mantique ainsi que de la capitalisation des connaissances. Nous avons par ailleurs dĂ©veloppĂ© une ontologie du domaine de maintenance sur laquelle s'appuie cette base de connaissances. Finalement, afin de dĂ©velopper les fonctionnalitĂ©s auto-x assurĂ©es par la plateforme nous avons proposĂ© un systĂšme Ă  base de traces exploitant la base de connaissances et l'ontologie associĂ©eOperational condition maintenance of industrial equipment is a principal challenge for the firm production. This fact transfer the maintenance from the cost center to the profit center which has lead to massif development of maintenance support system starting from the GMAO to the e-maintenance platform. These systems provide to the maintenance agent, decision-support, and set of services allowing a computerized management of core activities for maintenance process. (e.g. intervention, planning, diagnostic,...). However, the user request continues evolving in time with respect of their expertise, their renewed knowledge and new constraints. On the other hand, the existing services are not following their requirements and they need to be updated. In this thesis, an overview on the advantage and drawback of existing computerized support system, in particular the e-maintenance platform (the most advanced maintenance system) is presented in order to meet the users needs and propose scalable and on-demand services. To overcome the existing system shortage, we propose the s-maintenance concept characterized by the collaborative exchange between users and applications and the common knowledge of the maintenance field. Thus, to implement this concept, a knowledge-oriented platform is proposed providing the auto-x functionalities (auto-traceability, auto-learning and auto-management) and meeting the s-maintenance characteristics. The architecture based on components of this platform, is also based on shared knowledge between integrated components for the benefit of the semantic interoperability as well as for the knowledge capitalization. Maintenance domain ontology is also developed on which the knowledge base is rested. Finally, in order to develop the auto-x functionalities, provided by the platform, a trace-based system is proposed by exploiting the knowledge base and the associated ontology.BESANCON-Bib. Electronique (250560099) / SudocSudocFranceF

    13th International Conference on Modeling, Optimization and Simulation - MOSIM 2020

    Get PDF
    ComitĂ© d’organisation: UniversitĂ© Internationale d’Agadir – Agadir (Maroc) Laboratoire Conception Fabrication Commande – Metz (France)Session RS-1 “Simulation et Optimisation” / “Simulation and Optimization” Session RS-2 “Planification des Besoins MatiĂšres PilotĂ©e par la Demande” / ”Demand-Driven Material Requirements Planning” Session RS-3 “IngĂ©nierie de SystĂšmes BasĂ©es sur les ModĂšles” / “Model-Based System Engineering” Session RS-4 “Recherche OpĂ©rationnelle en Gestion de Production” / "Operations Research in Production Management" Session RS-5 "Planification des MatiĂšres et des Ressources / Planification de la Production” / “Material and Resource Planning / Production Planning" Session RS-6 “Maintenance Industrielle” / “Industrial Maintenance” Session RS-7 "Etudes de Cas Industriels” / “Industrial Case Studies" Session RS-8 "DonnĂ©es de Masse / Analyse de DonnĂ©es” / “Big Data / Data Analytics" Session RS-9 "Gestion des SystĂšmes de Transport” / “Transportation System Management" Session RS-10 "Economie Circulaire / DĂ©veloppement Durable" / "Circular Economie / Sustainable Development" Session RS-11 "Conception et Gestion des ChaĂźnes Logistiques” / “Supply Chain Design and Management" Session SP-1 “Intelligence Artificielle & Analyse de DonnĂ©es pour la Production 4.0” / “Artificial Intelligence & Data Analytics in Manufacturing 4.0” Session SP-2 “Gestion des Risques en Logistique” / “Risk Management in Logistics” Session SP-3 “Gestion des Risques et Evaluation de Performance” / “Risk Management and Performance Assessment” Session SP-4 "Indicateurs ClĂ©s de Performance 4.0 et Dynamique de Prise de DĂ©cision” / ”4.0 Key Performance Indicators and Decision-Making Dynamics" Session SP-5 "Logistique Maritime” / “Marine Logistics" Session SP-6 “Territoire et Logistique : Un SystĂšme Complexe” / “Territory and Logistics: A Complex System” Session SP-7 "Nouvelles AvancĂ©es et Applications de la Logique Floue en Production Durable et en Logistique” / “Recent Advances and Fuzzy-Logic Applications in Sustainable Manufacturing and Logistics" Session SP-8 “Gestion des Soins de SantĂ©â€ / ”Health Care Management” Session SP-9 “IngĂ©nierie Organisationnelle et Gestion de la ContinuitĂ© de Service des SystĂšmes de SantĂ© dans l’Ere de la Transformation NumĂ©rique de la SociĂ©tĂ©â€ / “Organizational Engineering and Management of Business Continuity of Healthcare Systems in the Era of Numerical Society Transformation” Session SP-10 “Planification et Commande de la Production pour l’Industrie 4.0” / “Production Planning and Control for Industry 4.0” Session SP-11 “Optimisation des SystĂšmes de Production dans le Contexte 4.0 Utilisant l’AmĂ©lioration Continue” / “Production System Optimization in 4.0 Context Using Continuous Improvement” Session SP-12 “DĂ©fis pour la Conception des SystĂšmes de Production Cyber-Physiques” / “Challenges for the Design of Cyber Physical Production Systems” Session SP-13 “Production AvisĂ©e et DĂ©veloppement Durable” / “Smart Manufacturing and Sustainable Development” Session SP-14 “L’Humain dans l’Usine du Futur” / “Human in the Factory of the Future” Session SP-15 “Ordonnancement et PrĂ©vision de ChaĂźnes Logistiques RĂ©silientes” / “Scheduling and Forecasting for Resilient Supply Chains

    Déploiement de systÚmes répartis multi-échelles : processus, langage et outils intergiciels

    Get PDF
    Avec la multiplication des objets connectĂ©s, les systĂšmes multi-Ă©chelles sont de plus en plus rĂ©pandus. Ces systĂšmes sont fortement rĂ©partis, hĂ©tĂ©rogĂšnes, dynamiques et ouverts. Ils peuvent ĂȘtre composĂ©s de centaines de composants logiciels dĂ©ployĂ©s sur des milliers d'appareils. Le dĂ©ploiement est un processus complexe qui a pour objectif la mise Ă  disposition puis le maintien en condition opĂ©rationnelle d'un systĂšme logiciel. Pour les systĂšmes multi-Ă©chelles, l'expression du plan de dĂ©ploiement ainsi que la rĂ©alisation et la gestion du dĂ©ploiement sont des tĂąches humainement impossibles du fait de l'hĂ©tĂ©rogĂ©nĂ©itĂ©, de la dynamique, du nombre, mais aussi parce que le domaine de dĂ©ploiement n'est pas forcĂ©ment connu Ă  l'avance. L'objectif de cette thĂšse est d'Ă©tudier et de proposer des solutions pour le dĂ©ploiement de systĂšmes rĂ©partis multi-Ă©chelles. Nous proposons tout d'abord une mise Ă  jour du vocabulaire relatif au dĂ©ploiement, ainsi qu'un Ă©tat de l'art sur le dĂ©ploiement automatique des systĂšmes logiciels rĂ©partis. Le reste de la contribution rĂ©side dans la proposition : d'un processus complet pour le dĂ©ploiement autonomique de systĂšmes multi-Ă©chelles ; d'un langage dĂ©diĂ© (DSL), MuScADeL, qui simplifie la tĂąche du concepteur du dĂ©ploiement et permet d'exprimer les propriĂ©tĂ©s de dĂ©ploiement ainsi que des informations concernant la perception de l'Ă©tat du domaine de dĂ©ploiement ; d'un middleware, MuScADeM, qui assure la gĂ©nĂ©ration automatique d'un plan de dĂ©ploiement en fonction de l'Ă©tat du domaine, sa rĂ©alisation puis le maintien en condition opĂ©rationnelle du systĂšme.Due to increased connected objects, multiscale systems are more and more widespread. Those systems are highly distributed, heterogeneous, dynamic and open. They can be composed of hundreds of software components deployed into thousands of devices. Deployment of software systems is a complex post-production process that consists in making software available for use and then keeping it operational. For multiscale systems, deployment plan expression just as deployment realization and management are tasks impossible for a human stakeholder because of heterogeneity, dynamics, number, and also because the deployment domain is not necessarily known in advance. The purpose of this thesis is to study and propose solutions for the deployment of distributed multiscale software systems. Firstly, we provide an up-to-date terminology and definitions related to software deployment, plus a state of the art on automatic deployment of distributed software systems. The rest of the contribution lies in the proposition of: a complete process for autonomic deployment of multiscale systems ; a domain specific language, MuScADeL, which simplifies the deployment conceptor task and allows the expression of deployment properties such as informations for the domain state probing ; and a middleware, MuScADeM, which insures the automatic generation of a deployment plan according the domain state, its realization and finally the maintenance in an operational condition of the system

    Protocoles de support IPv6 pour réseaux de capteurs sur courant porteur en ligne

    Get PDF
    This thesis demonstrate the relevance of Powerline Communication (PLC) usage for sensor networks applications. We focus in particular on the low power and low data rate PLC technol- ogy "Watt Pulse Communication" (WPC) developed by the Watteco company and justify its usage for sensor network applications. We situate the WPC technology in the PLC landscape and define compatible protocols. We then describe the WPC module and the PLC media im- plementation in the COOJA network simulator. This allows us to propose a network solution over this technology, leveraging on the adaptation of the 802.15.4 standard over the WPC tech- nology. We then demonstrate the benefit of media convergence at the network layer level, with the use of the IPv6 standard that we adapted over our PLC solution thanks to the 6LoWPAN protocol. We justify the usage of standards protocols over our PLC solution and show that a routing solutions must be developed over WPC. We show through experiments that our PLC solution match low power and lossy network (LLNs) criterions for which the RPL standard pro- tocol has been designed. We justify the usage of this routing protocol over our PLC solution, and validate its implementation through 2 experiments conducted in tertiary types buildings. Respectively composed of 7 and 26 PLC nodes, results show that the routing topology created by RPL enable the coverage an entire floor of a tertiary building with a tree based topology and 3 hops maximum path length. We also show that the WPC technology exhibits a high connectivity between nodes and that the link quality is highly dynamic. Though, we observed that the routing topology was able to handle these variations. We point out the limitations of our PLC solution, which presents high delays and low throughput, creating high constraints on applications. Our sensor network solution over PLC relies on the IP standard, enabling packets exchanges with other technologies using the same protocol. In particular, we study the possi- bility to create heterogeneous networks mixing the WPC technology with 802.15.4 radio. We show that our protocol stack used over PLC enable to create this type of network, in order to benefit from the best of these 2 worlds. We purpose an architecture of a hybrid Radio / PLC node enabling to transfer packets between these 2 media. Then, we show that the combined usage of these 2 media increase the number of available paths and facilitate the routing, while diminishing the number of hops and possible unreachability of nodes. We then demonstrate that the addition of PLC and Radio/PLC nodes in a RF based battery powered sensor network enable to relieve their routing charge in order to expand their lifetime. We then continue the energy study with a power consumption optimization of a wireless sensor network platform from the hardware and software standpoint. We first determine the operating frequency, the wake up frequency and the mode of operation of the micro controller offering the lowest power consump- tion. We then conduct an energy study of 4 different radio transceivers using the 2.4 GHz and 868 MHz frequency band, in order to determine the most efficient architecture. We determine the protocols parameters and the software optimization to reach the lower power consumption of this architecture. Finally, we realize the energy study of several probes than can be embedded on the node, according to their nature and functioning mode. Our final architecture exhibits a total power consumption that is lower than 17 ÎŒW, with an applicative reporting each 10 minutes and the maintenance of the reachability with the network. We also mention in annex parts our implication in standards developments organizations such as the IETF a the IPSO alliance, that allow us to validate the implementation of our solution through interoperability events.Cette thèse démontre la pertinence de l’utilisation du Courant Porteur en Ligne (CPL) pour des applications de réseaux de capteurs. Nous nous focalisons sur la technologie basse consomma- tion et bas débit "WPC" développée par la société Watteco et nous montrons que son utilisation est justifiée pour des applications de réseaux de capteurs. Nous situons la solution WPC dans le paysage du CPL et déterminons les protocoles compatibles. Nous décrivons ensuite l’implé- mentation du module WPC et du média CPL dans le simulateur de réseau COOJA afin de proposer une solution réseau reposant sur l’adaptation du standard 802.15.4 sur la technologie WPC. Nous démontrons ensuite l’intérêt de la convergence des médias au niveau réseau par l’utilisation du standard IPv6, que nous adaptons sur notre solution CPL grâce au protocole 6LoWPAN. Nous justifions l’utilisation des protocoles standards de l’IETF sur notre solution CPL et nous montrons qu’une solution de routage sur CPL doit être développée. Nous montrons par des expérimentations que notre solution CPL correspond aux critères des réseaux basse puis- sance et supportant les pertes de transmissions (LLNs) pour lesquels le protocole standard RPL a été conçu. Nous justifions l’utilisation de ce protocole sur CPL, et validons son implémenta- tion dans le cadre de 2 expérimentations. Formées respectivement de 7 puis 26 noeuds CPL, les résultats montrent que le routage créé par RPL permet de couvrir un étage d’un bâtiment avec une topologie de type arbre et une profondeur de 3 sauts maximum. Nous montrons également que la technologie WPC permet une connectivité importante entre les noeuds du réseau et que la qualité des liens est fortement dynamique, mais que le routage permet de s’adapter à ces variations. Nous pointons également les limites de notre solution CPL qui présente des délais importants et des débits faibles, générant de contraintes fortes sur les applications. Notre solu- tion de réseau de capteur sur CPL repose sur le standard IP, permettant des échanges de paquets avec d’autres technologies. Nous étudions ainsi la possibilité de créer des réseaux hétérogènes mélangeant la technologie WPC et radio 802.15.4. Nous montrons que notre pile protocolaire permet la création de ce type de réseau, afin de profiter du meilleur des 2 mondes. Nous décri- vons ainsi l’architecture d’un noeud hybride Radio Fréquence (RF) / CPL permettant de faire transiter les paquets entre ces 2 médias. Nous montrons ensuite que l’utilisation combinée de ces 2 médias augmente le nombre de chemins disponibles et permet de faciliter le routage, en diminuant le nombre de sauts et le risque que certains noeuds du réseau soient inaccessibles. Nous démontrons ensuite que l’injection de noeuds CPL et RF/CPL dans un réseau formé de noeuds RF sur batterie permet de les délester de leur charge de routage afin de prolonger leur durée de vie. Nous présentons ensuite une optimisation énergétique matérielle et logicielle d’un noeud radio. Nous déterminons les paramètres des protocoles et les optimisations logicielles per- mettant de tirer au mieux partie de cette architecture et nous réalisons l’étude énergétique de la sonde embarquée sur le noeud. Au final, notre architecture présente une consommation totale inférieure à 17 ÎŒW. Nous indiquons dans les annexes nos implications dans les organismes de standardisation qui ont permis de valider l’implémentation
    corecore