12 research outputs found

    Composition adaptative de services pour l’Internet des objets

    Get PDF
    L'internet des objets (IoT) est une technologie Ă©mergente, qui reprĂ©sente l’intĂ©gration ou la fusion de l'espace d'information et de l'espace physique. Au fil du temps, l’IoT est devenu de plus en plus populaire dans plusieurs endroits. Afin de rĂ©pondre Ă  la demande compliquĂ©e des utilisateurs, la plupart des appareils IoT ne fonctionnent pas seuls, une composition de services multiples doit ĂȘtre effectuĂ©e et elle est dĂ©finie comme la composition de services. Pour des raisons de conductivitĂ©s, pannes, batterie, charge et autres, la disponibilitĂ© des services IoT est imprĂ©visible. Cette imprĂ©visibilitĂ© de la disponibilitĂ© et l'Ă©volution dynamique des besoins des utilisateurs, font que la composition du service doit gĂ©rer cette dynamique et s'adapter Ă  de nouvelles configurations non prĂ©vues Ă  la conception. La composition adaptative des services consiste Ă  modifier le systĂšme pour lui permettre de se comporter correctement dans diffĂ©rents contextes afin d'assurer la disponibilitĂ© des services offerts, afin de rĂ©pondre Ă  une situation non prĂ©vue lors de la phase de conception. De ce fait, notre objectif est de proposer une mĂ©thode de composition de services IoT adaptative et sensible au contexte afin de satisfaire les besoins des utilisateurs. Dans notre travail, nous considĂ©rons que la croissance de l'Internet des Objets (IoT) implique la disponibilitĂ© d'un trĂšs grand nombre de services qui peuvent ĂȘtre similaires ou identiques, la gestion de la QualitĂ© de Service (QoS) permet de diffĂ©rencier un service d'un autre. La composition de services offre la possibilitĂ© d'effectuer des activitĂ©s complexes en combinant les fonctionnalitĂ©s de plusieurs services au sein d'un seul processus. TrĂšs peu de travaux ont prĂ©sentĂ© une solution de composition de services adaptative gĂ©rant les attributs de QoS, en plus dans le domaine de la santĂ©, qui est l'un des plus difficiles et dĂ©licats car il concerne la prĂ©cieuse vie humaine. Dans cette thĂšse, nous prĂ©senterons une approche de composition de services adaptative sensible aux QoS basĂ©e sur un algorithme gĂ©nĂ©tique multipopulation dans un environnement Fog-IoT. Notre algorithme P-MPGA implĂ©mente une mĂ©thode de sĂ©lection intelligente qui nous permet de sĂ©lectionner le bon service. En outre, PMPGA implĂ©mente un systĂšme de surveillance qui surveille les services pour gĂ©rer le changement dynamique des environnements IoT. Les rĂ©sultats expĂ©rimentaux montrent les excellents rĂ©sultats du P-MPGA en termes de temps d'exĂ©cution, de valeurs de fitness moyennes et de rapport temps d'exĂ©cution / meilleure valeur de fitness malgrĂ© l'augmentation de la population. P-MPGA peut rapidement obtenir un service composite satisfaisant les besoins de QoS de l'utilisateur, ce qui le rend adaptĂ© Ă  un environnement IoT Ă  grande Ă©chelle

    Gestion autonomique d'applications dynamiques sûres et résilientes

    Get PDF
    Service-Oriented architectures (SOA) are considered the most advanced way to develop and integrate modular and flexible applications.There are many SOA platforms available for software developers and architects; the most evolved of them being SCA and OSGi.An application based on one of these platforms can be assembled with only the components required for the execution of its tasks, which helps decreasing its resource consumption and increasing its maintainability.Furthermore, those platforms allow adding plug-ins at runtime, even if they were not known during the early stages of the development of the application.Thus, they allow updating, extending and adapting the features of the base product or of the technical services required for its execution, continuously and without outage.Those capabilities are applied in the DevOps paradigm and, more generally, to implement the continuous deployment of artifacts.However, the extensibility provided by those platforms can decrease the overall reliability of the system: a strong tendency in software development is the assembly of third-parties components.Such components may be of unknown or even questionable quality.In case of error, deterioration of performance, ... it is difficult to identify the implicated components or combinations of components.It becomes essential for the software producer to determine the responsibility of the various components involved in a malfunction.This thesis aims to provide a platform, Cohorte, to design and implement scalable software products, resilient to malfunctions of unqualified extensions.The components of such products may be developed in various programming languages and be deployed continuously (adding, updating and withdrawal) and without interruption of service.Our proposal adopts the principle of isolating the components considered unstable or insecure.The choice of the components to be isolated may be decided by the development team and the operational team, from their expertise, or determined from a combination of indicators.The latters evolve over time to reflect the reliability of components.For example, components can be considered reliable after a quarantine period; an update may result in deterioration of stability, ...Therefore, it is essential to question the initial choices in isolating components to limit, in the first case, the scope of communications between components and, in the second case, to maintain the reliability of the critical core of the product.Les architectures orientĂ©es services (SOA) sont considĂ©rĂ©es comme le moyen le plus avancĂ© pour rĂ©aliser et intĂ©grer rapidement des applications modulaires et flexibles.Dans ce domaine, les plates-formes SOA Ă  disposition des dĂ©veloppeurs et des architectes de produits logiciels sont multiples; les deux plus Ă©voluĂ©es d'entre elles Ă©tant SCA et OSGi.Une application s'appuyant sur l'une de ces plates-formes peut ainsi ĂȘtre assemblĂ©e avec le minimum de composants nĂ©cessaires Ă  la rĂ©alisation de ses tĂąches, afin de rĂ©duire sa consommation de ressources et d'augmenter sa maintenabilitĂ©.De plus, ces plates-formes autorisent l'ajout de composants greffons qui n'Ă©taient pas connus lors des phases initiales de la rĂ©alisation du produit.Elles permettent ainsi de mettre Ă  jour, d'Ă©tendre et d'adapter continuellement les fonctionnalitĂ©s du produit de base ou des services techniques nĂ©cessaires Ă  sa mise en production, sans interruption de service.Ces capacitĂ©s sont notamment utilisĂ©es dans le cadre du paradigme DevOps et, plus gĂ©nĂ©ralement, pour mettre en Ɠuvre le dĂ©ploiement continu d'artefacts.Cependant, l'extensibilitĂ© offerte par ces plates-formes peut diminuer la fiabilitĂ© globale du systĂšme: une tendance forte pour dĂ©velopper un produit est l'assemblage de composants provenant de tierces-parties. De tels composants peuvent ĂȘtre d'une qualitĂ© inconnue voire douteuse.En cas d'erreur, de dĂ©tĂ©rioration des performances, etc., il est difficile de diagnostiquer les composants ou combinaisons de composants incriminĂ©s.Il devient indispensable pour le producteur d'un logiciel de dĂ©terminer la responsabilitĂ© des diffĂ©rents composants impliquĂ©s dans un dysfonctionnement.Cette thĂšse a pour objectif de fournir une plate-forme, Cohorte, permettant de concevoir et d'exĂ©cuter des produits logiciels extensibles et rĂ©silients aux dysfonctionnements d'extensions non qualifiĂ©es.Les composants de tels produits pourront ĂȘtre dĂ©veloppĂ©s dans diffĂ©rents langages de programmation et ĂȘtre dĂ©ployĂ©s (ajout, mise Ă  jour et retrait) en continu et sans interruption de service.Notre proposition adopte pour principe d'isoler les composants considĂ©rĂ©s comme instables ou peu sĂ»rs.Le choix des composants Ă  isoler peut ĂȘtre dĂ©cidĂ© par l'Ă©quipe de dĂ©veloppement et l'Ă©quipe opĂ©rationnelle, Ă  partir de leur expertise, ou bien dĂ©terminĂ© Ă  partir d'une combinaison d'indicateurs.Ces derniers Ă©voluent au cours du temps pour reflĂ©ter la fiabilitĂ© des composants.Par exemple, des composants peuvent ĂȘtre considĂ©rĂ©s fiables aprĂšs une pĂ©riode de quarantaine; une mise Ă  jour peut entraĂźner la dĂ©gradation de leur stabilitĂ©, etc..Par consĂ©quent, il est indispensable de remettre en cause les choix initiaux dans l'isolation des composants afin, dans le premier cas, de limiter le coup des communications entre composants et, dans le deuxiĂšme cas, de maintenir le niveau de fiabilitĂ© du noyau critique du produit

    La sécurité des futures architectures convergentes pour des services personnalisés : aspect architectural et protocolaire

    Get PDF
    The emergence and evolution of Next Generation Networks (NGN) have raised several challenges mainly in terms of heterogeneity, mobility and security. In fact, the user is able, in such environment, to have access to many networks, via multiple devices, with a vast choice of services offered by different providers. Furthermore, end-users claim to be constantly connected anywhere, anytime and anyhow. Besides, they want to have a secure access to their services through a dynamic, seamless and continuous session according to their preferences and the desired QoS. In this context, security represents an important concern. In fact, this user-centric session should obviously be secured. However, many challenges arise. In such environment, system boundaries, which were well delimited, become increasingly open. Indeed, there are multiple services which are unknown in advance and multiple communications between services and with users. Besides, heterogeneity of involved resources (terminals, networks and services) in the user session increases the complexity of security tasks. In addition, the different types of mobility (user, terminal, network and service mobility) affect the user-centric session that should be unique, secure and seamless and ensure continuity of services.L’émergence et l’évolution des rĂ©seaux de nouvelles gĂ©nĂ©ration (NGN) a soulevĂ© plusieurs dĂ©fis surtout en termes d’hĂ©tĂ©rogĂ©nĂ©itĂ©, de mobilitĂ© et de sĂ©curitĂ©. En effet, l’utilisateur est capable, dans un tel environnement, d’avoir accĂšs Ă  plusieurs rĂ©seaux, Ă  travers diffĂ©rents terminaux, avec un choix vaste de services fournis par diffĂ©rents fournisseurs. De plus, les utilisateurs finaux demandent Ă  ĂȘtre constamment connectĂ©s n’importe oĂč, n’importe quand et n’importe comment. Ils dĂ©sirent Ă©galement avoir un accĂšs sĂ©curisĂ© Ă  leurs services Ă  travers une session dynamique, seamless et continue selon leurs prĂ©fĂ©rences et la QoS demandĂ©e. Dans ce contexte, la sĂ©curitĂ© reprĂ©sente une composante majeure. Face Ă  cette session user-centric sĂ©curisĂ©e, plusieurs dĂ©fis se posent. L’environnement est de plus en plus ouvert, de multiples services ne sont pas connus d’avance et nous avons une diversitĂ© de communications entre les services et les utilisateurs. L’hĂ©tĂ©rogĂ©nĂ©itĂ© des ressources (terminaux, rĂ©seaux et services) impliquĂ©es dans la session de l’utilisateur accentue la complexitĂ© des tĂąches de sĂ©curitĂ©. Les diffĂ©rentes dĂ©clinaisons de mobilitĂ© (mobilitĂ© de l’utilisateur, mobilitĂ© du terminal, mobilitĂ© du rĂ©seau et mobilitĂ© du service) modifient la session user-centric que l’on veut unique, sĂ©curisĂ©e et seamless avec la dĂ©livrance d’un service continu

    Architecture à qualité de service pour systÚmes satellites DVB-S/RCS dans un contexte NGN

    Get PDF
    L'objet de cette thÚse est de doter les réseaux satellites d'accÚs géostationnaires d'une architecture de QoS compatible avec l'infrastructure NGN (Next Generation Network) qui entend réaliser la convergence des réseaux et services de communication existants et à venir. Dans une premiÚre étape, nous établissons un modÚle de QoS NGN s'inspirant principalement de l'évolution des architectures de QoS dans les réseaux IP. Dans une deuxiÚme étape, nous démontrons que les réseaux satellites ne disposent pas, en l'état actuel, d'une architecture de QoS suffisamment mature pour assurer un accÚs large bande aux futurs services IP multimédias. Afin d'y remédier, nous spécifions une architecture de QoS NGN unifiée assurant une étroite collaboration entre les mécanismes de QoS déployés à différents niveaux de communication (Application, Session, Réseau et MAC). Elle assure à la fois une différenciation de la QoS adaptée aux besoins des différentes classes d'applications au niveau IP tout en optimisant l'utilisation des ressources satellites via des mécanismes de bande passante à la demande au niveau MAC. Deux solutions applicatives assurant la corrélation dynamique entre les applications et les services réseaux différenciés sont également spécifiées et implémentées. Enfin un émulateur satellite de niveau réseau a été implémenté et nous a permis d'évaluer les garanties de QoS offertes par notre architecture et de valider leur conformité avec les besoins d'applications multimédias réelles. ABSTRACT : This thesis deals with the integration of geostationary access satellite networks in the NGN (Next Generation Network) infrastructure, a global QoS-enabled communication network based on IP. The first part depicts this multiservice ubiquitous infrastructure anchored on a clean separation between a transport/network domain and a service/application domain. Then a unified NGN control and management architecture, mainly inspired by the past and current IP QoS architectures, is proposed. In a second part, starting from this model and through a critical analysis of current DVB-S/RCS satellite systems, we demonstrate that satellite QoS architectures are not mature enough to support broadband access to future multimedia services and to integrate into the emerging NGN infrastructure. In order to cope with these issues, a NGNcompliant QoS architecture for DVB-S/RCS systems is defined. It relies on a cross-layer approach based on a tight interaction between QoS mechanisms available at different communication layers (Application, Session, Network and MAC). It aims at maximizing satellite capacity utilization at different granularity levels through a relevant configuration of DiffServ services using session/application signalling information and the use of optimized bandwidth on demand allocation schemes at the MAC layer. Application solutions (QoS Agent and QoS SIP Proxy) were developed while the satellite network with its associated QoS architecture was implemented through a network emulator. This latter enables us to evaluate the QoS guarantees provided by this architecture and to validate its appropriateness with real multimedia applications needs

    Prise en compte de la qualitĂ© de l’expĂ©rience utilisateur au sein des protocoles de streaming HTTP adaptatifs

    Get PDF
    While streaming video services (Netflix + YouTube} represent more than 50% of US households consumed bandwidth, the growth of mobility (4G LTE + LTEa) and the arrival of 3 next generation networks (NGN) with the distinction between network operator and service operator may change the business model of service providers. The Best-Effort model currently used by streaming services will decrease due to its hight cost. It is therefore necessary to consider a model optimizing the service flow based on real users expectations. The main objective of this thesis is to propose a solution which take into account the QoE in streaming services. In the first art of this thesis, we highlight the very personal nature of the quality of experience during viewing multimedia session. This is achieved by subjective tests on fifty users. Then, we present an architecture for the QoE consideration in HTTP adaptive streaming protocols (HTTP Live Streaming, DASH ...) to make adaptation decisions based on implicit expectations of the user. A proof of concept is illustrated through an open source project (http://ipfhas.github.io/)Alors que les services de streaming vidĂ©o (Netflix +YouTube) reprĂ©sentent plus de 50% du trafic web des foyers amĂ©ricains sur leurs lignes fixes, l'expansion de la mobilitĂ© (4G LTE et LTEa) et l'arrivĂ©e des rĂ©seaux du futur (NGN) avec la distinction entre opĂ©rateur de rĂ©seaux et opĂ©rateurs de services, risquent de modifier le modĂšle Ă©conomique des fournisseurs de service. Le modĂšle en Best-effort utilisĂ© actuellement par les services de streaming risque de pĂ©ricliter dĂ» au coĂ»t important liĂ© Ă  ce type de fonctionnement. Il convient donc de rĂ©flĂ©chir Ă  un modĂšle optimisant les flux du service Ă  envoyer en fonction du besoin rĂ©el des utilisateurs finaux. L'objectif principal de cette thĂšse est donc de proposer une solution permettant de prendre en compte la QoE au sein des services de streaming. Dans une premiĂšre partie de cette thĂšse, nous mettons en avant le caractĂšre trĂšs personnel de la qualitĂ© d'expĂ©rience lors d'une session de visionnage multimĂ©dia. Ceci est rĂ©alisĂ© par des tests subjectifs sur une cinquantaine d'utilisateurs. Nous prĂ©sentons ensuite une architecture permettant la prise en compte de la QoE au sein des protocoles de streaming HTTP adaptatifs (HTTP Live Streaming, DASH ...) afin de prendre des dĂ©cisions d'adaptation du service non plus sur la bande passante disponible Ă  un instant T, mais sur les attentes implicites de l'utilisateur et ceci d'une maniĂšre non intrusive. L‘implĂ©mentation d'une preuve du concept est illustrĂ©e Ă  travers la crĂ©ation d'un projet open source (http://ipfhas.github.io/

    Conception et mise en oeuvre d'une plate-forme pour la sûreté de fonctionnement des services Web

    Get PDF
    Les Services Web (SW) constituent la technologie de base pour le dĂ©veloppement d'Architectures OrientĂ©es Services (AOS). Ces architectures, de plus en plus rĂ©pandues sur le Net, permettent de mettre en place des applications semi-critiques Ă  Ă©chelle planĂ©taire. Elles se basent sur la notion de relation de "service" formalisĂ©e par un contrat qui unit le client et le prestataire de services. Dans ce type d'applications, les dĂ©veloppeurs d'applications orientĂ©es services regardent les Services Web comme des COTS (Component Off-The Shell) et ignorent donc leurs implĂ©mentations et leurs comportements en prĂ©sence de fautes. Dans ce but, cette thĂšse introduit, dans ce nouveau contexte, la notion de « connecteurs spĂ©cifiques de tolĂ©rance aux fautes » (SFTC – Specific Fault Tolerance Connectors) capable d'implĂ©menter des applications sĂ»res de fonctionnement Ă  partir de Services Web supposĂ©s non-fiables. Composants logiciels insĂ©rĂ©s entre les clients et les prestataires, les SFTC implĂ©mentent des filtres et diffĂ©rentes techniques de dĂ©tection d'erreurs ainsi que des mĂ©canismes de recouvrement qui sont dĂ©clenchĂ©s quand les Services Web ne satisfont plus les caractĂ©ristiques de sĂ»retĂ© demandĂ©es. L'originalitĂ© de cette approche est d'utilisĂ© une particularitĂ© intĂ©ressante du Web qui est la redondance inhĂ©rente des services qui s'y trouvent. Cette propriĂ©tĂ© a permis de dĂ©finir le concept de Services Web Abstrait (SWA) et de mettre en place des stratĂ©gies de recouvrement Ă  l'aide de services Ă©quivalents. Ainsi, les « connecteurs » et les « SWA », introduits dans les architectures orientĂ©es services, fournissent une approche plus adaptable pour permettre, Ă  des mĂ©canismes de sĂ»retĂ©, d'ĂȘtre dĂ©finis au cas par cas pour une utilisation donnĂ©e du Service Web et d'ĂȘtre modifiĂ©s selon la criticitĂ© de l'application. Ainsi, mes travaux de recherches ont permis de fournir aux dĂ©veloppeurs d'Architectures OrientĂ©es Services : 1) le langage nommĂ© DeWeL pour dĂ©crire les caractĂ©ristiques de sĂ»retĂ© de fonctionnement du connecteur. Ce langage dĂ©diĂ© Ă  la rĂ©alisation de connecteur impose de fortes restrictions inspirĂ©es du monde des logiciels critiques du ferroviaire et de l'avionique afin de diminuer de façon drastique des fautes de dĂ©veloppement. 2) l'infrastructure IWSD pour dynamiquement contrĂŽler et exĂ©cuter les connecteurs dans des applications critiques. Cette plateforme, rĂ©alisĂ© en mode duplex pour tolĂ©rer les fautes matĂ©rielles et logicielles, permet d'exĂ©cuter de façon sĂ»res les connecteurs crĂ©es et d'obtenir Ă©galement des informations sur le caractĂšre non-fonctionnel et opĂ©rationnel des Services Web ciblĂ©s. Ces informations sont capitales pour permettre aux dĂ©veloppeurs de connecteurs d'affiner leurs actions de tolĂ©rances aux fautes pour l'application ciblĂ©e. Environ deux cents connecteurs ont Ă©tĂ© implĂ©mentĂ©s afin de rĂ©aliser des tests sur la performance et la robustesse du langage et de la plate-forme permettant ainsi de valider cette approche capable de dĂ©ployer des applications orientĂ©es services semi-critiques tolĂ©rant les fautes Ă  l'aide de SWA. ABSTRACT : Web Services (WS) technology is the basis for the development of Service Oriented Architectures (SOA). These architectures are increasingly widespread on the Net and enable developers to implement semi-critical planetary applications. Such applications are based on the notion of service and its attached contract. The contract links a client and a service provider. In this kind of applications, application developers look at Web Services as COTS (Commercial Off-The- Shelf) components, consequently they ignore their implementation and their behaviour in the presence of faults. The thesis proposes the notion of Specific Fault Tolerance Connectors (SFTC) to implement dependable applications out of unreliable Web Services. The connectors intercept client-provider requests and implement filtering, error detection techniques (e.g. runtime assertions) together with recovery mechanisms that are triggered when the WS does not satisfy anymore the dependability specifications. The originality of this approach relies on using an interesting feature of the Web that is the inherent redundancy of services. To take advantage of this, we define the concept of Abstract Web Services (AWS) to implement recovery strategies using equivalent services. Thus, "connectors” and “AWS” allow dependability mechanisms to be defined on a case-by-case basis for a given WS usage and possibly dynamically changed according to the needs. Two specific techniques and tools have been designed and implemented to help developers of Services Oriented Architectures : 1) A domain specific language named DeWeL (DEpendable Web services Language) describing the dependability features of a connector. This language is devoted to the realization of connectors. It imposes strong restrictions enforced by standards for critical railway and avionics software in order to reduce software development faults. 2) A support infrastructure named IWSD (Infrastructure for Web Services Dependability) to dynamically manage and run connectors in real applications. This platform is implemented in duplex mode to tolerate crash faults and provides core services. In particular, it provides support to run connectors and get information on the non-functional and operational behaviour of the targeted Web Services. This information is essential to help developers of connector to adjust their fault-tolerance actions to specific application needs. Approximately two hundred connectors have been implemented in order to realize performance and robustness tests of the language and the platform. These experiments show the interest of our approach to deploy fault-tolerant service oriented applications using AW

    Adaptation des composants centrée sur l'utilisation

    Get PDF
    Avec la notion de composant logiciel, la dĂ©marche de conception d'applications informatiques a vu apparaĂźtre une alternative intĂ©ressante Ă  l'approche classique, oĂč le dĂ©veloppement est menĂ© selon une approche centralisĂ©e. L'idĂ©e est en effet de permettre la construction d'applications adaptĂ©es aux besoins spĂ©cifiques de chaque utilisateur par assemblage de composants prĂ©existants. NĂ©anmoins, le choix de composants prĂ©dĂ©finis, sur Ă©tagĂšre, pose le problĂšme de leur adĂ©quation Ă  une utilisation spĂ©cifique. Dans ce contexte, la possibilitĂ© d'adapter les composants semble cruciale, si l'on souhaite rendre rĂ©ellement effective l'approche de dĂ©veloppement par assemblage de composants. Cette thĂšse introduit une nouvelle approche de l'adaptation de composants logiciels qui consiste Ă  adapter le composant Ă  ses contextes d'utilisation en se basant sur le point de vue de l'utilisateur. Nous dĂ©crivons le profil d'utilisation sous la forme d'un ensemble de triplets dont chacun spĂ©cifie les propriĂ©tĂ©s souhaitĂ©es, les rĂ©actions correspondantes Ă  traiter dans le cas oĂč une condition n'est pas vĂ©rifiĂ©e et les Ă©chĂ©anciers d'Ă©valuation des propriĂ©tĂ©s. Nous proposons aussi un service de supervision de composant (SSC) qui repose sur la surveillance de l'Ă©tat des composants pour obtenir des clichĂ©s qui reflĂštent l'Ă©tat actuel du composant et les changements rĂ©cents. Nous dĂ©finissons Ă©galement le service de sĂ»retĂ© de service (SSS) qui intercepte les requĂȘtes clientes et qui les dĂ©lĂšgue vers le composant le plus convenable, tout en gĂ©rant l'exĂ©cution du composant en fonction du profil d'usage. ABSTRACT : The concept of software component, provides an interesting alternative to the traditional way of designing data-processing applications, where the development is undertaken according to a centralized approach. The idea is indeed to allow the construction of applications adapted to the specific needs for each user by assembling preexistent components. Nevertheless, the choice of off-the-shelf components, raises the problem of their adequacy to a specific use. In this context, the ability to adapt components appears to be crucial, if one wishes to make really effective the approach of development by assembling components. This thesis introduces a new approach of the adaptation of software components which consists in adapting the component to its contexts of use centered on the point of view of the user. We describe a user profile as a set of triples, where each triple specifies the desired properties, the reactions to be run if a condition is not checked and the schedule of evaluation of properties. We propose also a service of supervision of component (SSC) which is based on the monitoring of the state of the components to obtain snapshots which reflect the current state of the component and the recent changes. We also define the service of safety of service (SSS) which intercepts the user requests and delegates them towards the most suitable component, while managing the execution of the component according to the profile of use

    Openicra : vers un modÚle générique de déploiement automatisé des applications dans le nuage informatique

    Get PDF
    Le nuage informatique ou le « Cloud Computing » est une approche informatique qui fait rĂ©fĂ©rence Ă  la mise Ă  disposition de ressources informatiques Ă  la demande via Internet ou en privĂ© via le rĂ©seau interne de l’entreprise, avec un modĂšle de facturation Ă  l’usage. Le paradigme IaaS (Infrastructure as a Service) consiste Ă  fournir aux utilisateurs un accĂšs, Ă  la demande et en libre-service, Ă  un parc informatique virtualisĂ©, souvent composĂ© de machines virtuelles sur lesquelles les utilisateurs peuvent installer, contrĂŽler et personnaliser leurs applications. Alternativement, le modĂšle de service PaaS (Platform as a Service) offre aux utilisateurs un environnement de programmation disponible immĂ©diatement et entiĂšrement gĂ©rable pour crĂ©er et dĂ©ployer des applications Ă©volutives dans le nuage informatique et sans intervention de l’utilisateur. Bien que le choix d’un tel environnement puisse paraitre assez avantageux, plusieurs dĂ©fis se lĂšvent devant l’utilisation efficace des systĂšmes du nuage informatique. Ainsi, les services du nuage informatique sont offerts Ă  diffĂ©rents niveaux d’abstraction oĂč les fournisseurs de nuage exposent l’accĂšs Ă  leurs services via des APIs propriĂ©taires. Cela encourage l’enfermement propriĂ©taire et limite l’interopĂ©rabilitĂ© des services de nuage informatique, ce qui constitue une barriĂšre Ă  l'entrĂ©e significative pour les utilisateurs de nuage. Plusieurs solutions ont Ă©tĂ© proposĂ©es en se basant sur l'utilisation des couches intermĂ©diaires qui permettent d’isoler les applications de la variabilitĂ© de certains services offerts par les fournisseurs de nuages. Toutefois, ces approches constituent une solution partielle de ce problĂšme lorsque de telles solutions utilisent certaines technologies propriĂ©taires, car elles contribuent au risque de dĂ©placer l'effet de l’enfermement propriĂ©taire du fournisseur vers les outils de dĂ©ploiement. L’objectif principal de notre recherche consiste Ă  concevoir et Ă  dĂ©velopper un nouveau modĂšle gĂ©nĂ©rique de dĂ©ploiement automatique des applications dans le nuage informatique, afin d'attĂ©nuer les effets de ces barriĂšres Ă  l'entrĂ©e, de rĂ©duire la complexitĂ© de dĂ©veloppement des applications et de simplifier le processus de dĂ©ploiement des services dans le nuage. De surcroĂźt, supporter et dĂ©ployer automatiquement des applications sur le nuage en assurant l’élasticitĂ©, la mise Ă  l’échelle automatique et l’interopĂ©rabilitĂ© avec toutes les plateformes et en optimisant la gestion du stockage sont les objectifs primordiaux de ce mĂ©moire. Notre modĂšle proposĂ© OpenICRA met en oeuvre une architecture en couches qui cache les dĂ©tails de l'implĂ©mentation permettant d’avoir un processus de dĂ©ploiement simple. En outre, contrairement aux autres solutions de nuages informatiques disponibles telles que Google App Engine, Windows Azure ou Amazon Elastic Beanstalk, les composants du modĂšle proposĂ© se caractĂ©risent par la libertĂ© d’accĂšs Ă  leur code source. Ceci nous permet de garantir la portabilitĂ© des applications dans tout environnement d’exĂ©cution, d’éviter l’enfermement propriĂ©taire et de faciliter le processus d’automatisation des applications dans le nuage. Les mĂ©thodes de redondance, de mise Ă  l’échelle et l’intĂ©gration du systĂšme de fichiers distribuĂ© avec la couche IaaS permettent d’assurer la haute disponibilitĂ©, l’évolutivitĂ© et l’extensibilitĂ© du modĂšle et des applications ainsi que l’optimisation de la gestion de stockage des disques durs virtuels des VMs dans tout environnement du nuage. Nous avons rĂ©alisĂ© deux cas d’études rĂ©els pour valider le modĂšle OpenICRA dont le premier consiste Ă  automatiser le dĂ©ploiement de l’intergiciel distribuĂ© OpenSAF dans un cluster de noeuds au sein de l’environnement Cloud du rĂ©seau GSN (Synchromedia, 2010), alors que le deuxiĂšme cas consiste Ă  migrer l’application de travail collaboratif ICRA (Cheriet, 2012) vers le nuage EC2 d’Amazon (2012a). Nos rĂ©sultats empiriques dĂ©montrent l’efficacitĂ© de notre modĂšle proposĂ© pour dĂ©ployer diffĂ©rents types d’applications sans apporter aucune modification dans leurs codes sources. En outre, nous dĂ©montrons comment notre proposition est capable d’automatiser et d’orchestrer le processus de dĂ©ploiement des applications et d’optimiser leur exĂ©cution en fonction de la performance dans des environnements de nuage informatique hĂ©tĂ©rogĂšnes

    Gestion de bout en bout de la qualité de contexte pour l'internet des objets : le cadriciel QoCIM

    Get PDF
    Cette thĂšse se situe dans le cadre du projet INCOME (INfrastructure de gestion de COntexte Multi-Échelle pour l'Internet des Objets) financĂ© par l'ANR (Appel INFRA 2011). L'objectif de ce projet est de fournir un cadriciel pour le dĂ©veloppement et le dĂ©ploiement d'un gestionnaire de contexte. Les entitĂ©s logicielles d'acquisition, de traitement, de dissĂ©mination et de prĂ©sentation d'informations de contexte, qui constituent un gestionnaire de contexte, doivent ĂȘtre construites et dĂ©ployĂ©es au-dessus d'infrastructures technologiques hĂ©tĂ©rogĂšnes et interconnectĂ©es. Ainsi, les cibles incluent les rĂ©seaux de capteurs, les systĂšmes ambiants, les dispositifs mobiles ou encore les serveurs du cloud, et de façon plus globale l'Internet des Objets (IoT). Les travaux menĂ©s dans cette thĂšse concernent plus particuliĂšrement la gestion " de bout en bout " de la QualitĂ© de Contexte (QoC) au sein de cette nouvelle gĂ©nĂ©ration de gestionnaires de contexte Ă  dĂ©ployer sur l'IoT Ă  grande et multiples Ă©chelles. La qualitĂ© de l'information de contexte relevant de critĂšres tels que la prĂ©cision, la fraĂźcheur, la complĂ©tude, la granularitĂ©... Par gestion de la QoC, nous faisons rĂ©fĂ©rence Ă  l'ensemble des opĂ©rations qui, tout le long du cycle de vie d'une information de contexte, permettent de gĂ©rer sa qualification, mais Ă©galement d'influer, en fonction de cette qualitĂ©, sur sa dissĂ©mination et sa livraison aux applications sensibles au contexte. Actuellement des solutions de gestion de la QoC existent mais restent ad hoc Ă  des environnements ambiants particuliers ou des applications spĂ©cifiques. Elles s'avĂšrent inadĂ©quates en termes d'ouverture, de gĂ©nĂ©ricitĂ© et de calculabilitĂ© pour des environnements fortement hĂ©tĂ©rogĂšnes et dynamiques tels que l'IoT oĂč il n'y a plus de couplages forts et figĂ©s entre producteurs ou consommateurs d'informations de contexte. QoCIM (QoC Information Model) constitue le cƓur de notre contribution. Il s'agit d'un mĂ©ta-modĂšle dĂ©diĂ© qui permet, de façon unifiĂ©e et ouverte, de dĂ©finir des critĂšres de QoC simples et composites. BasĂ©es sur QoCIM, des opĂ©rations de gestion de la QoC ont Ă©tĂ© identifiĂ©es et spĂ©cifiĂ©es. Elles permettent d'associer des critĂšres de QoC, sous forme de mĂ©tadonnĂ©es, Ă  l'information de contexte, de caractĂ©riser les mĂ©triques et les unitĂ©s pour leur valuation, d'infĂ©rer des critĂšres de QoC de plus haut niveau d'abstraction, ou encore d'exprimer des conditions de filtrage portant sur de tels critĂšres et/ou leurs valeurs. Un outillage logiciel d'Ă©dition de modĂšles QoCIM et une API en Java sont proposĂ©s aux dĂ©veloppeurs pour facilement intĂ©grer la gestion de tout critĂšre de QoC lors du dĂ©veloppement d'entitĂ©s d'acquisition, de traitement, de livraison et de propagation d'informations de contexte et des applications sensibles au contexte. L'utilisation de ce cadriciel a Ă©tĂ© expĂ©rimentĂ©e, Ă  la fois en phases de conception et d'exĂ©cution, sur un scĂ©nario de pollution urbaine. Des Ă©valuations de performances ont Ă©tĂ© Ă©galement menĂ©es et ont montrĂ© que le surcoĂ»t apportĂ© par la prise en considĂ©ration des niveaux de QoC pour le routage des informations de contexte Ă©tait acceptable. Enfin, une solution d'auto-(re)configuration des opĂ©rations de gestion de la QoC a Ă©tĂ© Ă©galement conçue et prototypĂ©e.The objective of the ANR INCOME project is to provide a framework for the development and the deployment of a context manager. A context manager is composed of software entities, which acquire, process, disseminate or deliver context data. These software entities have to be built and deployed over interconnected heterogeneous ICT infrastructures, which include sensor networks, ambient systems, mobile devices, cloud servers and, more generally, the Internet of Things (IoT). Related to this project, the research work presented in this thesis concerns more specifically the end-to-end management of Quality of Context (QoC) within the new generation of context managers that have to be deployed at large and multiple scales over the IoT. Quality of context data refers to criteria like accuracy, freshness, completeness or granularity. As for QoC management, it deals with all the operations that allow, throughout the life cycle of context data, to manage their qualification, but also to impact, according to this quality, on its dissemination and delivery to context-aware applications. Current QoC management solutions are dedicated to particular ambient environments or to specific applications. They are limited in terms of openness, genericity and computationability, properties required by greatly heterogeneous and dynamic IoT-based environments, in which producers and consumers of context data are no more static and highly coupled. Our contribution relies on QoCIM (QoC Information Model), a meta-model dedicated to define, in a uniform and open way, any atomic or composite QoC criterion. Based on QoCIM, some QoC management operations have been identified and specified. These operations allow to associate criteria of QoC, in the form of metadata, with the information of context; to characterize the metrics and units for their valuation; to infer QoC criteria of a higher level of abstraction; or even to express filtering conditions for such criteria or their values. A software tool for editing QoCIM models and a Java API are provided to developers to easily implement the management of any QoC criterion for their software entities that acquire, process, deliver or propagate context data, or their context-sensititive application. The use of this framework was experimented, both at design time and at run time, on a scenario related to urban pollution. Benchmarking was also led and showed that the additional cost brought when considering QoC in context information routing was acceptable. Finally, a solution for self-(re)configuring QoC management operations was also designed and prototyped

    ModĂšle ontologique contextuel pour les patients atteints de la maladie pulmonaire obstructive chronique

    Get PDF
    L'informatique ubiquitaire est considĂ©rĂ©e comme l'une des rĂ©alisations scientifiques les plus marquantes de la derniĂšre dĂ©cennie. Cette vision a crĂ©Ă© une rĂ©volution dans les interactions des utilisateurs finaux Ă  partir le concept de sensibilitĂ© au contexte. L'informatique ubiquitaire offre une nouvelle opportunitĂ© pour remodeler la forme des solutions conventionnelles en fournissant des services personnalisĂ©s en fonction des situations contextuelles de chaque environnement. Des centaines d'architectures thĂ©oriques ont Ă©tĂ© dĂ©veloppĂ©es dans le but de mettre en oeuvre l'idĂ©e de systĂšmes sensible au contexte. Cependant, l'informatique ubiquitaire est encore pratiquement non applicable en raison de nombreux dĂ©fis, surtout que les architectures proposĂ©es se prĂ©sentent toujours comme une solution gĂ©nĂ©rale qui permet de satisfaire n'importe quel type d'application et toutes sortes d'utilisation. OBJECTIFS: Cette thĂšse vise Ă  concevoir et valider un modĂšle contextuel pour les systĂšmes de soins de santĂ© ubiquitaires et spĂ©cifiquement destinĂ©s Ă  aider les patients souffrant de la maladie pulmonaire obstructive chronique (MPOC). LA MÉTHODE: Les informations contextuelles sont trĂšs importantes pour les applications de soins de santĂ© sensibles au contexte, en particulier celles utilisĂ©es pour surveiller les patients atteints de maladies chroniques qui sont affectĂ©es par des conditions concevables. Dans cette thĂšse, nous proposons une nouvelle classification de contexte pour le domaine mĂ©dical qui couvre tous les aspects influençant la santĂ© des patients. La grande Ă©chelle de cette classification le rend apte pour ĂȘtre une rĂ©fĂ©rence gĂ©nĂ©rale pour de divers projets de recherche s'intĂ©ressant au contexte mĂ©dical. Ensuite, nous proposons un modĂšle contextuel Ă  base d’ontologies capable de gĂ©rer la structure complexe du domaine de la MPOC de maniĂšre cohĂ©rente, en proportion de la nature dynamique de cet environnement. Ce nouveau modĂšle ontologique constitue le noyau de notre perception pour la mise en oeuvre de la solution de soins de santĂ© ubiquitaire. Le modĂšle prĂ©sentĂ© examine son efficacitĂ© dans la gestion de l’une des maladies les plus vulnĂ©rables au contexte, oĂč il prouve ainsi sa capacitĂ© Ă  adapter les services de soins de santĂ© Ă  titre personnel et en fonction des conditions actuelles et prĂ©vues. Le modĂšle proposĂ© a montrĂ© des rĂ©sultats prometteurs dĂ©passant 85% approuvĂ© par un groupe de spĂ©cialistes expĂ©rimentĂ©s dans le domaine des maladies pulmonaires. Ubiquitous computing is considered one of the most impactful scientific achievements in the last decade. This conception created tremendous revolution in the end-user interactions through the concept of context-awareness. Ubiquitous computing offers a new opportunity to redesign the pattern of conventional solutions where it can easily tailor its processes upon existing contextual situations. Hundreds of theoretical architectures have been developed to enable context-awareness computing in pervasive settings. However, ubiquitous computing is still practically not feasible due to many challenges, but most importantly, that the proposed models always present themselves as a general solution to all kinds of real-life applications. OBJECTIVES: This thesis aims to design and validate a contextual model for health-care context-aware systems to support patients suffer from Chronic Obstructive Pulmonary Disease (COPD). METHODS: The contextual information is important for developing Context-Aware Healthcare Applications, especially those used to monitor patients with chronic diseases which are affected by perceived conditions. In this thesis, we propose a novel context categorization within the medical domain which covers all the context aspects. Then, we propose an ontology-based model able to handle the complex contextual structure of the COPD domain coherently, and in proportion to the dynamic nature of that environment. This new ontological context is the core of our perception for implementing the ubiquitous healthcare solution. The presented model examines its effectiveness in managing one of the most context-sensitive diseases, thereby demonstrating its ability to adapt health care services on a personal basis and in accordance with current and projected events. The proposed model has shown promising results exceeding 85% approved by a group of experienced specialists in respiratory and lung diseases
    corecore