36 research outputs found

    Migrations en temps réel des machines virtuelles interdépendantes

    Get PDF
    RÉSUMÉ Actuellement, les bonnes circulations et traitements des données sont devenus des clefs de succès dans tous les domaines techniques. Il est donc indispensable que les réseaux, véhiculant ces données, garantissent la qualité de leur transmission et réception. Cela est aussi applicable quand ces données sont échangées en continu par des hôtes virtuels distribués et interdépendants. La consolidation et répartition des charges (Load Balancing) devient un élément important pour améliorer les capacités et les services des réseaux. Cette répartition est possible par des réseaux infonuagiques utilisant des machines virtuelles. Comme ces machines peuvent être déployées et migrées en temps réel et à grande échelle, elles peuvent offrir de très bonnes possibilités de répartition des charges par leurs migrations en temps réel. Ainsi, il est important pour les décideurs de ces répartitions de charges de disposer des techniques efficaces permettant de minimiser les coûts de maintenance et de qualité de ces migrations en temps réel et de maximiser les retours sur investissement de leurs déploiements. Le problème de planification, de consolidation et de migration en temps réel des machines virtuelles (VMs) consiste à identifier les bons choix à effectuer pour placer les ressources d’un réseau de machines virtuelles et à déterminer les bonnes techniques pour les consolider par le déplacement de ces VMs entre des hôtes physiques. Ces déplacements des VMs doivent se faire sans interruption de service et dans des délais très réduits afin de respecter les contrats de niveaux de service et la qualité globale des services virtuels. Depuis quelques années, plusieurs recherches scientifiques se sont attardées sur l’étude de planification et de migration en temps réel des machines virtuelles. Cependant, ces études scientifiques se sont focalisées sur des VMs prises individuellement et non sur l’ensemble des VMs interdépendantes; cette démarche ne permet pas d’obtenir des solutions optimales prenant en considération les interdépendances entre ces VMs. D’autres études scientifiques se sont intéressées aux redéploiements dynamiques des charges d’un réseau en utilisant des migrations en temps réel des VMs et elles ont réussi à présenter des modélisations pour les résoudre. Cependant, elles n’ont pas considéré l’interdépendance entre des services applicatifs installés sur ces VMs; ces services ont besoin parfois d’échanger leurs informations afin d’effectuer leurs exécutions correctement. Cette thèse présente des techniques traitant de la planification, la consolidation, et la migration en temps réel de plusieurs machines virtuelles. L’interdépendance entre les VMs est considérée lors des développements de ces techniques. Notre travail est divisé en trois parties où chacune correspond à un de nos objectifs de recherche. Lors de la première partie, nous développons un modèle mathématique et son heuristique d’approximation pour solutionner le problème d’optimisation de la planification des emplacements des VMs prenant en considération leurs contraintes d’interdépendance; cette heuristique, efficace pour des grands ensembles de machines virtuelles, peut être ensuite exécutée par un logiciel installé sur une machine physique. Nous résolvons ce modèle grâce au solveur mathématique CPLEX en utilisant la méthode de programmation en nombres entiers mixte (MIP). L’objectif de ce modèle est de minimiser les coûts d’un réseau de VMs tout en respectant ses contraintes d’interdépendance. Afin de valider la performance de notre modélisation, nous résolvons avec CPLEX des petits ensembles de tests; ensuite, nous les vérifions et validons. Notre modèle est plus pertinent que celui de la modélisation sans les contraintes d’interdépendance qui donne des solutions dans des délais plus courts, mais qui demeurent non efficaces pour le bon fonctionnement des VMs interdépendantes. Comme le problème NP-difficile de « bin-packing » peut être réduit à notre problème de planification des VMs, ce dernier est aussi NP-difficile; pour cela, nous approximons sa modélisation avec une heuristique de recherche taboue qui est capable de traiter des grands ensembles en peu de temps. Cette heuristique trouve de bonnes solutions dans des délais acceptables pour des problèmes avec des grands ensembles. Cette heuristique visite une zone de solutions potentielles afin d’y trouver l’optimum local, puis elle refait cette même démarche dans des régions avoisinantes. Ainsi, notre heuristique réalise une exploration pertinente de l’espace des solutions possibles. Les performances de notre heuristique sont comparables à celles de notre modèle mathématique approximé dans le cas des problèmes avec des petits ensembles. De plus, cette heuristique est plus performante en ce qui concerne des temps de calcul puisqu’elle réussit à trouver de bonnes solutions dans des délais moindres que ceux des solutions exactes de CPLEX pour des grands ensembles de VMs. Lors de la deuxième partie de notre recherche, nous développons un modèle mathématique « multi-objectifs » (relaxé à un modèle « mono-objectif » par la méthode agrégée de la somme pondérée) et son heuristique d’approximation pour trouver une solution optimale pour le problème de migration en temps réel des VMs interdépendantes; cette modélisation obtient des solutions exactes et optimales pour un nombre réduit de VMs; cette heuristique, permettant de trouver des solutions quasi-optimales en peu de temps, peut être exécutée par un logiciel contrôleur installé sur une machine physique. Cette exécution peut être effectuée à intervalle régulier ou bien quand la qualité de service de certains services virtuels commence à se dégrader. En effet, avec cette modélisation « multi-objectifs » relaxé à « mono-objectif » via la méthode agrégée de la somme pondérée de chacun de nos objectifs, nous trouvons des solutions quasi-optimales pour nos quatre objectifs qui sont le délai de migration des VMs, leur délai d’arrêt, les pénalités dues aux non-respects des contrats de service, et leur qualité de service globale. La modélisation proposée permet plus de flexibilité en assignant un niveau relatif d’importance pour chacun des objectifs via leur facteur de pondération. Concernant la qualité globale de service et les pénalités des non-respects des contrats de niveaux de service (SLAs), les résultats obtenus grâce à notre modèle et son heuristique d’approximation sont meilleurs que la technique « pré-copie » utilisée et conçue pour les migrations en temps réel des VMs. Lors de la troisième partie de notre recherche, nous développons un modèle mathématique et son heuristique d’approximation visant à maximiser le profit net total tout en minimisant les pénalités des services virtuels aux contrats SLAs. Cette optimisation est une tâche complexe en raison de la difficulté de parvenir à un compromis réussi entre les pénalités sur les contrats de niveaux de service et le placement en temps réel des machines virtuelles (VM) interdépendantes. Cette troisième partie étudie donc ce problème de maximisation du profit net total tout en diminuant les pénalités de service et en réalisant des migrations en temps réel de machines virtuelles interdépendantes. Ce problème d’optimisation de placement en temps réel de machines virtuelles est NP-difficile puisque le problème NP-difficile « bin-packing » peut être réduit à ce problème, et son temps de calcul croit exponentiellement avec la taille des ensembles de machines virtuelles et de leurs machines physiques hôtes; pour cette raison, nous approximons notre modèle mathématique avec une heuristique de recherche taboue efficace. Nous testons notre formulation et heuristique pour des services virtuels, où le profit net total doit être maximisé, où les pénalités des services doivent être minimisées, et où des migrations efficaces en temps réel des VMs sont des sujets de préoccupation. Nos résultats de simulations montrent que notre heuristique d’approximation de notre modèle mathématique : (i) trouve de meilleures solutions que la configuration existante des milliers de machines utilisées dans des traces de Google; (ii) est adaptée pour de grandes ensembles des services virtuels avec des dizaines de milliers de machines virtuelles et machines physiques; et (iii) performe mieux en termes de pénalités et profits globaux que notre référence de comparaison c.-à-d. la configuration existante des machines utilisées dans des traces de Google.----------ABSTRACT Currently, data transmission and processing have become keys to success in many technology areas. Therefore, it is essential that networks guarantee the transmission and reception qualities of these data; also, this guarantee is important for data exchanged continuously by distributed and interconnected hosts. Also, “Load Balancing” techniques becomes an interesting key to improve network services and capacities. This load balancing technique is feasible with cloud networks based on virtual machines (VMs). Since these virtual machines can be deployed and live migrated on a large scale, they can offer very good possibilities of load balancing. Thus, it is important that decision makers dispose of effective techniques, such as load balancing, to minimize costs of these live migrations and to maximize their return on investment. Planning and live migration problems of virtual machines aim to identify right choices to place resources of virtual machine networks and to determine right techniques to move VMs between their physical hosts. These VMs’ moves should be done without service interruption and within very short delay. In recent years, several scientific researchers have studied planning and live migration of virtual machines; however, these scientific studies have focused on VMs individually without considering their interdependency constraints. Other scientific studies have investigated dynamic load balancing of a network using VM live migrations and they have succeeded to solve it using mathematical models; however, they did not consider the VMs’ interdependency. This thesis presents some techniques dealing with planning, consolidation, and live migrations of multiple virtual machines. These techniques take into account the VM interdependencies, the network service level contracts (SLAs) and overall quality. Our thesis is divided into three parts corresponding to our three research objectives. In the first part, we develop a mathematical model for VMs planning problem including the interdependency constraints. We solve this model using CPLEX as a mathematical solver with the mixed integer programming (MIP) method. The goal of this model is to minimize the overall cost of a VMs’ network while respecting its interdependent VMs constraints. To validate our modeling performance, we solved, with CPLEX, some small sets; then, we verified and validated our solutions. Our model is more relevant than other models ignoring interdependency constraints and which give solutions in a shorter time but remain ineffective for a proper functioning of interdependent VMs. Since VMs’ placement planning problem is an NP-hard problem (as the NP-hard “bin-packing” problem can be reduced to it), we approximate our model with a tabu search heuristic which is capable to handle large-sized sets. This heuristic finds good solutions in an acceptable delay by visiting areas of potential solutions in order to find local optimums, and then it repeats this process with other surrounding areas; thus, our heuristic performs relevant space explorations for possible solutions. Our heuristic has comparable performance to our approximated mathematical model in the case of small size sets; moreover, this heuristic is more efficient since its running time is lower than CPLEX to find near-enough exact solutions for large-sized sets. In the second part of our research, we have developed a "multi-objective" mathematical model to solve the problem of live migrations of interdependent VMs; this model is solved by relaxing it to a "mono-objective" model using the method of weighted sum of each of its objectives; thanks to this relaxation, we optimize four objectives simultaneously by dealing with live VM migrations, especially, their stop delays, their penalties on service level agreements and the overall quality of service. Our proposed model allows more flexibility by assigning a relative importance level for each objective. Results, of the overall quality of service and overall penalty on SLAs, obtained with our model are better than those of "pre-copy" VM live migrations ignoring VMs’ interdependency constraints. In the third part of this research, we develop a mathematical model to maximize the overall net profits of virtual services while minimizing the penalties on their SLAs. This optimization is a complex task because it is difficult to reach a successful compromise between decreasing the penalties on service level agreements and the live placement of interdependent virtual machines. This third part is therefore exploring this problem optimization of net profit and service penalties while performing live migrations of interdependent virtual machines. This live placement optimization problem of virtual machines is NP-hard and its calculation time grows exponentially with the size of virtual machine sets and their physical machines hosts; for this reason, we approximate our mathematical model with effective tabu search heuristic. We test our formulation and heuristic with virtual services which the overall net profit should be maximized, the penalty on SLAs should be minimized and live migrations should be effective. Our simulation results show that our heuristic: (i) finds better solutions than the existing configuration of machines used in Google traces; (ii) is adapted to large-sized virtual service sets with tens of thousands of virtual and physical machines; and (iii) performs better in terms of penalties and overall net profits when they are compared to those of the existing machines’ configuration of Google

    Vers une gestion coopérative des infrastructures virtualisées à large échelle (le cas de l'ordonnancement)

    Get PDF
    Les besoins croissants en puissance de calcul sont généralement satisfaits en fédérant de plus en plus d ordinateurs (ou noeuds) pour former des infrastructures distribuées. La tendance actuelle est d utiliser la virtualisation système dans ces infrastructures, afin de découpler les logiciels des noeuds sous-jacents en les encapsulant dans des machines virtuelles. Pour gérer efficacement ces infrastructures virtualisées, de nouveaux gestionnaires logiciels ont été mis en place. Ces gestionnaires sont pour la plupart hautement centralisés (les tâches de gestion sont effectuées par un nombre restreint de nœuds dédiés). Cela limite leur capacité à passer à l échelle, autrement dit à gérer de manière réactive des infrastructures de grande taille, qui sont de plus en plus courantes. Au cours de cette thèse, nous nous sommes intéressés aux façons d améliorer cet aspect ; l une d entre elles consiste à décentraliser le traitement des tâches de gestion, lorsque cela s avère judicieux. Notre réflexion s est concentrée plus particulièrement sur l ordonnancement dynamique des machines virtuelles, pour donner naissance à la proposition DVMS (Distributed Virtual Machine Scheduler). Nous avons mis en œuvre un prototype, que nous avons validé au travers de simulations (notamment via l outil SimGrid), et d expériences sur le banc de test Grid 5000. Nous avons pu constater que DVMS se montrait particulièrement réactif pour gérer des infrastructures virtualisées constituées de dizaines de milliers de machines virtuelles réparties sur des milliers de nœuds. Nous nous sommes ensuite penchés sur les perspectives d extension et d amélioration de DVMS. L objectif est de disposer à terme d un gestionnaire décentralisé complet, objectif qui devrait être atteint au travers de l initiative Discovery qui fait suite à ces travaux.The increasing need in computing power has been satisfied by federating more and more computers (called nodes) to build the so-called distributed infrastructures. Over the past few years, system virtualization has been introduced in these infrastructures (the software is decoupled from the hardware by packaging it in virtual machines), which has lead to the development of software managers in charge of operating these virtualized infrastructures. Most of these managers are highly centralized (management tasks are performed by a restricted set of dedicated nodes). As established, this restricts the scalability of managers, in other words their ability to be reactive to manage large-scale infrastructures, that are more and more common. During this Ph.D., we studied how to mitigate these concerns ; one solution is to decentralize the processing of management tasks, when appropriate. Our work focused in particular on the dynamic scheduling of virtual machines, resulting in the DVMS (Distributed Virtual Machine Scheduler) proposal. We implemented a prototype, that was validated by means of simulations (especially with the SimGrid tool) and with experiments on the Grid 5000 test bed. We observed that DVMS was very reactive to schedule tens of thousands of virtual machines distributed over thousands of nodes. We then took an interest in the perspectives to improve and extend DVMS. The final goal is to build a full decentralized manager. This goal should be reached by the Discovery initiative,that will leverage this work.NANTES-ENS Mines (441092314) / SudocSudocFranceF

    Décision collaborative dans les systèmes distribués : application à la e-maintenance

    Get PDF
    Depuis leur apparition, les Technologies d'Information et de Communication (TIC) ont intégré et fait évoluer les modes de travail des entreprises, avec les notions de e-service, de travail collaboratif, d'organisations distribuées et de mutualisation des connaissances. Nous considérons cette intégration des TIC à la fonction maintenance, activité clé de la performance des entreprises, largement pénétrée par ces technologies avec, par exemple, les concepts de e-maintenance. Nos objectifs sont d'analyser les processus décisionnels collaboratifs et l'influence des TIC sur ceux-ci et de proposer les moyens d'évaluer les performances d'un service de maintenance supporté par les TIC. La modélisation du problème revêt un aspect multidomaine, multivue et multiacteur et l'évaluation des performances est multicritère. Nous proposons, tout d'abord, une modélisation des situations de e-maintenance en nous appuyant sur la représentation des processus et en utilisant le formalisme objet, afin de mettre en évidence les composants clés des activités de e-maintenance et l'influence des TIC. Ensuite, nous étudions les activités de décision collaborative en analysant la logique de regroupement de centres de décision, supports des décisions et nous caractérisons les ressources immatérielles engagées. Enfin, nous proposons un cadre d'évaluation des performances des activités de e-maintenance et des modèles de représentation permettant de simuler des configurations d'engagement de ces ressources et de guider les choix d'organisation afférents

    Logistique hospitalière à l'aide de robots mobiles reconfigurables

    Get PDF
    Ce manuscrit expose notre travail dans le cadre du projet IWARD et détaille la couche de gestion et de décision du groupement de robots. Ce projet avait comme objectif d assister le personnel médical dans leur travail, ceci est réalisé en utilisant des robots mobiles, reconfigurables, et rechargeables. Ces robots sont conçus pour effectuer des taches logistiques comme : Le transport de médicaments, le nettoyage, le guidage des patients, la surveillance et la téléconsultation. Dans la première partie de la thèse nous présenterons le problème stratégique qui consiste à déterminer les plannings de rechargement des robots, la configuration des robots opérationnels ainsi que la localisation des stations d attentes des robots lorsqu ils sont en état de veille. Différentes hiérarchies à plusieurs niveaux de décisions, sont formulées comme des programmes linéaires en nombres entiers. Des formulations utilisant l approche de génération de colonnes sont aussi développées pour résoudre ces problèmes. Dans la deuxième partie, le problème tactique est exposé, ceci consiste à affecter les taches arrivantes aux différents robots et d ordonnancer dynamiquement l exécution ces missions. Deux approches sont inspectées une version centralisée utilisant les algorithmes évolutionnaires et une autre version distribuée utilisant les algorithmes d enchères inversées. Afin de mettre à l épreuve ces deux approches, une simulation a événements discrets a été conçue et développée spécifiquement pour le projet, permettant ainsi d évaluer ces deux approches.Due to the expansion of the life duration and the shortage of medical personal in hospitals the EU funded IWARD project as part of the IFP6 program. The aims of this project were to assist the medical personnel in logistic and non medical tasks (transport, cleaning, environmental monitoring, guidance and tele-monitoring) through the usage of mobile, reconfigurable, rechargeable robots, thus letting the Medical staff to concentrate on medical aspects of their work.This thesis was part of this project, and our work consisted on developing a decision making framework for the team of robots.In the first part of the thesis, we address the strategic decisions essentially the: (i) the robots home station location problem, (ii) Robot s reconfiguration problems and (iii) Robots recharging scheduling. We formulate those problems as a linear problems and we propose to solve them using Mixed Integer Programming (MIP). We also present a formulation using a column generation approach to solve those problems.In the later part we address the tactical problems, mainly the mission assignment, the mission scheduling and rescheduling. We present two different approaches; a centralized decision finder implemented using genetic algorithms. And a decentralized approach using auction like and market based algorithms in order to provided collaborative decision making framework.Finally we compare those two approaches using a custom made discrete event simulation (DES).ST ETIENNE-ENS des Mines (422182304) / SudocSudocFranceF

    Agents mobiles coopérants pour les environnements dynamiques

    Get PDF
    A partir de l'étude de la mobilité dans les paradigmes de programmation pour les systèmes distribués et des différents architectures réseaux, et principalement celles sans-fils, nous avons pu identifier le problème de la gestion des unités mobiles (PDA, smartphone, ...) lorsque l'on souhaite les intégrer dans Internet. Leurs déplacements introduisent un fort dynamisme matériel qui ne permet plus d'utiliser les techniques classiques d'un internet et d'obtenir un système gérant globalement la localisation de toutes les unités. Cette absence de gestion globale remet en cause les méthodes classiques de conception fondées sur un système offrant une représentation stable de l'environnements. Dans ce contexte, nous avons étudié la conception basée sur les agents mobiles, programmes se déplaçant de site en site de manière autonome, afin de démontrer leur utilité dans des environnements dynamiques à l'échelle d'Internet, et ce, en l'absence d'un système capable de gérer la localisation globale. ABSTRACT : From the study of programming paradigms used in distributed systems and recent network architectures, especially wireless ones, we distinguish the problem of mobile unit management (PDA, smartphone, ...) when they are involved in the Internet. Their mobility introduces a high physical dynamism which leads to reconsider design patterns used in an intranet. Such systems do not allow to provide a global view of the distribution. This absence of global view implies to revisit classical design approaches based upon a system supplying a stable context representation. Therefore, we have studied a design approach based upon mobile agents, namely programs moving from site to site in an autonomous way. We demonstrate their usefulness in such dynamic environments at large scale in the Internet, in which there exits non global location service

    Système de gestion de flux pour l'Internet des objets intelligents

    Get PDF
    The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment.L'Internet des objets (ou IdO) se traduit à l'heure actuelle par l'accroissement du nombre d'objets connectés, c'est-à-dire d'appareils possédant une identité propre et des capacités de calcul et de communication de plus en plus sophistiquées : téléphones, montres, appareils ménagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. Spécifiquement, l'Internet des objets pose plusieurs problèmes, notamment du fait de sa très grande échelle, de sa nature dynamique et de l'hétérogénéité des données et des systèmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractéristiques nécessitent des outils et des méthodes idoines pour la réalisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de données disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dédiées. Dans cette optique, nous défendons la thèse suivante : en raison de la nature continue des données (mesures physiques, évènements, etc.) et leur volume, il est important de considérer (i) les flux comme modèle de données de référence de l'Internet des objets et (ii) le traitement continu comme modèle de calcul privilégié pour transformer ces flux. En outre, étant donné les préoccupations croissantes relatives à la consommation énergétique et au respect de la vie privée, il est préférable de laisser les objets agir au plus près des utilisateurs, si possible de manière autonome, au lieu de déléguer systématiquement l'ensemble des tâches à de grandes entités extérieures telles que le cloud. À cette fin, notre principale contribution porte sur la réalisation d'un système distribué de gestion de flux de données pour l'Internet des objets. Nous réexaminons notamment deux aspects clés du génie logiciel et des systèmes distribués : les architectures de services et le déploiement. Ainsi, nous apportons des solutions (i) pour l'accès aux flux de données sous la forme de services et (ii) pour le déploiement automatique des traitements continus en fonction des caractéristiques des appareils. Ces travaux sont concrétisés sous la forme d'un intergiciel, Dioptase, spécifiquement conçu pour être exécuté directement sur les objets et les transformer en fournisseurs génériques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilité de notre approche, nous introduisons un prototype de Dioptase dont nous évaluons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systèmes antérieurs de capteurs et d'actionneurs déjà déployés dans l'environnement

    Vers une vision systémique du processus de l'explication : récit d'une recherche sur l'intégration de la pédagogie, de l'ingénierie et de la modélisation

    Full text link
    Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal

    Aide à la conception de workflows personnalisés : application à la prise en charge à domicile

    Get PDF
    Aujourd'hui, les TIC sont reconnues comme un élément inéluctable pour améliorer les pratiques et les usages du secteur de la santé et particulièrement celui de la PAD. Cependant, malgré tout l'engouement et les avancés accomplies dans ce domaine, un problème de coordination et de continuité des soins personnalisés aux patients subsiste toujours. Un système de gestion de workflow semble approprié pour assurer cette coordination de la PAD. Toutefois, les caractéristiques des processus de la PAD, que nous avons identifié, compliquent la conception de ce workflow. En effet, le processus de la PAD a la particularité d'être un processus, personnalisé pour chaque patient, collaboratif évoluant dans un environnement très dynamique et incertain avec une forte contrainte temporelle. Dans le but d'améliorer la coordination en tenant compte des caractéristiques des processus de la PAD, nous avons proposé une approche de conception d'un workflow personnalisé basé sur les modèles de connaissances et guidée par une approche dirigée par les modèles. Cette approche préconise l'utilisation d'ontologies du domaine de la PAD et du BPMN dans un processus de transformations qui aboutit à la conception d'un workflow personnalisé pour un patient donnée selon son profil. Les travaux développés dans ce mémoire présentent une partie de cette approche qui consiste à construire un processus BPMN personnalisé. Les contributions, que nous y exposons sont : premièrement, la conception d'une ontologie du domaine de la PAD. Cette ontologie inclut : le profil patient (pathologie, entourage, environnement,...), l'aspect organisationnel de la PAD (le rôle de chaque intervenant) et le traitement ou les interventions nécessaires pour chaque pathologie. Deuxièmement une proposition de règles de correspondances entre les termes du domaine de la PAD et du BPMN. Finalement des requêtes permettant la conception d'un processus BPMN personnalisé. Cette approche a été testée sur un cas d'étude de la PAD qui montre son bon fonctionnement.Today, ICT is recognized as a requirement to improve the practices of the health sector and particularly the home care area. However, despite all the advances accomplished in this field, a problem of coordination and continuity of personalized care remains. A workflow management system seems appropriate to ensure the coordination of home care. However, the characteristics of the home care processes complicate the design of the workflow. Indeed, the processes of home care need to be customized for each patient, collaborative, evolving in a very dynamic and uncertain environment with a strong time constraint. In order to improve the coordination taking into account the characteristics of the home care process, we propose an approach to design a custom workflow models based on knowledge and guided by a model driven approach. This approach advocates the use of ontologies in the field of home care and BPMN into a process of transformation that leads to the design of a custom workflow for a given patient according to his profile. The work developed in this thesis are part of this approach is to build a customized BPMN process. Contributions are: first, the design of an ontology for home care. This ontology includes: patient profile (pathology, environment, ...), the organizational aspect of the home care (the role of each actor) and the treatment or interventions necessary for each pathology. Secondly, a proposal of correspondence rules between the terms in the field of home care and BPMN. Finally queries are performed to design a customized BPMN process. This approach has been tested on a significative case study

    Allocation de ressources et ordonnancement multi-utilisateurs : une approche basée sur l'équité

    Get PDF
    Grid and Cloud computing make possible the sharing of computer system resources, such as storage or computation time, among a set of users, according to their requests, thereby creating an illusion of infinite resources. However, as soon as those resources are insufficient to meet users’s expectations, conflicts of interest arise. Therefore, unlimited access to limited resources may lead to inefficient usage which penalizes the whole set of users. In such environments, arbitration becomes necessary in order to settle those conflicts and ensure a fair allocation to all users. We present two classes of problems : multi-user resource allocation under uncertainty and multi-user periodic task scheduling. We tackle these problems from the point of view of fairness.Les grilles de calcul et le “cloud computing” permettent de distribuer un ensemble de ressources informatiques, telles que du stockage ou du temps de calcul, à un ensemble d’utilisateurs en fonction de leurs demandes en donnant l’illusion de ressources infinies. Cependant, lorsque l’ensemble de ces ressources est insuffisant pour satisfaire les exigences des utilisateurs, des conflits d’intérêts surgissent. Ainsi, un libre accès à des ressources limitées peut entraîner une utilisation inefficace qui pénalise l’ensemble des participants. Dans de tels environnements, il devient nécessaire d’établir des procédures d’arbitrage afin de résoudre ces conflits en garantissant une distribution équitable aux différents utilisateurs. Nous présentons une nouvelle classe de problèmes : celle des ordonnancements multi-utilisateurs. Cette thèse aborde la notion d’équité au travers de problèmes d’allocation de ressources sous incertitudes et d’ordonnancement de tâches périodiques

    Numérique : impact sur le cycle de vie du document (Le)

    Get PDF
    Actes du colloque "Le numérique : impact sur le cycle de vie du document" organisé à l\u27université de Montréal par l\u27EBSI et l\u27ENSSIB du 13 au 15 octobre 2004. Son objectif était de traiter de façon interdisciplinaire la problématique suivante : « La numérisation, la diffusion des formats numériques originaux, les nouvelles méthodes d\u27indexation et d\u27analyse du document ainsi que le fonctionnement en réseau changent les données de base de la vie du document qui devient une sorte de phénix incessamment renaissant » (programme du colloque)
    corecore