22 research outputs found

    Localisation de sources de donnĂ©es et optimisation de requĂȘtes rĂ©parties en environnement pair-Ă -pair

    Get PDF
    MalgrĂ© leur succĂšs dans le domaine du partage de fichiers, les systĂšmes P2P sont capables d'Ă©valuer uniquement des requĂȘtes simples basĂ©es sur la recherche d'un fichier en utilisant son nom. RĂ©cemment, plusieurs travaux de recherche sont effectuĂ©s afin d'Ă©tendre ces systĂšmes pour qu'ils permettent le partage de donnĂ©es avec une granularitĂ© fine (i.e. un attribut atomique) et l'Ă©valuation de requĂȘtes complexes (i.e. requĂȘtes SQL). A cause des caractĂ©ristiques des systĂšmes P2P (e.g. grande-Ă©chelle, instabilitĂ© et autonomie de nƓuds), il n'est pas pratique d'avoir un catalogue global qui contient souvent des informations sur: les schĂ©mas, les donnĂ©es et les hĂŽtes des sources de donnĂ©es. L'absence d'un catalogue global rend plus difficiles: (i) la localisation de sources de donnĂ©es en prenant en compte l'hĂ©tĂ©rogĂ©nĂ©itĂ© de schĂ©mas et (ii) l'optimisation de requĂȘtes. Dans notre thĂšse, nous proposons une approche pour l'Ă©valuation des requĂȘtes SQL en environnement P2P. Notre approche est fondĂ©e sur une ontologie de domaine et sur des formules de similaritĂ© pour rĂ©soudre l'hĂ©tĂ©rogĂ©nĂ©itĂ© sĂ©mantique des schĂ©mas locaux. Quant Ă  l'hĂ©tĂ©rogĂ©nĂ©itĂ© structurelle de ces schĂ©mas, elle est rĂ©solue grĂące Ă  l'extension d'un algorithme de routage de requĂȘtes (i.e. le protocole Chord) par des Indexes de structure. Concernant l'optimisation de requĂȘtes, nous proposons de profiter de la phase de localisation de sources de donnĂ©es pour obtenir toutes les mĂ©ta-donnĂ©es nĂ©cessaires pour gĂ©nĂ©rer un plan d'exĂ©cution proche de l'optimal. Afin de montrer la faisabilitĂ© et la validitĂ© de nos propositions, nous effectuons une Ă©valuation des performances et nous discutons les rĂ©sultats obtenus.Despite of their great success in the file sharing domain, P2P systems support only simple queries usually based on looking up a file by using its name. Recently, several research works have made to extend P2P systems to be able to share data having a fine granularity (i.e. atomic attribute) and to process queries written with a highly expressive language (i.e. SQL). The characteristics of P2P systems (e.g. large-scale, node autonomy and instability) make impractical to have a global catalog that stores often information about data, schemas and data source hosts. Because of the absence of a global catalog, two problems become more difficult: (i) locating data sources with taking into account the schema heterogeneity and (ii) query optimization. In our thesis, we propose an approach for processing SQL queries in a P2P environment. To solve the semantic heterogeneity between local schemas, our approach is based on domain ontology and on similarity formulas. As for the structural heterogeneity of local schemas, it is solved by the extension of a query routing method (i.e. Chord protocol) with Structure Indexes. Concerning the query optimization problem, we propose to take advantage of the data source localization phase to obtain all metadata required for generating a close to optimal execution plan. Finally, in order to show the feasibility and the validity of our propositions, we carry out performance evaluations and we discuss the obtained results

    Définition et évaluation de modÚles de recherche d'information collaborative basés sur les compétences de domaine et les rÎles des utilisateurs

    Get PDF
    The research topic of this document deals with a particular setting of information retrieval (IR), referred to as collaborative information retrieval (CIR), in which a set of multiple collaborators share the same information need. Collaboration is particularly used in case of complex tasks in which an individual user may have insufficient knowledge and may benefit from the expertise/knowledge or complementarity of other collaborators. This multi-user context rises several challenges in terms of search interfaces as well as ranking models, since new paradigms must be considered, namely division of labor, sharing of knowledge and awareness. These paradigms aim at avoiding redundancy between collaborators in order to reach a synergic effect within the collaboration process. Several approaches have been proposed in the literature. First, search interfaces have been oriented towards a user mediation in order to support collaborators' actions through information storage or communication tools. Second, more close to our contributions, previous work focus on the information access issue by designing ranking models adapted to collaborative environments dealing with the challenges of (1) personalizing result set to collaborators, (2) favoring the sharing of knowledge, (3) dividing the labor among collaborators and/or (4) considering particular roles of collaborators within the information seeking process.In this thesis, we focus, more particularly, on two main aspects of the collaboration: - The expertise of collaborators by proposing retrieval models adapted to the domain expertise level of collaborators. The expertise levels might be vertical, in the case of domain expert and novice, or horizontal when collaborators have different subdomain expertise. We, therefore, propose two CIR models on two steps including a document relevance scoring with respect to each role and a document allocation to user roles through the Expectation–Maximization (EM) learning method applied on the document relevance scoring in order to assign documents to the most likely suited user. - The complementarity of collaborators throughout the information seeking process by mining their roles on the assumptions that collaborators might be different and complementary in some skills. We propose two algorithms based either on predefined roles or latent roles which (1) learns about the roles of the collaborators using various search-related features for each individual involved in the search session, and (2) adapts the document ranking to the mined roles of collaborators.Cette thĂšse traite du domaine particulier de la recherche d'information (RI) appelĂ© RI collaborative (RIC), qui considĂšre un ensemble d'utilisateurs interagissant afin de satisfaire un besoin en information partagĂ©. La collaboration est particuliĂšrement utilisĂ©e dans le cas de tĂąches complexes ou exploratoires pour lesquelles les compĂ©tences d'un utilisateur unique peuvent ĂȘtre insuffisantes. La collaboration permet ainsi de rassembler les compĂ©tences complĂ©mentaires des utilisateurs afin de produire un rĂ©sultat collectif qui dĂ©passe l’agrĂ©gation des rĂ©sultats individuels.Le contexte multi-utilisateurs ouvre de nombreuses perspectives en termes de support Ă  la collaboration au travers la dĂ©finition d'interfaces dĂ©diĂ©es et de modĂšles d'ordonnancement basĂ©s sur les paradigmes de la collaboration. Ces derniers, dont principalement la division du travail, le partage des connaissances et la conscience de l'environnement collaboratif, doivent ĂȘtre pris en compte afin d'Ă©viter la redondance entre les collaborateurs et de bĂ©nĂ©ficier de l'effet synergique de la collaboration. Plusieurs approches ont Ă©tĂ© proposĂ©es dans la littĂ©rature. En premier lieu, les interfaces de recherche ont Ă©tĂ© orientĂ©es vers des mĂ©diations utilisateurs dans le but de proposer un support aux actions des collaborateurs au travers de moyens de communication et de stockage d'information. En deuxiĂšme lieu, plus proches de nos travaux, certains auteurs se sont intĂ©ressĂ©s Ă  la problĂ©matique d'accĂšs Ă  l'information en dĂ©finissant des modĂšles d'ordonnancement adaptĂ©s Ă  l'environnement collaboratif afin de rĂ©pondre aux enjeux suivants : (1) la personnalisation des ordonnancements aux collaborateurs, (2) l'amĂ©lioration du partage des connaissances, (3) la division du travail entre les collaborateurs et/ou (4) la considĂ©ration des rĂŽles des collaborateurs dans le processus de RI.Dans ce manuscrit, nous nous intĂ©ressons particuliĂšrement aux aspects suivants de la collaboration : - L'expertise de domaine des collaborateurs vis-Ă -vis du sujet du besoin en information partagĂ© en proposant deux modĂšles d’ordonnancement collaboratifs basĂ©s (a) sur une distinction verticale des niveaux d’expertise avec les rĂŽles d’expert et de novice de domaine et (b) une distinction horizontale de l’expertise oĂč un groupe d’experts de sous-domaines collaborent pour rĂ©pondre Ă  un besoin en information Ă  multiples facettes. Ces deux modĂšles sont composĂ©s de deux Ă©tapes principales qui estiment le score de pertinence de chaque document pour chacun des rĂŽles puis alloue le document aux collaborateurs grĂące Ă  l'algorithme de la maximisation de l'espĂ©rance (EM). L'objectif est d'assigner un document au collaborateur le plus Ă  mĂȘme de le juger en fonction de son niveau d'expertise.- La complĂ©mentaritĂ© des utilisateurs lors d'un processus de RIC au travers de mĂ©thodes d’apprentissage, en temps rĂ©el, des rĂŽles des collaborateurs. Ceci a pour objectif de bĂ©nĂ©ficier des compĂ©tences pour lesquelles ils sont les plus efficaces et d’ordonnancer, ainsi, les documents en fonction des rĂŽles des collaborateurs. Également, deux approches, supervisĂ©e et non supervisĂ©e, sont proposĂ©es permettant respectivement d’apprendre les rĂŽles des collaborateurs en fonction de leurs actions. Ces approches sont basĂ©es respectivement sur (a) des rĂŽles prĂ©dĂ©finis dans l’état de l’art et (b) des mĂ©ta-rĂŽles latents des collaborateurs non prĂ©dĂ©finis

    Actes des 25es journées francophones d'Ingénierie des Connaissances (IC 2014)

    Get PDF
    National audienceLes JournĂ©es Francophones d'IngĂ©nierie des Connaissances fĂȘtent cette annĂ©e leurs 25 ans. Cette confĂ©rence est le rendez-vous annuel de la communautĂ© française et francophone qui se retrouve pour Ă©changer et rĂ©flĂ©chir sur des problĂšmes de recherche qui se posent en acquisition, reprĂ©sentation et gestion des connaissances. Parmi les vingt et un articles sĂ©lectionnĂ©s pour publication et prĂ©sentation Ă  la confĂ©rence, un thĂšme fondateur de l'ingĂ©nierie des connaissances domine : celui de la modĂ©lisation de domaines. Six articles traitent de la conception d'ontologies, trois articles de l'annotation sĂ©mantique et du peuplement d'ontologies et deux articles de l'exploitation d'ontologies dans des systĂšmes Ă  base de connaissances. L'informatique mĂ©dicale est le domaine d'application privilĂ©giĂ© des travaux prĂ©sentĂ©s, que l'on retrouve dans sept articles. L'ingĂ©nierie des connaissances accompagne l'essor des technologies du web sĂ©mantique, en inventant les modĂšles, mĂ©thodes et outils permettant l'intĂ©gration de connaissances et le raisonnement dans des systĂšmes Ă  base de connaissances sur le web. Ainsi, on retrouve les thĂšmes de la reprĂ©sentation des connaissances et du raisonnement dans six articles abordant les problĂ©matiques du web de donnĂ©es : le liage des donnĂ©es, leur transformation et leur interrogation ; la reprĂ©sentation et la rĂ©utilisation de rĂšgles sur le web de donnĂ©es ; la programmation d'applications exploitant le web de donnĂ©es. L'essor des sciences et technologies de l'information et de la communication, et notamment des technologies du web, dans l'ensemble de la sociĂ©tĂ© engendre des mutations dans les pratiques individuelles et collectives. L'ingĂ©nierie des connaissances accompagne cette Ă©volution en plaçant l'utilisateur au cƓur des systĂšmes informatiques, pour l'assister dans le traitement de la masse de donnĂ©es disponibles. Quatre articles sont dĂ©diĂ©s aux problĂ©matiques du web social : analyse de rĂ©seaux sociaux, dĂ©tection de communautĂ©s, folksonomies, personnalisation de recommandations, reprĂ©sentation et prise en compte de points de vue dans la recherche d'information. Deux articles traitent de l'adaptation des systĂšmes aux utilisateurs et de l'assistance aux utilisateurs et deux autres de l'aide Ă  la prise de dĂ©cision. Le taux de sĂ©lection de cette Ă©dition de la confĂ©rence est de 50%, avec dix-neuf articles longs et deux articles courts acceptĂ©s parmi quarante-deux soumissions. S'y ajoutent une sĂ©lection de neuf posters et dĂ©monstrations parmi douze soumissions, prĂ©sentĂ©s dans une session dĂ©diĂ©e et inclus dans les actes. Enfin, une innovation de cette Ă©dition 2014 de la confĂ©rence est la programmation d'une session spĂ©ciale " Projets et Industrie ", animĂ©e par FrĂ©dĂ©rique Segond (Viseo), Ă  laquelle participeront Laurent Pierre (EDF), Alain Berger (Ardans) et MylĂšne Leitzelman (Mnemotix). Trois confĂ©renciĂšres invitĂ©es ouvriront chacune des journĂ©es de la confĂ©rence que je remercie chaleureusement de leur participation. Nathalie Aussenac-Gilles (IRIT) retracera l'Ă©volution de l'ingĂ©nierie des connaissances en France depuis 25 ans, de la pĂ©nurie Ă  la surabondance. A sa suite, FrĂ©dĂ©rique Segond (Viseo) abordera le problĂšme de " l'assouvissement " de la faim de connaissances dans la nouvelle Ăšre des connaissances dans laquelle nous sommes entrĂ©s. Enfin, Marie-Laure Mugnier (LIRMM) prĂ©sentera un nouveau cadre pour l'interrogation de donnĂ©es basĂ©e sur une ontologie, fondĂ© sur des rĂšgles existentielles

    Migrations en temps réel des machines virtuelles interdépendantes

    Get PDF
    RÉSUMÉ Actuellement, les bonnes circulations et traitements des donnĂ©es sont devenus des clefs de succĂšs dans tous les domaines techniques. Il est donc indispensable que les rĂ©seaux, vĂ©hiculant ces donnĂ©es, garantissent la qualitĂ© de leur transmission et rĂ©ception. Cela est aussi applicable quand ces donnĂ©es sont Ă©changĂ©es en continu par des hĂŽtes virtuels distribuĂ©s et interdĂ©pendants. La consolidation et rĂ©partition des charges (Load Balancing) devient un Ă©lĂ©ment important pour amĂ©liorer les capacitĂ©s et les services des rĂ©seaux. Cette rĂ©partition est possible par des rĂ©seaux infonuagiques utilisant des machines virtuelles. Comme ces machines peuvent ĂȘtre dĂ©ployĂ©es et migrĂ©es en temps rĂ©el et Ă  grande Ă©chelle, elles peuvent offrir de trĂšs bonnes possibilitĂ©s de rĂ©partition des charges par leurs migrations en temps rĂ©el. Ainsi, il est important pour les dĂ©cideurs de ces rĂ©partitions de charges de disposer des techniques efficaces permettant de minimiser les coĂ»ts de maintenance et de qualitĂ© de ces migrations en temps rĂ©el et de maximiser les retours sur investissement de leurs dĂ©ploiements. Le problĂšme de planification, de consolidation et de migration en temps rĂ©el des machines virtuelles (VMs) consiste Ă  identifier les bons choix Ă  effectuer pour placer les ressources d’un rĂ©seau de machines virtuelles et Ă  dĂ©terminer les bonnes techniques pour les consolider par le dĂ©placement de ces VMs entre des hĂŽtes physiques. Ces dĂ©placements des VMs doivent se faire sans interruption de service et dans des dĂ©lais trĂšs rĂ©duits afin de respecter les contrats de niveaux de service et la qualitĂ© globale des services virtuels. Depuis quelques annĂ©es, plusieurs recherches scientifiques se sont attardĂ©es sur l’étude de planification et de migration en temps rĂ©el des machines virtuelles. Cependant, ces Ă©tudes scientifiques se sont focalisĂ©es sur des VMs prises individuellement et non sur l’ensemble des VMs interdĂ©pendantes; cette dĂ©marche ne permet pas d’obtenir des solutions optimales prenant en considĂ©ration les interdĂ©pendances entre ces VMs. D’autres Ă©tudes scientifiques se sont intĂ©ressĂ©es aux redĂ©ploiements dynamiques des charges d’un rĂ©seau en utilisant des migrations en temps rĂ©el des VMs et elles ont rĂ©ussi Ă  prĂ©senter des modĂ©lisations pour les rĂ©soudre. Cependant, elles n’ont pas considĂ©rĂ© l’interdĂ©pendance entre des services applicatifs installĂ©s sur ces VMs; ces services ont besoin parfois d’échanger leurs informations afin d’effectuer leurs exĂ©cutions correctement. Cette thĂšse prĂ©sente des techniques traitant de la planification, la consolidation, et la migration en temps rĂ©el de plusieurs machines virtuelles. L’interdĂ©pendance entre les VMs est considĂ©rĂ©e lors des dĂ©veloppements de ces techniques. Notre travail est divisĂ© en trois parties oĂč chacune correspond Ă  un de nos objectifs de recherche. Lors de la premiĂšre partie, nous dĂ©veloppons un modĂšle mathĂ©matique et son heuristique d’approximation pour solutionner le problĂšme d’optimisation de la planification des emplacements des VMs prenant en considĂ©ration leurs contraintes d’interdĂ©pendance; cette heuristique, efficace pour des grands ensembles de machines virtuelles, peut ĂȘtre ensuite exĂ©cutĂ©e par un logiciel installĂ© sur une machine physique. Nous rĂ©solvons ce modĂšle grĂące au solveur mathĂ©matique CPLEX en utilisant la mĂ©thode de programmation en nombres entiers mixte (MIP). L’objectif de ce modĂšle est de minimiser les coĂ»ts d’un rĂ©seau de VMs tout en respectant ses contraintes d’interdĂ©pendance. Afin de valider la performance de notre modĂ©lisation, nous rĂ©solvons avec CPLEX des petits ensembles de tests; ensuite, nous les vĂ©rifions et validons. Notre modĂšle est plus pertinent que celui de la modĂ©lisation sans les contraintes d’interdĂ©pendance qui donne des solutions dans des dĂ©lais plus courts, mais qui demeurent non efficaces pour le bon fonctionnement des VMs interdĂ©pendantes. Comme le problĂšme NP-difficile de « bin-packing » peut ĂȘtre rĂ©duit Ă  notre problĂšme de planification des VMs, ce dernier est aussi NP-difficile; pour cela, nous approximons sa modĂ©lisation avec une heuristique de recherche taboue qui est capable de traiter des grands ensembles en peu de temps. Cette heuristique trouve de bonnes solutions dans des dĂ©lais acceptables pour des problĂšmes avec des grands ensembles. Cette heuristique visite une zone de solutions potentielles afin d’y trouver l’optimum local, puis elle refait cette mĂȘme dĂ©marche dans des rĂ©gions avoisinantes. Ainsi, notre heuristique rĂ©alise une exploration pertinente de l’espace des solutions possibles. Les performances de notre heuristique sont comparables Ă  celles de notre modĂšle mathĂ©matique approximĂ© dans le cas des problĂšmes avec des petits ensembles. De plus, cette heuristique est plus performante en ce qui concerne des temps de calcul puisqu’elle rĂ©ussit Ă  trouver de bonnes solutions dans des dĂ©lais moindres que ceux des solutions exactes de CPLEX pour des grands ensembles de VMs. Lors de la deuxiĂšme partie de notre recherche, nous dĂ©veloppons un modĂšle mathĂ©matique « multi-objectifs » (relaxĂ© Ă  un modĂšle « mono-objectif » par la mĂ©thode agrĂ©gĂ©e de la somme pondĂ©rĂ©e) et son heuristique d’approximation pour trouver une solution optimale pour le problĂšme de migration en temps rĂ©el des VMs interdĂ©pendantes; cette modĂ©lisation obtient des solutions exactes et optimales pour un nombre rĂ©duit de VMs; cette heuristique, permettant de trouver des solutions quasi-optimales en peu de temps, peut ĂȘtre exĂ©cutĂ©e par un logiciel contrĂŽleur installĂ© sur une machine physique. Cette exĂ©cution peut ĂȘtre effectuĂ©e Ă  intervalle rĂ©gulier ou bien quand la qualitĂ© de service de certains services virtuels commence Ă  se dĂ©grader. En effet, avec cette modĂ©lisation « multi-objectifs » relaxĂ© Ă  « mono-objectif » via la mĂ©thode agrĂ©gĂ©e de la somme pondĂ©rĂ©e de chacun de nos objectifs, nous trouvons des solutions quasi-optimales pour nos quatre objectifs qui sont le dĂ©lai de migration des VMs, leur dĂ©lai d’arrĂȘt, les pĂ©nalitĂ©s dues aux non-respects des contrats de service, et leur qualitĂ© de service globale. La modĂ©lisation proposĂ©e permet plus de flexibilitĂ© en assignant un niveau relatif d’importance pour chacun des objectifs via leur facteur de pondĂ©ration. Concernant la qualitĂ© globale de service et les pĂ©nalitĂ©s des non-respects des contrats de niveaux de service (SLAs), les rĂ©sultats obtenus grĂące Ă  notre modĂšle et son heuristique d’approximation sont meilleurs que la technique « prĂ©-copie » utilisĂ©e et conçue pour les migrations en temps rĂ©el des VMs. Lors de la troisiĂšme partie de notre recherche, nous dĂ©veloppons un modĂšle mathĂ©matique et son heuristique d’approximation visant Ă  maximiser le profit net total tout en minimisant les pĂ©nalitĂ©s des services virtuels aux contrats SLAs. Cette optimisation est une tĂąche complexe en raison de la difficultĂ© de parvenir Ă  un compromis rĂ©ussi entre les pĂ©nalitĂ©s sur les contrats de niveaux de service et le placement en temps rĂ©el des machines virtuelles (VM) interdĂ©pendantes. Cette troisiĂšme partie Ă©tudie donc ce problĂšme de maximisation du profit net total tout en diminuant les pĂ©nalitĂ©s de service et en rĂ©alisant des migrations en temps rĂ©el de machines virtuelles interdĂ©pendantes. Ce problĂšme d’optimisation de placement en temps rĂ©el de machines virtuelles est NP-difficile puisque le problĂšme NP-difficile « bin-packing » peut ĂȘtre rĂ©duit Ă  ce problĂšme, et son temps de calcul croit exponentiellement avec la taille des ensembles de machines virtuelles et de leurs machines physiques hĂŽtes; pour cette raison, nous approximons notre modĂšle mathĂ©matique avec une heuristique de recherche taboue efficace. Nous testons notre formulation et heuristique pour des services virtuels, oĂč le profit net total doit ĂȘtre maximisĂ©, oĂč les pĂ©nalitĂ©s des services doivent ĂȘtre minimisĂ©es, et oĂč des migrations efficaces en temps rĂ©el des VMs sont des sujets de prĂ©occupation. Nos rĂ©sultats de simulations montrent que notre heuristique d’approximation de notre modĂšle mathĂ©matique : (i) trouve de meilleures solutions que la configuration existante des milliers de machines utilisĂ©es dans des traces de Google; (ii) est adaptĂ©e pour de grandes ensembles des services virtuels avec des dizaines de milliers de machines virtuelles et machines physiques; et (iii) performe mieux en termes de pĂ©nalitĂ©s et profits globaux que notre rĂ©fĂ©rence de comparaison c.-Ă -d. la configuration existante des machines utilisĂ©es dans des traces de Google.----------ABSTRACT Currently, data transmission and processing have become keys to success in many technology areas. Therefore, it is essential that networks guarantee the transmission and reception qualities of these data; also, this guarantee is important for data exchanged continuously by distributed and interconnected hosts. Also, “Load Balancing” techniques becomes an interesting key to improve network services and capacities. This load balancing technique is feasible with cloud networks based on virtual machines (VMs). Since these virtual machines can be deployed and live migrated on a large scale, they can offer very good possibilities of load balancing. Thus, it is important that decision makers dispose of effective techniques, such as load balancing, to minimize costs of these live migrations and to maximize their return on investment. Planning and live migration problems of virtual machines aim to identify right choices to place resources of virtual machine networks and to determine right techniques to move VMs between their physical hosts. These VMs’ moves should be done without service interruption and within very short delay. In recent years, several scientific researchers have studied planning and live migration of virtual machines; however, these scientific studies have focused on VMs individually without considering their interdependency constraints. Other scientific studies have investigated dynamic load balancing of a network using VM live migrations and they have succeeded to solve it using mathematical models; however, they did not consider the VMs’ interdependency. This thesis presents some techniques dealing with planning, consolidation, and live migrations of multiple virtual machines. These techniques take into account the VM interdependencies, the network service level contracts (SLAs) and overall quality. Our thesis is divided into three parts corresponding to our three research objectives. In the first part, we develop a mathematical model for VMs planning problem including the interdependency constraints. We solve this model using CPLEX as a mathematical solver with the mixed integer programming (MIP) method. The goal of this model is to minimize the overall cost of a VMs’ network while respecting its interdependent VMs constraints. To validate our modeling performance, we solved, with CPLEX, some small sets; then, we verified and validated our solutions. Our model is more relevant than other models ignoring interdependency constraints and which give solutions in a shorter time but remain ineffective for a proper functioning of interdependent VMs. Since VMs’ placement planning problem is an NP-hard problem (as the NP-hard “bin-packing” problem can be reduced to it), we approximate our model with a tabu search heuristic which is capable to handle large-sized sets. This heuristic finds good solutions in an acceptable delay by visiting areas of potential solutions in order to find local optimums, and then it repeats this process with other surrounding areas; thus, our heuristic performs relevant space explorations for possible solutions. Our heuristic has comparable performance to our approximated mathematical model in the case of small size sets; moreover, this heuristic is more efficient since its running time is lower than CPLEX to find near-enough exact solutions for large-sized sets. In the second part of our research, we have developed a "multi-objective" mathematical model to solve the problem of live migrations of interdependent VMs; this model is solved by relaxing it to a "mono-objective" model using the method of weighted sum of each of its objectives; thanks to this relaxation, we optimize four objectives simultaneously by dealing with live VM migrations, especially, their stop delays, their penalties on service level agreements and the overall quality of service. Our proposed model allows more flexibility by assigning a relative importance level for each objective. Results, of the overall quality of service and overall penalty on SLAs, obtained with our model are better than those of "pre-copy" VM live migrations ignoring VMs’ interdependency constraints. In the third part of this research, we develop a mathematical model to maximize the overall net profits of virtual services while minimizing the penalties on their SLAs. This optimization is a complex task because it is difficult to reach a successful compromise between decreasing the penalties on service level agreements and the live placement of interdependent virtual machines. This third part is therefore exploring this problem optimization of net profit and service penalties while performing live migrations of interdependent virtual machines. This live placement optimization problem of virtual machines is NP-hard and its calculation time grows exponentially with the size of virtual machine sets and their physical machines hosts; for this reason, we approximate our mathematical model with effective tabu search heuristic. We test our formulation and heuristic with virtual services which the overall net profit should be maximized, the penalty on SLAs should be minimized and live migrations should be effective. Our simulation results show that our heuristic: (i) finds better solutions than the existing configuration of machines used in Google traces; (ii) is adapted to large-sized virtual service sets with tens of thousands of virtual and physical machines; and (iii) performs better in terms of penalties and overall net profits when they are compared to those of the existing machines’ configuration of Google

    ModĂšles et algorithmes pour les enchĂšres combinatoires

    Get PDF
    ThÚse numérisée par la Direction des bibliothÚques de l'Université de Montréal

    Cooperative Data Backup for Mobile Devices

    Get PDF
    Les dispositifs informatiques mobiles tels que les ordinateurs portables, assistants personnels et tĂ©lĂ©phones portables sont de plus en plus utilisĂ©s. Cependant, bien qu'ils soient utilisĂ©s dans des contextes oĂč ils sont sujets Ă  des endommagements, Ă  la perte, voire au vol, peu de mĂ©canismes permettent d'Ă©viter la perte des donnĂ©es qui y sont stockĂ©es. Dans cette thĂšse, nous proposons un service de sauvegarde de donnĂ©es coopĂ©ratif pour rĂ©pondre Ă  ce problĂšme. Cette approche tire parti de communications spontanĂ©es entre de tels dispositifs, chaque dispositif stockant une partie des donnĂ©es des dispositifs rencontrĂ©s. Une Ă©tude analytique des gains de cette approche en termes de sĂ»retĂ© de fonctionnement est proposĂ©e. Nous Ă©tudions Ă©galement des mĂ©canismes de stockage rĂ©parti adaptĂ©s. Les problĂšmes de coopĂ©ration entre individus mutuellement suspicieux sont Ă©galement abordĂ©s. Enfin, nous dĂ©crivons notre mise en oeuvre du service de sauvegarde coopĂ©rative. ABSTRACT : Mobile devices such as laptops, PDAs and cell phones are increasingly relied on but are used in contexts that put them at risk of physical damage, loss or theft. However, few mechanisms are available to reduce the risk of losing the data stored on these devices. In this dissertation, we try to address this concern by designing a cooperative backup service for mobile devices. The service leverages encounters and spontaneous interactions among participating devices, such that each device stores data on behalf of other devices. We first provide an analytical evaluation of the dependability gains of the proposed service. Distributed storage mechanisms are explored and evaluated. Security concerns arising from thecooperation among mutually suspicious principals are identified, and core mechanisms are proposed to allow them to be addressed. Finally, we present our prototype implementation of the cooperative backup servic

    Vie privée en commerce électronique

    Full text link
    ThÚse numérisée par la Direction des bibliothÚques de l'Université de Montréal

    Gestion et visualisation de données hétérogÚnes multidimensionnelles : application PLM à la neuroimagerie

    Get PDF
    Neuroimaging domain is confronted with issues in analyzing and reusing the growing amount of heterogeneous data produced. Data provenance is complex – multi-subjects, multi-methods, multi-temporalities – and the data are only partially stored, restricting multimodal and longitudinal studies. Especially, functional brain connectivity is studied to understand how areas of the brain work together. Raw and derived imaging data must be properly managed according to several dimensions, such as acquisition time, time between two acquisitions or subjects and their characteristics. The objective of the thesis is to allow exploration of complex relationships between heterogeneous data, which is resolved in two parts : (1) how to manage data and provenance, (2) how to visualize structures of multidimensional data. The contribution follow a logical sequence of three propositions which are presented after a research survey in heterogeneous data management and graph visualization.The BMI-LM (Bio-Medical Imaging – Lifecycle Management) data model organizes the management of neuroimaging data according to the phases of a study and takes into account the scalability of research thanks to specific classes associated to generic objects. The application of this model into a PLM (Product Lifecycle Management) system shows that concepts developed twenty years ago for manufacturing industry can be reused to manage neuroimaging data. GMDs (Dynamic Multidimensional Graphs) are introduced to represent complex dynamic relationships of data, as well as JGEX (Json Graph EXchange) format that was created to store and exchange GMDs between software applications. OCL (Overview Constraint Layout) method allows interactive and visual exploration of GMDs. It is based on user’s mental map preservation and alternating of complete and reduced views of data. OCL method is applied to the study of functional brain connectivity at rest of 231 subjects that are represented by a GMD – the areas of the brain are the nodes and connectivity measures the edges – according to age, gender and laterality : GMDs are computed through processing workflow on MRI acquisitions into the PLM system. Results show two main benefits of using OCL method : (1) identification of global trends on one or many dimensions, and (2) highlights of local changes between GMD states.La neuroimagerie est confrontĂ©e Ă  des difficultĂ©s pour analyser et rĂ©utiliser la masse croissante de donnĂ©es hĂ©tĂ©rogĂšnes qu’elle produit. La provenance des donnĂ©es est complexe – multi-sujets, multi-analyses, multi-temporalitĂ©s – et ces donnĂ©es ne sont stockĂ©es que partiellement, limitant les possibilitĂ©s d’études multimodales et longitudinales. En particulier, la connectivitĂ© fonctionnelle cĂ©rĂ©brale est analysĂ©e pour comprendre comment les diffĂ©rentes zones du cerveau travaillent ensemble. Il est nĂ©cessaire de gĂ©rer les donnĂ©es acquises et traitĂ©es suivant plusieurs dimensions, telles que le temps d’acquisition, le temps entre les acquisitions ou encore les sujets et leurs caractĂ©ristiques. Cette thĂšse a pour objectif de permettre l’exploration de relations complexes entre donnĂ©es hĂ©tĂ©rogĂšnes, ce qui se dĂ©cline selon deux axes : (1) comment gĂ©rer les donnĂ©es et leur provenance, (2) comment visualiser les structures de donnĂ©es multidimensionnelles. L’apport de nos travaux s’articule autour de trois propositions qui sont prĂ©sentĂ©es Ă  l’issue d’un Ă©tat de l’art sur les domaines de la gestion de donnĂ©es hĂ©tĂ©rogĂšnes et de la visualisation de graphes.Le modĂšle de donnĂ©es BMI-LM (Bio-Medical Imaging – Lifecycle Management) structure la gestion des donnĂ©es de neuroimagerie en fonction des Ă©tapes d’une Ă©tude et prend en compte le caractĂšre Ă©volutif de la recherche grĂące Ă  l’association de classes spĂ©cifiques Ă  des objets gĂ©nĂ©riques. L’implĂ©mentation de ce modĂšle au sein d’un systĂšme PLM (Product Lifecycle Management) montre que les concepts dĂ©veloppĂ©s depuis vingt ans par l’industrie manufacturiĂšre peuvent ĂȘtre rĂ©utilisĂ©s pour la gestion des donnĂ©es en neuroimagerie. Les GMD (Graphes MultidimensionnelsDynamiques) sont introduits pour reprĂ©senter des relations complexes entre donnĂ©es qui Ă©voluent suivant plusieurs dimensions, et le format JGEX (Json Graph EXchange) a Ă©tĂ© crĂ©Ă© pour permettre le stockage et l’échange de GMD entre applications. La mĂ©thode OCL (Overview Constraint Layout) permet l’exploration visuelle et interactive de GMD. Elle repose sur la prĂ©servation partielle de la carte mentale de l’utilisateur et l’alternance de vues complĂštes et rĂ©duites des donnĂ©es. La mĂ©thode OCL est appliquĂ©e Ă  l’étude de la connectivitĂ© fonctionnelle cĂ©rĂ©brale au repos de 231 sujets reprĂ©sentĂ©es sous forme de GMD – les zones du cerveau sont reprĂ©sentĂ©es par les noeuds et les mesures de connectivitĂ© par les arĂȘtes – en fonction de l’ñge, du genre et de la latĂ©ralitĂ© : les GMD sont obtenus par l’application de chaĂźnes de traitement sur des acquisitions IRM dans le systĂšme PLM. Les rĂ©sultats montrent deux intĂ©rĂȘts principaux Ă  l’utilisation de la mĂ©thode OCL : (1) l’identification des tendances globales sur une ou plusieurs dimensions et (2) la mise en exergue des changements locaux entre Ă©tats du GMD

    Un modĂšle d'environnement pour la simulation multiniveau - Application Ă  la simulation de foules

    Get PDF
    Cette thĂšse propose un modĂšle organisationnel et holonique de l'environnement pour la simulation des dĂ©placements de piĂ©tons dans des bĂątiments. Une foule de piĂ©tons peut ĂȘtre considĂ©rĂ©e comme un systĂšme composĂ© d'un grand nombre d'entitĂ©s en interaction, dont la dynamique globale ne peut se rĂ©duire Ă  la somme des comportements de ses composants. La simulation multiniveau fondĂ©e sur les modĂšles multiagents holoniques constitue une approche permettant d'analyser la dynamique de tels systĂšmes. Elle autorise leur analyse en considĂ©rant plusieurs niveaux d'observation (microscopique, mĂ©soscopique et macroscopique) et prend en compte les ressources de calcul disponibles. Dans ces systĂšmes, l'environnement est considĂ©rĂ© comme l'une des parties essentielles. La dynamique des piĂ©tons composant la foule est alors clairement distinguĂ©e de celle de l'environnement dans lequel ils se dĂ©placent. Un modĂšle organisationnel dĂ©crivant la structure et la dynamique de l'environnement est proposĂ©. L'environnement est structurellement dĂ©composĂ© en zones, sous-zones, etc. Les organisations et les rĂŽles de cet environnement sont projetĂ©s dans une sociĂ©tĂ© d'agents ayant en charge de simuler la dynamique de l'environnement et les diffĂ©rentes missions qui lui sont classiquement assignĂ©es dans les systĂšmes multiagents. Ce modĂšle prĂ©cise Ă©galement les rĂšgles de passage entre deux niveaux d'observation. Ainsi, chaque agent appartenant au modĂšle de l'environnement tente d'utiliser une approximation des comportements de ses sous-zones afin de limiter la consommation de ressources durant la simulation. La qualitĂ© de l'approximation entre ces deux niveaux d'observation est Ă©valuĂ©e avec des indicateurs Ă©nergĂ©tiques. Ils permettent de dĂ©terminer si l'agent approxime correctement les comportements des agents associĂ©s aux sous-zones. En sus du modĂšle organisationnel et holonique proposĂ©, nous prĂ©sentons un modĂšle concret de la simulation de voyageurs dans un terminal d'aĂ©roport. Ce modĂšle concret est implantĂ© sur les plateformes JaSIM et Janus.This work presents a holonic organizational model of the environment for the simulation of pedestrians in buildings. A crowd of pedestrians is considered as a system composed of a large number of interacting entities. The global dynamics of this system cannot be reduced to the sum of the behaviors of its components, Multilevel simulation based on holonic multiagent models is one approach to analyze the dynamics of such systems. It allows their analysis by considering several levels of observation (microscopic, mesoscopic and macroscopic) and the available computing resources. In these systems, the environment is considered as an essential part. The behavior of the crowd is clearly distinguished from the behavior of the environment in which the pedestrians move. An organizational model is proposed to describe the structure and the dynamics of the indoor environment. This environment is structurally divided into areas, sub-areas, etc. Organizations and roles are mapped into a society of agents in charge of simulating the dynamics of the environment and their various missions in multiagent systems. This model also specifies the rules for changing the level of observation dynamically. Thus, each agent belonging to the model of the environment tries to use an approximation of behaviors of its sub-zones, and at the same time to minimize the resource consumption. The quality of the approximation between these two levels is evaluated with energy-based indicators. They help to determine if the agent approximates the behaviors of its sub-agents correctly. In addition to the organizational and holonic model proposed in this work, we present a concrete model of the simulation of passengers in an airport terminal. This concrete model is implemented on the platforms JaSIM and Janus.BELFORT-UTBM-SEVENANS (900942101) / SudocSudocFranceF
    corecore