40 research outputs found

    Du texte à la génération d'environnements virtuels 3D : application à la scénographie théùtrale

    Get PDF
    This thesis is part of a multidisciplinary project, the DRAMA project, which attempts to generate 3D virtual scenes from the descriptions which are obtained from theatrical text. This project aims to simplify, as soon as possible, the tasks of the end-users by providing simple, fast, and effective tools. Thus, the technique used in this study is focused on the declarative modeling of virtual environments that is based on three phases (description, generation and management of knowledge). The description phase allows the designer to describe the environment from a set of properties, interpreted as a set of constraints for a generation system which produces one or several virtual environments solutions. This project, new tagging methods have been proposed to detect essential for the creation of scene, including information on the placement of objects. In addition, users can also run queries in the text from these tags. Placement properties are translated into spatial constraints with the data originally stored in a knowledge base that uses XML. A technique adopting the method of metaheuristics is then used for solving constraints. The object physical properties (collision, gravity, friction) were also managed from a physics engine. At the end, the finals scenes solutions were be proposed to the user, using a 3D rendering engine.Cette thĂšse s'inscrit dans le cadre d'un projet pluridisciplinaire, le projet DRAMA, qui consiste Ă  gĂ©nĂ©rer des scĂšnes virtuelles 3D Ă  partir des descriptions contenues dans les textes thĂ©Ăątraux. L'un des objectifs de ce projet consiste Ă  simplifier au maximum la tĂąche des utilisateurs finaux en leur offrant un outil simple, rapide, et efficace. Ainsi, la technique adoptĂ©e dans cette Ă©tude est axĂ©e sur la modĂ©lisation dĂ©clarative d'environnements virtuels qui s'appuie sur trois phases (description, gĂ©nĂ©ration et prise de connaissances). La phase de description permet au concepteur de dĂ©crire l'environnement Ă  partir d'un ensemble de propriĂ©tĂ©s, interprĂ©tĂ©es en un ensemble de contraintes destinĂ©es Ă  un systĂšme de gĂ©nĂ©ration qui produit un ou plusieurs environnements virtuels solutions.Dans le cadre de ce projet DRAMA, des nouvelles mĂ©thodes de balisage ont Ă©tĂ© proposĂ©es afin de dĂ©tecter les Ă©lĂ©ments essentiels pour la crĂ©ation d'une piĂšce thĂ©Ăątrale, notamment les informations sur les placements d'objets. Par ailleurs, les utilisateurs peuvent, aussi, lancer des requĂȘtes au niveau du texte Ă  partir de ces balises. Les propriĂ©tĂ©s sur les placements seront traduites en contraintes spatiales grĂące aux donnĂ©es initialement stockĂ©es dans une base de connaissance qui utilise le langage XML. Une technique adoptant la mĂ©thode des mĂ©taheuristiques est ensuite utilisĂ©e pour la rĂ©solution des contraintes de placements obtenues prĂ©cĂ©demment. La gestion des propriĂ©tĂ©s physiques des objets (collision, gravitĂ©, friction) a Ă©tĂ© aussi gĂ©rĂ©e Ă  partir d'un moteur physique. À la fin, les scĂšnes solutions finales seront proposĂ©es Ă  l'utilisateur, en utilisant un moteur de rendu 3D

    Vérification automatique de la confidentialité différentielle

    Get PDF
    Ce rapport Ă©tudie la vĂ©rification quantitative de la confidentialitĂ© diffĂ©rentielle dans les systĂšmes distribuĂ©s. Tout d’abord, nous examinons l’applicabilitĂ© de la vĂ©rification des modĂšles probabilistes pour fournir des garanties sur le comportement des systĂšme diffĂ©rentiellement confidentiels. Ensuite, nous concevons des mĂ©thodes qui extraient automatiquement les modĂšles des systĂšmes Ă  partir d’une description de haut niveau, puis nous effectuons une vĂ©rification probabiliste de ces modĂšles. Nous dĂ©veloppons Ă  cette fin une nouvelle mĂ©thodologie de la vĂ©rification quantitative. Nous dĂ©crivons des mĂ©thodes formelles pour analyser un large Ă©ventail de propriĂ©tĂ©s de confidentialitĂ©, notamment la prĂ©cision et la perte de la confidentialitĂ©. Nous avons Ă©galement rĂ©exprimĂ© la notion de confidentialitĂ© diffĂ©rentielle pour raisonner sur deux exĂ©cutions de programmes similaires. À notre connaissance, il s’agit des analyses de confidentialitĂ© les plus genĂ©rales pour les systĂšmes distribuĂ©s. DeuxiĂšmement, nous fournissons des preuves de couplage basĂ©es sur les relations de levage approximatives pour prouver la confidentialitĂ© diffĂ©rentielle dans les chaĂźnes de Markov. Nous proposons Ă©galement des algorithmes de vĂ©rification symbolique de la confidentialitĂ©. L’avantage de notre approche est que ces algorithmes peuvent ĂȘtre facilement implĂ©mentĂ©s dans n’importe quel outil de vĂ©rification de modĂšles probabilistes. Enfin, nous dĂ©finissons une approche pour extraie des contre-exemples qui peuvent ĂȘtre utilisĂ©s pour fin de dĂ©bogage similaires en fournissant une exĂ©cution qui viole la confidentialitĂ©.----------ABSTRACT: This report studies the quantitative verification of differential privacy in distributed systems. First, we examine the applicability of probabilistic model checking to provide guarantees on the behavior of differentially private systems. Next, we design methods that automatically extract the models of the systems from a high-level description, then we perform a probabilistic verification of these models. To this end, we are developing a new methodology for quantitative verification. We describe formal methods for analyzing a wide range of privacy properties, including accuracy and privacy loss. We have also re-expressed the notion of differential privacy to reason about two executions of similar programs. To our knowledge, this is the most general privacy analysis for distributed systems. Second, we provide evidence of coupling based on approximate lifting relationships to prove differential privacy in Markov chains. We also offer symbolic algorithm for verification of confidentiality. The advantage of our approach is that these algorithms can be easily implemented in any probabilistic model checker tool. Finally, we define an approach for extracting counterexamples that can be used for similar debugging purposes by providing an execution that violates confidentiality

    AccÚs à l'information biomédicale : vers une approche d'indexation et de recherche d'information conceptuelle basée sur la fusion de ressources termino-ontologiques

    Get PDF
    La recherche d'information (RI) est une discipline scientifique qui a pour objectif de produire des solutions permettant de sĂ©lectionner Ă  partir de corpus d'information celle qui sont dites pertinentes pour un utilisateur ayant exprimĂ© une requĂȘte. Dans le contexte applicatif de la RI biomĂ©dicale, les corpus concernent diffĂ©rentes sources d'information du domaine : dossiers mĂ©dicaux de patients, guides de bonnes pratiques mĂ©dicales, littĂ©rature scientifique du domaine mĂ©dical etc. Les besoins en information peuvent concerner divers profils : des experts mĂ©dicaux, des patients et leurs familles, des utilisateurs nĂ©ophytes etc. Plusieurs dĂ©fis sont liĂ©s spĂ©cifiquement Ă  la RI biomĂ©dicale : la reprĂ©sentation "spĂ©cialisĂ©e" des documents, basĂ©s sur l'usage des ressources terminologiques du domaine, le traitement des synonymes, des acronymes et des abrĂ©viations largement pratiquĂ©e dans le domaine, l'accĂšs Ă  l'information guidĂ© par le contexte du besoin et des profils des utilisateurs. Nos travaux de thĂšse s'inscrivent dans le domaine gĂ©nĂ©ral de la RI biomĂ©dicale et traitent des dĂ©fis de reprĂ©sentation de l'information biomĂ©dicale et de son accĂšs. Sur le volet de la reprĂ©sentation de l'information, nous proposons des techniques d'indexation de documents basĂ©es sur : 1) la reconnaissance de concepts termino-ontologiques : cette reconnaissance s'apparente Ă  une recherche approximative de concepts pertinents associĂ©s Ă  un contenu, vu comme un sac de mots. La technique associĂ©e exploite Ă  la fois la similitude structurelle des contenus informationnels des concepts vis-Ă -vis des documents mais Ă©galement la similitude du sujet portĂ© par le document et le concept, 2) la dĂ©sambiguĂŻsation des entrĂ©es de concepts reconnus en exploitant la branche liĂ©e au sous-domaine principal de la ressource termino-ontologique, 3) l'exploitation de diffĂ©rentes ressources termino-ontologiques dans le but de couvrir au mieux la sĂ©mantique du contenu documentaire. Sur le volet de l'accĂšs Ă  l'information, nous proposons des techniques d'appariement basĂ©es sur l'expansion combinĂ©e de requĂȘtes et des documents guidĂ©es par le contexte du besoin en information d'une part et des contenus documentaires d'autre part. Notre analyse porte essentiellement sur l'Ă©tude de l'impact des diffĂ©rents paramĂštres d'expansion sur l'efficacitĂ© de la recherche : distribution des concepts dans les ressources ontologiques, modĂšle de fusion des concepts, modĂšle de pondĂ©ration des concepts, etc. L'ensemble de nos contributions, en termes de techniques d'indexation et d'accĂšs Ă  l'information ont fait l'objet d'Ă©valuation expĂ©rimentale sur des collections de test dĂ©diĂ©es Ă  la recherche d'information mĂ©dicale, soit du point de vue de la tĂąche telles que TREC Medical track, CLEF Image, Medical case ou des collections de test telles que TREC Genomics.Information Retrieval (IR) is a scientific field aiming at providing solutions to select relevant information from a corpus of documents in order to answer the user information need. In the context of biomedical IR, there are different sources of information: patient records, guidelines, scientific literature, etc. In addition, the information needs may concern different profiles : medical experts, patients and their families, and other users ... Many challenges are specifically related to the biomedical IR : the document representation, the usage of terminologies with synonyms, acronyms, abbreviations as well as the access to the information guided by the context of information need and the user profiles. Our work is most related to the biomedical IR and deals with the challenges of the representation of biomedical information and the access to this rich source of information in the biomedical domain.Concerning the representation of biomedical information, we propose techniques and approaches to indexing documents based on: 1) recognizing and extracting concepts from terminologies : the method of concept extraction is basically based on an approximate lookup of candidate concepts that could be useful to index the document. This technique expoits two sources of evidence : (a) the content-based similarity between concepts and documents and (b) the semantic similarity between them. 2) disambiguating entry terms denoting concepts by exploiting the polyhierarchical structure of a medical thesaurus (MeSH - Medical Subject Headings). More specifically, the domains of each concept are exploited to compute the semantic similarity between ambiguous terms in documents. The most appropriate domain is detected and associated to each term denoting a particular concept. 3) exploiting different termino-ontological resources in an attempt to better cover the semantics of document contents. Concerning the information access, we propose a document-query matching method based on the combination of document and query expansion techniques. Such a combination is guided by the context of information need on one hand and the semantic context in the document on the other hand. Our analysis is essentially based on the study of factors related to document and query expansion that could have an impact on the IR performance: distribution of concepts in termino-ontological resources, fusion techniques for concept extraction issued from multiple terminologies, concept weighting models, etc

    Méthodes pour la vérification des protocoles cryptographiques dans le modÚle calculatoire

    Get PDF
    Critical and private information are exchanged on public environment. To protect it from dishonest users, we use cryptographic tools. Unfortunately, bad conception, poorly written security properties and required security hypothesis lead to attacks, and it may take years before one discover the attack and fix the security schemes involved. In this context, provable security provides formal definitions for security objectives and implied mathematical proofs that these objectives are fullfilled. On another hand, complexity and variety of cryptographic systems are increasing, and proofs by hand are too complicated to write and to verify (Bellare& Rogaway 2004, Shoup 2004, Halevi 2005). Thus, we need computer-assisted verification methods for cryptographic systems. The aim of this thesis is to progress in this direction. More precisely we want significant progress over formal proofs on cryptographic protocols. To verify cryptographic protocols we need to develop a theoritical framework providing: - a precise modelisation for cryptographic protocols and security properties we want to prove in the computationnal model, - designing tactics to automate proofs, - taking into account realistic models for adversary (side-channels...). By the end of the thesis we have enhanced a theoretical framework and computing tools helping verifying cryptographic protocols.Les Ă©changes des informations confidentielles ou critiques dans un environnement public, et donc potentiellement hostile, nĂ©cessitent l'emploi de techniques cryptographiques (protocoles et primitives). Malheureusement, l'expĂ©rience montre qu'une mauvaise conception, ou une expression peu claire des propriĂ©tĂ©s et hypothĂšses de sĂ©curitĂ© attendues conduisent Ă  des attaques, et qu'il faut parfois des annĂ©es avant que celles-ci soient dĂ©couvertes et corrigĂ©es. D'oĂč l'adoption croissante de la sĂ©curitĂ© prouvable, oĂč on donne une dĂ©finition rigoureuse des objectifs de sĂ©curitĂ© et des dĂ©monstrations mathĂ©matiques que ceux-ci sont remplis. Par ailleurs, la complexitĂ© et la diversitĂ© des systĂšmes cryptographiques croĂźt Ă©galement. Il est donc largement admis qu'il n'est plus viable d'Ă©crire ou vĂ©rifier manuellement des dĂ©monstrations cryptographiques (Bellare& Rogaway 2004, Shoup 2004, Halevi 2005) et qu'il faut dĂ©velopper des mĂ©thodes de vĂ©rification des systĂšmes cryptographiques assistĂ©es par ordinateur. L'objectif de cette thĂšse est d'effectuer des progrĂšs significatifs dans cette direction. Plus prĂ©cisement on s'interesse Ă  la preuve formelle de protocoles cryptographiques. VĂ©rifier des protocoles cryptographiques requiert le dĂ©veloppement d'un cadre thĂ©orique qui doit permettre: - une modĂ©lisation prĂ©cise des protocoles cryptographiques et des propriĂ©tĂ©s de sĂ©curitĂ© qu'on veut prouver dans le modĂšle calculatoire. - mise en place de stratĂ©gies d'automatisation de preuves. - prise en compte des modĂšles plus rĂ©alistes pour l'adversaire (canaux cachĂ©s, ressources de calcul). A la fin de la thĂšse on a obtenu un cadre formel et un ensemble de mĂ©thodes logicielles capable d'aider Ă  la vĂ©rification des protocoles cryptographiques

    JFPC 2019 - Actes des 15es Journées Francophones de Programmation par Contraintes

    Get PDF
    National audienceLes JFPC (JournĂ©es Francophones de Programmation par Contraintes) sont le principal congrĂšs de la communautĂ© francophone travaillant sur les problĂšmes de satisfaction de contraintes (CSP), le problĂšme de la satisfiabilitĂ© d'une formule logique propositionnelle (SAT) et/ou la programmation logique avec contraintes (CLP). La communautĂ© de programmation par contraintes entretient Ă©galement des liens avec la recherche opĂ©rationnelle (RO), l'analyse par intervalles et diffĂ©rents domaines de l'intelligence artificielle.L'efficacitĂ© des mĂ©thodes de rĂ©solution et l'extension des modĂšles permettent Ă  la programmation par contraintes de s'attaquer Ă  des applications nombreuses et variĂ©es comme la logistique, l'ordonnancement de tĂąches, la conception d'emplois du temps, la conception en robotique, l'Ă©tude du gĂ©nĂŽme en bio-informatique, l'optimisation de pratiques agricoles, etc.Les JFPC se veulent un lieu convivial de rencontres, de discussions et d'Ă©changes pour la communautĂ© francophone, en particulier entre doctorants, chercheurs confirmĂ©s et industriels. L'importance des JFPC est reflĂ©tĂ©e par la part considĂ©rable (environ un tiers) de la communautĂ© francophone dans la recherche mondiale dans ce domaine.PatronnĂ©es par l'AFPC (Association Française pour la Programmation par Contraintes), les JFPC 2019 ont lieu du 12 au 14 Juin 2019 Ă  l'IMT Mines Albi et sont organisĂ©es par Xavier Lorca (prĂ©sident du comitĂ© scientifique) et par Élise Vareilles (prĂ©sidente du comitĂ© d'organisation)

    Intégration de la modélisation comportementale dans la conception par points de vue

    Get PDF
    View-based modeling is the main subject of this thesis. It is a variant of the object oriented modeling approach for the analysis and design of complex systems, focusing on the actors that use the system and decomposing the specification according to their needs. With this prospect, our team developed a UML profile named VUML (View based UML), which allows the elaboration of a unique and sharable model accessible according to the view of each of the system's actors. However the achieved work on the VUML profile does not tackle the behavior aspects of the modeling process. The VUML approach address the structural aspects related to the composition of views and to the sharing of data without dealing with the way these views will react, or how to be able to synchronize them in order to obtain the behavior of multiple-view objects (instances of a multi-view class). The achieved work in this thesis aims to fill this gap by providing new mechanism to the VUML profile that allows expressing the behavioral needs of a system. We will focus on describing the individual behavior of multi-view objects by state-machines that require adjustments of UML modeling concepts. To achieve this objective we introduced the concept of event probes, which allow to specify implicit communication between the view-objects via event observation. This allows decoupling the view specifications that are a priori strongly interconnected, and therefore allows them to be designed separately, in agreement with the VUML method recommendations, and then to be integrated without the need of making modifications. We first define the concept of event monitoring and identified the different types of probes and the appropriate parameters that characterize them. We also define a set of concepts that can extend and manipulate probes. Then we propose a UML-compatible representation of the introduced concepts in form of a profile named VxUML (extension of VUML). In addition to defining the profile elements (stereotypes, tagged value, predefined library classes), we have developed rules for proper formation of the static semantics using OCL to reduce ambiguity in the specification of such concepts. Afterwards, to demonstrate the usefulness of the concepts introduced, we developed a case study through which we sought to provide a full view-based model, addressing both structural and behavioral aspects. At the end, to concretely validate our approach in a model driven engineering setting, we developed a code generator that takes as input a specification developed in VxUML profile. This generator uses the techniques of model transformation related to the code generation, including transformation of platform independent models (PIM) to platform specific models (PSM), and transformation of PSMs to code; the current target language is Java. Finally, another contribution of this thesis is a process associated with VxUML. It is an approach that complements the approach associated with VUML (which deal only with structural aspects) to be able to use in methodical manner the new mechanisms dedicated to behavioral treatment. Now, the VxUML development process offers a complete view based modeling, that is, dealing with both structural and behavioral aspects. Keywords: View based modeling, VUML profile, VxUML profile, event observation, multi-view states machine, behavior composition.La modĂ©lisation par points de vue constitue la thĂ©matique gĂ©nĂ©rale de notre travail de thĂšse. C'est une approche de modĂ©lisation orientĂ©e objet, visant l'analyse et la conception des systĂšmes complexes avec une dĂ©marche centrĂ©e autour des acteurs interagissant avec le systĂšme. Notre Ă©quipe a ainsi dĂ©veloppĂ© un profil UML appelĂ© VUML (View based UML), qui permet l'Ă©laboration d'un modĂšle unique partageable Ă  partir de vues associĂ©es aux points de vue des acteurs. Cependant, les travaux rĂ©alisĂ©s sur le profil VUML [Nassar, 05 ; Anwar, 09] ne couvrent pas les aspects comportementaux de la modĂ©lisation. En effet, – en proposant la notion de classe multivue – VUML traite les aspects structuraux liĂ©s Ă  la composition des vues et au partage des donnĂ©es statiques sans prendre en compte la maniĂšre dont ces vues vont rĂ©agir, ni comment les synchroniser afin de reprĂ©senter le comportement des objets multivue (instances d'une classe multivue). Les travaux effectuĂ©s dans le cadre de cette thĂšse cherchent Ă  combler ce manque en dotant le profil VUML de nouveaux mĂ©canismes permettant d'exprimer le comportement d'un systĂšme. Nous nous sommes concentrĂ©s pour cela sur le comportement des objets multivue dĂ©crit par des machines Ă  Ă©tats qui nĂ©cessitent des adaptations des concepts de modĂ©lisation UML. Pour rĂ©aliser cet objectif nous avons introduit la notion de sonde d'Ă©vĂ©nements, qui permet de spĂ©cifier des communications implicites entre les vues par observation d'Ă©vĂ©nements. Ceci permet de dĂ©coupler des spĂ©cifications qui sont a priori fortement interconnectĂ©es, de les concevoir sĂ©parĂ©ment par points de vue, selon les prĂ©conisations de la mĂ©thode VUML, puis de les intĂ©grer sans avoir Ă  les modifier. Nous avons tout d'abord dĂ©fini le concept de sonde d'Ă©vĂ©nements, identifiĂ© les diffĂ©rents types de sondes avec les paramĂštres associĂ©s, puis dĂ©fini un ensemble de concepts permettant d'enrichir et de manipuler les sondes. Nous avons ensuite proposĂ© une reprĂ©sentation compatible avec VUML des concepts introduits sous forme d'un profil nommĂ© VxUML (extension de VUML). En plus de la dĂ©finition des Ă©lĂ©ments du profil (stĂ©rĂ©otypes, valeurs marquĂ©es, classes de librairie prĂ©dĂ©finies), nous avons dĂ©veloppĂ© en OCL des rĂšgles de bonne formation (sĂ©mantique statique). Pour illustrer l'intĂ©rĂȘt des concepts introduits, nous avons dĂ©veloppĂ© une Ă©tude de cas en proposant une modĂ©lisation par points de vue complĂšte traitant Ă  la fois les aspects structurel et comportemental. Pour valider concrĂštement notre approche, nous avons dĂ©veloppĂ©, selon une approche IDM, un gĂ©nĂ©rateur de code qui prend en entrĂ©e une spĂ©cification de systĂšme en VxUML. Ce gĂ©nĂ©rateur utilise les techniques de transformation de modĂšles liĂ©es Ă  la gĂ©nĂ©ration de code, et notamment les transformations de modĂšles indĂ©pendants de plate-forme (PIM) vers des modĂšles spĂ©cifiques Ă  une plate-forme (PSM), et des modĂšles PSM vers le code ; il a Ă©tĂ© dĂ©veloppĂ© dans un premier temps avec le langage cible Java. Sur le plan mĂ©thodologique, nous avons dĂ©fini une dĂ©marche associĂ©e Ă  VxUML, qui complĂšte celle de VUML, en permettant d'utiliser d'une maniĂšre mĂ©thodique les mĂ©canismes dĂ©diĂ©s au traitement du comportement. DĂ©sormais, le processus de dĂ©veloppement VxUML permet une modĂ©lisation par points de vue complĂšte, traitant Ă  la fois les aspects structurel et comportemental. Mots clĂ©s : Conception par points de vue, profil VUML, profil VxUML, sonde d'Ă©vĂ©nements, machine Ă  Ă©tats multivue, composition du comportement

    Mise en correspondance et gestion de la cohérence de modÚles hétérogÚnes évolutifs

    Get PDF
    To understand and manipulate a complex system, it is necessary to apply the separation of concerns and produce separate parts. In Model Driven Engineering (MDE), these parts are represented by models qualified as partial models. In this context of multi-modeling, these models are called heterogeneous when they are described in separate modeling languages dedicated to different business domains: DSML (Domain Specific Modeling Language). Global model creation requires identifying existing correspondences between the elements of the partial models. However, in practice these correspondences are either incompletely identified or not sufficiently formalized to be maintained when the partial models evolve. This restricts their use and does not allow to fully exploit them for building the global model or for treating partial models evolution. The contribution of this thesis is twofold. The first contribution deals with a process for creating a global view of the system by means of a composition based on partial models matching. Identified correspondences between models elements are based on types of relationship instantiated from a metamodel of correspondences. This latter is extensible, depending on the considered application domain, and allows supporting the concepts related to this domain. Correspondences are firstly identified between meta-elements belonging to metamodels of the respective partial models. Correspondences between model elements are then obtained by a refinement mechanism, supported by an ad hoc Semantic Expression language: SED (Semantic Expression DSL). The composition is called “virtual” since elements represented in a correspondence are only references to elements belonging to partial models. Therefore, models interconnected by this correspondences form a virtual global model. The second contribution relates the consistency of the global model. Indeed, as models evolve over time, changing one or several elements involved in a correspondence, may cause the inconsistency of the global model. To maintain its consistency, we propose a second process enabling to automatically identify the changes, classify them and treat their impacts on the involved model elements. Management of repercussions is performed semi-automatically by the expert by means of strategies and weights. This work has been implemented through a support tool named HMCS (Heterogeneous Matching and Consistency management Suite) based on the Eclipse Platform. The approach has been validated and illustrated through a case study related to the management of a Hospital Emergency Service. This work was led in collaboration with the “CHU of Montpellier”.Pour permettre la comprĂ©hension et la manipulation d’un systĂšme complexe, le dĂ©coupage en parties sĂ©parĂ©es est nĂ©cessaire. En IngĂ©nierie DirigĂ©e par les ModĂšles (ou Model Driven Engineering), ces parties sont reprĂ©sentĂ©es par des modĂšles, que nous qualifions de modĂšles partiels, dans la mesure oĂč ils sont focalisĂ©s sur des domaines mĂ©tiers distincts. Dans ce contexte de multi-modĂ©lisation, ces modĂšles sont dits hĂ©tĂ©rogĂšnes quand ils sont dĂ©crits dans des langages de modĂ©lisation distincts dĂ©diĂ©s Ă  diffĂ©rents domaines mĂ©tiers : DSML (Domain Specific Modeling language). La comprĂ©hension et l’exploitation efficace des connaissances relatives Ă  un tel systĂšme supposent la construction d’un modĂšle global reprĂ©sentant son fonctionnement. La crĂ©ation du modĂšle global requiert l’identification des correspondances existant entre les Ă©lĂ©ments des diffĂ©rents modĂšles partiels. Dans la pratique, ces correspondances sont soit incomplĂštement identifiĂ©es, soit insuffisamment formalisĂ©es pour ĂȘtre maintenues lorsque les modĂšles partiels Ă©voluent. Ceci limite leur utilisation et ne permet pas de les exploiter pleinement lors de la construction du modĂšle global ou du traitement de l’évolution des modĂšles partiels. L’apport de cette thĂšse est double. La premiĂšre contribution est celle d’un processus permettant la crĂ©ation d’une vue globale du systĂšme par l’intermĂ©diaire d’une composition fondĂ©e sur la mise en correspondance des modĂšles partiels. Les correspondances identifiĂ©es entres les Ă©lĂ©ments des modĂšles se basent sur des types de relations instanciĂ©es Ă  partir d’un mĂ©tamodĂšle de correspondance. Ce dernier est extensible (selon les spĂ©cificitĂ©s du domaine d’application considĂ©rĂ©) et permet de supporter les concepts relatifs Ă  ce domaine. Les correspondances sont d’abord identifiĂ©es entre les mĂ©ta-Ă©lĂ©ments des mĂ©tamodĂšles respectifs des modĂšles partiels. Les correspondances entre les Ă©lĂ©ments de modĂšles sont ensuite obtenues par un mĂ©canisme de raffinement, supportĂ© par un langage d’expression sĂ©mantique ad hoc : SED (Semantic Expression DSL). La composition est dite « virtuelle » dans la mesure oĂč les Ă©lĂ©ments figurant dans une correspondance ne sont que des rĂ©fĂ©rences aux Ă©lĂ©ments appartenant aux modĂšles partiels. De ce fait, les modĂšles interconnectĂ©s par ces correspondances forment un modĂšle global virtuel. La seconde contribution est relative au maintien de la cohĂ©rence des modĂšles partiels et du modĂšle global. En effet, les modĂšles Ă©voluant dans le temps, le changement d’un Ă©lĂ©ment ou de plusieurs Ă©lĂ©ments participant Ă  l’expression des correspondances, peut entrainer l’incohĂ©rence du modĂšle global. Pour maintenir la cohĂ©rence du modĂšle global, nous proposons un second processus permettant tout d’abord d’identifier automatiquement les changements rĂ©alisĂ©s ainsi que leurs classifications et leurs rĂ©percussions sur les Ă©lĂ©ments de modĂšles concernĂ©s. Par la suite, les diffĂ©rents cycles sont gĂ©rĂ©s Ă  l’aide de l’expert puis une liste de changements est gĂ©nĂ©rĂ©e en fonction de la stratĂ©gie choisie et des coefficients de pondĂ©ration. Enfin, le traitement des changements est rĂ©alisĂ© de façon semi-automatique. Ce travail a Ă©tĂ© concrĂ©tisĂ© par le dĂ©veloppement d’un outil support nommĂ© HMCS (Heterogeneous Matching and Consistency management Suite), basĂ© sur la plateforme Eclipse. L’approche a Ă©tĂ© validĂ©e et illustrĂ©e Ă  travers un cas d’étude portant sur la gestion du Service d'Urgence d'un hĂŽpital. Ce travail a Ă©tĂ© menĂ© en collaboration avec le CHU de Montpellier
    corecore