11 research outputs found

    Intégration de la modélisation comportementale dans la conception par points de vue

    Get PDF
    View-based modeling is the main subject of this thesis. It is a variant of the object oriented modeling approach for the analysis and design of complex systems, focusing on the actors that use the system and decomposing the specification according to their needs. With this prospect, our team developed a UML profile named VUML (View based UML), which allows the elaboration of a unique and sharable model accessible according to the view of each of the system's actors. However the achieved work on the VUML profile does not tackle the behavior aspects of the modeling process. The VUML approach address the structural aspects related to the composition of views and to the sharing of data without dealing with the way these views will react, or how to be able to synchronize them in order to obtain the behavior of multiple-view objects (instances of a multi-view class). The achieved work in this thesis aims to fill this gap by providing new mechanism to the VUML profile that allows expressing the behavioral needs of a system. We will focus on describing the individual behavior of multi-view objects by state-machines that require adjustments of UML modeling concepts. To achieve this objective we introduced the concept of event probes, which allow to specify implicit communication between the view-objects via event observation. This allows decoupling the view specifications that are a priori strongly interconnected, and therefore allows them to be designed separately, in agreement with the VUML method recommendations, and then to be integrated without the need of making modifications. We first define the concept of event monitoring and identified the different types of probes and the appropriate parameters that characterize them. We also define a set of concepts that can extend and manipulate probes. Then we propose a UML-compatible representation of the introduced concepts in form of a profile named VxUML (extension of VUML). In addition to defining the profile elements (stereotypes, tagged value, predefined library classes), we have developed rules for proper formation of the static semantics using OCL to reduce ambiguity in the specification of such concepts. Afterwards, to demonstrate the usefulness of the concepts introduced, we developed a case study through which we sought to provide a full view-based model, addressing both structural and behavioral aspects. At the end, to concretely validate our approach in a model driven engineering setting, we developed a code generator that takes as input a specification developed in VxUML profile. This generator uses the techniques of model transformation related to the code generation, including transformation of platform independent models (PIM) to platform specific models (PSM), and transformation of PSMs to code; the current target language is Java. Finally, another contribution of this thesis is a process associated with VxUML. It is an approach that complements the approach associated with VUML (which deal only with structural aspects) to be able to use in methodical manner the new mechanisms dedicated to behavioral treatment. Now, the VxUML development process offers a complete view based modeling, that is, dealing with both structural and behavioral aspects. Keywords: View based modeling, VUML profile, VxUML profile, event observation, multi-view states machine, behavior composition.La modélisation par points de vue constitue la thématique générale de notre travail de thèse. C'est une approche de modélisation orientée objet, visant l'analyse et la conception des systèmes complexes avec une démarche centrée autour des acteurs interagissant avec le système. Notre équipe a ainsi développé un profil UML appelé VUML (View based UML), qui permet l'élaboration d'un modèle unique partageable à partir de vues associées aux points de vue des acteurs. Cependant, les travaux réalisés sur le profil VUML [Nassar, 05 ; Anwar, 09] ne couvrent pas les aspects comportementaux de la modélisation. En effet, – en proposant la notion de classe multivue – VUML traite les aspects structuraux liés à la composition des vues et au partage des données statiques sans prendre en compte la manière dont ces vues vont réagir, ni comment les synchroniser afin de représenter le comportement des objets multivue (instances d'une classe multivue). Les travaux effectués dans le cadre de cette thèse cherchent à combler ce manque en dotant le profil VUML de nouveaux mécanismes permettant d'exprimer le comportement d'un système. Nous nous sommes concentrés pour cela sur le comportement des objets multivue décrit par des machines à états qui nécessitent des adaptations des concepts de modélisation UML. Pour réaliser cet objectif nous avons introduit la notion de sonde d'événements, qui permet de spécifier des communications implicites entre les vues par observation d'événements. Ceci permet de découpler des spécifications qui sont a priori fortement interconnectées, de les concevoir séparément par points de vue, selon les préconisations de la méthode VUML, puis de les intégrer sans avoir à les modifier. Nous avons tout d'abord défini le concept de sonde d'événements, identifié les différents types de sondes avec les paramètres associés, puis défini un ensemble de concepts permettant d'enrichir et de manipuler les sondes. Nous avons ensuite proposé une représentation compatible avec VUML des concepts introduits sous forme d'un profil nommé VxUML (extension de VUML). En plus de la définition des éléments du profil (stéréotypes, valeurs marquées, classes de librairie prédéfinies), nous avons développé en OCL des règles de bonne formation (sémantique statique). Pour illustrer l'intérêt des concepts introduits, nous avons développé une étude de cas en proposant une modélisation par points de vue complète traitant à la fois les aspects structurel et comportemental. Pour valider concrètement notre approche, nous avons développé, selon une approche IDM, un générateur de code qui prend en entrée une spécification de système en VxUML. Ce générateur utilise les techniques de transformation de modèles liées à la génération de code, et notamment les transformations de modèles indépendants de plate-forme (PIM) vers des modèles spécifiques à une plate-forme (PSM), et des modèles PSM vers le code ; il a été développé dans un premier temps avec le langage cible Java. Sur le plan méthodologique, nous avons défini une démarche associée à VxUML, qui complète celle de VUML, en permettant d'utiliser d'une manière méthodique les mécanismes dédiés au traitement du comportement. Désormais, le processus de développement VxUML permet une modélisation par points de vue complète, traitant à la fois les aspects structurel et comportemental. Mots clés : Conception par points de vue, profil VUML, profil VxUML, sonde d'événements, machine à états multivue, composition du comportement

    Défis pour la variabilité et la traçabilité des exigences en ingénierie système

    Get PDF
    National audienceMajor industrial projects are facing an important size of their requirements documents, often based on an implicit normative or legislative context. Managed through a document-centric approach, they are facing two challenges: variability and traceability of their requirements at both design time and runtime. In the paper, we identify vectors of variability and propose model-driven engineering as a solution to tame this normative context and address variability and traceability concerns in an industrial context with safety concerns.Les grands projets industriels font face à une volumétrie importante des exigences, souvent contraintes par un cadre réglementaire ou législatif important mais implicite. Ces projets sont menés via des approches centrées documents et connaissent une variabilité importante de leurs exigences tant à la conception que pendant l'exploitation. Après avoir identifié un certain nombre de facteurs de variabilité, nous nous positionnons pour une approche dirigée par les modèles pour expliciter ce contexte réglementaire et adresser la variabilité et la traçabilité des exigences dans un contexte industriel et sûreté de fonctionnement

    Mise en correspondance et gestion de la cohérence de modèles hétérogènes évolutifs

    Get PDF
    To understand and manipulate a complex system, it is necessary to apply the separation of concerns and produce separate parts. In Model Driven Engineering (MDE), these parts are represented by models qualified as partial models. In this context of multi-modeling, these models are called heterogeneous when they are described in separate modeling languages dedicated to different business domains: DSML (Domain Specific Modeling Language). Global model creation requires identifying existing correspondences between the elements of the partial models. However, in practice these correspondences are either incompletely identified or not sufficiently formalized to be maintained when the partial models evolve. This restricts their use and does not allow to fully exploit them for building the global model or for treating partial models evolution. The contribution of this thesis is twofold. The first contribution deals with a process for creating a global view of the system by means of a composition based on partial models matching. Identified correspondences between models elements are based on types of relationship instantiated from a metamodel of correspondences. This latter is extensible, depending on the considered application domain, and allows supporting the concepts related to this domain. Correspondences are firstly identified between meta-elements belonging to metamodels of the respective partial models. Correspondences between model elements are then obtained by a refinement mechanism, supported by an ad hoc Semantic Expression language: SED (Semantic Expression DSL). The composition is called “virtual” since elements represented in a correspondence are only references to elements belonging to partial models. Therefore, models interconnected by this correspondences form a virtual global model. The second contribution relates the consistency of the global model. Indeed, as models evolve over time, changing one or several elements involved in a correspondence, may cause the inconsistency of the global model. To maintain its consistency, we propose a second process enabling to automatically identify the changes, classify them and treat their impacts on the involved model elements. Management of repercussions is performed semi-automatically by the expert by means of strategies and weights. This work has been implemented through a support tool named HMCS (Heterogeneous Matching and Consistency management Suite) based on the Eclipse Platform. The approach has been validated and illustrated through a case study related to the management of a Hospital Emergency Service. This work was led in collaboration with the “CHU of Montpellier”.Pour permettre la compréhension et la manipulation d’un système complexe, le découpage en parties séparées est nécessaire. En Ingénierie Dirigée par les Modèles (ou Model Driven Engineering), ces parties sont représentées par des modèles, que nous qualifions de modèles partiels, dans la mesure où ils sont focalisés sur des domaines métiers distincts. Dans ce contexte de multi-modélisation, ces modèles sont dits hétérogènes quand ils sont décrits dans des langages de modélisation distincts dédiés à différents domaines métiers : DSML (Domain Specific Modeling language). La compréhension et l’exploitation efficace des connaissances relatives à un tel système supposent la construction d’un modèle global représentant son fonctionnement. La création du modèle global requiert l’identification des correspondances existant entre les éléments des différents modèles partiels. Dans la pratique, ces correspondances sont soit incomplètement identifiées, soit insuffisamment formalisées pour être maintenues lorsque les modèles partiels évoluent. Ceci limite leur utilisation et ne permet pas de les exploiter pleinement lors de la construction du modèle global ou du traitement de l’évolution des modèles partiels. L’apport de cette thèse est double. La première contribution est celle d’un processus permettant la création d’une vue globale du système par l’intermédiaire d’une composition fondée sur la mise en correspondance des modèles partiels. Les correspondances identifiées entres les éléments des modèles se basent sur des types de relations instanciées à partir d’un métamodèle de correspondance. Ce dernier est extensible (selon les spécificités du domaine d’application considéré) et permet de supporter les concepts relatifs à ce domaine. Les correspondances sont d’abord identifiées entre les méta-éléments des métamodèles respectifs des modèles partiels. Les correspondances entre les éléments de modèles sont ensuite obtenues par un mécanisme de raffinement, supporté par un langage d’expression sémantique ad hoc : SED (Semantic Expression DSL). La composition est dite « virtuelle » dans la mesure où les éléments figurant dans une correspondance ne sont que des références aux éléments appartenant aux modèles partiels. De ce fait, les modèles interconnectés par ces correspondances forment un modèle global virtuel. La seconde contribution est relative au maintien de la cohérence des modèles partiels et du modèle global. En effet, les modèles évoluant dans le temps, le changement d’un élément ou de plusieurs éléments participant à l’expression des correspondances, peut entrainer l’incohérence du modèle global. Pour maintenir la cohérence du modèle global, nous proposons un second processus permettant tout d’abord d’identifier automatiquement les changements réalisés ainsi que leurs classifications et leurs répercussions sur les éléments de modèles concernés. Par la suite, les différents cycles sont gérés à l’aide de l’expert puis une liste de changements est générée en fonction de la stratégie choisie et des coefficients de pondération. Enfin, le traitement des changements est réalisé de façon semi-automatique. Ce travail a été concrétisé par le développement d’un outil support nommé HMCS (Heterogeneous Matching and Consistency management Suite), basé sur la plateforme Eclipse. L’approche a été validée et illustrée à travers un cas d’étude portant sur la gestion du Service d'Urgence d'un hôpital. Ce travail a été mené en collaboration avec le CHU de Montpellier

    MODÉLISATION DE PROCÉDÉS LOGICIELS À BASE DE PATRONS RÉUTILISABLES

    Get PDF
    This thesis investigates the reuse of software processes by an approach based on process patterns. The objective of our work is to make process patterns directly applicable in process modeling. The concept of process pattern is used to capture and reuse the proven solutions for recurring process problems. However, this attractive concept has still been poorly exploited due to the inadequate formalization and the lack of supporting methodology and tools. To promote the use of process patterns and reduce the modelling effort, we broaden the concept of process pattern for capturing various types of process knowledge at different abstract levels, and propose ways to reuse (semi-)automatically process patterns in process modelling. We define the process meta-model UML-PP to formalize the process pattern concept and the ways to apply patterns in process models. UML-PP allows describing the internal structure of a process pattern as well as the relations between process patterns, and enables the explicit representation of process patterns' applications in process models. We propose the meta-process PATPRO defining the modelling steps to elaborate a process model in UML-PP by reusing process patterns. To allow automated applications of process patterns, we define an operational semantics for the patterns reuse operators who carry out some tasks of the meta-process. We have developed the prototype PATPRO-MOD allowing to create and manage process patterns catalogues, and to elaborate process models in UML-PP by reusing (semi-)automatically process patterns.Cette thèse est consacrée à la réutilisation de procédés par une approche à base de patrons de procédé. Le concept de patron de procédé a été introduit pour capitaliser et réutiliser des solutions éprouvées des problèmes de procédés récurrents. Cependant cette approche est encore peu exploitée à cause du champ de définition limité, du manque de formalisation, de méthodologie et d'outils support. Pour promouvoir l'utilisation de patrons de procédé et réduire l'effort de modélisation, nous considérons le concept de patron de procédé à différents niveaux d'abstraction pour capturer divers types de connaissances sur les procédés, et proposons des moyens pour réutiliser de façon (semi-)automatique ces patrons dans la modélisation des procédés. Nous avons défini le méta-modèle de procédé UML-PP pour formaliser le concept de patron de procédé et la manière d'appliquer les patrons dans la modélisation de procédés. UML-PP permet de décrire la structure interne d'un patron de procédé ainsi que les relations entre patrons, et permet d'exprimer explicitement l'utilisation de patrons dans les modèles de procédé. Nous proposons le méta-procédé PATPRO définissant une démarche de modélisation pour élaborer un modèle de procédé UML-PP en réutilisant des patrons de procédé. Pour permettre une automatisation de l'application de patrons de procédé, nous définissons une sémantique opérationnelle des opérateurs de réutilisation de patrons qui réalisent l'imitation de patrons. Nous avons réalisé le prototype PATPRO-MOD permettant de créer et gérer des catalogues de patrons de procédé et d'élaborer des modèles de procédé UML-PP en réutilisant semi-automatiquement des patrons prédéfinis

    Traduction automatique statistique et adaptation à un domaine spécialisé

    Get PDF
    Nous avons observé depuis plusieurs années l émergence des approches statistiques pour la traduction automatique. Cependant, l efficacité des modèles construits est soumise aux variabilités inhérentes au langage naturel. Des études ont montré la présence de vocabulaires spécifique et général composant les corpus de textes de domaines spécialisés. Cette particularité peut être prise en charge par des ressources terminologiques comme les lexiques bilingues.Toutefois, nous pensons que si le vocabulaire est différent entre des textes spécialisés ou génériques, le contenu sémantique et la structure syntaxique peuvent aussi varier. Dans nos travaux,nous considérons la tâche d adaptation aux domaines spécialisés pour la traduction automatique statistique selon deux axes majeurs : l acquisition de lexiques bilingues et l édition a posteriori de traductions issues de systèmes automatiques. Nous évaluons l efficacité des approches proposées dans un contexte spécialisé : le domaine médical. Nos résultats sont comparés aux travaux précédents concernant cette tâche. De manière générale, la qualité des traductions issues de systèmes automatiques pour le domaine médical est améliorée par nos propositions. Des évaluations en oracle tendent à montrer qu il existe une marge de progression importanteThese last years have seen the development of statistical approaches for machine translation. Nevertheless, the intrinsic variations of the natural language act upon the quality of statistical models. Studies have shown that in-domain corpora containwords that can occur in out-of-domain corpora (common words), but also contain domain specific words. This particularity can be handled by terminological resources like bilingual lexicons. However, if the vocabulary differs between out and in-domain data, the syntactic and semantic content may also vary. In our work, we consider the task of domain adaptation for statistical machine translation through two majoraxes : bilingual lexicon acquisition and post-edition of machine translation outputs.We evaluate our approaches on the medical domain. The quality of automatic translations in the medical domain are improved and the results are compared to other works in this field. Oracle evaluations tend to show that further gains are still possibleAVIGNON-Bib. numérique (840079901) / SudocSudocFranceF

    Intégration d'un système de Retour d'Expériences à un PLM

    Get PDF
    Les travaux présentés dans cette thèse s’inscrivent dans une problématique d’amélioration continue appliquée aux produits et aux processus industriels, par la mise en place d’un système de Retour d’Expérience (REx) couplé au système PLM (Product Lifecycle Management) de gestion du cycle de vie du produit. Les développements, menés dans le cadre d’un partenarial industriel, ciblent l’établissement d’une solution de valorisation du patrimoine immatériel de l’entreprise, constitué des expériences et des connaissances détenues par les experts métier. L’objectif visé est d’assurer la pérennisation de cette expertise, la prévention et la limitation des erreurs et l’application de bonnes pratiques dans une démarche générale d’amélioration des produits et des processus. La solution est portée par la mise en place d’un système REx appliqué aux connaissances tacites et explicites impliquées dans les activités techniques de l'entreprise et visant à capitaliser au fur et à mesure les informations métier, porteuses de sens. L’intégration du REx au système PLM permet de lever une part des difficultés d’appropriation par les experts métier, utilisateurs du système REx. L’ancrage de ce REx aux méthodes de résolution de problèmes (PSM, Problem Solving Methods) induit une instrumentation tout à fait performante pour l’acquisition des connaissances tacites issues d’événements négatifs. L’extension aux processus d’évolution des Normes Techniques qui formalisent les règles métier de l’entreprise permet leur évolution vers des connaissances explicites. Le caractère non intrusif du système REx dans son utilisation est assuré par un couplage étroit au processus de Gestion des Modifications du PLM, la capitalisation des informations étant naturellement induite par la démarche mise en œuvre dans ce processus. Au final, le système REx proposé et instrumenté dans l’outil PLM permet, en différentes étapes, de capitaliser, de traiter puis d’exploiter dans des formes performantes le patrimoine immatériel mis en exergue au cours des expériences de résolution de problèmes produit ou processus. ABSTRACT : The work presented in this thesis considers continuous improvement issues which are applied to industrial products and processes through the implementation of a Lesson Learned System (LLS) coupled with the Company's Product Lifecycle Management (PLM) system. As an industrial partnership, these developments aim to increase the value of the intangible assets of the business including the business agent’s experiences and knowledge. In order to ensure the sustainability of expertise, to prevent errors and to encourage the application of good practices, all within a general approach of product improvement. The solution relies on the implementation of the LLS process which is applied to tacit and explicit knowledge related to the technical activities of the company. The integration of the LLS and PLM Systems removes some of the difficulties of ownership of business agents. The implementation of LLS and Problem Solving Methods (PSM) infers an efficient instrumentation for the acquisition of tacit knowledge. The extension of the evolution processes of technical documents that formalise the techincal business rules allows its evolution towards explicit knowledge. Using non-intrusive LLS is provided by close coupling with the process of Change Management (CM) where information capitalisation is naturally led by the approach implemented in this processes. Finally, the proposed and instrumented LLS in the PLM tool allows to efficiently capitalise, process, and exploit the intangible capital of the company (information and knowledge) highlighted during the modification experiments of product data

    Décision collaborative dans les systèmes distribués : application à la e-maintenance

    Get PDF
    Depuis leur apparition, les Technologies d'Information et de Communication (TIC) ont intégré et fait évoluer les modes de travail des entreprises, avec les notions de e-service, de travail collaboratif, d'organisations distribuées et de mutualisation des connaissances. Nous considérons cette intégration des TIC à la fonction maintenance, activité clé de la performance des entreprises, largement pénétrée par ces technologies avec, par exemple, les concepts de e-maintenance. Nos objectifs sont d'analyser les processus décisionnels collaboratifs et l'influence des TIC sur ceux-ci et de proposer les moyens d'évaluer les performances d'un service de maintenance supporté par les TIC. La modélisation du problème revêt un aspect multidomaine, multivue et multiacteur et l'évaluation des performances est multicritère. Nous proposons, tout d'abord, une modélisation des situations de e-maintenance en nous appuyant sur la représentation des processus et en utilisant le formalisme objet, afin de mettre en évidence les composants clés des activités de e-maintenance et l'influence des TIC. Ensuite, nous étudions les activités de décision collaborative en analysant la logique de regroupement de centres de décision, supports des décisions et nous caractérisons les ressources immatérielles engagées. Enfin, nous proposons un cadre d'évaluation des performances des activités de e-maintenance et des modèles de représentation permettant de simuler des configurations d'engagement de ces ressources et de guider les choix d'organisation afférents

    Contribution à l’amélioration du processus de conception des produits innovants : Développement d’outils d’aide au choix des processus

    Get PDF
    The optimization of the design process is a research evolving highlighted in numerous references and business practices with the aim improving and developing new products. Our approach is a continuation of those activities that takes as its starting point the diversity of existing design processes and the difficulty of achieving a selection where adaptation. Hence our problem is summarized around a central question which we formulate as follows: how to optimize the choice of the design process subject to a constrained environment? The answer to this question is through the proposition of a tool Help in choosing which converges to the installation of a design process. This tool is three-dimensional, where the first dimension relates to the preparation of the upstream design phase, the second dimension selects a design process on a map classification and the objective of the third dimension is the identification of trades tools and methods for product development. The experimental part of our work has led us to validate the developed tool and propose how to use by designers. Optimization is achieved in our work by the proposal of a three-dimensional tool side and the other by the use of optimization algorithms for modeling tool. New avenues of research for improvement are identified and proposed for future work.L'optimisation des processus de conception est une activité de recherche en pleine évolution, soulignée dans de nombreuses références et pratiques des entreprises dans l'objectif l'amélioration et le développement de produits nouveaux. Notre démarche s'inscrit dans la continuité de ces activités qui prend comme point de départ la diversité des processus de conception existants et la difficulté de réaliser un choix où une adaptation. D'ou notre problématique est résumée autour d'une question centrale que nous formulons de la manière suivante : comment optimiser le choix d'un processus de conception soumis à un environnement contraint ? La réponse à cette question est à travers la proposition d'un outil d'aide au choix qui converge vers l'installation d'un processus de conception. Cet outil est tridimensionnel, où la première dimension vise la préparation de la phase amont de conception, la deuxième dimension sélectionne un processus de conception sur une carte de classement et l'objectif de la troisième dimension est l'identification des métiers, outils et méthodes pour le développement des produits. La partie expérimentale de notre travail nous a conduit à valider l'outil développer et proposer comment l'exploiter par des concepteurs. L'optimisation est réalisée dans notre travail par la proposition de l'outil tridimensionnel d'un coté et de l'autre par l'exploitation des algorithmes d'optimisation pour la modélisation de l'outil. Des nouvelles pistes de recherche pour l'amélioration sont identifiées et proposées pour des futurs travaux

    Un modèle d'environnement pour la simulation multiniveau - Application à la simulation de foules

    Get PDF
    Cette thèse propose un modèle organisationnel et holonique de l'environnement pour la simulation des déplacements de piétons dans des bâtiments. Une foule de piétons peut être considérée comme un système composé d'un grand nombre d'entités en interaction, dont la dynamique globale ne peut se réduire à la somme des comportements de ses composants. La simulation multiniveau fondée sur les modèles multiagents holoniques constitue une approche permettant d'analyser la dynamique de tels systèmes. Elle autorise leur analyse en considérant plusieurs niveaux d'observation (microscopique, mésoscopique et macroscopique) et prend en compte les ressources de calcul disponibles. Dans ces systèmes, l'environnement est considéré comme l'une des parties essentielles. La dynamique des piétons composant la foule est alors clairement distinguée de celle de l'environnement dans lequel ils se déplacent. Un modèle organisationnel décrivant la structure et la dynamique de l'environnement est proposé. L'environnement est structurellement décomposé en zones, sous-zones, etc. Les organisations et les rôles de cet environnement sont projetés dans une société d'agents ayant en charge de simuler la dynamique de l'environnement et les différentes missions qui lui sont classiquement assignées dans les systèmes multiagents. Ce modèle précise également les règles de passage entre deux niveaux d'observation. Ainsi, chaque agent appartenant au modèle de l'environnement tente d'utiliser une approximation des comportements de ses sous-zones afin de limiter la consommation de ressources durant la simulation. La qualité de l'approximation entre ces deux niveaux d'observation est évaluée avec des indicateurs énergétiques. Ils permettent de déterminer si l'agent approxime correctement les comportements des agents associés aux sous-zones. En sus du modèle organisationnel et holonique proposé, nous présentons un modèle concret de la simulation de voyageurs dans un terminal d'aéroport. Ce modèle concret est implanté sur les plateformes JaSIM et Janus.This work presents a holonic organizational model of the environment for the simulation of pedestrians in buildings. A crowd of pedestrians is considered as a system composed of a large number of interacting entities. The global dynamics of this system cannot be reduced to the sum of the behaviors of its components, Multilevel simulation based on holonic multiagent models is one approach to analyze the dynamics of such systems. It allows their analysis by considering several levels of observation (microscopic, mesoscopic and macroscopic) and the available computing resources. In these systems, the environment is considered as an essential part. The behavior of the crowd is clearly distinguished from the behavior of the environment in which the pedestrians move. An organizational model is proposed to describe the structure and the dynamics of the indoor environment. This environment is structurally divided into areas, sub-areas, etc. Organizations and roles are mapped into a society of agents in charge of simulating the dynamics of the environment and their various missions in multiagent systems. This model also specifies the rules for changing the level of observation dynamically. Thus, each agent belonging to the model of the environment tries to use an approximation of behaviors of its sub-zones, and at the same time to minimize the resource consumption. The quality of the approximation between these two levels is evaluated with energy-based indicators. They help to determine if the agent approximates the behaviors of its sub-agents correctly. In addition to the organizational and holonic model proposed in this work, we present a concrete model of the simulation of passengers in an airport terminal. This concrete model is implemented on the platforms JaSIM and Janus.BELFORT-UTBM-SEVENANS (900942101) / SudocSudocFranceF

    Analyse des mouvements 3D en temps réel pour un dispositif médical destiné au maintien de l'indépendance fonctionnelle des personnes âgées à domicile

    Get PDF
    We propose in this manuscript a realtime3D movement analysis system for inhomefunctionalabilities assessment in aged adults. As a first step, the purpose is to maintain the functionalindependence of this population and to allow an earlier detection of a motor decompensation inorder to facilitate a rehabilitation process. To quantify the equilibrium quality of a subject, webuilt a system using the Kinect sensor in order to analyze a simple clinical test validated in geriatricrehabilitation: the Timed Up and Go (TUG). Three experiments conducted in heterogeneousenvironments (laboratory, day hospital and home) showed good measurement reliability of theidentified parameters. In particular, they allow to assign a motor control note indicating themotor frailty. Then, we proposed a video processing chain to increase the robustness of theanalysis of the various TUG phases: automatic detection of the sitting posture, patientsegmentation and three body joints extraction. The results of this work allow us to considerseveral perspectives. First, we believe conduct experiments on a larger population in order toconfirm the system reliability. Then, various technical and ergonomic improvements would benecessary to facilitate general public use. Finally, it would be interesting to extend the proposedmethodology for other clinical test to prolong the autonomy at home.Dans ce manuscrit, nous proposons un système d'analyse automatique des mouvements 3D entemps réel permettant l'évaluation des capacités fonctionnelles chez les personnes âgées àdomicile. Dans un premier temps, l'objectif est de contribuer à maintenir l'indépendancefonctionnelle de cette population et permettre une détection précoce d'une décompensationmotrice pour faciliter une démarche de rééducation. Pour quantifier la qualité d'équilibre d'unsujet en temps réel, nous avons conçu un système en utilisant le capteur Kinect et permettantd'analyser un test clinique simple et validé en rééducation gériatrique: le Timed Up and Go (TUG).Trois expériences, réalisées dans des environnements hétérogènes (laboratoire, hôpital de jouret domicile) ont montré une bonne fiabilité de la mesure des paramètres identifiés. Ellespermettent notamment d'attribuer une note de contrôle moteur indiquant la fragilité motrice.Dans un second temps, nous avons proposé une chaîne de traitement vidéo permettantd'augmenter la robustesse d'analyse de différentes phases du TUG : détection automatique de laposition assise, segmentation du patient et extraction de 3 articulations du corps. Les résultats deces travaux nous permettent d'envisager plusieurs perspectives. Tout d'abord, nous pensonseffectuer des expérimentations sur une population plus large afin de confirmer la fiabilité dusystème. Puis, différentes améliorations techniques et ergonomiques seraient nécessaires pourfaciliter l'utilisation grand public. Enfin, il serait intéressant d'étendre la méthodologie proposéepour d'autres tests cliniques en vue de prolonger l'autonomie à domicile
    corecore